Benutzer:Falko Wilms/Guidelines for Gadgets
Meine Ausgangspunkte
Zum akademischen Arbeiten gehört auch das Umgehen mit technischen Geräten (Gadgets), die künstliche Intelligenz (AI) nutzen oder integrieren und in personalisierten Interaktionen bestimmte Aufgaben ausführen. Dazu gehört das Prüfen, wie und in welchem Rahmen ein Gadget verwendbar ist. Hier eine Liste von AI-Gadges im Kontext von akademischen Lese- und Schreibprozessen, die allerdings keinerlei Aussagen über die Qualität der jeweiligen Tools enthält. In diesem Zusammenhang ist die von der EU herausgegebene Publikation Guideline im Umgang mit Künstlicher Intelligenz von Bedeutung.
Daran anknüpfend orientiere ich mich in meinen akademischen Lehrangeboten daran, dass heutige KI-Anwendungen durch ihr Potenzial und der Simplizität ihrer Nutzung bestechen. Sie haben aber eine sehr große Schwäche: Sie können falsche oder nicht aktuelle Informationen generieren bzw. haluzinieren. Sich ungeprüft auf eine generative KI-Anwendung zu verlassen steht somit dem kritischen Denken, dem wissenschaftlichen Arbeiten und dem Auswerten von Resultaten entgegen. Genau diese Kompetenzen sind jedoch essenziell für den Erfolg in Lern- und Arbeitsprozessen.
Meine Leitlinien für den Umgang mit Gadges in der Lehre
Anknüpfend an die Publikation der EU orientiere ich mich in meinen akademischen Lehrangeboten an folgenden Leitlinien:
- Eingaben sind entscheidend. Die Qualität eingegebenen Fragen/Aufgaben/Aufforderungen hängen unmittelbar zusammen mit der Qualität und der Genauigkeit der von einem Gadget generierten Ergebnisse. Benötigt wird also eine Fragekompetenz.
- Datenschutz im Blick haben. Generative KI wirft viele Datenschutzfragen auf. Auf die Eingabe personenbezogener Daten ist unbedingt zu verzichten und es bleibt zu beachten, dass auf generierten Texten urheberechtliche Ansprüche bestehen. Wer einen solchen Text ohne korrekte Referenzen veröffentlicht oder vervielfältigt, begeht eine Urheberrechtsverletzung.
- Gadgets haben keinerlei Verantwortung. Rechtlich gesehen hat ein Gadget keine Verantwortung für die von ihm generierten Ergebnisse! Jedes generierte Ergebnis ist zu prüfen und ggf. zu überarbeiten, denn für Schwächen, Fehler und Urheberrechtsverletzungen bleibt grundsätzlich immer der Mensch verantwortlich.
- Gadgets haben Schwächen bei höheren Taxonomiestufen. Akademische Aufgaben lassen sich unterteilen nach dem Schwierigkeitsgrad – Wissen, Verstehen, Anwenden, Analysieren, Synthetisieren, Bewerten). Bisher zeigen AI-Gadgets wie ChatGPT bei höheren Schwierigkeitsgraden wie dem inhaltlich abwägenden Bewerten „schwafelnde“ oder gar „falsche“ Ergebnisse.
- Gadgets sind nur einigen Schreibzwecken zugänglich. Schreibprozesse, die an individuelle (biographisch geprägte) Gedanken, Erinnerungen, Erfahrungen und Empfindung anknüpfen wie z. B. Selbstreflexionen oder das Beobachten eigener Gedanken(änge), sind AI-Gadgest grundsätzlich unzugänglich.
- Dialog im Sinne eines Sokratischen Gesprächs. Im schriftlichen Dialog mit einem Chatbot können neuartige Fragen und Anregungen selbstständig durchdacht werden, was zu einem verteifenden Verständnis führen kann.
- Gadgets und ihr Gebrauch sind transparent zu machens Habe ich als Lehrperson für eine Prüfungsleistung den Einsatz von KI-basierten Anwendungen als zulässig festgelegt, sind sinnvoller Weise der Namen der Anwendung und die Art ihrer Bennutzung anzugeben. Eine mögliche Formulierung lautet
- Ich habe generative KI-Tools (z.B. ChatGPT) folgendermaßen für meine Arbeit verwendet:
- Ich habe eine themenorientierte Grundgliederung generieren lassen, die ich fachinhaltlich geprüft und in meiner Arbeit entsprechend den mir gesetzten Schwerpunkten angepasst und weiterentwickelt habe
- Dafür verwendeter Prompt: Erstelle einen Struktur-Leitfaden für eine Arbeit zum Thema „xxx“
- Ich habe anfänglich ein Ideen-Brainstorming generieren lassen, dessen resultate ich geprüft, korrigiert und weiterentwickelt habe.
- Dafür verwendeter Prompt: Finde grundlegende Ideen zur Bearbeitung des Themas „xxx“
- Referenz: z.B. Open AI, ChatGPT, 12. Juni 2023
- Ich habe generative KI-Tools (z.B. ChatGPT) folgendermaßen für meine Arbeit verwendet:
Es gibt bislang keine allgemeinen Richtlinien darüber, wie mit AI-Gadgets generierte Inhalte anzugeben sind. Die folgende Angabe ist als Mindestangabe hilfreich: Hersteller, Name des AI-Gadgets (Datum), Texteingabe, Textausgabe. Sollte z. B. Chat GPT verwendet worden sein, ergäbe sich: OpenAI’s ChatGPT Sprachmodell (XX.XX.20XX): Ergebnis der Texteingabe „XXX“.
- Den Einsatz von KI-Anwendungen im Rahmen der Erstellung einer Arbeit nicht offenzulegen ist ein eindeutiger Verstoß gegen die Grundlagen wissenschaftlichen Arbeitens. Ihr Einsatz Rahmen einer Seminar- oder Abschlussarbeit ist daher
- grundsätzlich vorab mit mir als Betreuer schriftlich zu vereinbaren
- in der eidesstattlichen Erklärung der agegebenen Arbeit explizit offenzulegen, eine mögliche Formulierung lautet:
- Hiermit erkläre ich an Eides statt, dass ich die vorliegende ...arbeit selbstständig und ohne Benutzung anderer als der angegebenen Hilfsmittel angefertigt habe. Die aus fremden Quellen direkt oder indirekt übernommenen Stellen sind als solche kenntlich gemacht.
- Den Einsatz von KI-Anwendungen im Rahmen der Erstellung einer Arbeit nicht offenzulegen ist ein eindeutiger Verstoß gegen die Grundlagen wissenschaftlichen Arbeitens. Ihr Einsatz Rahmen einer Seminar- oder Abschlussarbeit ist daher
- Jede Verwendung von KI-Tools (z. B. ChatGPT oder Deepl Write) habe ich gekennzeichnet. Benutzte KI-Tools diente mir in keinem Falle dazu, den Fachinhalt dieser ...arbeit zu generieren. Alle Resultate von benutzten KI-Tools habe ich sorgfältig auf ihre fachliche Korrektheit und auf Übereinstimmung mit meinen Gedanken überprüft. Die Verwendung von KI-Tools bedeutet in keinem Fall, dass ich die Verantwortung für den Inhalt dieser ...arbeit auf die KI-Tools übertrage!
- Der Text dieser ...arbeit wurde bisher weder in gleicher noch in ähnlicher Form einer anderen Prüfungsbehörde vorgelegt und auch noch nicht veröffentlicht.
- Der Text dieser ...arbeit wurde bisher weder in gleicher noch in ähnlicher Form einer anderen Prüfungsbehörde vorgelegt und auch noch nicht veröffentlicht.
Alle Regeln haben Anwendungsgrenzen. Wenn in Lernprozessen/Prüfungen bestimmte AI-Gadgets nicht erlaubt sind, wird das ausdrücklich mitgeteilt und begründet.
Es beibt zu beachten, dass bislang keine rechtsverbindlichen Mechanismen geschaffen worden sind, um die Verantwortung und Rechenschaftspflicht für KI-Systeme und deren Ergebnisse zu gewährleisten. Bei dieser zu erarbeitenten Gewährleistungspflicht geht es insbesondere um die Auditierbarkeit, die die Bewertung von Algorithmen, Daten und Designprozesse ermöglicht. Darüber hinaus sollte auch eine angemessene und zugängliche Rechtsbehelfe gewährleistet werden. .