Zum Inhalt springen

Benutzer:Paul Sutermeister/KI

Aus Wikiversity

Künstliche Intelligenz wirft eine Reihe dringender ethischer Fragen auf:

  • Urheberrecht und geistiges Eigentum: KI greift auf von Menschen geschaffene Inhalte zurück. Es stellt sich die Frage, ob damit das geistige Eigentum der Urheber ohne gerechte Entlohnung genutzt wird.
  • Umweltbelastung und Energieverbrauch: Der enorme Energiebedarf von KI-Rechenzentren verschärft die Umweltkrise. Effiziente und nachhaltige Lösungen sind hier dringend notwendig.
  • Unsichtbare menschliche Arbeit: Während KI oft als "automatisch" gilt, steckt häufig schlecht entlohnte menschliche Arbeit dahinter, die besonders im globalen Süden unter prekären Bedingungen geleistet wird.
  • Digitale Kluft und globale Ungleichheit: KI verstärkt die bestehende digitale Spaltung, indem Länder des globalen Südens gegenüber den technologisch führenden Nationen im Nachteil bleiben. Die Entwicklung und Nutzung von KI verschärft somit globale Machtasymmetrien.
  • Diskriminierung und Bias: KI kann durch fehlerhafte oder voreingenommene Daten diskriminierende Entscheidungen treffen. Dies betrifft soziale, wirtschaftliche und rechtliche Bereiche und trägt zu bestehenden Ungleichheiten bei.
  • Autonome Waffensysteme: Der Einsatz von KI in der Waffentechnologie stellt die größte ethische Gefahr dar, da autonome Waffensysteme potenziell unkontrollierbare Entscheidungen über Leben und Tod treffen. Der Einsatz solcher Technologie ohne umfassende Kontrolle bedroht die Grundprinzipien der Menschlichkeit und das Recht auf Leben.

Diese Punkte verdeutlichen die Notwendigkeit eines ethischen Rahmens, der soziale Gerechtigkeit, Umweltschutz und Menschenrechte in den Mittelpunkt stellt.

Künstler und Fotografen stellen fest, dass KI-generierte Bilder auf ihren Werken basieren, ohne dass sie dafür eine Entlohnung oder Anerkennung erhalten. Plattformen wie DALL-E oder Stable Diffusion generieren Werke auf Basis riesiger Bilddatensätze, die ohne ausdrückliche Genehmigung der Urheber genutzt wurden.

Im Jahr 2023 haben mehrere Künstler wie Karla Ortiz und der Künstlerverband "Concept Art Association" eine Klage gegen KI-Firmen wie Stability AI, Midjourney und DeviantArt eingereicht. Der Grund: Diese Unternehmen nutzten Kunstwerke aus dem Internet, um ihre KI-Modelle zu trainieren, ohne die Zustimmung der Künstler einzuholen. Die Künstler argumentieren, dass die KI-Modelle auf Basis ihrer Werke ohne Lizenz oder Entlohnung Kunst schaffen, was einen Verstoß gegen das Urheberrecht darstellt.
Getty Images verklagte Stable Diffusion im Januar 2023, weil das KI-Modell Millionen von Bildern ohne Genehmigung von Getty verwendet hatte. Stable Diffusion trainierte seine Algorithmen mit Wasserzeichen von Getty, was das Problem des unautorisierten Kopierens und der geistigen Eigentumsrechte noch verschärfte.

Der Einsatz von KI-Chatbots, die auf Texten basieren, die aus dem Internet gesammelt wurden, wirft Fragen zum geistigen Eigentum auf. Journalisten und Autoren haben keine Kontrolle darüber, dass KI-Systeme auf ihre Arbeit zugreifen.

OpenAI und Google betreiben riesige Rechenzentren, die den Betrieb großer KI-Modelle wie GPT oder BERT ermöglichen. Diese Zentren verbrauchen so viel Energie wie kleine Städte und verursachen hohe CO₂-Emissionen.

Jedes Training eines großen Sprachmodells kann mehrere Tonnen CO₂ emittieren. Eine Untersuchung zeigte, dass die Energie für das Training eines großen Modells wie GPT-3 dem CO₂-Fußabdruck von fünf Autos während ihrer gesamten Nutzungsdauer entspricht.

OpenAI trainierte GPT-3, ein großes Sprachmodell, in einem Rechenzentrum, das nach Schätzungen der Universität Massachusetts Amherst etwa 1.287 Megawattstunden verbrauchte und über 550 Tonnen CO₂ ausstieß. Dies entspricht der jährlichen CO₂-Bilanz von etwa 60 durchschnittlichen Amerikanern. Ein weiteres Beispiel ist Googles KI-Modell BERT, das für das Training rund 1.500 Megawattstunden verbrauchte, also den Strombedarf einer kleinen Stadt wie Straubing in Bayern für einen Monat.
Microsoft hat für das Training von OpenAI-Algorithmen ein eigens dafür entwickeltes Rechenzentrum in Iowa aufgebaut. Die Anlage, die 2023 fertiggestellt wurde, ist eine der größten in Nordamerika und benötigt immense Mengen an Wasser zur Kühlung, was im Hinblick auf die Klimakrise und Wasserknappheit in der Region umstritten ist.

Unsichtbare menschliche Arbeit

[Bearbeiten]

Viele Unternehmen nutzen Plattformen wie Amazon Mechanical Turk, wo Arbeiter für niedrige Löhne KI-Modelle durch Datenkennzeichnung und -bewertung unterstützen. Diese Arbeiter, oft in Ländern mit geringem Einkommen, arbeiten in stressigen Bedingungen und ohne Sozialleistungen.

Auf der Plattform Amazon Mechanical Turk verdienen Clickworker oft weniger als 2 US-Dollar pro Stunde, indem sie Aufgaben wie das Kennzeichnen von Bildern oder das Bewerten von Inhalten für KI-Modelle erledigen. Diese Arbeit wird hauptsächlich in Indien und den Philippinen verrichtet. Eine Studie der Universität Oxford 2021 ergab, dass 94 % der Clickworker außerhalb der USA arbeiten und keinen Arbeitsrechtsschutz genießen.
In Nairobi, Kenia, arbeiten Content-Moderatoren, die für Facebook und TikTok tätig sind, unter extrem belastenden Bedingungen. Im Jahr 2022 berichteten mehrere Content-Moderatoren über traumatische Erlebnisse durch die Überprüfung von gewalttätigen oder verstörenden Inhalten. Sie verdienen monatlich etwa 200 bis 400 US-Dollar und haben kaum Zugang zu psychologischer Unterstützung.

Content-Moderatoren in Ländern wie den Philippinen müssen Tausende von Bildern und Texten überprüfen, um sicherzustellen, dass die KI-Modelle keine schädlichen Inhalte lernen. Diese oft traumatisierende Arbeit bleibt meist unsichtbar und schlecht entlohnt.

Digitale Kluft und globale Ungleichheit

[Bearbeiten]

Während Unternehmen in Nordamerika und Europa fortschrittliche KI-Anwendungen entwickeln und einsetzen können, fehlen im globalen Süden oft die notwendigen Infrastrukturen und Investitionen. Die Konzentration von KI-Wissen und -Ressourcen führt zu einem technologischen Ungleichgewicht.

Länder wie Äthiopien und Nigeria haben einen begrenzten Zugang zu KI-Infrastruktur und kaum Ressourcen für die Entwicklung eigener KI-Projekte. Ein Vergleich mit dem Silicon Valley zeigt eine massive Kluft: Während in Kalifornien über 50 Milliarden Dollar in KI-Technologien investiert wurden, liegen die jährlichen Investitionen in die KI-Infrastruktur auf dem gesamten afrikanischen Kontinent bei weniger als 100 Millionen Dollar.
Ein Forschungsprojekt der Harvard Kennedy School zeigte 2022, dass KI-gestützte Landwirtschaft in den USA und China den Ertrag um bis zu 30 % steigerte. In afrikanischen Ländern fehlen oft nicht nur die Daten für solche Technologien, sondern auch die notwendige Internetverbindung und Rechenleistung, um vergleichbare Anwendungen zu implementieren.

KI-gestützte Landwirtschaftsprojekte in Europa und den USA profitieren von enormen Datensätzen und moderner Ausrüstung. Länder im globalen Süden haben keinen Zugang zu diesen Technologien und sind auf veraltete Methoden angewiesen.

Diskriminierung und Bias

[Bearbeiten]

In den USA wurden KI-gestützte Bewerbungstools von Amazon eingestellt, nachdem sie Frauen systematisch benachteiligt hatten. Das Modell basierte auf bisherigen Bewerbungen, die mehrheitlich von Männern stammten, und reproduzierte dadurch geschlechtsspezifische Vorurteile.

Amazons automatisches Bewerbungssystem, das von 2014 bis 2017 im Einsatz war, wurde eingestellt, nachdem sich herausstellte, dass es Bewerbungen von Frauen benachteiligte. Das System basierte auf historischen Bewerbungsdaten, die überwiegend von Männern stammten, und diskriminierte somit weibliche Bewerber systematisch.

Gesichtserkennungstechnologie hat nachweislich eine höhere Fehlerquote bei Menschen mit dunkler Hautfarbe, was zu falschen Verdächtigungen und ungerechten Konsequenzen führen kann. Städte wie San Francisco haben daher den Einsatz dieser Technologie durch die Polizei verboten.

Die Gesichtserkennungssoftware von IBM und Microsoft zeigte in Studien der MIT Media Lab (2018) signifikant höhere Fehlerquoten bei der Erkennung von dunklen Hauttönen. Bei Frauen mit dunkler Haut lag die Fehlerquote bei über 35 %, während sie bei Männern mit heller Haut unter 1 % lag. Diese Software wurde daraufhin von mehreren städtischen Polizeibehörden in den USA aus dem Verkehr gezogen.

Autonome Waffensysteme

[Bearbeiten]
Kamikaze-Drohne

Die US-Armee und andere Streitkräfte experimentieren mit KI-gesteuerten Drohnen, die eigenständig Ziele erfassen und verfolgen können. In Konfliktgebieten wie dem Nahen Osten wurden bereits Drohnen eingesetzt, die auf Grundlage von Algorithmen Entscheidungen treffen.

Der Einsatz von autonomen Kampfrobotern und Gesichtserkennung zur Zielidentifikation könnte zu "fehlerhaften Tötungen" führen, bei denen unschuldige Zivilisten betroffen sind. Auch die Möglichkeit, dass solche Systeme außer Kontrolle geraten oder von Unbefugten gehackt werden, stellt eine enorme Gefahr dar.

2021 wurde im Bürgerkrieg in Libyen der autonome Kampfdrohnen-Prototyp KARGU-2 des türkischen Herstellers STM eingesetzt, der angeblich ohne menschliche Steuerung Ziele angreifen kann. Ein UN-Bericht warnte, dass diese Drohnen Angriffe unabhängig von einem menschlichen Operator ausgeführt haben könnten, was eine ernsthafte ethische und militärische Bedrohung darstellt.
Die USA und China forschen an KI-gestützten Raketenabwehrsystemen, die eigenständig Entscheidungen treffen. Im Pentagon hat das sogenannte Project Maven die Entwicklung von KI zur Analyse und Identifikation von Drohnenzielen vorangetrieben, was erhebliche Bedenken hinsichtlich der Gefahr von Fehlentscheidungen oder missbräuchlicher Verwendung hervorgerufen hat.

Diese Beispiele verdeutlichen die Herausforderungen und Risiken der KI-Technologie in unserer Gesellschaft und zeigen die dringende Notwendigkeit, ethische und gesetzliche Rahmenbedingungen für die Entwicklung und Nutzung von KI festzulegen.

Technisches

[Bearbeiten]
File:SRF Wissen - Wie funktioniert ChatGPT-3.0?
Wie unterstützen KI-Tools bei der Ideenfindung?

Künstliche Intelligenz (KI) basiert auf künstlichen neuronalen Netzen. Solche Netze können durch Quick, Draw! veranschaulicht werden.

Themen

[Bearbeiten]
Du erstellst eine Präsentation, die jemand anderes halten wird.
3 Phasen: 1) PowerPoint-Erstellung 2) Vorbereitung mit zufällig zugeteilter Präsentation 3) Präsentation im Plenum
→ Bewertungskriterien für Präsentationen
  • Welches ist die beste künstliche Intelligenz und warum?
  • Welches ist die nützlichste KI und warum?
  • Ist ELIZA die erste künstliche Intelligenz? Wenn ja: Warum?
  • Welche KI-Autos sind intelligenter: Die von Google oder die von Tesla? Warum?
  • Ist künstliche Intelligenz, global gesehen, für die Menschen gut oder eher schlecht? Warum?
  • Welches ist der spannendste humanoide Roboter und warum?
  • Was ist das verrückteste, das man mit Smartphones machen kann, und warum?
DeppGPT, Copilot, Alexa, Siri, Suno AI, AI Video generator, Sora, Deepfakes…

Betitle die Absätze mit: Anwendungsbereiche sind vielfältig, Ethik und Regulierung sind wichtig, Keine echte Intelligenz, KI ist nicht magisch, Lernen durch Daten, Vorteile und Risiken.

Jeder sollte einige grundlegende Dinge über Künstliche Intelligenz (KI) wissen:

KI ist ein System, das darauf basiert, Daten zu analysieren und Muster zu erkennen. Sie kann lernen, bestimmte Aufgaben auszuführen, aber sie hat kein Bewusstsein oder Verständnis wie ein Mensch.

KI wird in vielen Bereichen eingesetzt, z.B. bei Sprachassistenten (wie Siri), Bild- und Spracherkennung, selbstfahrenden Autos, medizinischer Diagnose, und personalisierter Werbung.

KI-Systeme benötigen große Datenmengen, um zu lernen und genau zu sein. Je mehr und bessere Daten sie haben, desto leistungsfähiger werden sie. Gleichzeitig stellen sich hier ethische Fragen hinsichtlich Datensicherheit und -schutz.

Auch wenn KI "intelligent" genannt wird, kann sie nur die Aufgaben lösen, für die sie programmiert oder trainiert wurde. Sie hat kein Bewusstsein, keine Gefühle und keine Absicht.

KI kann viele Aufgaben automatisieren, schneller und präziser arbeiten als Menschen. Allerdings gibt es auch Risiken, wie den Verlust von Arbeitsplätzen, Vorurteile in Algorithmen (Bias) oder die Nutzung zu böswilligen Zwecken.

KI kann erhebliche Auswirkungen auf Gesellschaft, Wirtschaft und den Alltag haben. Daher ist es wichtig, dass der Einsatz ethisch reflektiert und rechtlich reguliert wird, um faire und transparente Anwendungen zu gewährleisten.