Zum Inhalt springen

Kurs:Ethik und Digitalisierung/Gleichartigkeit und Diversität

Aus Wikiversity

Einleitung

[Bearbeiten]

Der Lerneinheit gliedert sich in die folgenden Teile

  • Überrepräsentation dominanter Stimmen
  • Homogenisierung von Antworten
  • Verstärkung von Stereotypen
  • Unterrepräsentation von Minderheiten
  • Fehlen von alternativen Perspektiven
  • Verlust von kultureller Vielfalt
  • Diversifizierung von Trainingsdaten
  • Inklusion von Minderheitenstimmen
  • Entwicklung von alternativen Modellen
  • Transparenz und Kontrolle

Zielsetzung der Lerneinheit

[Bearbeiten]

Die Aspekte der Gleichartigkeit und Diversität im Zusammenhang mit dem Einsatz von KI und Maschinellem Lernen werden in dieser Lerneinheit betrachtet. Statistische und numerische Methoden als Grundlage der Musterekennung durch ein Anwortverhalten werden für die Erzeungung von Large Language Models (LLMs) auf der Basis von großen Datenmengen verwendet. Bei dem Einsatz dieser Verfahren ist von entscheidender Bedeutung, wiederkehrende Mustern in diesen Daten zu erkennen und möglichst wahrscheinliche Vorhersagen für eine von Nutzerinnen und Nutzern erwartete Inhalten treffen zu können. Welche Auswirklungen diese auf die Diversität und Homogenität von Wissen hat, ist Gegenstand der Lerneinheit, um ggf. dadurch besser die Auswirkungen und Grenzen dieser Technologien bewerten zu können bzw. ggf. Veränderungen beim Einsatz von Technologien ableiten zu können.

Gleichartigkeit

[Bearbeiten]

Gleichartigkeit kann durch unterschiedliche Aspekte bewusst oder unbewusst erzeugt werden.

G1 - Überrepräsentation dominanter Stimmen

[Bearbeiten]

Wenn LLMs auf großen Datenmengen trainiert werden, die von dominanten Stimmen und Perspektiven geprägt sind, kann dies zu einer Überrepräsentation dieser Stimmen führen. Dies kann dazu führen, dass alternative Perspektiven und Minderheitenstimmen unterrepräsentiert oder sogar ignoriert werden.

G2 - Homogenisierung von Antworten

[Bearbeiten]

Da LLMs nach dem Gesetz der großen Zahlen die am häufigsten auftretenden Muster präferieren, kann dies zu einer Homogenisierung von Antworten führen. Dies bedeutet, dass ähnliche Fragen ähnliche Antworten erhalten, auch wenn es alternative oder innovative Lösungen gibt.

G3 - Verstärkung von Stereotypen

[Bearbeiten]

Wenn LLMs auf Daten trainiert werden, die Stereotypen und Vorurteile enthalten, kann dies zu einer Verstärkung dieser Stereotypen führen. Dies kann negative Auswirkungen auf marginalisierte Gruppen haben.

Diversität

[Bearbeiten]

D4 - Unterrepräsentation von Minderheiten

[Bearbeiten]

Wenn LLMs auf Daten trainiert werden, die Minderheitenstimmen und -perspektiven unterrepräsentieren, kann dies zu einer weiteren Marginalisierung dieser Gruppen führen.

D5 - Fehlen von alternativen Perspektiven

[Bearbeiten]

Wenn LLMs nur auf dominanten Stimmen und Perspektiven trainiert werden, kann dies zu einem Fehlen von alternativen Perspektiven und Lösungen führen.

D6 - Verlust von kultureller Vielfalt

[Bearbeiten]

Wenn LLMs auf globalen Datenmengen trainiert werden, kann dies zu einem Verlust von kultureller Vielfalt führen, da lokale und regionale Perspektiven unterrepräsentiert werden.

Förderung von Diversität und Gleichartigkeit

[Bearbeiten]

Diversität und Gleichartigkeit muss kontextabhängig bewertet werden.

  • Diversität kann als Reichtum an Anwortoptionen bei der Bewältigung komplexen Problem betrachtet werden, bei der eine Gleichartigkeiten von Antwortoptionen, ggf. komplexe Abhängigkeiten außer Acht lässt.
  • Diversität kann aber auch bewusst schädigend für Gesellschaft betrachtet werden, bei der durch Fake News Vertrauen in Informationsquellen zerstört wird.

In einem konstruktiven gesellschaftlichen Aushandlungsprozess können im Sinne eines multikriteriellen Problemlösung ggf. Lösungen gefunden werden, die nicht nur einzelne Gruppen bevorzugen.

F7 - Diversifizierung von Trainingsdaten

[Bearbeiten]

Bei der Datenerhebung kann man analog zu wissenschaftlichen Anforderungen an Datenanalysen darauf achten, dass die Trainingsdaten von LLMs divers und repräsentativ für verschiedene Stimmen und Perspektiven der Bevölkerungen sind. Ggf. kann das dazu führen Lösungsansätze, die von einer Minderheit schon lange praktiziert wurden auch für die Mehrheit eine sinnvolle Option ist. Diese war ggf. für die meisten aber nicht sichtbar, dass es eine solche Option gibt und bereits erfolgreich eingesetzt wurde.


F8 - Inklusion von Minderheitenstimmen

[Bearbeiten]

Der obige Aspekt beinhaltet daher auch, dass Minderheitenstimmen und -perspektiven in die Trainingsdaten von LLMs bewusst einbezogen werden. Betrachten Sie dazu das Wissen indigener Bevölkerung im Umgang mit natürlichen Ressourcen.

F9 - Entwicklung von alternativen Modellen

[Bearbeiten]

Es ist wichtig, alternative Modelle zu entwickeln, die auf verschiedenen Datenmengen trainiert werden und alternative Perspektiven und Lösungen anbieten. Dies erzeugt eine Wahlfreiheit für Menschen, wenn diese z.B. mit einem gesellschaftlichen Konsenz auf eine transparent ausgewählten Datenbasis beruhen. Damit kann der Einzelne wie eine Buch aus der Bibliothek entscheiden, welche Informationsquelle er/sie auswählt und von welchen Autor bzw. Autorin das Buch geschrieben wurde.

Gewaltenteilung zur Macht­be­gren­zung, durch Ver­teilung der Staats­gewalt auf ge­trennte Hoheits­bereiche.

F10 - Transparenz und Kontrolle

[Bearbeiten]

Es gibt im Kontext staatlicher Macht das Prinzip der Gewaltenteilung. Dabei ist es wichtig, dass staatliche Macht auf unterschiedliche Instanzen verteilt werden, die gemeinsam für die Funktionsweise eines Staates beitragen und sich wechselseitig kontrollieren und unterstützen können.

Analog dazu kann man versuchen, dass nicht eine einzelne Gruppe allein durch Auswahl an Trainingsdaten entscheiden kann, welche Aspekte in Anworten dominant entscheinen. Relevant ist in dieser Hinsicht ggf.:

  • Analog zur Legislative: Welche Rahmenbedingung sind bei das Datenerhebung und Auswahl von Trainingsdaten zu beachten?
  • Analog zur Judikative: Welche Möglichkeiten bestehen bei Verletzung der Rahmenrichtlinien für die Verwendung von unzulässigen Trainingsdaten Abhilfe zu schaffen und diese überhaupt es zu identifizieren?
  • Analog zur Exekutive: Welche Möglichkeiten bestehen, z.B. die Verletzung von Menschrechten oder Minderheitrechten in Trainingsmodellen zu korrigieren?

Zusammenfassend lässt sich sagen, dass die Aspekte der Gleichartigkeit und Diversität im Zusammenhang mit dem Einsatz von KI und dem Anwortverhalten von LLMs von entscheidender Bedeutung sind, um gesellschaftliche Vielfalt und Heterogenität zu bewahren, Antwortoptionen nicht zu verlieren und gleichzeitig auch im gesellschaftlichen Konsenz Entscheidung umzusetzen. Durch die Förderung von Diversität und die Inklusion von Minderheitenstimmen kann man ggf. die Akzeptanz von Lösungsansätzen erhöhen, wenn die Qualität und Repräsentativität von LLMs verbessert werden.

Aufgaben

[Bearbeiten]

Einen gesellschaftlichen Konsenz zu erringen kann sehr herausfordernd sein.

  • Welche Voraussetzungen sind dabei von den Beteiligten Einrichtungen und Partnern erforderlich, um dieses zu erreichen?
  • Welche Konsequenzen aus dem Vorgehen ergeben sich, wenn komplexe Probleme und sogar globale Herausforderungen (wie z.B. Klimawandel) bearbeitet werden, wenn diese nicht in den komplexen Wechselwirkungen allen Lebensbereichen betrachtet werden?

Siehe auch

[Bearbeiten]