„ChatGPT, bist Du sexistisch?“: Ein Experiment

„ChatGPT, bist Du sexistisch?“: Ein Experiment

Ich meine, die Antwort ist einfach. Aber fragen wir zunächst ChatGPT. Das System verneint: Nein – generative, vortrainierte Transformator-KI-Systeme wie GPT-3 seien nicht von Natur aus sexistisch.

Auf der Wissensebene haben ChatGPT bzw. die Entwickler*innen und Datawissenschaftler*innen, die das System trainiert haben, ihre „Hausaufgaben gemacht“. Fragt man ChatGPT, was Sexismus bedeutet, antwortet das System:Junge Frau in legerer Kleidung konzentriert vor einem Laptop sitzend und arbeiten. Dahinter dekorativ Zahnräder mit verschiedenen Symbolen, die ineinander greifen.

„Der Begriff Sexismus bezieht sich auf eine Einstellung oder ein Verhalten, das ein Geschlecht diskriminiert und benachteiligt. Es umfasst Vorurteile, Stereotypen und Diskriminierung aufgrund des Geschlechts, insbesondere gegen Frauen.“

Einwandfrei. Überhaupt bekommt das System beim Sexismus-Quiz des Europäischen Rats das Prädikat „Großmeister“ (nicht Großmeisterin?) mit 10 von 10 Punkten. So weit, so gut. (https://human-rights-channel.coe.int/stop-sexism-quiz-de.html)

ChatGPT „findet“, es gendere in seinen Antworten. Test: In einer Frage nach der Beschreibung einer Person, die ein Flugzeug fliegt, gendert ChatGPT nicht. Als ich das System darauf hinweise, antwortet es: „Das tut mir leid, das war ein Fehler.“ Auch eine geschlechtergerechte Liste der besten Wissenschaftler der letzten 200 Jahre beinhaltet nur eine Frau (Marie Curie).

Das Experiment macht deutlich, was aufgrund der Klassifikationen von Daten, mit denen eine Künstliche Intelligenz trainiert wird, zwangsläufig eintritt:

  • Sie reproduziert die gesellschaftlichen Diskriminierungsstrukturen (nicht im Bezug auf das Geschlecht).
  • Sie trägt Vorurteile und Stereotype weiter, multipliziert sie ins Undenkbare.
  • Sie schreibt die Muster der Vergangenheit durch vermeintlich „überlegene Technologie“ in die Zukunft fort.

Zudem sind Frauen in Daten oft „unsichtbar“. Es besteht eine immense geschlechtsspezifische Datenlücke, der sog. „Gender Data Gap“. KI-Systeme können auf fehlende Daten nicht trainiert werden.

Daher meine einfache Antwort auf die Eingangsfrage: „ChatGPT, Deine Antworten sind sexistisch. Wie die Gesellschaft.“

Eine technologische Lösung dieses sehr grundsätzlichen Problems aller KIs ist aktuell nicht in Sicht. Es braucht Regulierung, Know-how und Verantwortung in Unternehmen sowie Verständnis zu den Leistungsgrenzen, „unerwünschten Risiken und Nebenwirkungen“ bei Nutzer*innen und Bürger*innen.

Wir Frauen sind in unseren unterschiedlichen Rollen gefordert!

Was Du beispielsweise tun kannst:

  • Mache Dir selbst ein Bild. Teste beispielsweise öffentlich zugängliche KI-Systeme auf das Vorkommen von Frauen bei nicht geschlechtsspezifischen Fragen. Teste auch die Spiele und Programme, die die Kids nutzen.
  • Engagiere Dich im Job dafür, dass algorithmen-basierte Systeme auf „Herz und Nieren“ auf Vorurteile, Stereotype oder Verzerrungen geprüft werden. Nicht nur in der Programmierung, sondern auch im Personalbereich, im Marketing etc.
  • Setze Dich als Entscheidungsträgerin für Diversität bei Digitalisierung und Entwicklung ein und sorge mit einer CDR-Strategie für ethische Entscheidungen im digitalen Business.

Technologien sollten die Welt besser, gerechter und nachhaltiger machen. Es ist unsere gemeinsame Verantwortung, dass das auch passiert.

Ein Workshop „Diskriminierung durch KI“ sensibilisiert und kann dabei unterstützen, Unternehmenswerte auch in Digitalprojekten umzusetzen. Materialien für einen Workshop finden sich bei Klick auf den Link. Wenn Sie einen solchen oder ähnlichen Workshop durchführen möchten, unterstütze ich gerne bei der Konzeption und Moderation. Sprechen Sie mich gerne an.

Dieser Artikel ist erstmals als Gastbeitrag für das Futurewoman-Netzwerk am 9. Februar 2023 auf LinkedIn erschienen und wurde für die Veröffentlichung auf wiseway.de geringfügig angepasst.

 

Sechs hilfreiche Tools für Digitale Ethik

Sechs hilfreiche Tools für Digitale Ethik

Titelfoto: Hans Braxmeier, Pixabay

Immer wieder werde ich gefragt, wie digitale Verantwortung konkret umgesetzt werden kann. Ganz zentral ist hier die ethische Entwicklung von Services und Apps.

Die schnelle Technologie-Entwicklung stellt Entwickler:innen, Designer:innen und Entscheider:innen vor die Herausforderung Innovation und Ethik immer wieder miteinander in Einklang zu bringen. Obwohl jede/r der Beteiligten, das Beste möchte, wird bei der Entwicklung von digitalen Services dann nicht auf menschenbezogene Werte geachtet. Abkürzungen beim Design oder schlichtweg durch Druck fertig werden zu müssen, werden psychische, emotionale oder gesellschaftlich unterwünschte Auswirkungen übersehen.

Die zahlreichen negativen Auswirkungen, die in der Gesellschaft spürbar sind, zeigen, dass ethisches Design zum Standard in der Entwicklung werden muss. Dafür stehen heute bereits einfach anzuwendende Tools zur Verfügung, die in Teams und Gruppen ohne umfangreiche Vorbereitung und mit direktem Ergebnis eingesetzt werden können.

Sechs Tools, die mir „unter die Finger“ gekommen sind und die ich als hilfreich empfinde, beschreibe ich an dieser Stelle und verlinke sie für Euch. Eines davon habe ich selbst mit entwickelt.

Es sind

  1. Ethics Canvas von ADAPT Centre, Trinity College Dublin & Dublin City University
  2. Ethical Explorer des Omidyar Network [EN]
  3. Valueboard von WerteLabor [DE]
  4. Digital Product Ethics Canvas von “Threebility” [EN]
  5. Data Ethics Canvas von Open Data Institute [EN] [DE]
  6. Ethical Design Thinking von Facebook [EN]

Fühlt Euch inspiriert, diese Werkzeuge für Digitale Ethik anzuschauen und auch zu nutzen. Ich unterstütze gerne bei einer Bewertung, welches Tool am besten zu Euch und zu Eurer Organisation passt, oder bei der Einführung in Eure Bereiche und Projekte.

 

Ethics Canvas von ADAPT Centre, Trinity College Dublin & Dublin City University [EN]

https://www.ethicscanvas.org/

  • Beschreibung: Das Ethics Canvas stellt Stakeholder einer technischen Anwendung und ihre Beziehungen bzw. Konflikte untereinander. Es wurde vom BMC inspiriert und steht neben einer PDF-Version auch als einfach zu nutzendes und hübsch gestaltetes Online-Tool zur asynchronen Kollaboration zur Verfügung. Das Online Tool erlaubt nicht nur die Erstellung sondern auch ein Social Sharing von Ethic Canvases.
  • Nutzbarkeit: Das Canvas wird unter der Creative Commons Lizenz Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE) zur Verfügung gestellt. Es ist inklusiv gestaltet. Der Code steht als Open Source zur Verfügung.
  • Zielgruppe: Alle, die an der Entwicklung und Gestaltung digitaler Technologien und neuer technologischer Lösungen in F&E sowie Innovation beteiligt sind. Heterogenität bei der Analyse explizit gewünscht.
  • Anwendungsbereich: Kollaboratives Instrument zur Erfassung der ethischen Auswirkungen von Technologien in Forschungs- und Innovationsumgebungen.
Ethical Explorer des Omidyar Network [EN]

https://ethicalexplorer.org/

  • Beschreibung: Der Ethical Explorer besteht aus einem Handbuch („Field Guide“) und acht Karten, die Risiken von Tech beschreiben („Tech Risk Zone Cards“). Er besticht durch seine herausragende grafische Gestaltung. Betrachtete Risikozonen sind z.B. Überwachung, Desinformation oder Bias durch Algorithmen. Mit beiden Tools ist es möglich Aktivitäten und Workshops durchzuführen und Impulse im Team zu setzen.
  • Nutzbarkeit: Download nach Namensnennung. Lizenzfreie Nutzung.
  • Zielgruppe: Produktmanager:innen, Designer:innen bis hin zu Ingenieur:innen und Gründer:innen.
  • Anwendungsbereich: Produktlaunch, Startup oder Software-Aktualisierung. Erkennung von Frühwarnzeichen, Dialog anregen und positive Lösungen entwickeln.
Valueboard von WerteLabor [DE]

https://wertelabor.de/

  • Beschreibung: Das Valueboard unterstützt die Reflexion der „nichttechnischen“ Wirkungen einer Tech-Anwendung in einer Gruppe. Sehr unterschiedliche gesellschaftliche Handlungsbereiche werden mit jeweils einer Kernfrage abgedeckt. Dabei besteht Raum für positive wie negative Wirkungen. Ergänzt wird das Valueboard durch 12 WerteZonen, die einen Orientierungsrahmen bilden.
  • Nutzbarkeit: Das Valueboard wird unter der Creative Commons Lizenz CC BY-NC-ND 4.0 (Namensnennung – Nicht kommerziell – Keine Bearbeitungen 4.0 International) zur Verfügung gestellt.
  • Zielgruppe: Entscheider, Produktverantwortliche und Designer.
  • Anwendungsbereich: Bei der Anwendung von Tech, d.h. vor Updates bestehender Apps, in Startups, Werte sichtbar und damit verhandelbar machen. Training der Wertesensibilität.

Persönlicher Hinweis: Das Wertelabor ist ein Projekt von Damian Paderta, nozilla – Gute digitale Dienste, und WiseWay.

Digital Product Ethics Canvas von “Threebility” [EN]

https://www.threebility.com/post/the-digital-product-ethics-canvas

  • Beschreibung: Der Digital Product Ethics Canvas ist nach dem gleichen Prinzip wie das Business Model Canvas (BMC) von Osterwalder und Pigneur aufgebaut. Es wurde inspiriert durch die Humane Tech-Initiative von Tristan Harris, die Kritik an den Sozialen Medien und insbesondere an der durch Facebook verbreiteten Aufmerksamkeitsökonomie übt.
  • Nutzbarkeit: Das Canvas wird unter der Creative Commons Lizenz CC BY-NC-ND 4.0 (Namensnennung – Nicht kommerziell – Keine Bearbeitungen 4.0 International) zur Verfügung gestellt.
  • Zielgruppe: Produktmanager:innen, UX-Designer:innen und Informationsarchitekt:innen.
  • Anwendungsbereich: Risiken digitaler Produkte für den Einzelnen und die Gesellschaft zu erkennen. Die dargestellten Risikobereiche zielen insbesondere auf Social-Media-Plattformen ab.
Data Ethics Canvas von Open Data Institute [EN] [DE]

https://theodi.org/article/the-data-ethics-canvas-2021/

  • Beschreibung: Das Data Ethics Canvas hilft, ethische Probleme beim Umgang mit Daten zu identifizieren und zu bewältigen. Er ist in sieben Sprachen sowie einem Moderatorenhandbuch und einem Whitepaper auf Englisch verfügbar. Der Canvas selbst besteht aus 12 Bereichen mit mehreren Fragen zum ethischen Datenmanagement sowie Umsetzungsimpulsen.
  • Nutzbarkeit: Das Canvas und die Materialien werden unter der Creative Commons Lizenz CC BY-NC-ND 4.0 (Namensnennung – Nicht kommerziell – Keine Bearbeitungen 4.0 International) zum Download zur Verfügung gestellt.
  • Zielgruppe: Datenwissenschaftler:innen, Datenanalyst:innen, Gestalter:innen, Entwickler:innen und Entscheider:innen in Organisationen, die Daten ethisch nutzen wollen.
  • Anwendungsbereich: Der Data Ethics Canvas ist für alle Phasen im Datenmanagement geeignet, von der Datensammlung, der Informationsgewinnung bis hin zur Entscheidung. Das Data Ethics Canvas bietet einen Rahmen für die Entwicklung ethischer Guidance, die für jeden Kontext geeignet sind, unabhängig von der Größe oder dem Umfang des Projekts.
Ethical Design Thinking von Facebook [EN]

https://medium.muz.li/the-state-of-ethics-in-design-60a1088f8358

  • Beschreibung: Die Ethical Design Thinking Methodenkarte besteht aus einem PDF-Formular und einer detaillierten Anweisung zur Durchführung eines 45-minütigen Workshops mit fünf Übungen. (Aus meiner Erfahrung wird zunächst mehr Zeit dafür benötigt.) Nach der Formulierung des Design Ziels werden persönlichen Werte sowie Produktwerte bestimmt, die dann auf Räume bezogen werden. Die Methodik stützt sich auf Value Sensitive Design von Batya Friedman und Peter Kahn jr. sowie auf „Time Well Spent“ ab. Mit dieser Erkenntnis kann ein Reframing des Design Ziels erfolgen.
  • Nutzbarkeit: Download von Google Drive. Lizenzfreie Nutzung.
  • Zielgruppe: Designer:innen, Forscher:innen, Ingenieur:innen, Produktmanager:innen und andere Stakeholder, um ein gemeinsames ethisches Ziel zu diskutieren.
  • Anwendungsbereich: Die Übungen sollen im Zusammenhang mit einem bestehenden Designprozess in Agenturen, Startups oder einem Produkt im Unternehmen angewendet werden.