16 Fragen zum Wertekodex für Chatbots

16 Fragen zum Wertekodex für Chatbots

Eltern haften für ihre Kinder und Unternehmen für ihre Chatbots – sowohl rechtlich als auch moralisch. Mit einem Wertekodex für Chatbots können die ethischen Herausforderungen, die sie im Gepäck haben, gemeistert werden. 16 Fragen zeigen den Weg in eine digitale Unternehmensverantwortung im Chatbot-Projekt.

„Ein Chatbot ist ein Computerprogramm, das es Menschen ermöglicht, Informationen von Maschinen in einer natürlichen, unterhaltsamen Art und Weise mit Hilfe von Text und Sprache zu erhalten.“

Chatbots verändern das Serviceerlebnis. Bis 2026 soll der globale Chatbot-Markt mehr als 10,5 Milliarden US-Dollar groß sein. Die erwarteten Einsparungen durch Automatisierung übersteigen dies um ein Vielfaches. Immer mehr Unternehmen planen, Chatbots einzusetzen. Aber Chatbots zeigen eine Reihe von ethischen Herausforderungen, daher sind sie  mit Audits für Künstliche Intelligenz ethisch zu kontrollieren und zu überwachen. Denn Unternehmen, die Chatbots einsetzen, haften – auch moralisch. Daraus folgt, dass ein Chatbot dann zu einem Unternehmen passt, wenn er die Werte der Organisation widerspiegelt. Für Marken und Unternehmen, die auf ihre Reputation achten, reicht daher ein KI-Audit nicht aus.

Ich freue mich, dass ich bei Informatik Aktuell einen Artikel darüber schreiben konnte, wie Unternehmenswerte bei Künstlicher Intelligenz durch Corporate Digital Responsibility gesichert werden können. Den gesamten Artikel könnt ihr hier lesen.

Wie kann sicher gestellt werden, dass ein Chatbots die eigenen Unternehmenswerte repräsentiert?

Eine Unternehmensführung mit Corporate Digital Responsibility ermöglicht Vertrauen in Chatbots. Konkret kann ein Wertekodex für Chatbots als Ausgangspunkt für digitale Verantwortung dienen. Im folgenden sind Fragen aufgeführt, die Unternehmen sich stellen können, wenn sie eine wertekonforme Nutzung eines Chatbots wünschen. Aus diesen Fragen kann ein Wertekodex für Chatbots entwickelt werden.

  1. Zweck: Wem dient der Chatbot und welche Bedürfnisse deckt er ab?
  2. Usability: Wie schnell und einfach erreichen Nutzer:innen eine menschliche Servicekraft, wenn sie möchten?
  3. Transparenz: Wie erfährt der Nutzende, ob er mit einem Menschen oder einer Maschine spricht?
  4. Benefizienz: Wir wird vermieden, dass der Chatbot Nutzer:innen beschimpft oder anderweitig verbal schädigt?
  5. Diversität: Wie repräsentiert der Chatbot ihre Kundengruppen?
  6. Inklusion: Wer wird von ihrem Chatbot nicht angesprochen?
  7. Fairness: Agiert der Chatbot unvoreingenommen und diskriminierungsfrei?
  8. Datenschutz: Wie schützt der Chatbot die Privatsphäre der Nutzer:innen?
  9. Verantwortung: Wem gehören die Informationen, die der Chatbot entwickelt, und was geschieht mit ihnen?
  10. Transparenz: Wie können Nutzer:innen sich über den Chatbot beschweren oder Entscheidungen widersprechen?
  11. Sicherheit: Wie wird der Missbrauch des Chatbots verhindert?
  12. Arbeitsschutz: Wie werden die Mitglieder des Serviceteams in ihrer Privatsphäre geschützt?
  13. Umwelt- und Klimaschutz: Welche Umwelt- oder Klimaauswirkungen hat der Chatbot?
  14. Rechenschaftspflicht: Wie erhalten Nutzer:innen Informationen zur Überwachung des Chatbots, zu sensiblen Vorfällen, Fehlern oder Missbräuchen?
  15. Erklärbarkeit: Wie ist sichergestellt, dass die Entscheidungen bzw. Informationen des Chatbots nachvollziehbar und erklärbar sind?
  16. Humans-in-command-Approach: Ist klar, wer den Chatbot wie überwacht?

Je nach Unternehmenskultur und Kernwerten, wie z.B. Kundenorientierung, Diversität und Inklusion oder Datenschutz und Privatheit, kann ein solcher Wertekodex eine andere Ausprägung haben. Ein Chatbot-Projekt eignet sich hervorragend, um Corporate Digital Responsibility anzuwenden und auszuweiten.

Wie eine Umsetzung erfolgen kann, habe ich im Artikel auf „Informatik Aktuell“ beschrieben. Ich begleite Projekte zur Umsetzung von Corporate Digital Responsiblity durch Chatbot-Projekte und stehe bei Fragen gerne zur Verfügung.

 

Quelle

Dörr, Saskia (2021) Wertekodex für Chatbots. Corporate Digital Responsibility sichert Unternehmenswerte bei Künstlicher Intelligenz. Informatik Aktuell vom 24. August 2021. https://www.informatik-aktuell.de/betrieb/kuenstliche-intelligenz/wertekodex-fuer-chatbots.html. Zugegriffen 26.08.2021

KI Talk: Im Interview bei der „Rheintochter“ Birgit Eschbach

KI Talk: Im Interview bei der „Rheintochter“ Birgit Eschbach

Seit längerem bin ich Teil der wunderbaren LinkedIn-Gruppe „KI aus der Praxis – Chancen von Künstlicher Intelligenz für unsere Gesellschaft“. Die „Rheintochter“ Birgit Eschbach ist eine der Moderatorinnen und hat mich zum „KI-Talk“ eingeladen. Am 3. Juli 2021, einem herrlichen Samstagmorgen, sprachen wir über den Rhein hinweg zu Nachhaltigkeitsstrategien für Digitalisierung und Künstliche Intelligenz. Den „rote Faden“ im Interview bildete die Frage, welche „Hüte“ ich derzeit so auf habe und wie mein beruflicher Weg mich hierhin geführt hat. Wir redeten also über meine Beratung WiseWay, das Netzwerk für nachhaltigkeitsengagierte Business-Frauen Futurewoman und die internationale zivilgesellschaftliche Initative für KI-Audits ForHumanity.org.

Es war mir eine Freude, mich mit Birgit als infomierter und zugewandter Gastgeberin auszutauschen. Wir kannten uns vorher nicht. Im Talk (bzw. Im Warming up vorher) stellten wir fest, dass wir wirklich nur einen Katzensprung entfernt voneinander leben. Daher haben wir uns auf einen Post-Corona-Kaffee verabredet. Kaum zu glauben, dass das nun auch wieder möglich ist!

Wer mal reinhören möchte, die Aufzeichnung auf YouTube ist hier verlinkt. Wenn Euch das Thema interessiert, kommt doch gerne in die LinkedIn-Gruppe dazu – hier geht´s lang. Vielleicht habt ihr ja auch Lust der nächste – oder übernächste Gast – im KI-Talk zu sein? Birigt freut sich darauf!

Personalleiter:innen, nehmt Eure digitale Verantwortung wahr!

Personalleiter:innen, nehmt Eure digitale Verantwortung wahr!

Um Kosten zu sparen, setzen immer mehr Unternehmen Automatisierte Entscheidungsfindung mittels „Künstlicher Intelligenz“ im Rekrutierungsprozess ein. Entgegen der Hoffnung, die Entscheidungen würden dadurch „objektiver“, ist jedoch das Gegenteil der Fall: Die Algorithmen wiederholen bestehende Diskriminierungsmuster, so eine Studie der Heinrich-Heine-Universität Düsseldorf und der HTW Berlin (vgl. Köchling et al. 2020). Personalvorständen, Personalleitung oder Chief Human Ressource Officers kommt eine besondere Verantwortung zu, die digitale Verantwortung von Unternehmen sicherzustellen und soziaLego Figuren: Eine vor einem Schreibtisch, die anderen in einer Reihe davorle Nachhaltigkeit in der Digitalisierung zu ermöglichen.

Die digitale Transformation birgt umfangreiche neue Herausforderungen insbesondere im sozialen Bereich. Unternehmen stehen vor der Herausforderung, die vielfältige Wirkung der digitalen Transformation abzuwägen und eine sozial verantwortliche Transformation zu gestalten. In besonderem Maße erweitert sich die Verantwortung des bzw. der CHRO bzw. Personalleiter:in für die Folgen der Digitalisierung auf das Personal. Es ist ihre Aufgabe im Unternehmen im Sinne der Fürsorgepflichten das Recht auf Würde, selbstbestimmtem Handeln und geschützter Privatsphäre der Beschäftigten zu wahren sowie die Organisation vor diskriminierendem Handeln, z.B. durch verzerrte Auswahl von Bewerber:innen, zu schützen. Diese Rechte sind durch die Digitalisierung und den Einsatz von Automatisierter Entscheidungsfindung mittels „Künstlicher Intelligenz“ potenziell in Gefahr.

Daher müssen Personalbereiche Komptenzen zu Corporate Digital Responsibility aufbauen und sytematisch das digitalethische Handeln ihres Unternehmens bewerten. Sie unterstützen damit den Vorstandsvorsitzenden bzw. die Geschäftsführung zukunftsweisend und strategisch.

Ich kann daher Personalleiter:innen nur ermutigen. ihre digitale Verantwortung gemeinsam mit anderen Funktionen im Unternehmen, wie z. B. der Corporate Responsibility und dem Compliance-Bereich wahrzunehmen.

Folgende Handlungsfeldern der Corporate Digital Responsibility stehen insbesondere bei Unternehmen mit datenbasierten Geschäftsmodellen im Vordergrund:

  • Gewährleistung des Datenschutzes von Mitarbeitenden und Stakeholdern
  • Förderung der digitalen Vielfalt und Inklusion unter Berücksichtigung der Anforderung der Beschäftigten
  • Respektieren der ‚Eigentumsrechte‘ von Content und Daten sowie Schaffen klarer Regelungen für Beschäftigte
  • Sicherstellen verantwortungsvoller Datenvalidierungs- und Entsorgungspraktiken (DSGVO-Umsetzung)
  • Gewährleistung ethischer Entscheidungsalgorithmen durch „Künstliche Intelligenz“, um einen ‚Bias‘ oder Diskriminierung zu verhindern
  • Verfolgung sozialethischer Praktiken, indem unerwünschte Nebenwirkungen auf Gemeinschaft und Stakeholder bewertet werden

Weitere Themen der CDR beziehen sich stärker auf die Veränderung der betrieblichen Organisation, wie z.B.  „New Work“, Mitarbeiterpartizipation etc. Aus Verantwortungsperspektive wird dabei eine Befassung mit unterschiedlichen Beschäftigtengruppen auch jenseits der arbeitsrechtlich verankerten Fürsorgepflichten erwartet, d.h. auch die Übernahme von Verantwortung gegenüber selbständig mitarbeitenden Freelancern.

Neben den ethischen Folgen der Datennutzung von Beschäftigten ist insbesondere Knowhow zum verantwortungsvollen Einsatz von „Künstlicher Intelligenz“ und weiteren digitalen Technologien in der Personalarbeit nötig. Einen hervorragenden Überblick zu den Aufgaben und Handlungsmaximen bietet die Richtlinie des Ethikbereit HR in Tech.

Die Personalleitung kann maßgeblich dazu beitragen, soziale Nachhaltigkeit in der Digitalisierung umzusetzen und Risiken vom Unternehmen fern zu halten. Voraussetzung dafür ist ein Kompetenzaufbau im Bereich der Corporate Digital Responsibility im HR-Bereich.

Die technologische Entwicklung schreitet rasant voran, daher ist keine Zeit zu verlieren.

Quellen

Ethikbereit HR in Tech (2019) Richtlinien für den verantwortungsvollen Einsatz von Künstlicher Intelligenz und weiteren digitalen Technologien in der Personalarbeit. https://www.ethikbeirat-hrtech.de/wp-content/uploads/2019/09/Ethikbeirat_und_Richtlinien_Konsultationsfassung_final.pdf. Zugegriffen 02.01.2021

Köchling A, Riazy S, Wehner MC, Simbeck K (2020) Highly Accurate, But Still Discriminatory. Bus Inf Syst Eng (2020). https://doi.org/10.1007/s12599-020-00673-w. Zugegriffen 18.01.2021

Smith R (2020) Corporate digital responsibility: The role of human resource leaders. Peoplematters vom 27.07.2020. https://www.peoplemattersglobal.com/site/interstitial?return_to=%2Fblog%2Ftechnology%2Fcorporate-digital-responsibility-the-role-of-human-resource-leaders-26415. Zugegriffen 18.01.2021