Eltern haften für ihre Kinder und Unternehmen für ihre Chatbots – sowohl rechtlich als auch moralisch. Mit einem Wertekodex für Chatbots können die ethischen Herausforderungen, die sie im Gepäck haben, gemeistert werden. 16 Fragen zeigen den Weg in eine digitale Unternehmensverantwortung im Chatbot-Projekt.
„Ein Chatbot ist ein Computerprogramm, das es Menschen ermöglicht, Informationen von Maschinen in einer natürlichen, unterhaltsamen Art und Weise mit Hilfe von Text und Sprache zu erhalten.“
Chatbots verändern das Serviceerlebnis. Bis 2026 soll der globale Chatbot-Markt mehr als 10,5 Milliarden US-Dollar groß sein. Die erwarteten Einsparungen durch Automatisierung übersteigen dies um ein Vielfaches. Immer mehr Unternehmen planen, Chatbots einzusetzen. Aber Chatbots zeigen eine Reihe von ethischen Herausforderungen, daher sind sie mit Audits für Künstliche Intelligenz ethisch zu kontrollieren und zu überwachen. Denn Unternehmen, die Chatbots einsetzen, haften – auch moralisch. Daraus folgt, dass ein Chatbot dann zu einem Unternehmen passt, wenn er die Werte der Organisation widerspiegelt. Für Marken und Unternehmen, die auf ihre Reputation achten, reicht daher ein KI-Audit nicht aus.
Ich freue mich, dass ich bei Informatik Aktuell einen Artikel darüber schreiben konnte, wie Unternehmenswerte bei Künstlicher Intelligenz durch Corporate Digital Responsibility gesichert werden können. Den gesamten Artikel könnt ihr hier lesen.
Wie kann sicher gestellt werden, dass ein Chatbots die eigenen Unternehmenswerte repräsentiert?
Eine Unternehmensführung mit Corporate Digital Responsibility ermöglicht Vertrauen in Chatbots. Konkret kann ein Wertekodex für Chatbots als Ausgangspunkt für digitale Verantwortung dienen. Im folgenden sind Fragen aufgeführt, die Unternehmen sich stellen können, wenn sie eine wertekonforme Nutzung eines Chatbots wünschen. Aus diesen Fragen kann ein Wertekodex für Chatbots entwickelt werden.
Zweck: Wem dient der Chatbot und welche Bedürfnisse deckt er ab?
Usability: Wie schnell und einfach erreichen Nutzer:innen eine menschliche Servicekraft, wenn sie möchten?
Transparenz: Wie erfährt der Nutzende, ob er mit einem Menschen oder einer Maschine spricht?
Benefizienz: Wir wird vermieden, dass der Chatbot Nutzer:innen beschimpft oder anderweitig verbal schädigt?
Diversität: Wie repräsentiert der Chatbot ihre Kundengruppen?
Inklusion: Wer wird von ihrem Chatbot nicht angesprochen?
Fairness: Agiert der Chatbot unvoreingenommen und diskriminierungsfrei?
Datenschutz: Wie schützt der Chatbot die Privatsphäre der Nutzer:innen?
Verantwortung: Wem gehören die Informationen, die der Chatbot entwickelt, und was geschieht mit ihnen?
Transparenz: Wie können Nutzer:innen sich über den Chatbot beschweren oder Entscheidungen widersprechen?
Sicherheit: Wie wird der Missbrauch des Chatbots verhindert?
Arbeitsschutz: Wie werden die Mitglieder des Serviceteams in ihrer Privatsphäre geschützt?
Umwelt- und Klimaschutz: Welche Umwelt- oder Klimaauswirkungen hat der Chatbot?
Rechenschaftspflicht: Wie erhalten Nutzer:innen Informationen zur Überwachung des Chatbots, zu sensiblen Vorfällen, Fehlern oder Missbräuchen?
Erklärbarkeit: Wie ist sichergestellt, dass die Entscheidungen bzw. Informationen des Chatbots nachvollziehbar und erklärbar sind?
Humans-in-command-Approach: Ist klar, wer den Chatbot wie überwacht?
Je nach Unternehmenskultur und Kernwerten, wie z.B. Kundenorientierung, Diversität und Inklusion oder Datenschutz und Privatheit, kann ein solcher Wertekodex eine andere Ausprägung haben. Ein Chatbot-Projekt eignet sich hervorragend, um Corporate Digital Responsibility anzuwenden und auszuweiten.
Wie eine Umsetzung erfolgen kann, habe ich im Artikel auf „Informatik Aktuell“ beschrieben. Ich begleite Projekte zur Umsetzung von Corporate Digital Responsiblity durch Chatbot-Projekte und stehe bei Fragen gerne zur Verfügung.
Zahlen, Daten und Fakten zeigen die Skepsis der Verbraucher:innen gegenüber Tech und Digitalisierung. Es ist Zeit für Corporate Digital Responsibility. Meine allererste Infografik zum Thema. Ich hoffe, sie gefällt Euch!
Das belegen folgenden Zahlen aus verschiedenen Studien weltweit:
65 % der Befragten weltweit vertrauen nicht darauf, dass Unternehmen „ihre besten Interessen im Sinn haben“, wenn sie neue Technologien und KI einsetzen (vgl. Pega 2019). Das Vertrauen in die Technologiebranche ist auf dem niedrigsten Stand seit 2016 und nimmt weltweit rapide ab (vgl. Edelman 2021).
Die globale Mehrheit von 67 % denkt, dass die negativen Auswirkungen der Digitalisierung die positiven überwiegen (vgl. Hootsuite/We are social 2018, S. 46). Insbesondere sind 56 % besorgt über Fehlinformationen im Internet (Hootsuite/We are social 2021, S. 70).
Europaweit sind nur 23 % zuversichtlich, dass europäische Unternehmen in der Lage und gewillt sind, ihre persönlichen Daten zu schützen, wobei 33 % für die Tech-Unternehmen im eigenen Land zuversichtlich sind. Beachtlich ist, dass die Einschätzung für die nationalen Regierungen schlechter sind (vgl. Munich Security Conference 2021, S. 7-8).
Weltweit nennen 27 % der Menschen „Aufstieg der Roboter und Versklavung der Menschheit“ als Sorge (vgl. Pega 2019).
Etwa 50 % der Verbraucher in den USA gaben an, dass sie eher einem Unternehmen vertrauen, das nur nach Informationen fragt, die für seine Produkte relevant sind, oder das die Menge der abgefragten persönlichen Daten begrenzt (vgl. McKinsey & Company 2020).
61% der Deutschen würden aufhören bei einem Unternehmen zu kaufen, dass ihre Daten nicht adäquat schützt (vgl. Veritas 2018)
Nur 24 % der Unternehmen arbeiten bisher an ausformulierten Leitlinien zur digitalen Ethik und Verantwortung
Pega (2019) Pega study highlights the need for greater empathy in artificial intelligence systems. https://www.pega.com/de/about/news/press-releases/consumers-failing-embrace-ai-benefits-says-research. Accessed: 21. May 2021
Um Kosten zu sparen, setzen immer mehr Unternehmen Automatisierte Entscheidungsfindung mittels „Künstlicher Intelligenz“ im Rekrutierungsprozess ein. Entgegen der Hoffnung, die Entscheidungen würden dadurch „objektiver“, ist jedoch das Gegenteil der Fall: Die Algorithmen wiederholen bestehende Diskriminierungsmuster, so eine Studie der Heinrich-Heine-Universität Düsseldorf und der HTW Berlin (vgl. Köchling et al. 2020). Personalvorständen, Personalleitung oder Chief Human Ressource Officers kommt eine besondere Verantwortung zu, die digitale Verantwortung von Unternehmen sicherzustellen und soziale Nachhaltigkeit in der Digitalisierung zu ermöglichen.
Die digitale Transformation birgt umfangreiche neue Herausforderungen insbesondere im sozialen Bereich. Unternehmen stehen vor der Herausforderung, die vielfältige Wirkung der digitalen Transformation abzuwägen und eine sozial verantwortliche Transformation zu gestalten. In besonderem Maße erweitert sich die Verantwortung des bzw. der CHRO bzw. Personalleiter:in für die Folgen der Digitalisierung auf das Personal. Es ist ihre Aufgabe im Unternehmen im Sinne der Fürsorgepflichten das Recht auf Würde, selbstbestimmtem Handeln und geschützter Privatsphäre der Beschäftigten zu wahren sowie die Organisation vor diskriminierendem Handeln, z.B. durch verzerrte Auswahl von Bewerber:innen, zu schützen. Diese Rechte sind durch die Digitalisierung und den Einsatz von Automatisierter Entscheidungsfindung mittels „Künstlicher Intelligenz“ potenziell in Gefahr.
Daher müssen Personalbereiche Komptenzen zu Corporate Digital Responsibility aufbauen und sytematisch das digitalethische Handeln ihres Unternehmens bewerten. Sie unterstützen damit den Vorstandsvorsitzenden bzw. die Geschäftsführung zukunftsweisend und strategisch.
Ich kann daher Personalleiter:innen nur ermutigen. ihre digitale Verantwortung gemeinsam mit anderen Funktionen im Unternehmen, wie z. B. der Corporate Responsibility und dem Compliance-Bereich wahrzunehmen.
Folgende Handlungsfeldern der Corporate Digital Responsibility stehen insbesondere bei Unternehmen mit datenbasierten Geschäftsmodellen im Vordergrund:
Gewährleistung des Datenschutzes von Mitarbeitenden und Stakeholdern
Förderung der digitalen Vielfalt und Inklusion unter Berücksichtigung der Anforderung der Beschäftigten
Respektieren der ‚Eigentumsrechte‘ von Content und Daten sowie Schaffen klarer Regelungen für Beschäftigte
Sicherstellen verantwortungsvoller Datenvalidierungs- und Entsorgungspraktiken (DSGVO-Umsetzung)
Gewährleistung ethischer Entscheidungsalgorithmen durch „Künstliche Intelligenz“, um einen ‚Bias‘ oder Diskriminierung zu verhindern
Verfolgung sozialethischer Praktiken, indem unerwünschte Nebenwirkungen auf Gemeinschaft und Stakeholder bewertet werden
Weitere Themen der CDR beziehen sich stärker auf die Veränderung der betrieblichen Organisation, wie z.B. „New Work“, Mitarbeiterpartizipation etc. Aus Verantwortungsperspektive wird dabei eine Befassung mit unterschiedlichen Beschäftigtengruppen auch jenseits der arbeitsrechtlich verankerten Fürsorgepflichten erwartet, d.h. auch die Übernahme von Verantwortung gegenüber selbständig mitarbeitenden Freelancern.
Neben den ethischen Folgen der Datennutzung von Beschäftigten ist insbesondere Knowhow zum verantwortungsvollen Einsatz von „Künstlicher Intelligenz“ und weiteren digitalen Technologien in der Personalarbeit nötig. Einen hervorragenden Überblick zu den Aufgaben und Handlungsmaximen bietet die Richtlinie des Ethikbereit HR in Tech.
Die Personalleitung kann maßgeblich dazu beitragen, soziale Nachhaltigkeit in der Digitalisierung umzusetzen und Risiken vom Unternehmen fern zu halten. Voraussetzung dafür ist ein Kompetenzaufbau im Bereich der Corporate Digital Responsibility im HR-Bereich.
Die technologische Entwicklung schreitet rasant voran, daher ist keine Zeit zu verlieren.
Köchling A, Riazy S, Wehner MC, Simbeck K (2020) Highly Accurate, But Still Discriminatory. Bus Inf Syst Eng (2020). https://doi.org/10.1007/s12599-020-00673-w. Zugegriffen 18.01.2021
Panelteilnahm bei der 1E9-Konferenz 2020 am 11.11.2020. Aufzeichnung der 40-minütigen Diskussion zusammen mit Max Haarich (Gesellschaft für Digitale Ethik), Tarek R. Besold (neurocat GmbH) und Nicolai Andersen (Deloitte) zum Thema „Corporate Digital Responsibility: Künstliche Intelligenz funktioniert nicht ohne Verantwortung“. Moderation Wolfgang Kerler (1E9).
Mit der Digitalisierung entstehen wirtschaftsethische Dilemmata mit Daten von Nutzer:innen. Digitalverantwortliche Unternehmen wägen umsichtig und frühzeitig die unterschiedlichen Interessen bei der Gestaltung digitaler Geschäftsstrategien ab. Wie das praktisch aussehen kann, erläutere ich in dem Artikel „Corporate Digital Responsibility: Digitale Unternehmensverantwortung für eine nachhaltige Wertschöpfung aus Daten“ im Magazin „Datenschutz für Praktiker“.
Dörr S (2020) „Corporate Digital Responsibility“: Digitale Unternehmensverantwortung für eine nachhaltige Wertschöpfung aus Daten. Datenschutz für Praktiker 11 2020, S. 8-11. https://desk.forum-verlag.com/#doc/62089/1 (Zugriff am 27.11.2020)
Gerade die Datenschutzbeauftragten und -verantwortlichen können über ihre Kernaufgabe hinausgehende Impulse für eine Corporate Digital Responsiblity geben. Daher hoffe ich, dafür Ansatzpunkte geben zu können. Der Artikel hat folgende wesentlichen Inhalte:
Wirtschaftsethische Dilemmata mit Daten von Nutzer:innen
Corporate Digital Responsibility für Vertrauen als Wettbewerbsvorteil
12 Leitfragen für eine digitale Geschäftsstrategie mit Verantwortung
Das vorliegende Set an Leitfragen soll Pioniere unterstützen. Es bietet, wie eine Reihe weiterer bereits vorliegender Management-Instrumente, eine Handreichung für die Umsetzung von CDR in der Praxis und damit für die Gestaltung einer wünschenswerten digitalen Zukunft.
Der Artikel inklusve Fragenset steht hier zum Download zur Verfügung. Ich hoffe, dass die Leitfragen breite Anwendung finden und freue mich über Feedback sowie weiteren Austauschen mit Datenschutz-Expert:innen!