Das KI-Jahr 2022 endet mit einer unschlagbar guten Beschreibung von Corporate Digital Responsibility durch ChatGPT. Für den Text stellte ich die ChatGPT die Frage: „What is Corporate Digitale Responsibility“? Unten seht ihr die Antwort. Die deutsche Version wurde mit der DeepL-KI übersetzt. Habt ihr da Töne? Ich glaube, man kann es kaum besser sagen.
Die hübschen Bilder der freundlichen Robo-Santa-Clauses erzeugte übrigens Midjourney. :-)
ChatGPT über Corporate Digital Responsibility
„Die digitale Verantwortung der Unternehmen (Corporate Digital Responsibility, CDR) bezieht sich auf die ethische und verantwortungsvolle Nutzung digitaler Technologien und Daten durch Unternehmen. Sie umfasst ein breites Spektrum von Themen, darunter Datenschutz, Cybersicherheit, Online-Sicherheit und die sozialen und ökologischen Auswirkungen digitaler Technologien.
Unternehmen sind dafür verantwortlich, die persönlichen Daten ihrer Kunden und Mitarbeiter zu schützen und digitale Technologien in einer Weise zu nutzen, die transparent und ethisch vertretbar ist und die Rechte des Einzelnen respektiert. Dazu gehört auch, dass personenbezogene Daten in Übereinstimmung mit den einschlägigen Gesetzen und Vorschriften erhoben und verwendet werden und dass angemessene Schutzmaßnahmen gegen Datenschutzverletzungen und andere Formen von Cyberangriffen getroffen werden.
Darüber hinaus sind die Unternehmen verpflichtet, die sozialen und ökologischen Auswirkungen ihrer digitalen Technologien zu berücksichtigen. Dazu gehören Fragen wie der Energieverbrauch und die Kohlendioxidemissionen der digitalen Infrastruktur, die Umweltauswirkungen von Elektroschrott und das Potenzial digitaler Technologien, zu sozialer und wirtschaftlicher Ungleichheit beizutragen.
CDR ist ein wichtiger Aspekt der sozialen Verantwortung von Unternehmen (Corporate Social Responsibility, CSR), der in dem Maße an Bedeutung gewinnt, wie die Nutzung digitaler Technologien weiter zunimmt und sich weiterentwickelt. Durch verantwortungsvolle Praktiken bei der Nutzung digitaler Technologien können Unternehmen dazu beitragen, ein nachhaltigeres und gerechteres digitales Umfeld zu schaffen.“
Englische Version
„Corporate digital responsibility (CDR) refers to the ethical and responsible use of digital technologies and data by businesses. It encompasses a wide range of issues, including data privacy, cybersecurity, online safety, and the social and environmental impacts of digital technologies. Businesses have a responsibility to protect the personal data of their customers and employees, and to use digital technologies in a way that is transparent, ethical, and respectful of individuals‘ rights. This includes ensuring that personal data is collected and used in accordance with relevant laws and regulations, and that appropriate safeguards are in place to protect against data breaches and other forms of cyber attacks.
In addition, businesses have a responsibility to consider the social and environmental impacts of their digital technologies. This may include issues such as the energy use and carbon emissions of digital infrastructure, the environmental impacts of e-waste, and the potential for digital technologies to contribute to social and economic inequality.
CDR is an important aspect of corporate social responsibility (CSR), and it is becoming increasingly important as the use of digital technologies continues to grow and evolve. By adopting responsible practices in their use of digital technologies, businesses can help to promote a more sustainable and equitable digital environment.“
Mein Fazit
Keine Veränderungen im Text meinerseits. Es ist einfach unfassbar! Es bleibt zu hoffen, dass uns andere KI-Systeme dabei helfen, digitale Verantwortung nicht nur zu beschreiben, sondern auch umzusetzen.
Quellen
What is Corporate Digital Responsibility? Text der Künstlichen Intelligenz ChatGPT . https://chat.openai.com Zugegriffen am 20.12.2022 Übersetzt mit der Künstlichen Intelligenz DeepL. https://www.deepl.com/translator“ Zugegriffen am 21.12.2022
„KI-Einsatz insbesondere im Beschäftigtenkontext braucht den Rahmen eines CDR-Managements, um die Unternehmenswerte in diesen transformativen Veränderungen zu vertreten. CDR stellt den strategischen Rahmen bereit, um den „moralischen Kompass“ in der digitalen Welt neu auszurichten, und in der Unternehmenspraxis umzusetzen.“ Soweit mein Fazit im Buchbeitrag „KI verlangt Corporate Digital Responsibility (CDR). Den moralischen Kompass für Beschäftigte an KI-gestützten Arbeitsplätzen ausrichten“ im Springer-Sammelband „Künstliche Intelligenz und Arbeitswelt 2030“, herausgegeben von Inka Knappertsbusch und Kai Gondlach. Es ist mir eine Ehre und Freude zur Diskussion dieses Zukunftsthema mit 76 weiteren Autor:innen – viele aus dem „Who is who“ der deutschen KI-Welt – beitragen zu dürfen.
Zusammenfassung
Bei der Nutzung künstlicher Intelligenz entstehen Risiken für Gleichheit, Fairness, Würde, Persönlichkeitsschutz und Privatheit für Beschäftigte und Unternehmen, die heutigen Unternehmenswerten entgegenstehen. Corporate Digital Responsibility (CDR) bietet Lösungsansätze, um Vertrauen des Unternehmenshandelns beim Einsatz von KI an den Arbeitsplätzen zu ermöglichen. Im Beitrag wird argumentiert, dass eine Etablierung einer KI-Ethik oder KI-Governance dazu nicht ausreicht, sondern es einen Organisationsrahmen braucht, der dann zu Wettbewerbsvorteilen führt. Um den „moralischen Kompass“ im „algorithmischen Neuland“ neu auszurichten, wird Unternehmen empfohlen, CDR in der Organisation umzusetzen.
Handlungsempfehlungen
Ich spoilere jetzt hier mal meine Handlungsempfehlungen zum Abschluß des Beitrags für Unternehmen, die bereits KI an Arbeitsplätzen einsetzen oder dies planen:
Knowhow-Aufbau in dem neuen Fachgebiet der Corporate DigitalResponsibility.
Verantwortung für CDR in der Organisation verankern und Top-Management-Unterstützung sicherstellen.
Stakeholder-Erwartungen an digitaleVerantwortung, insbesondere der Beschäftigten bzw. Beschäftigtenvertreter aufnehmen.
Eigene Selbstverpflichtungen zur verantwortungsvollen Digitalisierung entwickeln oder bestehende CDR-Kodizes unterzeichnen, wie z.B. den der CDR-Initiative des Bundesministeriums für Justiz und Verbraucherschutz oder der Building Bloxx des Bundesverbands Digitale Wirtschaft.
Wieso die Unternehmen gut daran tun, dies zu tun, dazu lesen Sie gerne meinen Beitrag oder kommen direkt auf mich zu!
Quelle: Dörr S. (2021) KI verlangt Corporate Digital Responsibility (CDR). In: Knappertsbusch I., Gondlach K. (eds) Arbeitswelt und KI 2030. Springer Gabler, Wiesbaden. https://doi.org/10.1007/978-3-658-35779-5_5
Eltern haften für ihre Kinder und Unternehmen für ihre Chatbots – sowohl rechtlich als auch moralisch. Mit einem Wertekodex für Chatbots können die ethischen Herausforderungen, die sie im Gepäck haben, gemeistert werden. 16 Fragen zeigen den Weg in eine digitale Unternehmensverantwortung im Chatbot-Projekt.
„Ein Chatbot ist ein Computerprogramm, das es Menschen ermöglicht, Informationen von Maschinen in einer natürlichen, unterhaltsamen Art und Weise mit Hilfe von Text und Sprache zu erhalten.“
Chatbots verändern das Serviceerlebnis. Bis 2026 soll der globale Chatbot-Markt mehr als 10,5 Milliarden US-Dollar groß sein. Die erwarteten Einsparungen durch Automatisierung übersteigen dies um ein Vielfaches. Immer mehr Unternehmen planen, Chatbots einzusetzen. Aber Chatbots zeigen eine Reihe von ethischen Herausforderungen, daher sind sie mit Audits für Künstliche Intelligenz ethisch zu kontrollieren und zu überwachen. Denn Unternehmen, die Chatbots einsetzen, haften – auch moralisch. Daraus folgt, dass ein Chatbot dann zu einem Unternehmen passt, wenn er die Werte der Organisation widerspiegelt. Für Marken und Unternehmen, die auf ihre Reputation achten, reicht daher ein KI-Audit nicht aus.
Ich freue mich, dass ich bei Informatik Aktuell einen Artikel darüber schreiben konnte, wie Unternehmenswerte bei Künstlicher Intelligenz durch Corporate Digital Responsibility gesichert werden können. Den gesamten Artikel könnt ihr hier lesen.
Wie kann sicher gestellt werden, dass ein Chatbots die eigenen Unternehmenswerte repräsentiert?
Eine Unternehmensführung mit Corporate Digital Responsibility ermöglicht Vertrauen in Chatbots. Konkret kann ein Wertekodex für Chatbots als Ausgangspunkt für digitale Verantwortung dienen. Im folgenden sind Fragen aufgeführt, die Unternehmen sich stellen können, wenn sie eine wertekonforme Nutzung eines Chatbots wünschen. Aus diesen Fragen kann ein Wertekodex für Chatbots entwickelt werden.
Zweck: Wem dient der Chatbot und welche Bedürfnisse deckt er ab?
Usability: Wie schnell und einfach erreichen Nutzer:innen eine menschliche Servicekraft, wenn sie möchten?
Transparenz: Wie erfährt der Nutzende, ob er mit einem Menschen oder einer Maschine spricht?
Benefizienz: Wir wird vermieden, dass der Chatbot Nutzer:innen beschimpft oder anderweitig verbal schädigt?
Diversität: Wie repräsentiert der Chatbot ihre Kundengruppen?
Inklusion: Wer wird von ihrem Chatbot nicht angesprochen?
Fairness: Agiert der Chatbot unvoreingenommen und diskriminierungsfrei?
Datenschutz: Wie schützt der Chatbot die Privatsphäre der Nutzer:innen?
Verantwortung: Wem gehören die Informationen, die der Chatbot entwickelt, und was geschieht mit ihnen?
Transparenz: Wie können Nutzer:innen sich über den Chatbot beschweren oder Entscheidungen widersprechen?
Sicherheit: Wie wird der Missbrauch des Chatbots verhindert?
Arbeitsschutz: Wie werden die Mitglieder des Serviceteams in ihrer Privatsphäre geschützt?
Umwelt- und Klimaschutz: Welche Umwelt- oder Klimaauswirkungen hat der Chatbot?
Rechenschaftspflicht: Wie erhalten Nutzer:innen Informationen zur Überwachung des Chatbots, zu sensiblen Vorfällen, Fehlern oder Missbräuchen?
Erklärbarkeit: Wie ist sichergestellt, dass die Entscheidungen bzw. Informationen des Chatbots nachvollziehbar und erklärbar sind?
Humans-in-command-Approach: Ist klar, wer den Chatbot wie überwacht?
Je nach Unternehmenskultur und Kernwerten, wie z.B. Kundenorientierung, Diversität und Inklusion oder Datenschutz und Privatheit, kann ein solcher Wertekodex eine andere Ausprägung haben. Ein Chatbot-Projekt eignet sich hervorragend, um Corporate Digital Responsibility anzuwenden und auszuweiten.
Wie eine Umsetzung erfolgen kann, habe ich im Artikel auf „Informatik Aktuell“ beschrieben. Ich begleite Projekte zur Umsetzung von Corporate Digital Responsiblity durch Chatbot-Projekte und stehe bei Fragen gerne zur Verfügung.
Seit längerem bin ich Teil der wunderbaren LinkedIn-Gruppe „KI aus der Praxis – Chancen von Künstlicher Intelligenz für unsere Gesellschaft“. Die „Rheintochter“ Birgit Eschbach ist eine der Moderatorinnen und hat mich zum „KI-Talk“ eingeladen. Am 3. Juli 2021, einem herrlichen Samstagmorgen, sprachen wir über den Rhein hinweg zu Nachhaltigkeitsstrategien für Digitalisierung und Künstliche Intelligenz. Den „rote Faden“ im Interview bildete die Frage, welche „Hüte“ ich derzeit so auf habe und wie mein beruflicher Weg mich hierhin geführt hat. Wir redeten also über meine Beratung WiseWay, das Netzwerk für nachhaltigkeitsengagierte Business-Frauen Futurewoman und die internationale zivilgesellschaftliche Initative für KI-Audits ForHumanity.org.
Es war mir eine Freude, mich mit Birgit als infomierter und zugewandter Gastgeberin auszutauschen. Wir kannten uns vorher nicht. Im Talk (bzw. Im Warming up vorher) stellten wir fest, dass wir wirklich nur einen Katzensprung entfernt voneinander leben. Daher haben wir uns auf einen Post-Corona-Kaffee verabredet. Kaum zu glauben, dass das nun auch wieder möglich ist!
Wer mal reinhören möchte, die Aufzeichnung auf YouTube ist hier verlinkt. Wenn Euch das Thema interessiert, kommt doch gerne in die LinkedIn-Gruppe dazu – hier geht´s lang. Vielleicht habt ihr ja auch Lust der nächste – oder übernächste Gast – im KI-Talk zu sein? Birigt freut sich darauf!
Um Kosten zu sparen, setzen immer mehr Unternehmen Automatisierte Entscheidungsfindung mittels „Künstlicher Intelligenz“ im Rekrutierungsprozess ein. Entgegen der Hoffnung, die Entscheidungen würden dadurch „objektiver“, ist jedoch das Gegenteil der Fall: Die Algorithmen wiederholen bestehende Diskriminierungsmuster, so eine Studie der Heinrich-Heine-Universität Düsseldorf und der HTW Berlin (vgl. Köchling et al. 2020). Personalvorständen, Personalleitung oder Chief Human Ressource Officers kommt eine besondere Verantwortung zu, die digitale Verantwortung von Unternehmen sicherzustellen und soziale Nachhaltigkeit in der Digitalisierung zu ermöglichen.
Die digitale Transformation birgt umfangreiche neue Herausforderungen insbesondere im sozialen Bereich. Unternehmen stehen vor der Herausforderung, die vielfältige Wirkung der digitalen Transformation abzuwägen und eine sozial verantwortliche Transformation zu gestalten. In besonderem Maße erweitert sich die Verantwortung des bzw. der CHRO bzw. Personalleiter:in für die Folgen der Digitalisierung auf das Personal. Es ist ihre Aufgabe im Unternehmen im Sinne der Fürsorgepflichten das Recht auf Würde, selbstbestimmtem Handeln und geschützter Privatsphäre der Beschäftigten zu wahren sowie die Organisation vor diskriminierendem Handeln, z.B. durch verzerrte Auswahl von Bewerber:innen, zu schützen. Diese Rechte sind durch die Digitalisierung und den Einsatz von Automatisierter Entscheidungsfindung mittels „Künstlicher Intelligenz“ potenziell in Gefahr.
Daher müssen Personalbereiche Komptenzen zu Corporate Digital Responsibility aufbauen und sytematisch das digitalethische Handeln ihres Unternehmens bewerten. Sie unterstützen damit den Vorstandsvorsitzenden bzw. die Geschäftsführung zukunftsweisend und strategisch.
Ich kann daher Personalleiter:innen nur ermutigen. ihre digitale Verantwortung gemeinsam mit anderen Funktionen im Unternehmen, wie z. B. der Corporate Responsibility und dem Compliance-Bereich wahrzunehmen.
Folgende Handlungsfeldern der Corporate Digital Responsibility stehen insbesondere bei Unternehmen mit datenbasierten Geschäftsmodellen im Vordergrund:
Gewährleistung des Datenschutzes von Mitarbeitenden und Stakeholdern
Förderung der digitalen Vielfalt und Inklusion unter Berücksichtigung der Anforderung der Beschäftigten
Respektieren der ‚Eigentumsrechte‘ von Content und Daten sowie Schaffen klarer Regelungen für Beschäftigte
Sicherstellen verantwortungsvoller Datenvalidierungs- und Entsorgungspraktiken (DSGVO-Umsetzung)
Gewährleistung ethischer Entscheidungsalgorithmen durch „Künstliche Intelligenz“, um einen ‚Bias‘ oder Diskriminierung zu verhindern
Verfolgung sozialethischer Praktiken, indem unerwünschte Nebenwirkungen auf Gemeinschaft und Stakeholder bewertet werden
Weitere Themen der CDR beziehen sich stärker auf die Veränderung der betrieblichen Organisation, wie z.B. „New Work“, Mitarbeiterpartizipation etc. Aus Verantwortungsperspektive wird dabei eine Befassung mit unterschiedlichen Beschäftigtengruppen auch jenseits der arbeitsrechtlich verankerten Fürsorgepflichten erwartet, d.h. auch die Übernahme von Verantwortung gegenüber selbständig mitarbeitenden Freelancern.
Neben den ethischen Folgen der Datennutzung von Beschäftigten ist insbesondere Knowhow zum verantwortungsvollen Einsatz von „Künstlicher Intelligenz“ und weiteren digitalen Technologien in der Personalarbeit nötig. Einen hervorragenden Überblick zu den Aufgaben und Handlungsmaximen bietet die Richtlinie des Ethikbereit HR in Tech.
Die Personalleitung kann maßgeblich dazu beitragen, soziale Nachhaltigkeit in der Digitalisierung umzusetzen und Risiken vom Unternehmen fern zu halten. Voraussetzung dafür ist ein Kompetenzaufbau im Bereich der Corporate Digital Responsibility im HR-Bereich.
Die technologische Entwicklung schreitet rasant voran, daher ist keine Zeit zu verlieren.
Köchling A, Riazy S, Wehner MC, Simbeck K (2020) Highly Accurate, But Still Discriminatory. Bus Inf Syst Eng (2020). https://doi.org/10.1007/s12599-020-00673-w. Zugegriffen 18.01.2021
Panelteilnahm bei der 1E9-Konferenz 2020 am 11.11.2020. Aufzeichnung der 40-minütigen Diskussion zusammen mit Max Haarich (Gesellschaft für Digitale Ethik), Tarek R. Besold (neurocat GmbH) und Nicolai Andersen (Deloitte) zum Thema „Corporate Digital Responsibility: Künstliche Intelligenz funktioniert nicht ohne Verantwortung“. Moderation Wolfgang Kerler (1E9).