Sustainable AI Radar: Nachhaltige KI-Anwendungen umsetzen

Sustainable AI Radar: Nachhaltige KI-Anwendungen umsetzen

Im Zeitalter der Digitalisierung sind künstliche Intelligenz (KI) und maschinelles Lernen treibende Kräfte hinter zahlreichen technologischen Fortschritten. Viele Unternehmen wollen die Potenziale von KI-Anwendungen für ihren Unternehmenserfolg nutzen. Doch wie können wir sicherstellen, dass diese Technologien nicht nur fortschrittlich, sondern auch nachhaltig sind? Hier kommt der Sustainable AI Radar ins Spiel.

Was ist nachhaltige KI?

Nachhaltige KI bezieht sich auf KI-Anwendungen, die aktuelle Bedürfnisse erfüllen, ohne zukünftige Generationen zu beeinträchtigen. Es geht um mehr als nur „Green AI“ oder „AI For Good“. Es berücksichtigt ökologische, ökonomische und soziale Aspekte und betont einen verantwortungsbewussten Einsatz von KI für das Wohl der Gesellschaft. Mehr im Blogbeitrag „Nachhaltige KI“ – Was bedeutet das eigentlich?.

„Nachhaltige KI ist KI, die für Planet und Menschen sorgt – heute wie morgen.“

Dr. Saskia Dörr

 

Das Modell für eine nachhaltige KI

Das Ziel des Modells für nachhaltige KI ist es, Organisationen und Unternehmen dabei zu unterstützen, ihre KI-Initiativen so zu gestalten, dass sie nicht nur technologisch fortschrittlich, sondern auch sozial verantwortungsbewusst und ökologisch nachhaltig sind. Dies trägt zur Förderung einer verantwortungsvollen Technologiezukunft bei, in der KI-Anwendungen sowohl dem Planeten als auch den Menschen dienen, heute und in Zukunft.

Der Sustainable AI Radar ist ein Tool zur Entwicklung nachhaltiger KI-Anwendungen in Unternehmen und Organisationen

Sustainable AI Radar © 2023 by Dr. Saskia Dörr is licensed under Attribution-NonCommercial-NoDerivatives 4.0 International. To view a copy of this license, visit http://creativecommons.org/licenses/by-nc-nd/4.0/

Es besteht aus drei Ebenen:

  1. Start-Voraussetzungen: Diese Ebene prüft grundlegende Anforderungen vor dem Start einer KI-Initiative, wie die Klärung des Zwecks, die Nützlichkeit, die Erforderlichkeit der KI, das Risiko-Nutzen-Verhältnis und die Rechtskonformität.
  2. Nachhaltigkeitspotenziale: In dieser Ebene geht es um die Möglichkeiten, die eine KI-Anwendung bietet, um Nachhaltigkeitsaspekte umzusetzen, z.B. durch effizienteren Ressourcenverbrauch, Förderung nachhaltiger Produkte und Verbesserung der Produktqualität.
  3. Eingebettete Nachhaltigkeitskriterien: Diese Ebene bezieht sich auf die Integration von Nachhaltigkeitskriterien in die KI-Entwicklung und -Anwendung, unter Berücksichtigung verschiedener Stakeholder-Gruppen wie Management, Entwickler, Nutzer, und die Gesellschaft insgesamt.

Zu jeder Ebene wurden umfangreiche Prüffragen entwickelt.

Die erste Ebene sind die Start-Voraussetzungen, die geprüft und aus einer Nachhaltigkeitsperspektive mit „ja“ beanwortet werden sollten, bevor es in eine KI-Entwicklung geht. Die zweite Ebene bilden die Nachhaltigkeitspotenziale in der KI-Anwendung ab. Hier bilden sich Chancen mit einer KI-Anwendung Nachhaltigkeitsaspekte umzusetzen und dadurch zur sozial-ökologischen Transformation beizutragen. Die dritte Ebene ist die Ebene der eingebetteten Nachhaltigkeitskriterien. Diese Kriterien repräsentieren die Ansprüche an eine verantwortliche und nachhaltige KI in Entwicklung unterschiedlicher Stakeholder.

 

Anwendung in Organisationen und Unternehmen

Die Anwendung des Modells für nachhaltige KI ermöglicht Teams in Organisationen oder Unternehmen die Reflexion, inwieweit Aspekte der Nachhaltigkeit bereits bei einer KI-Anwendung berücksichtigt sind oder zukünftig stärker berücksichtigt werden sollten. Diese Reflexion kann beispielsweise bei der Erstellung einer KI-Anwendungsstrategie, Entwicklung von KI-Prinzipien oder im Rahmen der Einführung einer konkreten KI-Anwendung stattfinden.

Sustainable AI Radar: Ein Werkzeug für nachhaltige KI

Damit nachhaltige KI nicht nur ein Konzept bleibt, sondern aktiv in die Arbeitsprozesse und Workshops integriert werden kann, wurde der „Sustainable AI Radar“ als Werkzeug entwickelt. Er hilft Unternehmen und Organisationen, ihre KI-Initiativen nachhaltig zu gestalten, indem er die Hauptkomponenten und Features der KI in den Fokus rückt und für mehr Transparenz sorgt.

Der Sustainble AI Radar stellt die drei oben beschriebenen Ebenen grafisch dar.

Hier geht´s zum Download der Grafik „Sustainable AI Radar

Reflexionsfragen für eine nachhaltige KI-Anwendung

Im folgenden sind Auszüge aus den Prüffragen für jede Modellebene aufgeführt:

Start-Voraussetzungen
  • Zweck: Ist der Zweck der KI klar und verständlich?
  • Nützlichkeit: Stiftet die KI Sinn und ist nützlich für die breite Masse?
  • Erforderlichkeit: Ist eine KI tatsächlich notwendig?
  • Risikoangemessenheit: Stehen Risiken und Nutzen im Verhältnis?
  • Rechtskonformität: Entspricht die KI-Anwendung rechtlichen Standards?
Nachhaltigkeitspotenziale
  • Ressourcenverbrauch: Zielt die KI darauf ab, Ressourcen effizienter einzusetzen?
  • Förderung nachhaltiger Produkte und Konsummuster: Stärkt die KI nachhaltige Produktion und Konsum?
  • Produktqualität: Verbessert die KI Produktqualität oder -lebensdauer?
Eingebettete Nachhaltigkeit

Die Ansprüche von sieben Stakeholder-Gruppen werden abgebildet: Management, Entwicklerinnen und Entwickler, Beschäftigte, Nutzerinnen und Nutzer, Partner, Energie, Umwelt & Klima sowie Gesellschaft allgemein.

Zu  40 Checkpunkten wurden Prüffragen entwickelt, z.B.

  • Transparenz: Wie offen und nachvollziehbar sind KI-Verfahren?
  • Sicherheit und Datenqualität: Wie wird sichergestellt, dass die KI sicher ist und qualitativ hochwertige Daten verwendet?
  • Arbeitsauswirkung: Wie beeinflusst die KI die Arbeitsbedingungen der Mitarbeiter?

Darüber hinaus adressiert der Radar Fragen zur Barrierefreiheit, Datenschutz, Nutzerfreundlichkeit, Energieeffizienz, CO2-Fußabdruck und vielem mehr.

Wertbeitrag des Sustainable AI Radar: Gelebte digitale Verantwortung

Damit werden „blinde Flecken“ im Bereich der digitalen Unternehmensverantwortung vermieden. Gerade in Unternehmen und Organisationen, die Nachhaltigkeit in ihre Unternehmensziele integriert haben und als Vorreiter auf diesem Gebiet voran gehen, wird so das Risiko des „Greenwashing“ und/oder „Bluewashings“ im digitalen Bereich vermieden.

Bluewashing und Greenwashing sind beides irreführende unternehmerische Praktiken, bei denen Unternehmen ihre soziale oder ökologische Verantwortung kommunikativ nach außen überbewerten. Während Greenwashing sich auf falsche oder übertriebene Behauptungen über die Umweltfreundlichkeit eines Unternehmens konzentriert, fokussiert sich Bluewashing mehr auf die soziale Verantwortung und manchmal auch auf wirtschaftliche und gemeinschaftliche Aspekte. Beide Praktiken dienen dazu, ein positiveres Bild des Unternehmens zu zeichnen, als es der gelebten Verpflichtung von sozial oder ökologisch verantwortlichen Praktiken entspricht. Bluewashing und Greenwashing können für Unternehmen riskant sein, da sie neben rechtlichen Risiken den guten Ruf schädigen können. Falsche Behauptungen können das Vertrauen der Kunden, Mitarbeiter und der Öffentlichkeit verlieren. Ein schlechter Ruf kann langfristige Geschäftsbeziehungen beeinträchtigen und die Marktposition schwächen.

Mit der Anwendung des „Sustainable AI Radar“ und der entsprechenden systematischen Umsetzung des Modells für nachhaltige KI, können Unternehmen ihrer gesellschaftlichen Verantwortung im digitalen Bereich nachkommen.

 

Verantwortungsvollere Technologiezukunft!?

Der Sustainable AI Radar ist ein Schritt in Richtung einer verantwortungsvolleren Technologiezukunft. Unternehmer*innen, Entscheider*innen und Entwickler sind aufgerufen, dieses Werkzeug zu verwenden, um sicherzustellen, dass ihre KI-Anwendungen nicht nur technisch fortgeschritten, sondern auch sozial verantwortungsbewusst und ökologisch nachhaltig sind.

In Anlehnung an das Motto „AI that cares for the planet and the people – today and tomorrow“ ist es an der Zeit, dass wir nicht nur über die Chancen von KI sprechen, sondern auch über ihre Verantwortung gegenüber unserem Planeten und unserer Gesellschaft.

 

Sie wollen den „Sustainable AI Radar“ kennen lernen? Kommen Sie gerne auf mich zu?

Die Bedeutung der Ethik und Verantwortung bei der Nutzung von Künstlicher Intelligenz

Die Bedeutung der Ethik und Verantwortung bei der Nutzung von Künstlicher Intelligenz

In einer zunehmend digitalisierten Welt spielt Künstliche Intelligenz (KI) eine immer größere Rolle. Unternehmen nutzen KI-Technologien, um Prozesse zu optimieren, Arbeitsplätze zu automatisieren und Wettbewerbsvorteile zu erlangen. Allerdings birgt KI neben ihren immensen Potenzialen auch Risiken, die im Einklang mit Unternehmenswerten und gesellschaftlichen Erwartungen berücksichtigt werden müssen. Hier kommt die Corporate Digital Responsibility (CDR) ins Spiel. Dieser Artikel beleuchtet die Bedeutung der CDR bei der Nutzung von Künstlicher Intelligenz, zeigt die Vorteile für Unternehmen auf, erläutert den Unterschied zwischen KI-Ethik und CDR und beleuchtet Schritte zur Umsetzung von CDR.

Der Erfolg der Digitalisierung liegt nicht nur im Tempo, sondern auch in der Verantwortung. Eine verantwortungsvolle Digitalisierung ist kein Ballast, sondern ein Katalysator für Innovation und Wachstum. Lassen Sie uns gemeinsam die digitale Zukunft gestalten – mit einem klaren Kompass aus Ethik und Nachhaltigkeit. Verantwortung ist der Schlüssel zum Erfolg in der vernetzten Welt.

Welche Vorteile bietet CDR-Management beim Einsatz von Künstlicher Intelligenz?

Die Nutzung von Künstlicher Intelligenz bietet Unternehmen immense Möglichkeiten, birgt jedoch auch Risiken. CDR spielt eine entscheidende Rolle bei der verantwortungsvollen Nutzung von KI.

  • Vertrauen und Glaubwürdigkeit: Der Einsatz von KI kann bei Mitarbeitenden und der Gesellschaft Unsicherheit hervorrufen. Die Verantwortung für den sicheren und ethisch vertretbaren Einsatz von KI liegt bei den Unternehmen. Durch CDR-Maßnahmen können Unternehmen Vertrauen und Glaubwürdigkeit aufbauen. Mitarbeitende und Kunden können darauf vertrauen, dass das Unternehmen KI verantwortungsbewusst und menschenzentriert einsetzt.
  • Risikominimierung: Die Nutzung von KI birgt verschiedene Risiken wie algorithmische Voreingenommenheit, Verletzung der Privatsphäre oder Diskriminierung. CDR-Maßnahmen können diese Risiken minimieren. Unternehmen können sicherstellen, dass ihre KI-Systeme fair, transparent und unvoreingenommen arbeiten. Dadurch schützen sie Mitarbeitende und Kunden vor möglichen Schäden und verringern das Risiko von Reputationsverlusten.
  • Mitarbeiterzufriedenheit und -engagement: Mitarbeitende sind wichtige Stakeholder bei der Nutzung von KI-gestützten Technologien. CDR ermöglicht es Unternehmen, Bedenken und Anliegen der Mitarbeitenden zu berücksichtigen und in den Entscheidungsprozess einzubeziehen. Durch eine menschenzentrierte Gestaltung von KI-gestützten Arbeitsplätzen können Unternehmen die Mitarbeiterzufriedenheit und das Engagement steigern.
  • Wettbewerbsvorteile: CDR ist nicht nur eine moralische Verpflichtung, sondern kann auch zu Wettbewerbsvorteilen führen. Unternehmen, die CDR-Maßnahmen in ihre Geschäftspraktiken integrieren, zeigen ihr Engagement für ethisches und verantwortungsvolles Handeln. Das kann Kunden dazu bewegen, sich für diese Unternehmen zu entscheiden, und sie als Arbeitgeber attraktiver machen. Zudem können Unternehmen durch den sicheren und verantwortungsvollen Einsatz von KI ihre Reputation stärken und potenzielle Risiken minimieren.
  • Gesellschaftliche Verantwortung: Unternehmen tragen eine gesellschaftliche Verantwortung und sollten sich ihrer Auswirkungen auf die Gesellschaft bewusst sein. Die Nutzung von KI kann weitreichende Folgen haben, die über die Unternehmensgrenzen hinausgehen. Durch CDR-Maßnahmen können Unternehmen sicherstellen, dass sie ihre technologische Macht verantwortungsvoll einsetzen und zum Gemeinwohl beitragen.

CDR ermöglicht es Unternehmen, Vertrauen aufzubauen, Risiken zu minimieren, Mitarbeiterzufriedenheit zu steigern, Wettbewerbsvorteile zu erlangen und ihre gesellschaftliche Verantwortung wahrzunehmen. Unternehmen, die CDR in ihre Geschäftspraktiken integrieren, zeigen ihre Bereitschaft, KI zum Wohl aller einzusetzen und die Potenziale der Technologie verantwortungsvoll zu nutzen.

Was ist der Unterschied zwischen KI-Ethik und Corporate Digital Responsibility?

Der Unterschied zwischen KI-Ethik und Corporate Digital Responsibility (CDR) liegt in ihrem Fokus und Anwendungsbereich:

KI-Ethik befasst sich mit ethischen Fragen und Herausforderungen in Bezug auf die Entwicklung, Implementierung und Nutzung von Künstlicher Intelligenz (KI). Sie zielt darauf ab, sicherzustellen, dass KI-Systeme ethischen Grundsätzen und Werten entsprechen und die Rechte und Würde von Menschen respektieren. KI-Ethik befasst sich mit Fragen der Fairness, Transparenz, Verantwortlichkeit, Privatsphäre, Vorurteilsfreiheit und anderen ethischen Aspekten, die mit KI verbunden sind. Sie versucht, Richtlinien und Standards für den verantwortungsvollen Einsatz von KI zu entwickeln.

Corporate Digital Responsibility (CDR) hingegen bezieht sich auf die digitale Verantwortung von Unternehmen im Allgemeinen, einschließlich des verantwortungsvollen Einsatzes von KI. CDR erweitert das Konzept der Corporate Social Responsibility (CSR) auf den digitalen Kontext und umfasst die Verantwortung von Unternehmen für ihre digitale Transformation, den Umgang mit Daten, den Einsatz von Technologien und die Auswirkungen auf Stakeholder und die Gesellschaft. CDR beinhaltet die Integration von Digital Responsibility in die Unternehmensstrategie, die Einhaltung ethischer Grundsätze und Standards, den Schutz von Privatsphäre und Datenschutz, die Sicherstellung von Transparenz und Rechenschaftspflicht, die Förderung von Cybersicherheit und die Berücksichtigung sozialer Auswirkungen der digitalen Technologien. CDR geht über die spezifischen ethischen Fragen von KI hinaus und betrachtet die Gesamtverantwortung eines Unternehmens im digitalen Zeitalter.

KI-Ethik ist ein Teilbereich von CDR und konzentriert sich auf die ethischen Fragen im Zusammenhang mit KI. CDR bietet einen umfassenderen Rahmen, der ethische Prinzipien in die gesamte Unternehmenskultur und den Umgang mit digitalen Technologien integriert.

Wäre KI-Ethik ohne CDR nicht schlanker und einfacher?

Obwohl KI-Ethik ein wichtiger Ansatz ist, um den ethischen Einsatz von Künstlicher Intelligenz (KI) zu fördern, reicht er allein nicht aus, um den organisationalen Aspekt und die umfassende Verantwortung von Unternehmen im Zusammenhang mit KI zu adressieren. Hier sind einige Gründe, warum KI-Ethik allein nicht ausreicht und warum Corporate Digital Responsibility (CDR) einen umfassenderen Rahmen bietet:

  • Verantwortung und Accountability: KI-Ethik kann Unternehmen dabei helfen, ethische Prinzipien zu formulieren, reicht jedoch nicht aus, um sicherzustellen, dass diese Prinzipien in der gesamten Organisation umgesetzt werden. CDR geht über die bloße Formulierung ethischer Prinzipien hinaus und bietet einen Rahmen für die Verantwortung und Rechenschaftspflicht von Unternehmen im Umgang mit KI. Es schafft klare Strukturen, Prozesse und Mechanismen, um sicherzustellen, dass ethische Standards in der gesamten Organisation eingehalten werden.
  • Integration in die Unternehmenskultur: CDR fördert die Integration von Verantwortung und Ethik in die Unternehmenskultur. Es geht darum, Verantwortungsbewusstsein und ethisches Handeln in allen Ebenen und Bereichen des Unternehmens zu fördern. Dies beinhaltet die Sensibilisierung der Mitarbeiter für ethische Fragen im Zusammenhang mit KI, die Schulung von Führungskräften in verantwortungsvoller Entscheidungsfindung und die Integration von Verantwortungsaspekten in die Unternehmenswerte und -ziele.
  • Stakeholder-Beteiligung: CDR legt Wert auf die Einbeziehung aller relevanten Stakeholder in den Entscheidungsprozess. Dies umfasst Mitarbeiter, Kunden, Lieferanten, Regulierungsbehörden und die Gesellschaft im Allgemeinen. Indem Unternehmen ihre Stakeholder in den Dialog einbeziehen und deren Bedenken und Interessen berücksichtigen, wird ein höheres Maß an Verantwortlichkeit und Transparenz geschaffen. KI-Ethik allein kann die Vielfalt der Stakeholder-Perspektiven möglicherweise nicht angemessen berücksichtigen.
  • Vertrauensbildung: CDR zielt darauf ab, das Vertrauen der Stakeholder zu gewinnen und zu erhalten. Durch den Einsatz von KI können das Vertrauen der Mitarbeiter, Kunden und der breiteren Öffentlichkeit beeinträchtigt werden, wenn ethische Bedenken und soziale Auswirkungen nicht angemessen berücksichtigt werden. CDR bietet Unternehmen einen Rahmen, um Vertrauen aufzubauen, indem es Verantwortung, Transparenz und Rechenschaftspflicht fördert.
  • Zukunftsfähigkeit und Anpassungsfähigkeit: Die digitale Technologie und der Einsatz von KI entwickeln sich kontinuierlich weiter. Neue ethische Herausforderungen und Fragestellungen können auftreten. CDR ermöglicht es Unternehmen, flexibel zu sein und sich den sich ändernden Anforderungen anzupassen. Es schafft einen Rahmen für kontinuierliches Lernen, Anpassungsfähigkeit und Innovation im Umgang mit KI.

Insgesamt kann festgehalten werden, dass KI-Ethik ein wichtiger Teil des CDR-Rahmens ist. CDR bietet Unternehmen eine umfassendere Grundlage für Rechenschaftspflicht und Verantwortung im Umgang mit KI. Es integriert ethische Prinzipien in die Unternehmenskultur, fördert die Stakeholder-Beteiligung, baut Vertrauen auf und ermöglicht Unternehmen, sich den sich wandelnden Anforderungen anzupassen. Durch die Implementierung von CDR können Unternehmen sicherstellen, dass ihre digitale Transformation nicht nur ethisch, sondern auch organisatorisch verantwortungsvoll ist.

Wie kann CDR für eine ethische KI-Nutzung umgesetzt werden?

Unternehmen, die Corporate Digital Responsibility (CDR) umsetzen möchten, können verschiedene Schritte unternehmen, um sicherzustellen, dass der Einsatz von Künstlicher Intelligenz verantwortungsvoll erfolgt. Hier sind einige Maßnahmen, die Unternehmen ergreifen können:

  • Bewusstsein schaffen: Das Unternehmen sollte ein Bewusstsein für die Bedeutung von CDR schaffen und sicherstellen, dass alle relevanten Stakeholder, einschließlich des Managements und der Mitarbeiter, die Ziele und Werte der CDR verstehen.
  • Richtlinien und Standards entwickeln: Unternehmen sollten klare Richtlinien und Standards für den Einsatz von Künstlicher Intelligenz entwickeln. Diese sollten ethische Grundsätze, Transparenzanforderungen, Fairnessregeln und den Schutz der Privatsphäre umfassen.
  • Interdisziplinäre Teams einrichten: Unternehmen sollten interdisziplinäre Teams aus Experten verschiedener Bereiche wie Ethik, Recht, Datenschutz, Technologie und Personalwesen zusammenstellen. Diese Teams können bei der Entwicklung und Implementierung von CDR-Maßnahmen unterstützen und sicherstellen, dass alle relevanten Aspekte berücksichtigt werden.
  • Schulungen und Sensibilisierung: Mitarbeiter sollten über die Auswirkungen von Künstlicher Intelligenz und die Bedeutung der CDR informiert werden. Schulungen und Sensibilisierungsmaßnahmen können dazu beitragen, ein gemeinsames Verständnis für ethische und verantwortungsvolle KI-Nutzung zu schaffen.
  • Stakeholder-Einbindung: Unternehmen sollten die Ansichten und Bedenken der relevanten Stakeholder, einschließlich Mitarbeiter, Kunden, Lieferanten und der Gemeinschaft, aktiv einbeziehen. Durch den Dialog und die Zusammenarbeit mit diesen Stakeholdern können Unternehmen sicherstellen, dass ihre KI-Initiativen ihre Bedürfnisse und Erwartungen berücksichtigen.
  • Prüfung von KI-Systemen: Unternehmen sollten KI-Systeme und -Algorithmen regelmäßig überprüfen, um mögliche algorithmische Voreingenommenheit, Diskriminierung oder andere unerwünschte Auswirkungen zu identifizieren und zu beheben. Externe Überprüfungen und Audits können dabei helfen, eine objektive Bewertung der KI-Systeme sicherzustellen.
  • Rechenschaftspflicht und Transparenz: Unternehmen sollten transparent über den Einsatz von Künstlicher Intelligenz kommunizieren und ihre Verantwortung für den sicheren und verantwortungsvollen Einsatz betonen. Die Offenlegung von Richtlinien, Verfahren und Ergebnissen kann das Vertrauen der Stakeholder stärken.
  • Kontinuierliche Verbesserung: CDR ist ein fortlaufender Prozess. Unternehmen sollten regelmäßig ihre CDR-Maßnahmen überprüfen, evaluieren und verbessern, um sicherzustellen, dass sie den sich entwickelnden Anforderungen gerecht werden.

Die Umsetzung von CDR erfordert eine proaktive und engagierte Haltung von Unternehmen. Indem sie ethische Grundsätze, Transparenz, Fairness und den Schutz der Privatsphäre in den Mittelpunkt ihrer KI-Initiativen stellen, können Unternehmen das Vertrauen ihrer Stakeholder gewinnen und langfristigen Erfolg sicherstellen.

Buchbeitrag Springer Buch (2021): Künstliche Intelligenz und Arbeitswelt 2030

Buchbeitrag Springer Buch (2021): Künstliche Intelligenz und Arbeitswelt 2030

Künstliche Intelligenz ist eine Schlüsseltechnologie, die sich in hohem Maße transformativ auf Arbeit auswirkt. Das ist das Thema des Springer-Band „Künstliche Intelligenz und Arbeitswelt 2030“, herausgegeben von Inka Knappertsbusch und Kai Gondlach, der diesen Themenkontext mit Blick auf zukünftige Entwicklungen rechtlich, gesellschaftlich-ethisch und in unterschiedlichen wirtschaftlichen Kontexten diskutiert. Ich freue mich, dass ich neben 77 weiteren Expert:innen aus Praxis und Forschung einen Beitrag dazu leisten durfte. Ich nutzte die Gelegenheit, um einen Themenschwerpunkt zu setzen, den ich aktuell noch für zu wenig beleuchtet halte: Die KI-gestützten Arbeitsplätze und die Frage des Schutzes der Beschäftigten. 

Zusammenfassung des Beitrags

Der von mir verfasste Buchartikel „KI verlangt Corporate Digital Responsibility (CDR). Den moralischen Kompass für Beschäftigte an KI-gestützten Arbeitsplätzen ausrichten“ findet sich im Abschnitt „Ethische und psychologische Aspekte von KI in der Arbeitswelt“.

Bei der Nutzung künstlicher Intelligenz entstehen Risiken für Gleichheit, Fairness, Würde, Persönlichkeitsschutz und Privatheit für Beschäftigte und Unternehmen, die heutigen Unternehmenswerten entgegenstehen. Corporate Digital Responsibility (CDR) bietet Lösungsansätze, um Vertrauen des Unternehmenshandelns beim Einsatz von KI an den Arbeitsplätzen zu ermöglichen. Im Beitrag wird argumentiert, dass eine Etablierung einer KI-Ethik oder KI-Governance dazu nicht ausreicht, sondern es einen Organisationsrahmen braucht, der dann zu Wettbewerbsvorteilen führt. Um den „moralischen Kompass“ im „algorithmischen Neuland“ neu auszurichten, wird Unternehmen empfohlen, CDR in der Organisation umzusetzen.

Zum gesamten Beitrag auf Springer Link geht es hier entlang.

Quellennachweis

Dörr, Saskia (2021) KI verlangt Corporate Digital Responsibility (CDR). Den moralischen Kompass für Beschäftigte an KI-gestützten Arbeitsplätzen ausrichten. In: Inka Knappertsbusch und Kai Gondlach (Hrsg.) Arbeitswelt und KI 2030.Herausforderungen und Strategien für die Arbeit von morgen. Berlin: Springer. https://link.springer.com/book/10.1007/978-3-658-35779-5. Zugegriffen am 4.1.2022

 

 

 

1E9 Jahreskonferenz 11/20: „Künstliche Intelligenz funktioniert nicht ohne Verantwortung“

1E9 Jahreskonferenz 11/20: „Künstliche Intelligenz funktioniert nicht ohne Verantwortung“

Panelteilnahme bei der 1E9-Konferenz 2020 am 11.11.2020. Aufzeichnung der 40-minütigen Diskussion zusammen mit Max Haarich (Gesellschaft für Digitale Ethik), Tarek R. Besold (neurocat GmbH) und Nicolai Andersen (Deloitte) zum Thema „Corporate Digital Responsibility: Künstliche Intelligenz funktioniert nicht ohne Verantwortung“. Moderation Wolfgang Kerler (1E9).

Informatik Aktuell 08/21: Wertekodex für Chatbots

Informatik Aktuell 08/21: Wertekodex für Chatbots

Ich freue mich sehr, dass mein Beitrag über einen Wertekodex für Chatbots in Informatik Aktuell am 24.8.2021 erschienen ist. Der gesamte Artikel ist HIER zu lesen. Einige Details auch in meinem Blogbeitrag https://wiseway.de/wertekodex-fuer-chatbots/.

Bitte zitieren als: Dörr, Saskia (2021) Wertekodex für Chatbots. Corporate Digital Responsibility sichert Unternehmenswerte bei Künstlicher Intelligenz. Informatik Aktuell vom 24. August 2021. https://www.informatik-aktuell.de/betrieb/kuenstliche-intelligenz/wertekodex-fuer-chatbots.html. Zugegriffen 26.08.2021

 

Bertelsmann Stiftung (2020): „Künstliche Intelligenz“ mit Corporate Digital Responsibility „zähmen“: Ansätze zur Umsetzung der Unternehmenspraxis

Bertelsmann Stiftung (2020): „Künstliche Intelligenz“ mit Corporate Digital Responsibility „zähmen“: Ansätze zur Umsetzung der Unternehmenspraxis

Beitrag zur Anwendung von Corporate-Responsibility-Instrumenten beim verantwortlichen Umgang mit Künstlicher Intelligenz in Unternehmen. Veröffentlicht 2020 im Sammelband zu  Corporate Digital Responsibility von Bertelsmann Stiftung und Wittenberg-Zentrum Globale Ethik. 

Dörr S (2020) „Künstliche Intelligenz mit CDR »zähmen«: Ansätze zur Umsetzung der Unternehmenspraxis“. Bertelsmann Stiftung, Wittenberg-Zentrum für Globale Ethik (Hrsg.) Unternehmensverantwortung im digitalen Wandel. Ein Debattenbeitrag zu Corporate Digital Responsibility.

Zusammenfassung

Künstliche Intelligenz (KI) stehen als mächtige digitale Werkzeuge mit hohen wirtschaftlichen Erwartungen im Kern der gesellschaftlichen Diskussion um Nachhaltigkeit, Ethik und Verantwortung der Digitalisierung. Es wird begründet, wieso es unternehmerisch sinnvoll ist, verantwortlich mit KI umzugehen. Weiterhin wird der Frage nachgegangen, wie bestehende Konzepte und Instrumente der Corporate Responsibility, – Wesentlichkeitsbewertung und Stakeholderdialoge, DIN ISO 26000, OECD-Leitlinien und UN Global Compact oder Selbstverpflichtungen –  dafür eingesetzt werden können. Da die Instrumente zwar heute im Ansatz genutzt werden können, aber noch zum Teil wesentliche Entwicklungen ausstehen, wird vorgeschlagen, den Weg von der CR zur CDR im Unternehmen explorativ im Sinne eines agilen Innovationszyklus zu gestalten.

Das Buch und der Beitrag steht zum kostenfreien Download auf der Seite der Bertelsmann Stiftung zur Verfügung und kann dort als Printausgabe auch kostenpflichtig bestellt werden.

Veröffentlicht im Oktober 2020 auf wiseway.de