Künstliche Intelligenz ist längst ein strategischer Faktor für Unternehmen – doch mit der Verantwortung für KI wächst auch die Notwendigkeit einer fundierten Corporate AI Responsibility. Unternehmen stehen vor der Herausforderung, ihre KI-Systeme nicht nur leistungsfähig, sondern auch ethisch, nachhaltig und gesellschaftlich akzeptabel zu gestalten. Dabei reicht es nicht aus, ethische Prinzipien zu formulieren – sie müssen in die Unternehmensstrategie und -prozesse integriert werden.
WiseWay unterstützt Unternehmen dabei, KI nicht nur konform zu bestehenden Regelwerken zu gestalten, sondern als nachhaltigen Wettbewerbsvorteil zu nutzen.
Corporate AI Responsibility als Teil der Corporate Digital Responsibility (CDR)
Verantwortungsvolle KI ist kein isoliertes Thema, sondern eingebettet in eine umfassendere Corporate Digital Responsibility (CDR). Dieser Ansatz betrachtet KI nicht nur unter ethischen Gesichtspunkten, sondern als Teil der gesamten digitalen Unternehmensverantwortung.
CDR geht über einzelne ethische Leitlinien hinaus und stellt sicher, dass Unternehmen klare Governance-Strukturen etablieren, Risiken antizipieren und Stakeholder in den Entscheidungsprozess einbinden. Ein umfassender Überblick zu diesem Thema findet sich in unserem Fachartikel „KI verlangt Corporate Digital Responsibility“: https://wiseway.de/project/ki-verlangt-corporate-digital-responsibility/.
Drei zentrale Säulen der Corporate AI Responsibility
Transparenz und Nachvollziehbarkeit von KI-Entscheidungen
KI-Systeme müssen für alle Beteiligten verständlich sein. Eine „Black-Box“-KI birgt nicht nur ethische Risiken, sondern auch regulatorische Unsicherheiten. Explainable AI (XAI) kann hier Lösungen bieten, indem sie nachvollziehbare Modelle entwickelt.
Der Sustainable AI Radar ist ein praxisorientiertes Framework zur Bewertung von Fairness, Transparenz und Nachhaltigkeit in KI-Systemen. Mehr dazu: https://wiseway.de/project/sustainable-ai-radar/.
Fairness und diskriminierungsfreie KI
Algorithmische Verzerrungen führen zu Ungleichbehandlung – sei es in der Kreditvergabe, im Recruiting oder in der Gesundheitsversorgung. Unternehmen müssen sicherstellen, dass ihre KI-Systeme nicht bestehende Diskriminierungen verstärken.
Nachhaltige KI-Governance und regulatorische Weitsicht
Unternehmen sollten KI-Strategien nicht nur an bestehenden Regularien wie der DSGVO oder dem EU AI Act ausrichten, sondern auch proaktiv eigene Governance-Modelle entwickeln.
Ein wichtiger Schritt ist die Verankerung von Corporate AI Responsibility als Teil der Unternehmensstrategie. Dazu gehört die Einrichtung interdisziplinärer Ethikgremien, die Sensibilisierung von Mitarbeitenden und die kontinuierliche Überprüfung von KI-Systemen.
Fallbeispiele: Wie Unternehmen Corporate AI Responsibility erfolgreich umsetzen
In der heutigen digitalen Welt ist es entscheidend, den Menschen in den Mittelpunkt der technologischen Entwicklung zu stellen.Das Buch „Menschenzentrierte Digitalisierung – Corporate Digital Responsibility“, herausgegeben von Prof. Dr. Dr. Alexander Brink, beleuchtet, wie Unternehmen die Digitalisierung verantwortungsvoll gestalten können.
In meinem Beitrag thematisiere ich das digitale Wohlbefinden und die Herausforderung durch manipulative Designstrategien.Viele digitale Plattformen nutzen Techniken wie endloses Scrollen oder automatische Wiedergabe, um die Nutzungsdauer zu erhöhen. Besonders in Kritik geraten sind die sog. „Dark Patterns“, die Nutzer*innen zu „Klicks“ veranlassen, die sie so nicht geplant hatten. Diese Praktiken können jedoch zu Stress und kognitiver Überlastung führen; sie können zu wirtschaftlichlichem Schaden führen.
Werteorientierte digitale Unternehmen sollten daher auf solche Designs verzichten und stattdessen Lösungen entwickeln, die das Wohlbefinden der Nutzer fördern. Marketingverantwortliche und Gestalter*innen spielen eine Schlüsselrolle bei der Förderung des digitalen Wohlbefindens.Durch die Etablierung ethischer Designstandards, Förderung von Transparenz und Stärkung der Nutzerautonomie können sie das Vertrauen und die Loyalität der Kunden gewinnen.Eine Positionierung, die das Wohlbefinden der Nutzer*innen in den Mittelpunkt stellt, kann zudem Zielgruppen ansprechen, die Wert auf soziale Verantwortung und Nachhaltigkeit legen.
Die Neuausrichtung auf menschenzentriertes digitales Design erfordert Zeit, engagierte Akteure und kreative Gestalter*innen. Corporate Digital Responsibility bietet den strategischen Rahmen für Unternehmen.
Im Zeitalter der Digitalisierung sind künstliche Intelligenz (KI) und maschinelles Lernen treibende Kräfte hinter zahlreichen technologischen Fortschritten. Viele Unternehmen wollen die Potenziale von KI-Anwendungen für ihren Unternehmenserfolg nutzen. Doch wie können wir sicherstellen, dass diese Technologien nicht nur fortschrittlich, sondern auch nachhaltig sind? Hier kommt der Sustainable AI Radar ins Spiel.
Was ist nachhaltige KI?
Nachhaltige KI bezieht sich auf KI-Anwendungen, die aktuelle Bedürfnisse erfüllen, ohne zukünftige Generationen zu beeinträchtigen. Es geht um mehr als nur „Green AI“ oder „AI For Good“. Es berücksichtigt ökologische, ökonomische und soziale Aspekte und betont einen verantwortungsbewussten Einsatz von KI für das Wohl der Gesellschaft. Mehr im Blogbeitrag „Nachhaltige KI“ – Was bedeutet das eigentlich?.
„Nachhaltige KI ist KI, die für Planet und Menschen sorgt – heute wie morgen.“
Dr. Saskia Dörr
Das Modell für eine nachhaltige KI
Das Ziel des Modells für nachhaltige KI ist es, Organisationen und Unternehmen dabei zu unterstützen, ihre KI-Initiativen so zu gestalten, dass sie nicht nur technologisch fortschrittlich, sondern auch sozial verantwortungsbewusst und ökologisch nachhaltig sind. Dies trägt zur Förderung einer verantwortungsvollen Technologiezukunft bei, in der KI-Anwendungen sowohl dem Planeten als auch den Menschen dienen, heute und in Zukunft.
Start-Voraussetzungen: Diese Ebene prüft grundlegende Anforderungen vor dem Start einer KI-Initiative, wie die Klärung des Zwecks, die Nützlichkeit, die Erforderlichkeit der KI, das Risiko-Nutzen-Verhältnis und die Rechtskonformität.
Nachhaltigkeitspotenziale: In dieser Ebene geht es um die Möglichkeiten, die eine KI-Anwendung bietet, um Nachhaltigkeitsaspekte umzusetzen, z.B. durch effizienteren Ressourcenverbrauch, Förderung nachhaltiger Produkte und Verbesserung der Produktqualität.
Eingebettete Nachhaltigkeitskriterien: Diese Ebene bezieht sich auf die Integration von Nachhaltigkeitskriterien in die KI-Entwicklung und -Anwendung, unter Berücksichtigung verschiedener Stakeholder-Gruppen wie Management, Entwickler, Nutzer, und die Gesellschaft insgesamt.
Zu jeder Ebene wurden umfangreiche Prüffragen entwickelt.
Die erste Ebene sind die Start-Voraussetzungen, die geprüft und aus einer Nachhaltigkeitsperspektive mit „ja“ beanwortet werden sollten, bevor es in eine KI-Entwicklung geht. Die zweite Ebene bilden die Nachhaltigkeitspotenziale in der KI-Anwendung ab. Hier bilden sich Chancen mit einer KI-Anwendung Nachhaltigkeitsaspekte umzusetzen und dadurch zur sozial-ökologischen Transformation beizutragen. Die dritte Ebene ist die Ebene der eingebetteten Nachhaltigkeitskriterien. Diese Kriterien repräsentieren die Ansprüche an eine verantwortliche und nachhaltige KI in Entwicklung unterschiedlicher Stakeholder.
Anwendung in Organisationen und Unternehmen
Die Anwendung des Modells für nachhaltige KI ermöglicht Teams in Organisationen oder Unternehmen die Reflexion, inwieweit Aspekte der Nachhaltigkeit bereits bei einer KI-Anwendung berücksichtigt sind oder zukünftig stärker berücksichtigt werden sollten. Diese Reflexion kann beispielsweise bei der Erstellung einer KI-Anwendungsstrategie, Entwicklung von KI-Prinzipien oder im Rahmen der Einführung einer konkreten KI-Anwendung stattfinden.
Sustainable AI Radar: Ein Werkzeug für nachhaltige KI
Damit nachhaltige KI nicht nur ein Konzept bleibt, sondern aktiv in die Arbeitsprozesse und Workshops integriert werden kann, wurde der „Sustainable AI Radar“ als Werkzeug entwickelt. Er hilft Unternehmen und Organisationen, ihre KI-Initiativen nachhaltig zu gestalten, indem er die Hauptkomponenten und Features der KI in den Fokus rückt und für mehr Transparenz sorgt.
Der Sustainble AI Radar stellt die drei oben beschriebenen Ebenen grafisch dar.
Reflexionsfragen für eine nachhaltige KI-Anwendung
Im folgenden sind Auszüge aus den Prüffragen für jede Modellebene aufgeführt:
Start-Voraussetzungen
Zweck: Ist der Zweck der KI klar und verständlich?
Nützlichkeit: Stiftet die KI Sinn und ist nützlich für die breite Masse?
Erforderlichkeit: Ist eine KI tatsächlich notwendig?
Risikoangemessenheit: Stehen Risiken und Nutzen im Verhältnis?
Rechtskonformität: Entspricht die KI-Anwendung rechtlichen Standards?
Nachhaltigkeitspotenziale
Ressourcenverbrauch: Zielt die KI darauf ab, Ressourcen effizienter einzusetzen?
Förderung nachhaltiger Produkte und Konsummuster: Stärkt die KI nachhaltige Produktion und Konsum?
Produktqualität: Verbessert die KI Produktqualität oder -lebensdauer?
Eingebettete Nachhaltigkeit
Die Ansprüche von sieben Stakeholder-Gruppen werden abgebildet: Management, Entwicklerinnen und Entwickler, Beschäftigte, Nutzerinnen und Nutzer, Partner, Energie, Umwelt & Klima sowie Gesellschaft allgemein.
Zu 40 Checkpunkten wurden Prüffragen entwickelt, z.B.
Transparenz: Wie offen und nachvollziehbar sind KI-Verfahren?
Sicherheit und Datenqualität: Wie wird sichergestellt, dass die KI sicher ist und qualitativ hochwertige Daten verwendet?
Arbeitsauswirkung: Wie beeinflusst die KI die Arbeitsbedingungen der Mitarbeiter?
Darüber hinaus adressiert der Radar Fragen zur Barrierefreiheit, Datenschutz, Nutzerfreundlichkeit, Energieeffizienz, CO2-Fußabdruck und vielem mehr.
Wertbeitrag des Sustainable AI Radar: Gelebte digitale Verantwortung
Damit werden „blinde Flecken“ im Bereich der digitalen Unternehmensverantwortung vermieden. Gerade in Unternehmen und Organisationen, die Nachhaltigkeit in ihre Unternehmensziele integriert haben und als Vorreiter auf diesem Gebiet voran gehen, wird so das Risiko des „Greenwashing“ und/oder „Bluewashings“ im digitalen Bereich vermieden.
Bluewashing und Greenwashing sind beides irreführende unternehmerische Praktiken, bei denen Unternehmen ihre soziale oder ökologische Verantwortung kommunikativ nach außen überbewerten. Während Greenwashing sich auf falsche oder übertriebene Behauptungen über die Umweltfreundlichkeit eines Unternehmens konzentriert, fokussiert sich Bluewashing mehr auf die soziale Verantwortung und manchmal auch auf wirtschaftliche und gemeinschaftliche Aspekte. Beide Praktiken dienen dazu, ein positiveres Bild des Unternehmens zu zeichnen, als es der gelebten Verpflichtung von sozial oder ökologisch verantwortlichen Praktiken entspricht. Bluewashing und Greenwashing können für Unternehmen riskant sein, da sie neben rechtlichen Risiken den guten Ruf schädigen können. Falsche Behauptungen können das Vertrauen der Kunden, Mitarbeiter und der Öffentlichkeit verlieren. Ein schlechter Ruf kann langfristige Geschäftsbeziehungen beeinträchtigen und die Marktposition schwächen.
Mit der Anwendung des „Sustainable AI Radar“ und der entsprechenden systematischen Umsetzung des Modells für nachhaltige KI, können Unternehmen ihrer gesellschaftlichen Verantwortung im digitalen Bereich nachkommen.
Verantwortungsvollere Technologiezukunft!?
Der Sustainable AI Radar ist ein Schritt in Richtung einer verantwortungsvolleren Technologiezukunft. Unternehmer*innen, Entscheider*innen und Entwickler sind aufgerufen, dieses Werkzeug zu verwenden, um sicherzustellen, dass ihre KI-Anwendungen nicht nur technisch fortgeschritten, sondern auch sozial verantwortungsbewusst und ökologisch nachhaltig sind.
In Anlehnung an das Motto „AI that cares for the planet and the people – today and tomorrow“ ist es an der Zeit, dass wir nicht nur über die Chancen von KI sprechen, sondern auch über ihre Verantwortung gegenüber unserem Planeten und unserer Gesellschaft.
Sie wollen den „Sustainable AI Radar“ kennen lernen? Kommen Sie gerne auf mich zu?
In einer zunehmend digitalisierten Welt spielt Künstliche Intelligenz (KI) eine immer größere Rolle. Unternehmen nutzen KI-Technologien, um Prozesse zu optimieren, Arbeitsplätze zu automatisieren und Wettbewerbsvorteile zu erlangen. Allerdings birgt KI neben ihren immensen Potenzialen auch Risiken, die im Einklang mit Unternehmenswerten und gesellschaftlichen Erwartungen berücksichtigt werden müssen. Hier kommt die Corporate Digital Responsibility (CDR) ins Spiel. Dieser Artikel beleuchtet die Bedeutung der CDR bei der Nutzung von Künstlicher Intelligenz, zeigt die Vorteile für Unternehmen auf, erläutert den Unterschied zwischen KI-Ethik und CDR und beleuchtet Schritte zur Umsetzung von CDR.
Der Erfolg der Digitalisierung liegt nicht nur im Tempo, sondern auch in der Verantwortung. Eine verantwortungsvolle Digitalisierung ist kein Ballast, sondern ein Katalysator für Innovation und Wachstum. Lassen Sie uns gemeinsam die digitale Zukunft gestalten – mit einem klaren Kompass aus Ethik und Nachhaltigkeit. Verantwortung ist der Schlüssel zum Erfolg in der vernetzten Welt.
Welche Vorteile bietet CDR-Management beim Einsatz von Künstlicher Intelligenz?
Die Nutzung von Künstlicher Intelligenz bietet Unternehmen immense Möglichkeiten, birgt jedoch auch Risiken. CDR spielt eine entscheidende Rolle bei der verantwortungsvollen Nutzung von KI.
Vertrauen und Glaubwürdigkeit: Der Einsatz von KI kann bei Mitarbeitenden und der Gesellschaft Unsicherheit hervorrufen. Die Verantwortung für den sicheren und ethisch vertretbaren Einsatz von KI liegt bei den Unternehmen. Durch CDR-Maßnahmen können Unternehmen Vertrauen und Glaubwürdigkeit aufbauen. Mitarbeitende und Kunden können darauf vertrauen, dass das Unternehmen KI verantwortungsbewusst und menschenzentriert einsetzt.
Risikominimierung: Die Nutzung von KI birgt verschiedene Risiken wie algorithmische Voreingenommenheit, Verletzung der Privatsphäre oder Diskriminierung. CDR-Maßnahmen können diese Risiken minimieren. Unternehmen können sicherstellen, dass ihre KI-Systeme fair, transparent und unvoreingenommen arbeiten. Dadurch schützen sie Mitarbeitende und Kunden vor möglichen Schäden und verringern das Risiko von Reputationsverlusten.
Mitarbeiterzufriedenheit und -engagement: Mitarbeitende sind wichtige Stakeholder bei der Nutzung von KI-gestützten Technologien. CDR ermöglicht es Unternehmen, Bedenken und Anliegen der Mitarbeitenden zu berücksichtigen und in den Entscheidungsprozess einzubeziehen. Durch eine menschenzentrierte Gestaltung von KI-gestützten Arbeitsplätzen können Unternehmen die Mitarbeiterzufriedenheit und das Engagement steigern.
Wettbewerbsvorteile: CDR ist nicht nur eine moralische Verpflichtung, sondern kann auch zu Wettbewerbsvorteilen führen. Unternehmen, die CDR-Maßnahmen in ihre Geschäftspraktiken integrieren, zeigen ihr Engagement für ethisches und verantwortungsvolles Handeln. Das kann Kunden dazu bewegen, sich für diese Unternehmen zu entscheiden, und sie als Arbeitgeber attraktiver machen. Zudem können Unternehmen durch den sicheren und verantwortungsvollen Einsatz von KI ihre Reputation stärken und potenzielle Risiken minimieren.
Gesellschaftliche Verantwortung: Unternehmen tragen eine gesellschaftliche Verantwortung und sollten sich ihrer Auswirkungen auf die Gesellschaft bewusst sein. Die Nutzung von KI kann weitreichende Folgen haben, die über die Unternehmensgrenzen hinausgehen. Durch CDR-Maßnahmen können Unternehmen sicherstellen, dass sie ihre technologische Macht verantwortungsvoll einsetzen und zum Gemeinwohl beitragen.
CDR ermöglicht es Unternehmen, Vertrauen aufzubauen, Risiken zu minimieren, Mitarbeiterzufriedenheit zu steigern, Wettbewerbsvorteile zu erlangen und ihre gesellschaftliche Verantwortung wahrzunehmen. Unternehmen, die CDR in ihre Geschäftspraktiken integrieren, zeigen ihre Bereitschaft, KI zum Wohl aller einzusetzen und die Potenziale der Technologie verantwortungsvoll zu nutzen.
Was ist der Unterschied zwischen KI-Ethik und Corporate Digital Responsibility?
Der Unterschied zwischen KI-Ethik und Corporate Digital Responsibility (CDR) liegt in ihrem Fokus und Anwendungsbereich:
KI-Ethik befasst sich mit ethischen Fragen und Herausforderungen in Bezug auf die Entwicklung, Implementierung und Nutzung von Künstlicher Intelligenz (KI). Sie zielt darauf ab, sicherzustellen, dass KI-Systeme ethischen Grundsätzen und Werten entsprechen und die Rechte und Würde von Menschen respektieren. KI-Ethik befasst sich mit Fragen der Fairness, Transparenz, Verantwortlichkeit, Privatsphäre, Vorurteilsfreiheit und anderen ethischen Aspekten, die mit KI verbunden sind. Sie versucht, Richtlinien und Standards für den verantwortungsvollen Einsatz von KI zu entwickeln.
Corporate Digital Responsibility (CDR) hingegen bezieht sich auf die digitale Verantwortung von Unternehmen im Allgemeinen, einschließlich des verantwortungsvollen Einsatzes von KI. CDR erweitert das Konzept der Corporate Social Responsibility (CSR) auf den digitalen Kontext und umfasst die Verantwortung von Unternehmen für ihre digitale Transformation, den Umgang mit Daten, den Einsatz von Technologien und die Auswirkungen auf Stakeholder und die Gesellschaft. CDR beinhaltet die Integration von Digital Responsibility in die Unternehmensstrategie, die Einhaltung ethischer Grundsätze und Standards, den Schutz von Privatsphäre und Datenschutz, die Sicherstellung von Transparenz und Rechenschaftspflicht, die Förderung von Cybersicherheit und die Berücksichtigung sozialer Auswirkungen der digitalen Technologien. CDR geht über die spezifischen ethischen Fragen von KI hinaus und betrachtet die Gesamtverantwortung eines Unternehmens im digitalen Zeitalter.
KI-Ethik ist ein Teilbereich von CDR und konzentriert sich auf die ethischen Fragen im Zusammenhang mit KI. CDR bietet einen umfassenderen Rahmen, der ethische Prinzipien in die gesamte Unternehmenskultur und den Umgang mit digitalen Technologien integriert.
Wäre KI-Ethik ohne CDR nicht schlanker und einfacher?
Obwohl KI-Ethik ein wichtiger Ansatz ist, um den ethischen Einsatz von Künstlicher Intelligenz (KI) zu fördern, reicht er allein nicht aus, um den organisationalen Aspekt und die umfassende Verantwortung von Unternehmen im Zusammenhang mit KI zu adressieren. Hier sind einige Gründe, warum KI-Ethik allein nicht ausreicht und warum Corporate Digital Responsibility (CDR) einen umfassenderen Rahmen bietet:
Verantwortung und Accountability: KI-Ethik kann Unternehmen dabei helfen, ethische Prinzipien zu formulieren, reicht jedoch nicht aus, um sicherzustellen, dass diese Prinzipien in der gesamten Organisation umgesetzt werden. CDR geht über die bloße Formulierung ethischer Prinzipien hinaus und bietet einen Rahmen für die Verantwortung und Rechenschaftspflicht von Unternehmen im Umgang mit KI. Es schafft klare Strukturen, Prozesse und Mechanismen, um sicherzustellen, dass ethische Standards in der gesamten Organisation eingehalten werden.
Integration in die Unternehmenskultur: CDR fördert die Integration von Verantwortung und Ethik in die Unternehmenskultur. Es geht darum, Verantwortungsbewusstsein und ethisches Handeln in allen Ebenen und Bereichen des Unternehmens zu fördern. Dies beinhaltet die Sensibilisierung der Mitarbeiter für ethische Fragen im Zusammenhang mit KI, die Schulung von Führungskräften in verantwortungsvoller Entscheidungsfindung und die Integration von Verantwortungsaspekten in die Unternehmenswerte und -ziele.
Stakeholder-Beteiligung: CDR legt Wert auf die Einbeziehung aller relevanten Stakeholder in den Entscheidungsprozess. Dies umfasst Mitarbeiter, Kunden, Lieferanten, Regulierungsbehörden und die Gesellschaft im Allgemeinen. Indem Unternehmen ihre Stakeholder in den Dialog einbeziehen und deren Bedenken und Interessen berücksichtigen, wird ein höheres Maß an Verantwortlichkeit und Transparenz geschaffen. KI-Ethik allein kann die Vielfalt der Stakeholder-Perspektiven möglicherweise nicht angemessen berücksichtigen.
Vertrauensbildung: CDR zielt darauf ab, das Vertrauen der Stakeholder zu gewinnen und zu erhalten. Durch den Einsatz von KI können das Vertrauen der Mitarbeiter, Kunden und der breiteren Öffentlichkeit beeinträchtigt werden, wenn ethische Bedenken und soziale Auswirkungen nicht angemessen berücksichtigt werden. CDR bietet Unternehmen einen Rahmen, um Vertrauen aufzubauen, indem es Verantwortung, Transparenz und Rechenschaftspflicht fördert.
Zukunftsfähigkeit und Anpassungsfähigkeit: Die digitale Technologie und der Einsatz von KI entwickeln sich kontinuierlich weiter. Neue ethische Herausforderungen und Fragestellungen können auftreten. CDR ermöglicht es Unternehmen, flexibel zu sein und sich den sich ändernden Anforderungen anzupassen. Es schafft einen Rahmen für kontinuierliches Lernen, Anpassungsfähigkeit und Innovation im Umgang mit KI.
Insgesamt kann festgehalten werden, dass KI-Ethik ein wichtiger Teil des CDR-Rahmens ist. CDR bietet Unternehmen eine umfassendere Grundlage für Rechenschaftspflicht und Verantwortung im Umgang mit KI. Es integriert ethische Prinzipien in die Unternehmenskultur, fördert die Stakeholder-Beteiligung, baut Vertrauen auf und ermöglicht Unternehmen, sich den sich wandelnden Anforderungen anzupassen. Durch die Implementierung von CDR können Unternehmen sicherstellen, dass ihre digitale Transformation nicht nur ethisch, sondern auch organisatorisch verantwortungsvoll ist.
Wie kann CDR für eine ethische KI-Nutzung umgesetzt werden?
Unternehmen, die Corporate Digital Responsibility (CDR) umsetzen möchten, können verschiedene Schritte unternehmen, um sicherzustellen, dass der Einsatz von Künstlicher Intelligenz verantwortungsvoll erfolgt. Hier sind einige Maßnahmen, die Unternehmen ergreifen können:
Bewusstsein schaffen: Das Unternehmen sollte ein Bewusstsein für die Bedeutung von CDR schaffen und sicherstellen, dass alle relevanten Stakeholder, einschließlich des Managements und der Mitarbeiter, die Ziele und Werte der CDR verstehen.
Richtlinien und Standards entwickeln: Unternehmen sollten klare Richtlinien und Standards für den Einsatz von Künstlicher Intelligenz entwickeln. Diese sollten ethische Grundsätze, Transparenzanforderungen, Fairnessregeln und den Schutz der Privatsphäre umfassen.
Interdisziplinäre Teams einrichten: Unternehmen sollten interdisziplinäre Teams aus Experten verschiedener Bereiche wie Ethik, Recht, Datenschutz, Technologie und Personalwesen zusammenstellen. Diese Teams können bei der Entwicklung und Implementierung von CDR-Maßnahmen unterstützen und sicherstellen, dass alle relevanten Aspekte berücksichtigt werden.
Schulungen und Sensibilisierung: Mitarbeiter sollten über die Auswirkungen von Künstlicher Intelligenz und die Bedeutung der CDR informiert werden. Schulungen und Sensibilisierungsmaßnahmen können dazu beitragen, ein gemeinsames Verständnis für ethische und verantwortungsvolle KI-Nutzung zu schaffen.
Stakeholder-Einbindung: Unternehmen sollten die Ansichten und Bedenken der relevanten Stakeholder, einschließlich Mitarbeiter, Kunden, Lieferanten und der Gemeinschaft, aktiv einbeziehen. Durch den Dialog und die Zusammenarbeit mit diesen Stakeholdern können Unternehmen sicherstellen, dass ihre KI-Initiativen ihre Bedürfnisse und Erwartungen berücksichtigen.
Prüfung von KI-Systemen: Unternehmen sollten KI-Systeme und -Algorithmen regelmäßig überprüfen, um mögliche algorithmische Voreingenommenheit, Diskriminierung oder andere unerwünschte Auswirkungen zu identifizieren und zu beheben. Externe Überprüfungen und Audits können dabei helfen, eine objektive Bewertung der KI-Systeme sicherzustellen.
Rechenschaftspflicht und Transparenz: Unternehmen sollten transparent über den Einsatz von Künstlicher Intelligenz kommunizieren und ihre Verantwortung für den sicheren und verantwortungsvollen Einsatz betonen. Die Offenlegung von Richtlinien, Verfahren und Ergebnissen kann das Vertrauen der Stakeholder stärken.
Kontinuierliche Verbesserung: CDR ist ein fortlaufender Prozess. Unternehmen sollten regelmäßig ihre CDR-Maßnahmen überprüfen, evaluieren und verbessern, um sicherzustellen, dass sie den sich entwickelnden Anforderungen gerecht werden.
Die Umsetzung von CDR erfordert eine proaktive und engagierte Haltung von Unternehmen. Indem sie ethische Grundsätze, Transparenz, Fairness und den Schutz der Privatsphäre in den Mittelpunkt ihrer KI-Initiativen stellen, können Unternehmen das Vertrauen ihrer Stakeholder gewinnen und langfristigen Erfolg sicherstellen.
Mein Buchkapitel in der englischsprachigen Ausgabe „Work and AI 2030“ trägt den Titel Artificial Intelligence demands Corporate Digital Responsibility (CDR): Aligning the moral compass for employees in AI-enabled workplaces“.
Darin untersuche ich die komplexe Beziehung zwischen KI, der Arbeitswelt und dem wachsenden Bedarf an unternehmerischer digitaler Verantwortung.Das Kapitel ist Teil der Anthologie „Work and AI 2030“ von Inka Knappertsbusch und Kai Gondlach.Auf fast 400 Seiten haben sie Einblicke und Ausblicke auf den Einfluss von KI auf den Arbeitsalltag gesammelt, praktische Tipps gegeben und die Auswirkungen von KI auf die Arbeitswelt im Jahr 2030 erläutert.
Der Einzug von KI in unsere Arbeitsplätze ist unvermeidlich; sie steigert Produktivität und Effizienz.Allerdings bringt sie auch neue Herausforderungen in Bezug auf Ethik, Privatsphäre und Fairness mit sich.In meinem Kapitel beleuchte ich diese Herausforderungen und biete umsetzbare Einblicke für Organisationen, die sich in dieser neuen KI-Welt zurechtfinden möchten.
Im Mittelpunkt dieses Kapitels steht das Konzept der Corporate Digital Responsibility (CDR).Mit der zunehmenden Verbreitung von KI-Technologien in unseren Arbeitsumgebungen wird CDR zu einer Notwendigkeit.Doch was bedeutet CDR für Ihr Unternehmen?Es beinhaltet die Gestaltung und Implementierung eines organisatorischen Rahmens, der die komplexen Fragen im Zusammenhang mit dem Einsatz von KI am Arbeitsplatz erfolgreich managen kann.
Mein Ziel in diesem Kapitel ist es, zu verdeutlichen, dass die Einführung von KI-Ethik und -Governance keine isolierte Lösung darstellt.Vielmehr erfordert es einen ganzheitlichen Ansatz, der in die Struktur Ihres Unternehmens eingebettet ist und einen neuen „moralischen Kompass“ für das digitale Zeitalter setzt. Ein besonderer Aspekt dieses Kapitels ist sein praktischer Ansatz.Es bietet Leitlinien, wie CDR als strategisches Instrument genutzt werden kann, um Wettbewerbsvorteile zu erzielen, Vertrauen bei Stakeholdern aufzubauen und eine Kultur der digitalen Verantwortung zu schaffen.
Ich hoffe, dass dieses Kapitel wertvolle Einblicke für alle bietet, die sich für die Schnittstelle von KI und Arbeitsplatz interessieren – sei es für Unternehmer, Manager oder KI-Enthusiasten.Mehr denn je ist es wichtig, dass wir unsere Verantwortung in dieser zunehmend digitalen Welt verstehen und wahrnehmen.
In der Wissensdusche Nr. 007 von nachhaltig.digital sprach Jan Quaing mit mir darüber, was sich eigentlich hinter den drei Buchstaben C, D und R verbirgt und wie sich CDR und CSR unterscheiden. Ihr erfahrt im Podcast zudem, was mich bei der CDR-Studie 2021, die NetFed und WiseWay durchgeführt haben, überrascht hat und wie ich mit Unternehmen CDR umsetze. Am Ende darf ich mir noch etwas für 2022 wünschen :-)
„Nice-to-have“ oder wirtschaftliche Notwendigkeit: Nachhaltigkeit in Zeiten der Digitalisierung, das war die Kernfrage der fünften Folge von Deutschland Digital TV vom 30.11.21 Ich war als Expertin für Digitalisierung, Nachhaltigkeit und Corporate Digital Responsibility eingeladen.
Mit Jutta Gräfensteiner, Direktorin Deutschland Digital & Country Plan bei Cisco Deutschland sprach ich zu folgenden Punkten:
Wie passen Nachhaltigkeit und Digitalisierung zusammen?
Ist die Digitalisierung eher eine Gefahr oder eine Lösung für Nachhaltigkeit?
Was sind die Schwerpunkte der Corporate Digital Responsibility (CDR)?
Warum sollten sich Unternehmen mit CDR beschäftigen?
Wie ist denn der Stand der CDR in Deutschland?
Das gesamte Interview sowie das folgende mit Bernd Schmalzridt von SAP ist hier zu sehen.
CISCO Deutschland Digital (2021) „Nice-to-have“ oder wirtschaftliche Notwendigkeit: Nachhaltigkeit in Zeiten der Digitalisierung. Video 28:20 min. https://video.cisco.com/video/6277093269001. Zugegriffen am 1.12.21
Im Jahr 2021 fand sich eine internationale Gruppe von AkademikerInnen, UnternehmenspraktikerInnen und AutorInnen zusammen, um ihre bestehenden Ansätze zur Corporate Digital Responsibility in einer einzigen internationalen Definition zusammenzufassen, die das Beste aus allen Bereichen vereint.
Daraus ist die folgende praxisorientierte Definition entstanden.
„Corporate Digital Responsibility (CDR) bündelt eine Reihe von Praktiken und Verhaltensweisen, die Unternehmen unterstützen, Daten und digitale Technologien auf eine Weise zu nutzen, die als sozial, wirtschaftlich und ökologisch verantwortungsvoll wahrgenommen wird. Sie fördert eine unternehmerische Strategie für eine nachhaltige und faire Digitalisierung.“
Das Internationale CDR Manifesto wurde von vielen Unternehmen unterstützt. Es liegt inzwischen in über 30 Sprachen vor. Die Community-Homepage findet sich hier https://corporatedigitalresponsibility.net/