Anlässlich der bevorstehenden Weihnachtstage habe ich auf die aktuellen Entwicklungen zurückgeschaut. Daher möchte ich Euch heute auf eine Entdeckungsreise mitnehmen – von unseren frühesten Anfängen als Homo sapiens sapiens bis zur Gegenwart der Künstlichen Intelligenz. Diese Reise durch die Zeit ist nicht nur eine Erkundung unserer Vergangenheit, sondern wirft auch ein Licht auf die Möglichkeiten und Herausforderungen, die vor uns liegen, besonders jetzt, da die Weihnachtszeit uns zu Gedanken über Frieden, Menschlichkeit und Zukunft inspiriert.
Unsere Ursprünge und Meilensteine der Entwicklung
Wir Menschen sind eine faszinierende Spezies. Als Homo sapiens sapiens, ein Mitglied der Primatenfamilie, haben wir unseren Ursprung vermutlich vor etwa 300.000 Jahren auf dem afrikanischen Kontinent. Unsere nächsten biologischen Verwandten sind die Menschenaffen, insbesondere die Schimpansen. Unsere Art hat den Werkzeuggebrauch meisterhaft entwickelt und weiterentwickelt, wie keine andere Spezies auf diesem Planeten: Von der Gentechnologie, die es uns ermöglichte, innerhalb einer historischen Millisekunde eine globale Pandemie einzudämmen, über die Kernfusionstechnologie, die die immense Energie der Sonne künstlich nachbildet und uns den Zugang zu unerschöpflichen Energiequellen eröffnen könnte, bis hin zur Kosmologie, die uns durch das James-Webb-Teleskop atemberaubende Bilder ferner Galaxien liefert, die vor unglaublichen 13,4 Milliarden Jahren entstanden sind.
Die Macht über das Feuer
Wie keine andere Art haben wir das Feuer beherrscht und zu unserem Vorteil genutzt. Feuer brachte Wärme, Licht und Schutz und eröffnete uns Zeit für Entwicklung. Anthropologen vermuten, dass das Feuer unseren Vorfahren ermöglichte, Empathie und Gemeinschaft zu entwickeln – die Grundlagen für Kultur. Doch unsere „Krone der Schöpfung“ sitzt schief. Der Bedarf an Feuer in Form von Licht, Wärme und Hitze ist in den letzten 100 Jahren dramatisch gestiegen, was zum verstärkten Verbrauch von Brennstoffen wie Holz, Kohle, Öl oder Gas führte. Diese Entwicklung hat unseren Planeten tiefgreifend verändert und zum menschengemachten Klimawandel geführt, der die Bewohnbarkeit einiger Teile der Welt bedroht.
Die Ära der Künstlichen Intelligenz und ihre Auswirkungen
Nun hat Homo sapiens sapiens die Technologieentwicklung auf eine neue, beeindruckende Ebene gehoben – Künstliche Intelligenz und KI-Bots. ChatGPT, Perplexity, Pi, Mistral, Llama, Bart, Q, Copilot, Midjourney, Dall-E und andere sind in unseren Alltag eingezogen und revolutionieren derzeit jede Facette des globalen Wirtschaftsgefüges. Dabei verbrauchen diese Technologien so viel Energie, dass sie bald den Stromverbrauch ganzer Länder übersteigen könnten. Die Menschheit nutzt ihr „Feuer“ für diese intelligenten Maschinen. Wir stehen bald vor der Herausforderung, knappe Energieressourcen entweder für KI-Rechenleistung oder für menschliche Bedürfnisse einzusetzen. Die Frage, ob wir unsere natürliche Lebensgrundlage weiter gefährden sollen, um die Entwicklung einer dynamischen, KI-gestützten Wirtschaft nicht zu riskieren, wird immer drängender.
Maschinen-Akteure verändern den Alltag
Wir haben mit den KI-Bots Akteure geschaffen, die Zugang zum vernetzten Wissen von Millionen Menschen haben, insbesondere zu den intellektuellen Errungenschaften unserer kreativsten Köpfe. Viele von uns speisen sie mit Daten, verbessern ihre Ergebnisse und „trainieren“ sie. ChatGPT allein bietet heute bereits bis zu 30 % Effizienzsteigerung – Zeit, die wir für andere Aufgaben nutzen können. Zwar könnte der Kapitalismus diese gewonnene Zeit wieder absorbieren, doch bin ich optimistisch, dass wir dadurch Zeit und Muße gewinnen werden. Zeit zum Entspannen, für den Austausch und Gespräche von Mensch zu Mensch, für Nachdenken, Kunst und Kreativität – für das, was uns als Menschen ausmacht. Die Existenz dieser Maschinen, die uns ähneln und scheinbar übermenschliche Fähigkeiten besitzen, verändert uns. Sie zwingen uns, unsere Rolle als Individuen und als Teil der Menschheit zu hinterfragen. Sind wir einem solchen „Datenhirn“ unterlegen? Sollten wir nicht besser die Maschinen entscheiden lassen?
Menschlichkeit erkennen
Diese Fragen bieten uns eine wunderbare Gelegenheit zur Reflexion: Was macht uns als Menschen aus? Was macht unsere Menschlichkeit aus? Sie ermöglichen es uns, die Grenzen des Menschlichen zu erkennen und seine Schönheit in den Grauzonen jenseits von Schwarz oder Weiß, von Null oder Eins, zu entdecken. Ich erlebe oft, dass ich die Antworten eines KI-Bots auf kontroverse Fragen als ausgewogen und durchdacht empfinde – im Gegensatz zu dem Hass, der Hetze und dem gegenseitigen Unverständnis in sozialen Medien. Dies scheint das Ergebnis zu sein, wenn viele von uns „gemeinsam“ denken. Dann bin ich stolz auf diese Menschheit, von der ich ein winziger Teil bin – und vergesse für einen Moment die humanitären Rückschläge und Kriege.
Meilenstein in einer langen Kette menschlicher Anstrengung
KI kann uns helfen, Zeit für das Menschliche zu haben. Sie kann uns helfen, uns als Menschheit selbst zu erkennen. Vor allem aber sollten wir uns stets bewusst sein, dass diese KI-Entwicklungen das Ergebnis eines langen Entwicklungsprozesses sind, an dem die rund 100 Milliarden Menschen beteiligt waren, die seitdem auf der Erde lebten und leben. Die Entwicklung der KI ist somit ein weiterer Meilenstein in dieser langen Kette der menschlichen Anstrengung. Sie repräsentiert nicht nur den technologischen Fortschritt, sondern auch die kumulative Weisheit, Kreativität und das Streben der Menschheit. Sie ist ein Spiegelbild dessen, was wir als Spezies erreichen können, wenn wir unser Wissen und unsere Fähigkeiten bündeln. Durch die KI werden wir in die Lage versetzt, über den Tellerrand des Individuellen hinauszublicken und das Große Ganze der menschlichen Existenz zu betrachten. Sie erinnert uns daran, dass wir alle Teil eines größeren, andauernden Prozesses sind und dass unsere Handlungen und Entdeckungen auf den Schultern derer aufbauen, die vor uns kamen.
Historische Wendepunkte: Feuer und KI
Manche verglichen das „Go Live“ von ChatGPT vor über einem Jahr mit dem „iPhone-Moment“, in Anspielung auf die damaligen Umwälzungen durch die innovative Gestensteuerung. Ich denke jedoch, dass die durch KI und KI-Bots ausgelöste Revolution weitreichender und umfassender sein wird, vergleichbar mit der Beherrschung des Feuers durch die Menschen vor einer Million Jahren.
In meiner kleinen Reise vom frühen Homo sapiens sapiens bis zur heutigen Ära der Künstlichen Intelligenz wird deutlich, dass jede neue Entdeckung und technologische Entwicklung tief in unserer kollektiven Geschichte verwurzelt ist. Die KI, als neuestes Kapitel in dieser Geschichte, ist nicht nur ein Zeugnis technologischen Brillanz, sondern auch ein Spiegel unserer Menschlichkeit. Sie fordert uns heraus, über unser Selbstverständnis als Individuen und als Spezies nachzudenken und eröffnet uns gleichzeitig neue Wege, unsere Zukunft zu gestalten. Während wir an der Schwelle zu weiteren bahnbrechenden Entwicklungen stehen, ist es entscheidend, dass wir uns der Verantwortung bewusst bleiben, die diese Macht mit sich bringt. Unser Umgang mit der KI und deren Auswirkungen wird nicht nur unsere unmittelbare Zukunft prägen, sondern auch das Erbe, das wir für kommende Generationen hinterlassen.
Ein nachdenklicher Jahresausklang zur Weihnachtszeit
Während wir uns auf die ruhigen Tage rund um Weihnachten zubewegen, bietet sich die Gelegenheit, inmitten des festlichen Trubels einen Moment innezuhalten und über das vergangene Jahr nachzudenken. Die Weihnachtszeit, ein Symbol für Besinnlichkeit und Zusammenkunft, erinnert uns daran, wie wichtig es ist, sowohl die kleinen als auch die großen Fortschritte zu würdigen, die wir als Menschheit gemacht haben. Die Entwicklung der Künstlichen Intelligenz ist ein beeindruckendes Beispiel dafür, was wir erreichen können. In dieser Zeit des Jahresendes und der familiären Wärme können wir unsere Hoffnungen für die Zukunft reflektieren – eine Zukunft, in der Technologie und Menschlichkeit Hand in Hand gehen.
Möge die kommende Weihnachtszeit uns allen Frieden, Freude und die Inspiration für ein neues Jahr 2024 voller Möglichkeiten und Entdeckungen bringen.
Wenn wir das breite Spektrum der Anwendungen von Künstlicher Intelligenz (KI) betrachten, wird eines schnell deutlich: Nur ein minimaler Anteil dieser Technologien wird tatsächlich eingesetzt, um nachhaltige Lösungen für die großen Herausforderungen unserer Zeit zu bieten. Trotz der steigenden Präsenz des Themas Nachhaltigkeit in der öffentlichen Diskussion, wie etwa bei der Verbesserung medizinischer Diagnostik, der Steigerung der Klimafreundlichkeit oder der Erhöhung der Biodiversität, liegt der Schwerpunkt der meisten KI-Anwendungen auf wirtschaftlichen, technischen oder unternehmerischen Zielen.
Dies spiegelt sich auch in der Strategie der meisten Unternehmen wider, die Tools wie ChatGPT oder andere große Sprachmodelle zu nutzen beabsichtigen, um ihre Geschäftsprozesse zu optimieren. In unserem Bestreben, diese Lücke zu schließen, präsentieren wir den Sustainable AI Radar – ein Instrument, das darauf abzielt, den Einsatz von KI in Richtung nachhaltiger Entwicklung zu lenken und Unternehmen dabei zu unterstützen, ihre KI-Strategien verantwortungsvoll zu gestalten.
CDR als Verantwortungs-Ökosystem
Unternehmen zeigen Verantwortung für die Gesellschaft, wenn sie eine Strategie für nachhaltige und faire Digitalisierung verfolgen. Corporate Digital Responsibility (CDR) verbindet Management-Praktiken und -Verhaltensweisen, die einem Unternehmen helfen, Daten und digitale Technologien in einer Weise zu nutzen, die als sozial, wirtschaftlich und ökologisch verantwortungsvoll wahrgenommen wird. Anforderungen von Stakeholdern wie Mitarbeitenden, Nutzer*innen, Öffentlichkeit etc. werden aufgenommen, bewertet und integriert.
Corporate Digital Responsibility (CDR) ist eine freiwillige Selbstverpflichtung, die über das gesetzlich Geforderte hinausgeht. Ziel ist es, das Vertrauen der Stakeholder zu gewinnen, was eine entscheidende Voraussetzung für nachhaltige unternehmerische Wertschöpfung ist.
Bei der KI-Nutzung umfasst dies neben der Reduktion von ökologischen Wirkungen auch die Berücksichtigung kultureller Unterschiede und die Vermeidung von Diskriminierung und Verzerrung (Bias), die soziale Gerechtigkeit sowie die Wahrnehmung individueller Bedürfnisse, um eine inklusive und nachhaltige KI-Anwendung zu gewährleisten. CDR bildet also ein Ökosystem, um KI-Anwendungen wirtschaftlich, ökologisch und gesellschaftlich nachhaltig und verantwortlich zu gestalten.
Nachhaltige KI verstehen: Grundlagen und Bedeutung
Nachhaltige KI befasst sich mit KI-Anwendungen, die nicht nur aktuelle Bedürfnisse erfüllen, sondern auch zukünftige Generationen berücksichtigen. Es geht um mehr als „Green AI“ oder „AI for Good“. Nachhaltige KI berücksichtigt ökologische, ökonomische und soziale Aspekte und betont den verantwortungsbewussten Einsatz jeglicher KI-Anwendunge für das Wohl der Gesellschaft. Dies umfasst einen 360-Grad-Blick auf KI-Verantwortung aus verschiedenen Stakeholder-Perspektiven. Es eignet sich insbesondere auch für Unternehmen, die KI im Betrieb einsetzen. Für eine umfassende Betrachtung der nachhaltigen KI und wie sie sich von anderen KI-Konzepten unterscheidet, lesen Sie den Blogbeitrag Was ist Nachhaltige KI?“.
Der Sustainable AI Radar ist ein Instrument, das Organisationen dabei unterstützt, ihre KI-Initiativen so zu gestalten, dass sie sowohl technologisch fortschrittlich als auch sozial verantwortungsbewusst und ökologisch nachhaltig sind. Dieses Tool besteht aus drei Ebenen: Start-Voraussetzungen, Nachhaltigkeitspotenziale und eingebettete Nachhaltigkeitskriterien. Jede Ebene fokussiert auf spezifische Aspekte der Nachhaltigkeit, von der Klärung des Zwecks einer KI-Initiative bis hin zur Integration von Nachhaltigkeitskriterien in die KI-Entwicklung und -Anwendung
Workshop-Highlight: Sustainable AI auf der DigiKon23
In einem interaktiven Workshop auf der DigiKon23-Konferenz stellten wir den Sustainable AI Radar vor und demonstrierten seine Anwendung in einem realistischen Szenario. Die Teilnehmenden, engagierte Fachleute aus Politik, Wissenschaft, Wirtschaft und Verbänden, waren eingeladen, die Geschäftsführung eines fiktiven Unternehmens zu beraten. Im sollten einen Rahmen für die Einführung von ChatGPT bei der „GreenChoice GmbH“ schaffen, einem E-Commerce-Unternehmen für nachhaltige Alltagsprodukte, wobei sowohl die Effizienz gesteigert als auch die Werte und Jobs der Mitarbeitenden geschützt werden sollten. Die Teilnehmenden ließen sich engagiert auf das Szenario ein und entwickelte kritische Fragen und innovative Ansätze für die Einführung von ChatGPT bei der „GreenChoice“. Das Feedback der Teilnehmenden war äußerst positiv. Insbesondere die Anwendungsfreundlichkeit des Sustainable AI Radar wurde hervorgehoben.
DigiKon23: Ein Forum für nachhaltige KI-Innovationen
Die DigiKon23, organisiert von der Bundesnetzagentur in Bonn, bot eine ideale Plattform, um über die Rolle der KI in unserer Zukunft zu sprechen. Mit dem Thema „Datenkompetenz als Schlüsselqualifikation für KMU“ zog die Konferenz ein hochkarätiges Publikum an und ermöglichte fruchtbare Diskussionen über die Verantwortung und Möglichkeiten der Technologie in unserer Gesellschaft. Weitere Informationen zur Konferenz auf der Website der Bundesnetzagentur.
Nachhaltige KI: Ein Blick in die Zukunft
Angesichts des positiven Feedbacks und des Interesses, das wir auf der DigiKon23 erlebt haben, sind wir überzeugt, dass nachhaltige KI eine Schlüsselrolle in der zukünftigen technologischen Landschaft spielen wird. Wir setzen uns dafür ein, Unternehmen und Organisationen dabei zu unterstützen, ihre KI-Strategien nachhaltig zu gestalten, um sowohl heute als auch in Zukunft einen positiven Einfluss zu erzielen.
Weiterführende Informationen und Kontakt
Für weitere Informationen zum Sustainable AI Radar und unsere Vision für eine nachhaltigere Zukunft, besuchen Sie unsere Webseite: Sustainable AI Radar. Wir bieten auch Inhouse-Workshops an, um Organisationen bei der Entwicklung von KI-Leitlbildern oder der Implementierung von nachhaltigen KI-Strategien mit dem Sustainable AI Radar zu unterstützen.
In den letzten Jahren hat der Diskurs um künstliche Intelligenz (KI) den Fokus auf Aspekte wie Ethik, Verantwortung und Umweltschutz gelegt. Insbesondere ist der Begriff „Nachhaltige KI“ aufgetaucht, der für einen holistischen Ansatz steht. Dieser Artikel beleuchtet das Konzept der „Nachhaltigen KI“, das die Entwicklung von KI-Systemen im Einklang mit planetaren Grenzen anstrebt und ökologische, ökonomische und soziale Aspekte berücksichtigt. Hierbei steht das Wohl sowohl der heutigen als auch zukünftiger Generationen im Vordergrund. Im Gegensatz zu anderen KI-Konzepten, die sich hauptsächlich auf ethische oder technische Aspekte konzentrieren, umfasst „Nachhaltige KI“ einen breiteren Fokus, einschließlich der ökologischen Dimension. Es wird hervorgehoben, dass Unternehmen den Mehrwert von Nachhaltigkeitsstrategien nicht nur aus ethischer, sondern auch aus wettbewerbsfähiger Sicht erkennen.
Künstliche Intelligenz (KI) sorgt nicht nur aufgrund ihrer technologischen Fortschritte für Schlagzeilen, sondern auch wegen der ethischen, sozialen und ökologischen Herausforderungen, die sie mit sich bringt. Konzepte wie „Ethische KI“, „Verantwortungsvolle KI“ und „Grüne KI“ sind im Diskurs rund um KI-Technologien immer präsenter geworden. Doch in letzter Zeit hört man immer häufiger auch von „Nachhaltiger KI“. Was verbirgt sich hinter diesem Begriff und wie unterscheidet er sich von anderen KI-Konzepten? In diesem Artikel versuchen wir, Licht ins Dunkel zu bringen.
Nachhaltige KI: Potenzial der Technologie nutzen, ohne unsere Zukunft zu gefährden
Die Definition von „Nachhaltiger KI“ basiert auf der Idee, dass die Entwicklung und Anwendung von KI-Systemen im Einklang mit den planetaren Grenzen stehen sollten. Dabei geht es nicht in erster Linie um den Umweltschutz, sondern auch um die Ausgewogenheit von ökonomischen Dynamiken und den Erhalt des gesellschaftlichen Zusammenhalts. Ein holistischer Ansatz steht im Mittelpunkt, bei dem ökologische, ökonomische und soziale Faktoren berücksichtigt werden. Ziel ist es, KI so zu entwickeln und zu nutzen, dass sie sowohl den heutigen als auch den zukünftigen Generationen dient und nicht schadet (vgl. Rohde et al. 2021).
Kurz und knapp gesagt beschreibt „Nachhaltige KI“ „das Maß, in dem KI-Technologie in eine Richtung entwickelt wird, die die Bedürfnisse der Gegenwart erfüllt, ohne die Fähigkeit zukünftiger Generationen zu beeinträchtigen, ihre eigenen Bedürfnisse zu erfüllen.“ (Bjørlo et al. 2021, eigene Übersetzung).
Diese Definition basiert auf dem bahnbrechenden Brundtland-Bericht und betont den Nachhaltigkeitsgedanken und die Zukunftsorientierung. Im Kontext der Online-Entscheidungsfindung bezieht sich die Entwicklung nachhaltiger KI insbesondere darauf, die Art und Weise, wie KI-Technologie in menschliche Entscheidungsfähigkeiten eingreift, so zu gestalten, dass sie sowohl heutige als auch zukünftige Konsumenten berücksichtigt.
In diesem Kontext sollte KI nicht isoliert, sondern als Teil eines größeren Ökosystems betrachtet werden, das ökologische, ökonomische und soziale Faktoren miteinbezieht. Ziel ist es, KI verantwortungsbewusst und zum Wohl der gesamten Gesellschaft zu nutzen.
In dieser holistischen Perspektive hat KI das Potenzial, weit über direkte Nachhaltigkeitsinitiativen hinaus einen positiven Einfluss zu nehmen. Das Konzept betont die Notwendigkeit, KI-Systeme so zu entwickeln und einzusetzen, dass sie in eine nachhaltig-digitale Gesellschaft integriert werden können. Dabei sollten soziale und ökologische Dimensionen gleichwertig zur ökonomischen Dimension berücksichtigt werden. Das übergeordnete Ziel ist, ein Gleichgewicht zwischen den verschiedenen Säulen der Nachhaltigkeit herzustellen und KI so zu gestalten, dass sie zukünftigen Generationen nützt und nicht schadet.
Im Vergleich zu anderen KI-Konzepten, die sich hauptsächlich auf ethische oder technische Aspekte konzentrieren, setzt „Nachhaltige KI“ einen breiteren Fokus und bindet die ökologische Dimension mit ein.
Definition Nachhaltige Künstliche Intelligenz („Sustainable AI“) in aller Kürze
Nachhaltige KI entstand konzeptionell aus der Nachhaltigkeitsbewegung und der nachhaltigen Entwicklung. Sie bezieht sich auf die Entwicklung und Anwendung von KI-Technologien, die aktuelle Bedürfnisse erfüllen, ohne die Fähigkeiten zukünftiger Generationen zu beeinträchtigen. Sie berücksichtigt ökologische, ökonomische und soziale Aspekte und betont den verantwortungsbewussten Einsatz von KI zum Wohl der gesamten Gesellschaft. Das Konzept weist deutlich über „Green AI“ oder auch „AI For Good“ oder KI für Nachhaltigkeit hinaus.
Sustainable AI emerged conceptually from the sustainability movement and sustainable development. It refers to the development and application of AI technologies that meet current needs without compromising the capabilities of future generations. It takes into account environmental, economic and social aspects and emphasizes the responsible use of AI for the benefit of society as a whole. The concept clearly points beyond „Green AI“ or even „AI For Good“ or AI for Sustainability.
Weitere KI-Konzepte im Überblick
In der schnell wachsenden KI-Landschaft sind viele Begriffe und Definitionen entstanden, die den Verantwortlichkeiten und Erwartungen gerecht werden sollen, die wir an KI-Systeme stellen. Sie reflektieren das wachsende Bewusstsein für die weitreichenden Auswirkungen von KI auf die Gesellschaft und die Notwendigkeit der Steuerung in der technologischen Gestaltung. Hier ein Überblick über relevante Konzepte, um KI gesellschaftlich wünschenswert zu gestalten.
Ethische KI: Die Idee einer „ethischen KI“ hebt die Notwendigkeit hervor, die Entwicklung und Anwendung von KI mit universellen moralischen Werten in Einklang zu bringen. Es geht nicht nur darum, Technologie um ihrer selbst willen zu schaffen, sondern sicherzustellen, dass sie den Menschen und der Gesellschaft im Ganzen dient. Dieses Konzept rückt immer mehr in den Fokus, da wir zunehmend erkennen, welche tiefgreifenden Auswirkungen KI auf alle Lebensbereiche haben kann, sowohl positive als auch negative.
AI For Good (KI für den guten Zweck): Inspiriert und gefördert durch Organisationen wie die UN ITU, legt dieses Konzept den Schwerpunkt darauf, KI gezielt zur Lösung globaler Herausforderungen und dem Erreichen der Sustainable Development Goalseinzusetzen. Es geht darum, Technologie als Mittel zum Zweck zu nutzen, um drängende soziale, wirtschaftliche und ökologische Probleme zu adressieren und so einen positiven Einfluss auf die Menschheit zu haben.
Beneficial AI (Nützliche KI): Das Hauptaugenmerk dieses Ansatzes liegt auf Sicherheit und Langzeitvorteilen. Es betont die Notwendigkeit, KI-Systeme zu entwickeln, die der Gesellschaft und Umwelt nützen, ohne potenzielle Schäden zu verursachen. Organisationen, die diesen Ansatz fördern, wie das Future of Life Institute, sind besonders daran interessiert, unbeabsichtigte und schwer vorhersehbare negative Folgen von KI zu verhindern.
Responsible AI (Verantwortungsvolle KI): Dieses Konzept betont den Prozess der KI-Entwicklung. Hier geht es darum, wie KI-Systeme entworfen, entwickelt und implementiert werden. Es fordert Standards und Verfahren, um sicherzustellen, dass KI-Technologien auf eine Weise entwickelt werden, die ethische und soziale Verantwortung berücksichtigt.
Trustworthy AI (Vertrauenswürdige KI): Initiiert und definiert von der EU High Level Expert Group, betont diese Idee die Rechtmäßigkeit, Ethik und Robustheit von KI-Systemen. Sie setzt strenge Anforderungen und bietet einen Rahmen, um sicherzustellen, dass KI-Systeme die ihnen zugewiesenen Aufgaben erfüllen, ohne rechtliche, ethische oder funktionelle Probleme zu verursachen.
Green AI (Grüne KI): Das Konzept bezieht sich auf Ansätze und Initiativen, die darauf abzielen, die Umweltauswirkungen und den Ressourcenverbrauch von KI-Systemen, insbesondere von ressourcenintensiven Deep-Learning-Verfahren, zu minimieren. Inspiriert von Bewegungen wie Green IT und Green Coding, zielt Green AI darauf ab, den Verbrauch von Rechenzeit, Strom, Kühlung und Rohstoffen zu reduzieren und die KI-Entwicklung nachhaltiger und umweltfreundlicher zu gestalten.
Babylonisches Begriffs-Wirrwarr und schwindelerregende Berge von Leitlinien
So sind eine Vielzahl von Begriffen und damit verbundener Konzepte entstanden, die von unterschiedlichen Organisationen verfolgt werden. Allein die damit verbundene Anzahl von Leitlinien und Tools lässt einen schwindelig werden:
Der „Global Index on Responsible AI“ listet 95 bestehende Instrumente und Rahmenwerke auf, die den ethischen, verantwortungsvollen oder vertrauenswürdigen Einsatz von KI fördern sollen.
Die NGO AlgorithmWatch sammelte in ihrem „AI Ethics Inventory“ 167 Leitlinien, die Grundsätze dafür festlegen, wie Systeme für die automatisierte Entscheidungsfindung (ADM) unter ethischen Gesichtspunkten entwickelt und umgesetzt werden können.
Die OECD führt über 600 Tools in ihrem Katalog für „Trustworthy AI“. Diese Werkzeuge und Messgrößen sollen KI-Akteuren helfen, vertrauenswürdige KI-Systeme und -Anwendungen zu entwickeln und zu nutzen, die die Menschenrechte achten und fair, transparent, erklärbar, robust, sicher und geschützt sind.
Während wir uns eventuell über den Anspruch einer guten KI-Entwicklung freuen wollen, stellt sich uns das so entstandene „babylonische Begriffs-Wirrwarr“ in den Weg. Dazu kommt noch: Weder gibt es einen Common Sense zur Nutzung der Begriffe, noch werden die oft zugrundliegenden KI-Ethik-Kriterien, wie Fairness, Transparenz, Erklärbarkeit, Benefizienz, Sicherheit, Überprüfbarkeit, in gleicher Weise verstanden und verwendet.
Damit stehen diejenigen, die KI-Anwendungen in Unternehmen und Organisationen im guten Sinn gestalten und nutzen wollen, die Entscheider*innen, Praktiker*innen und Strateg*innen vor einer offenbar nicht mit akzeptablem Aufwand zu beantwortenden Frage: Welches KI-Konzept und welche Leitlinie ist für uns geeignet?
Eine Antwort kann ich an dieser Stelle nicht bieten, aber möglicherweise Hilfestellungen, um sich ihr anzunähern.
Unterscheidung von Nachhaltiger KI zu anderen KI-Konzepten
Zunächst kann es hilfreich sein, sich die Unterschiede der KI-Konzepte deutlich zu machen. An dieser Stelle werden die KI-Konzepte jeweils im Vergleich zu Nachhaltiger KI diskutiert.
Ethische KI vs. Nachhaltige KI: Während ethische KI darauf ausgerichtet ist, moralische Werte und Grundsätze in die Technologieentwicklung einzubetten, legt nachhaltige KI den Schwerpunkt auf die langfristigen Auswirkungen und den fortwährenden Wert für zukünftige Generationen. Es geht nicht nur darum, was heute richtig ist, sondern auch darum, was morgen nachhaltig sein wird.
Responsible AI vs. Nachhaltige KI: Responsible AI (Verantwortungsvolle KI) konzentriert sich auf ethische und verantwortungsbewusste Gestaltungs-, Entwicklungs- und Anwendungsprozesse von künstlicher Intelligenz. Es betont die Einhaltung ethischer Grundsätze, Transparenz, Datenschutz und Sicherheit im unmittelbaren Kontext der KI-Technologie. Im Gegensatz dazu betrachtet Nachhaltige KI das Thema in einem ganzheitlicheren Rahmen, indem es ökologische, ökonomische und soziale Aspekte miteinbezieht. Das Ziel ist, KI-Systeme zu schaffen, die die aktuellen Bedürfnisse erfüllen, ohne die Möglichkeiten zukünftiger Generationen zu beeinträchtigen. Während Responsible AI den gegenwärtigen Einsatz von KI adressiert, legt Nachhaltige KI den Fokus auf Langfristigkeit und die harmonische Integration von KI in das gesamte gesellschaftliche Ökosystem.
AI for Good vs. Nachhaltige KI: „AI for Good“ konzentriert sich darauf, aktuelle soziale und ökologische Probleme mit KI zu adressieren. Nachhaltige KI betrachtet darüber hinaus, wie diese KI-Lösungen Menschen heute und zukünftige Generationen beeinflussen und sicherstellen, dass sie nicht zu neuen, unerwarteten Problemen führen.
Green AI vs. Nachhaltige KI: Während Green AI die ökologischen Auswirkungen von KI-Systemen direkt adressiert, geht nachhaltige KI weiter und berücksichtigt auch soziale und ökonomische Aspekte, um eine ganzheitliche Nachhaltigkeitsperspektive zu gewährleisten.
Mehrwert der KI-Konzepte für den Business Case for Sustainability
Unternehmen weltweit erkennen zunehmend die Bedeutung von Nachhaltigkeit, nicht nur als ethische Verpflichtung, sondern auch als Mittel zur Erzielung von Wettbewerbsvorteilen und langfristiger Resilienz. In diesem Kontext kann die KI als mächtiges Instrument dienen. Doch wie unterscheidet sie sich von anderen KI-Konzepten in Bezug auf ihren Mehrwert für Unternehmen?
Im folgenden sind einige Stärken der einzelnen KI-Konzepte genannt. Je nach strategischer Positionierung und KI-Kontext können Entscheider*innen sich bei der Priorisierung von KI-Konzepten daran orientieren, um eine beste Passung zu finden.
Nachhaltige KI:
Agent für sozial-ökologischen Wandel: Unternehmen, die KI-Technologien im Sinne der Nachhaltigkeit gestalten, positionieren sich als verantwortlicher Agent der sozial-ökologischen Wandels. Dies kann Kundentreue stärken und neue Marktsegmente erschließen.
Langfristige Resilienz: Indem sie ökologische, soziale und ökonomische Aspekte berücksichtigt, hilft das Konzept der Nachhaltigen KI deb Unternehmen, potenzielle zukünftige Risiken zu identifizieren und abzumildern.
Stakeholder-Engagement: Ein Engagement für Nachhaltige KI kann das Vertrauen und die Zufriedenheit von Stakeholdern wie Kunden, Mitarbeitern und Investoren stärken.
Ethische KI:
Vertrauen schaffen: Unternehmen, die sich auf ethische KI konzentrieren, können das Vertrauen ihrer Kunden in ihre Produkte und Dienstleistungen stärken.
Reputationsmanagement: Durch die Beachtung ethischer Prinzipien können Unternehmen potenzielle PR-Krisen verhindern.
Responsible AI (Verantwortliche KI)
Robuste Systeme: Unternehmen, die Verantwortung in ihren KI-Entwicklungsprozessen betonen, neigen dazu, robusteren, verlässlichen und sicheren KI-Systemen zu schaffen.
Regulierungskonformität: Indem sie sich auf verantwortungsvolle Entwicklung und Implementierung konzentrieren, sind Unternehmen besser darauf vorbereitet, sich an sich ändernde Regulierungslandschaften anzupassen.
AI for Good:
Soziale Verantwortung: Unternehmen, die AI for Good-Initiativen unterstützen, können ihre Corporate Social Responsibility (CSR) stärken und gleichzeitig Lösungen für gesellschaftliche Probleme schaffen.
Marktinnovation: Durch den Einsatz von KI zur Lösung realer sozialer und ökologischer Herausforderungen können Unternehmen neue Marktchancen identifizieren.
Green AI:
Reduzierte Betriebskosten: Durch den effizienten Einsatz von Ressourcen können Unternehmen Kosten in Bereichen wie Energieverbrauch sparen.
Umweltbewusstes Branding: Unternehmen, die Green AI nutzen, können sich als ökologisch bewusste Marken positionieren und so eine spezifische Zielgruppe ansprechen.
Trustworthy AI (Vertrauenswürdige KI):
Vertrauensbildung: Wenn Kunden und Stakeholder wissen, dass ein KI-System vertrauenswürdig ist, erhöht dies ihr Vertrauen in das Unternehmen und seine Produkte.
Risikominimierung: Vertrauenswürdige KI reduziert das Risiko von Fehlentscheidungen durch KI, die finanzielle oder reputative Schäden verursachen könnten.
Regulierungskonformität: Trustworthy AI fließt in die EU Gesetzgebung des AI Act ein und bereitet Unternehmen daher auf die kommende Regulierung vor
Die ganzheitliche Vision der Nachhaltigen KI
Die Vielfalt der KI-Konzepte zeugt von dem wachsenden Bewusstsein für die multidimensionalen Auswirkungen von KI auf unsere Gesellschaft und Umwelt. Jedes Konzept hat seine eigenen Schwerpunkte und Betrachtungswinkel, die es wertvoll und relevant für unterschiedliche Anwendungs- und Forschungsbereiche machen.
Nachhaltige KI hebt sich in ihrer ganzheitlichen Betrachtung der Auswirkungen von KI hervor. Während Konzepte wie Ethische KI und Responsible AI sich hauptsächlich auf den gegenwärtigen Moment und die unmittelbare ethische und verantwortungsvolle Gestaltung und Implementierung konzentrieren, wirft die Nachhaltige KI einen Blick in die Zukunft und fragt, wie KI-Technologien langfristig zum Wohl aller beitragen können. „AI for Good“ und „Green AI“ sind beispielhafte Ansätze, die spezifische Bereiche von Nachhaltigkeit adressieren, jedoch fehlt ihnen die ganzheitliche Perspektive, die Nachhaltige KI mitbringt.
Während jedes KI-Konzept seinen eigenen spezifischen Mehrwert für Unternehmen bietet, stellt die Nachhaltige KI eine ganzheitliche Herangehensweise dar, die über die unmittelbaren technologischen Aspekte hinausgeht. Sie betrachtet KI im Kontext globaler Nachhaltigkeitsziele und kann Unternehmen helfen, sowohl kurzfristige als auch langfristige Vorteile zu erzielen. Es geht nicht nur darum, KI „richtig“ zu machen, sondern auch darum, sie „für das Richtige“ einzusetzen. Unternehmen, die diese Perspektive übernehmen, positionieren sich für zukünftigen Erfolg in einer immer komplexeren und vernetzteren Geschäftswelt.
Kritik und Zukunftsperspektive
Die Nachhaltige KI ist nicht ohne ihre Kritiker. Einige argumentieren, dass die ganzheitliche Vision zwar lobenswert, aber in der Praxis schwer umsetzbar ist. Die Implementierung nachhaltiger KI-Lösungen erfordert oft komplexere Designansätze, zusätzliche Ressourcen und gelegentlich Kompromisse bei der Performance. Zudem kann der Begriff „Nachhaltigkeit“ subjektiv interpretiert werden, was zu Uneinigkeiten darüber führen kann, was tatsächlich als nachhaltige KI gilt. Trotz dieser Herausforderungen zeigt die Zukunftsperspektive ein enormes Potenzial für die Nachhaltige KI. Mit dem wachsenden globalen Bewusstsein für die Dringlichkeit von Umwelt- und Sozialproblemen und der zunehmenden Bedeutung der Vereinten Nationen und ihrer Ziele für nachhaltige Entwicklung, wird die Nachhaltige KI wahrscheinlich eine zentrale Rolle in der technologischen Agenda der kommenden Jahrzehnte spielen. Es wird erwartet, dass zukünftige KI-Modelle intrinsisch darauf ausgerichtet sind, ökologische Fußabdrücke zu minimieren, ethische Standards zu integrieren und gesellschaftlichen Mehrwert zu schaffen. Daher, trotz der aktuellen Herausforderungen, könnte die Nachhaltige KI der Schlüssel zu einer verantwortungsvolleren und gerechteren Technologieentwicklung in der Zukunft sein.
Fazit: Mit Nachhaltiger KI auch an das „Morgen“ denken
Nachhaltige KI kann einen Rahmen bilden, der die besten Aspekte der anderen Konzepte integrieren kann, um KI-Technologien so zu gestalten, dass sie sowohl den aktuellen als auch den zukünftigen Generationen dienen. Es ist eine Erinnerung daran, dass Technologieentwicklung nicht nur um Fortschritt und Innovation gehen sollte, sondern auch darum, wie dieser Fortschritt sich langfristig auf unsere Gesellschaft, Wirtschaft und Umwelt auswirkt. Es fordert uns heraus, nicht nur an das „Jetzt“ zu denken, sondern auch an das „Morgen“ und an die zukünftigen Generationen.
Bjørlo, L.; Moen, Ø.; Pasquine, M. (2021) The Role of Consumer Autonomy in Developing Sustainable AI: A Conceptual Framework. Sustainability 2021, 13, 2332. https://doi.org/10.3390/su13042332
Brundtland, Gro Harlem (1987) Report of the World Commission on Environment and Development: Our Common Future. United Nations.
Rohde, Friederike; Wagner, Josephin; Reinhard, Philipp; Petschow, Ulrich; Meyer, Andreas; Voß, Marcus; Mollen, Anne (2021) Nachhaltigkeitskriterien für künstliche Intelligenz. Entwicklung eines Kriterien- und Indikatorensets für die Nachhaltigkeitsbewertung von KI-Systemen entlang des Lebenszyklus. IÖW-Schriftenreihe 220/21 https://www.ioew.de/publikation/nachhaltigkeitskriterien_fuer_kuenstliche_intelligenz (Zugegriffen am 3.10.2023)
Stix, Charlotte (2022) Artificial intelligence by any other name: a brief history of the conceptualization of “trustworthy artificial intelligence”. Discov Artif Intell2, 26 (2022). https://doi.org/10.1007/s44163-022-00041-5 (Zugegriffen am 03.10.2023)
I am thrilled to share with you an important result from my latest work around AI. The book chapter is titled „Artificial Intelligence demands Corporate Digital Responsibility (CDR): Aligning the moral compass for employees in AI-enabled workplaces“, and it delves into the intricate relationship between AI, the world of work, and the rising need for Corporate Digital Responsibility. It is part of this great anthology of Inka Knappertsbusch and Kai Gondlach on „Work and AI 2030“. On almost 400 pages they collected insights and outlooks on the influence of AI on everyday working life, explanations based on practical tips and impact of AI on the world of work in 2030. Cordially thanks to Inka and Kai for their guidance the opportunity to contribute in this trendsetting management book!
The advent of AI in workplaces is inevitable and powerful, enhancing productivity and efficiency. However, it also introduces a new set of challenges related to ethics, privacy, and fairness. In writing this chapter, I aimed to shed light on these challenges and to provide actionable insights for organizations striving to navigate this brave new world of AI.
The concept that stands at the heart of this chapter is Corporate Digital Responsibility (CDR). As AI technologies pervade our workplaces, CDR is becoming an imperative, not an option. But what does CDR mean for your organization? It involves designing and implementing an organizational framework that can successfully manage the complex issues arising from the use of AI in workplaces.
My goal in this chapter is to help you understand that the introduction of AI ethics and governance isn’t a standalone solution. Instead, it requires a holistic approach, embedded within the fabric of your organization, setting a new ‚moral compass‘ for the digital age.
One of the unique aspects of this chapter is its practical approach. It offers guidance on how to leverage CDR as a strategic tool for gaining competitive advantage, building trust with stakeholders, and creating a culture of digital responsibility.
I believe that this chapter will provide valuable insights to anyone interested in the intersection of AI and the workplace – be it entrepreneurs, managers, or AI enthusiasts. More than ever, it is important for us to understand and act upon the responsibilities we hold in this increasingly digital world. I invite you to join me on this journey as we navigate the challenges and opportunities that AI presents in the world of work.
The text describes how Corporate Digital Responsibility (CDR) could contribute to an UN Global Digital Compact. We submitted it to the Office of the Secretary-General’s Envoy on Technology. In the text we emphasize that digital trust is the currency of the digital transformation, and responsible tech, AI ethics principles, or CDR are ways that businesses can position themselves as forces for good in a digital society. The CDR Manifesto, which is a set of seven principles developed by an international group of academics and corporate practitioners, is highlighted as an initiative that could contribute to the UN Global Digital Compact. The text then goes on to list core principles and key commitments for businesses in a Global Digital Compact related to fair and equitable access for all, protecting data, and applying human rights online. The inputs for the Global Digital Compact were collected through exchange via social media, especially LinkedIn Business community.
To prepare this input, we read and analyzed the text to understand its main points and arguments. We researched the UN Global Digital Compact and Corporate Digital Responsibility (CDR) to gain a better understanding of these concepts and how they match. We invited experts on Corporate Responsibility and Digital Ethics from social media, especially LinkedIn Business community, to exchange and support (see also the call from June 2022 „UN Global Digital Compact: Would you like to join the contribution based on the CDR manifesto?“). Finally, I organized the information and discourse into a structured text document that was open for collaboration. Finally, all supporters ageed to the text before it was submitted.
Describe the process you followed to collect, consult, and prepare your input.
Exchange via social media, especially LinkedIn Business community.
Digital trust is the currency of the digital transformation and it is the basis for business success. With many initiatives focusing on responsible tech, AI ethics principles or Corporate Digital Responsibility businesses are positioning themselves as forces for good in a digital society. Therefore we emphasise the economy and business as key stakeholders for digital collaboration and a Global Digital Compact.
As one of many initiatives we would like to draw the attention to the Corporate Digital Responsibility Manifesto, a set of seven principles. It was developed in 2021 by an international group of academics, corporate practitioners and published authors. We understand Corporate Digital Responsibility (CDR) is a set of normative practices and behaviours that help an organisation use data and digital technologies in ways that are perceived as socially, economically, and environmentally responsible.
The principles and recommendation of the CDR Manifesto could contribute to a UN Global Digital compact.
We (as a community) have already been engaging with the UN in regard to the CODES Global Action Plan for a Sustainable Planet in the Digital Age, launched by UN June 2022. This plan references and quotes CDR (page 12 and more). We understand the CODES community is also responding directly.
For more information please see https://corporatedigitalresponsibility.net
Inputs to the Global Digital Compact
Connect all people to the internet, including all schools
a) Core Principles
Core principle “Fair and Equitable Access for All”
Key Commitments for businesses in a Global Digital Compact
Plan for Sustainable & Responsible Automation
Replacing jobs done by humans in a responsible way, consideration of retraining/reskilling programmes
Ensure ethical and unbiased, explainable AI decision making algorithms
Enable employees and project workers to understand the ethical dilemma and societal impact of tech and digital transformation through awareness training
Actively engage with employee and project worker´s opinion and feedback in digital transformation, automation and tech implementation
Transparency with Stakeholders with Verifiable 3rdParty Data
Ensure organisations & consumers understand sources of collected data, where it is, what is done with it, including scoring, profiling, reporting
Share Digital Economic Benefits with Relevant Stakeholders (incl. Open Data / Access)
Sharing economic benefits of digital work with society, for example through appropriate taxation
Respecting personal data ownership rights, reduce data piracy and enable individual monetization
Promote open data to enable broad innovation by all (including opening Right to Repair)
______________________
Other areas (please specify):
Specify area:
Impact Economy
Sustainability with digital
Tech Impact (including Fintech)
a) Core Principles
Core principle “Accelerate Progress with Impact Economy”
Key Commitments on Core principle “Accelerate Progress with Impact Economy” for businesses in a Global Digital Compact
Invest in Sustainability / Environmental / Impact returns
Look to partner ecosystems across supply chain, engaging (and measuring impact of) ecotech, cleantech digital solutions or circular economy.
Position for growth in environmental markets that align to purpose and positive planet impact
Use Verifiable Offset
Understand Carbon Credit market and if using offset, look to use verifiable offset or digitally enabled natural carbon sequestration (like e.g. reforestation and afforestation)
Use Digital products to enable, for example, price discriminating digital tools that promote sustainable practices
Consideration of economic models that are more conducive to sustainable practices
Key Commitments on Core principle “Creating a Sustainable Planet to Live” for businesses in a Global Digital Compact
Report impact of business against 3rdparty impact assessments
Promote transparent, sustainable and ethical working practices across the supply chain linked to a recognized sustainability reporting standard such as UN Global Compact, Global Reporting Initiative, SASB, ESG frameworks or BCorp, including digital responsibility practices
Introduce Circular Economy principles in Product and Service Design
For example, contribution of data or APIs, or utilization of other technologies with data science of analytics to create new societal & environmental benefits
Key Commitments on Core principle “Reduce Tech Impact on Climate & Environment” for businesses in a Global Digital Compact
Implement an Environmental & Climate-resilient IT Strategy
Following responsible recycling practices for digital technologies – target zero waste, promote circular economy
Following responsible disposal practices for digital technologies, including extending tech life span, e.g. of smartphones and using refurbished IT
Design in Environmental and climate resilient considerations in the use of digital technologies – e.g. Sustainable Web Design & IT Strategy, heat resistent and flood protected IT infrastructure.
Measure, Report, Minimise Energy use & move to Renewable Energy
Reduce consumption by measuring & actively reducing Scope 1, 2 and 3 emissions using Digital tech
In your data centres, and supply chain data centres, direct and indirect
In your offices & business facilities
In your travel & vehicle fleets
In your decentralised asset base
Use of renewable energies (wind, solar, water, biomass, geothermal) for energy supply of all digital technologies
Ich meine, die Antwort ist einfach. Aber fragen wir zunächst ChatGPT. Das System verneint: Nein – generative, vortrainierte Transformator-KI-Systeme wie GPT-3 seien nicht von Natur aus sexistisch.
Auf der Wissensebene haben ChatGPT bzw. die Entwickler*innen und Datawissenschaftler*innen, die das System trainiert haben, ihre „Hausaufgaben gemacht“. Fragt man ChatGPT, was Sexismus bedeutet, antwortet das System:
„Der Begriff Sexismus bezieht sich auf eine Einstellung oder ein Verhalten, das ein Geschlecht diskriminiert und benachteiligt. Es umfasst Vorurteile, Stereotypen und Diskriminierung aufgrund des Geschlechts, insbesondere gegen Frauen.“
Einwandfrei. Überhaupt bekommt das System beim Sexismus-Quiz des Europäischen Rats das Prädikat „Großmeister“ (nicht Großmeisterin?) mit 10 von 10 Punkten. So weit, so gut. (https://human-rights-channel.coe.int/stop-sexism-quiz-de.html)
ChatGPT „findet“, es gendere in seinen Antworten. Test: In einer Frage nach der Beschreibung einer Person, die ein Flugzeug fliegt, gendert ChatGPT nicht. Als ich das System darauf hinweise, antwortet es: „Das tut mir leid, das war ein Fehler.“ Auch eine geschlechtergerechte Liste der besten Wissenschaftler der letzten 200 Jahre beinhaltet nur eine Frau (Marie Curie).
Das Experiment macht deutlich, was aufgrund der Klassifikationen von Daten, mit denen eine Künstliche Intelligenz trainiert wird, zwangsläufig eintritt:
Sie reproduziert die gesellschaftlichen Diskriminierungsstrukturen (nicht im Bezug auf das Geschlecht).
Sie trägt Vorurteile und Stereotype weiter, multipliziert sie ins Undenkbare.
Sie schreibt die Muster der Vergangenheit durch vermeintlich „überlegene Technologie“ in die Zukunft fort.
Zudem sind Frauen in Daten oft „unsichtbar“. Es besteht eine immense geschlechtsspezifische Datenlücke, der sog. „Gender Data Gap“. KI-Systeme können auf fehlende Daten nicht trainiert werden.
Daher meine einfache Antwort auf die Eingangsfrage: „ChatGPT, Deine Antworten sind sexistisch. Wie die Gesellschaft.“
Eine technologische Lösung dieses sehr grundsätzlichen Problems aller KIs ist aktuell nicht in Sicht. Es braucht Regulierung, Know-how und Verantwortung in Unternehmen sowie Verständnis zu den Leistungsgrenzen, „unerwünschten Risiken und Nebenwirkungen“ bei Nutzer*innen und Bürger*innen.
Wir Frauen sind in unseren unterschiedlichen Rollen gefordert!
Was Du beispielsweise tun kannst:
Mache Dir selbst ein Bild. Teste beispielsweise öffentlich zugängliche KI-Systeme auf das Vorkommen von Frauen bei nicht geschlechtsspezifischen Fragen. Teste auch die Spiele und Programme, die die Kids nutzen.
Engagiere Dich im Job dafür, dass algorithmen-basierte Systeme auf „Herz und Nieren“ auf Vorurteile, Stereotype oder Verzerrungen geprüft werden. Nicht nur in der Programmierung, sondern auch im Personalbereich, im Marketing etc.
Setze Dich als Entscheidungsträgerin für Diversität bei Digitalisierung und Entwicklung ein und sorge mit einer CDR-Strategie für ethische Entscheidungen im digitalen Business.
Technologien sollten die Welt besser, gerechter und nachhaltiger machen. Es ist unsere gemeinsame Verantwortung, dass das auch passiert.
Ein Workshop „Diskriminierung durch KI“ sensibilisiert und kann dabei unterstützen, Unternehmenswerte auch in Digitalprojekten umzusetzen. Materialien für einen Workshop finden sich bei Klick auf den Link. Wenn Sie einen solchen oder ähnlichen Workshop durchführen möchten, unterstütze ich gerne bei der Konzeption und Moderation. Sprechen Sie mich gerne an.
Dieser Artikel ist erstmals als Gastbeitrag für das Futurewoman-Netzwerk am 9. Februar 2023 auf LinkedIn erschienen und wurde für die Veröffentlichung auf wiseway.de geringfügig angepasst.
Das KI-Jahr 2022 endet mit einer unschlagbar guten Beschreibung von Corporate Digital Responsibility durch ChatGPT. Für den Text stellte ich die ChatGPT die Frage: „What is Corporate Digitale Responsibility“? Unten seht ihr die Antwort. Die deutsche Version wurde mit der DeepL-KI übersetzt. Habt ihr da Töne? Ich glaube, man kann es kaum besser sagen.
Die hübschen Bilder der freundlichen Robo-Santa-Clauses erzeugte übrigens Midjourney. :-)
ChatGPT über Corporate Digital Responsibility
„Die digitale Verantwortung der Unternehmen (Corporate Digital Responsibility, CDR) bezieht sich auf die ethische und verantwortungsvolle Nutzung digitaler Technologien und Daten durch Unternehmen. Sie umfasst ein breites Spektrum von Themen, darunter Datenschutz, Cybersicherheit, Online-Sicherheit und die sozialen und ökologischen Auswirkungen digitaler Technologien.
Unternehmen sind dafür verantwortlich, die persönlichen Daten ihrer Kunden und Mitarbeiter zu schützen und digitale Technologien in einer Weise zu nutzen, die transparent und ethisch vertretbar ist und die Rechte des Einzelnen respektiert. Dazu gehört auch, dass personenbezogene Daten in Übereinstimmung mit den einschlägigen Gesetzen und Vorschriften erhoben und verwendet werden und dass angemessene Schutzmaßnahmen gegen Datenschutzverletzungen und andere Formen von Cyberangriffen getroffen werden.
Darüber hinaus sind die Unternehmen verpflichtet, die sozialen und ökologischen Auswirkungen ihrer digitalen Technologien zu berücksichtigen. Dazu gehören Fragen wie der Energieverbrauch und die Kohlendioxidemissionen der digitalen Infrastruktur, die Umweltauswirkungen von Elektroschrott und das Potenzial digitaler Technologien, zu sozialer und wirtschaftlicher Ungleichheit beizutragen.
CDR ist ein wichtiger Aspekt der sozialen Verantwortung von Unternehmen (Corporate Social Responsibility, CSR), der in dem Maße an Bedeutung gewinnt, wie die Nutzung digitaler Technologien weiter zunimmt und sich weiterentwickelt. Durch verantwortungsvolle Praktiken bei der Nutzung digitaler Technologien können Unternehmen dazu beitragen, ein nachhaltigeres und gerechteres digitales Umfeld zu schaffen.“
Englische Version
„Corporate digital responsibility (CDR) refers to the ethical and responsible use of digital technologies and data by businesses. It encompasses a wide range of issues, including data privacy, cybersecurity, online safety, and the social and environmental impacts of digital technologies. Businesses have a responsibility to protect the personal data of their customers and employees, and to use digital technologies in a way that is transparent, ethical, and respectful of individuals‘ rights. This includes ensuring that personal data is collected and used in accordance with relevant laws and regulations, and that appropriate safeguards are in place to protect against data breaches and other forms of cyber attacks.
In addition, businesses have a responsibility to consider the social and environmental impacts of their digital technologies. This may include issues such as the energy use and carbon emissions of digital infrastructure, the environmental impacts of e-waste, and the potential for digital technologies to contribute to social and economic inequality.
CDR is an important aspect of corporate social responsibility (CSR), and it is becoming increasingly important as the use of digital technologies continues to grow and evolve. By adopting responsible practices in their use of digital technologies, businesses can help to promote a more sustainable and equitable digital environment.“
Mein Fazit
Keine Veränderungen im Text meinerseits. Es ist einfach unfassbar! Es bleibt zu hoffen, dass uns andere KI-Systeme dabei helfen, digitale Verantwortung nicht nur zu beschreiben, sondern auch umzusetzen.
Quellen
What is Corporate Digital Responsibility? Text der Künstlichen Intelligenz ChatGPT . https://chat.openai.com Zugegriffen am 20.12.2022 Übersetzt mit der Künstlichen Intelligenz DeepL. https://www.deepl.com/translator“ Zugegriffen am 21.12.2022
„KI-Einsatz insbesondere im Beschäftigtenkontext braucht den Rahmen eines CDR-Managements, um die Unternehmenswerte in diesen transformativen Veränderungen zu vertreten. CDR stellt den strategischen Rahmen bereit, um den „moralischen Kompass“ in der digitalen Welt neu auszurichten, und in der Unternehmenspraxis umzusetzen.“ Soweit mein Fazit im Buchbeitrag „KI verlangt Corporate Digital Responsibility (CDR). Den moralischen Kompass für Beschäftigte an KI-gestützten Arbeitsplätzen ausrichten“ im Springer-Sammelband „Künstliche Intelligenz und Arbeitswelt 2030“, herausgegeben von Inka Knappertsbusch und Kai Gondlach. Es ist mir eine Ehre und Freude zur Diskussion dieses Zukunftsthema mit 76 weiteren Autor:innen – viele aus dem „Who is who“ der deutschen KI-Welt – beitragen zu dürfen.
Zusammenfassung
Bei der Nutzung künstlicher Intelligenz entstehen Risiken für Gleichheit, Fairness, Würde, Persönlichkeitsschutz und Privatheit für Beschäftigte und Unternehmen, die heutigen Unternehmenswerten entgegenstehen. Corporate Digital Responsibility (CDR) bietet Lösungsansätze, um Vertrauen des Unternehmenshandelns beim Einsatz von KI an den Arbeitsplätzen zu ermöglichen. Im Beitrag wird argumentiert, dass eine Etablierung einer KI-Ethik oder KI-Governance dazu nicht ausreicht, sondern es einen Organisationsrahmen braucht, der dann zu Wettbewerbsvorteilen führt. Um den „moralischen Kompass“ im „algorithmischen Neuland“ neu auszurichten, wird Unternehmen empfohlen, CDR in der Organisation umzusetzen.
Handlungsempfehlungen
Ich spoilere jetzt hier mal meine Handlungsempfehlungen zum Abschluß des Beitrags für Unternehmen, die bereits KI an Arbeitsplätzen einsetzen oder dies planen:
Knowhow-Aufbau in dem neuen Fachgebiet der Corporate DigitalResponsibility.
Verantwortung für CDR in der Organisation verankern und Top-Management-Unterstützung sicherstellen.
Stakeholder-Erwartungen an digitaleVerantwortung, insbesondere der Beschäftigten bzw. Beschäftigtenvertreter aufnehmen.
Eigene Selbstverpflichtungen zur verantwortungsvollen Digitalisierung entwickeln oder bestehende CDR-Kodizes unterzeichnen, wie z.B. den der CDR-Initiative des Bundesministeriums für Justiz und Verbraucherschutz oder der Building Bloxx des Bundesverbands Digitale Wirtschaft.
Wieso die Unternehmen gut daran tun, dies zu tun, dazu lesen Sie gerne meinen Beitrag oder kommen direkt auf mich zu!
Quelle: Dörr S. (2021) KI verlangt Corporate Digital Responsibility (CDR). In: Knappertsbusch I., Gondlach K. (eds) Arbeitswelt und KI 2030. Springer Gabler, Wiesbaden. https://doi.org/10.1007/978-3-658-35779-5_5
Eltern haften für ihre Kinder und Unternehmen für ihre Chatbots – sowohl rechtlich als auch moralisch. Mit einem Wertekodex für Chatbots können die ethischen Herausforderungen, die sie im Gepäck haben, gemeistert werden. 16 Fragen zeigen den Weg in eine digitale Unternehmensverantwortung im Chatbot-Projekt.
„Ein Chatbot ist ein Computerprogramm, das es Menschen ermöglicht, Informationen von Maschinen in einer natürlichen, unterhaltsamen Art und Weise mit Hilfe von Text und Sprache zu erhalten.“
Chatbots verändern das Serviceerlebnis. Bis 2026 soll der globale Chatbot-Markt mehr als 10,5 Milliarden US-Dollar groß sein. Die erwarteten Einsparungen durch Automatisierung übersteigen dies um ein Vielfaches. Immer mehr Unternehmen planen, Chatbots einzusetzen. Aber Chatbots zeigen eine Reihe von ethischen Herausforderungen, daher sind sie mit Audits für Künstliche Intelligenz ethisch zu kontrollieren und zu überwachen. Denn Unternehmen, die Chatbots einsetzen, haften – auch moralisch. Daraus folgt, dass ein Chatbot dann zu einem Unternehmen passt, wenn er die Werte der Organisation widerspiegelt. Für Marken und Unternehmen, die auf ihre Reputation achten, reicht daher ein KI-Audit nicht aus.
Ich freue mich, dass ich bei Informatik Aktuell einen Artikel darüber schreiben konnte, wie Unternehmenswerte bei Künstlicher Intelligenz durch Corporate Digital Responsibility gesichert werden können. Den gesamten Artikel könnt ihr hier lesen.
Wie kann sicher gestellt werden, dass ein Chatbots die eigenen Unternehmenswerte repräsentiert?
Eine Unternehmensführung mit Corporate Digital Responsibility ermöglicht Vertrauen in Chatbots. Konkret kann ein Wertekodex für Chatbots als Ausgangspunkt für digitale Verantwortung dienen. Im folgenden sind Fragen aufgeführt, die Unternehmen sich stellen können, wenn sie eine wertekonforme Nutzung eines Chatbots wünschen. Aus diesen Fragen kann ein Wertekodex für Chatbots entwickelt werden.
Zweck: Wem dient der Chatbot und welche Bedürfnisse deckt er ab?
Usability: Wie schnell und einfach erreichen Nutzer:innen eine menschliche Servicekraft, wenn sie möchten?
Transparenz: Wie erfährt der Nutzende, ob er mit einem Menschen oder einer Maschine spricht?
Benefizienz: Wir wird vermieden, dass der Chatbot Nutzer:innen beschimpft oder anderweitig verbal schädigt?
Diversität: Wie repräsentiert der Chatbot ihre Kundengruppen?
Inklusion: Wer wird von ihrem Chatbot nicht angesprochen?
Fairness: Agiert der Chatbot unvoreingenommen und diskriminierungsfrei?
Datenschutz: Wie schützt der Chatbot die Privatsphäre der Nutzer:innen?
Verantwortung: Wem gehören die Informationen, die der Chatbot entwickelt, und was geschieht mit ihnen?
Transparenz: Wie können Nutzer:innen sich über den Chatbot beschweren oder Entscheidungen widersprechen?
Sicherheit: Wie wird der Missbrauch des Chatbots verhindert?
Arbeitsschutz: Wie werden die Mitglieder des Serviceteams in ihrer Privatsphäre geschützt?
Umwelt- und Klimaschutz: Welche Umwelt- oder Klimaauswirkungen hat der Chatbot?
Rechenschaftspflicht: Wie erhalten Nutzer:innen Informationen zur Überwachung des Chatbots, zu sensiblen Vorfällen, Fehlern oder Missbräuchen?
Erklärbarkeit: Wie ist sichergestellt, dass die Entscheidungen bzw. Informationen des Chatbots nachvollziehbar und erklärbar sind?
Humans-in-command-Approach: Ist klar, wer den Chatbot wie überwacht?
Je nach Unternehmenskultur und Kernwerten, wie z.B. Kundenorientierung, Diversität und Inklusion oder Datenschutz und Privatheit, kann ein solcher Wertekodex eine andere Ausprägung haben. Ein Chatbot-Projekt eignet sich hervorragend, um Corporate Digital Responsibility anzuwenden und auszuweiten.
Wie eine Umsetzung erfolgen kann, habe ich im Artikel auf „Informatik Aktuell“ beschrieben. Ich begleite Projekte zur Umsetzung von Corporate Digital Responsiblity durch Chatbot-Projekte und stehe bei Fragen gerne zur Verfügung.
Seit längerem bin ich Teil der wunderbaren LinkedIn-Gruppe „KI aus der Praxis – Chancen von Künstlicher Intelligenz für unsere Gesellschaft“. Die „Rheintochter“ Birgit Eschbach ist eine der Moderatorinnen und hat mich zum „KI-Talk“ eingeladen. Am 3. Juli 2021, einem herrlichen Samstagmorgen, sprachen wir über den Rhein hinweg zu Nachhaltigkeitsstrategien für Digitalisierung und Künstliche Intelligenz. Den „rote Faden“ im Interview bildete die Frage, welche „Hüte“ ich derzeit so auf habe und wie mein beruflicher Weg mich hierhin geführt hat. Wir redeten also über meine Beratung WiseWay, das Netzwerk für nachhaltigkeitsengagierte Business-Frauen Futurewoman und die internationale zivilgesellschaftliche Initative für KI-Audits ForHumanity.org.
Es war mir eine Freude, mich mit Birgit als infomierter und zugewandter Gastgeberin auszutauschen. Wir kannten uns vorher nicht. Im Talk (bzw. Im Warming up vorher) stellten wir fest, dass wir wirklich nur einen Katzensprung entfernt voneinander leben. Daher haben wir uns auf einen Post-Corona-Kaffee verabredet. Kaum zu glauben, dass das nun auch wieder möglich ist!
Wer mal reinhören möchte, die Aufzeichnung auf YouTube ist hier verlinkt. Wenn Euch das Thema interessiert, kommt doch gerne in die LinkedIn-Gruppe dazu – hier geht´s lang. Vielleicht habt ihr ja auch Lust der nächste – oder übernächste Gast – im KI-Talk zu sein? Birigt freut sich darauf!