Weihnachtliche Betrachtungen: Der Weg der Menschheit von der Urzeit bis zur KI

Weihnachtliche Betrachtungen: Der Weg der Menschheit von der Urzeit bis zur KI

Anlässlich der bevorstehenden Weihnachtstage habe ich auf die aktuellen Entwicklungen zurückgeschaut. Daher möchte ich Euch heute auf eine Entdeckungsreise mitnehmen – von unseren frühesten Anfängen als Homo sapiens sapiens bis zur Gegenwart der Künstlichen Intelligenz. Diese Reise durch die Zeit ist nicht nur eine Erkundung unserer Vergangenheit, sondern wirft auch ein Licht auf die Möglichkeiten und Herausforderungen, die vor uns liegen, besonders jetzt, da die Weihnachtszeit uns zu Gedanken über Frieden, Menschlichkeit und Zukunft inspiriert.

Unsere Ursprünge und Meilensteine der Entwicklung

Wir Menschen sind eine faszinierende Spezies. Als Homo sapiens sapiens, ein Mitglied der Primatenfamilie, haben wir unseren Ursprung vermutlich vor etwa 300.000 Jahren auf dem afrikanischen Kontinent. Unsere nächsten biologischen Verwandten sind die Menschenaffen, insbesondere die Schimpansen. Unsere Art hat den Werkzeuggebrauch meisterhaft entwickelt und weiterentwickelt, wie keine andere Spezies auf diesem Planeten: Von der Gentechnologie, die es uns ermöglichte, innerhalb einer historischen Millisekunde eine globalDie Illustration zeigt eine einfache und friedvolle Szene, in der eine kleine Gruppe von Menschen aus verschiedenen Hintergründen zusammengekommen ist. Sie verkörpern Qualitäten wie Empathie, Nachdenklichkeit und Kreativität. Die Personen sind in einer ruhigen Umgebung versammelt, möglicherweise mit minimalistischen Weihnachtsdekorationen, und engagieren sich in bedeutungsvollen Gesprächen oder stillen Aktivitäten wie Lesen, Schreiben oder einfach dem Genießen der gemeinsamen Zeit. Der Fokus liegt auf echter menschlicher Verbindung und friedlichem Miteinander, wobei das Weihnachtsthema subtil eingewoben ist, ohne die Essenz der Menschlichkeit zu überlagern.e Pandemie einzudämmen, über die Kernfusionstechnologie, die die immense Energie der Sonne künstlich nachbildet und uns den Zugang zu unerschöpflichen Energiequellen eröffnen könnte, bis hin zur Kosmologie, die uns durch das James-Webb-Teleskop atemberaubende Bilder ferner Galaxien liefert, die vor unglaublichen 13,4 Milliarden Jahren entstanden sind.

Die Macht über das Feuer

Wie keine andere Art haben wir das Feuer beherrscht und zu unserem Vorteil genutzt. Feuer brachte Wärme, Licht und Schutz und eröffnete uns Zeit für Entwicklung. Anthropologen vermuten, dass das Feuer unseren Vorfahren ermöglichte, Empathie und Gemeinschaft zu entwickeln – die Grundlagen für Kultur. Doch unsere „Krone der Schöpfung“ sitzt schief. Der Bedarf an Feuer in Form von Licht, Wärme und Hitze ist in den letzten 100 Jahren dramatisch gestiegen, was zum verstärkten Verbrauch von Brennstoffen wie Holz, Kohle, Öl oder Gas führte. Diese Entwicklung hat unseren Planeten tiefgreifend verändert und zum menschengemachten Klimawandel geführt, der die Bewohnbarkeit einiger Teile der Welt bedroht.

Die Ära der Künstlichen Intelligenz und ihre Auswirkungen

Nun hat Homo sapiens sapiens die Technologieentwicklung auf eine neue, beeindruckende Ebene gehoben – Künstliche Intelligenz und KI-Bots. ChatGPT, Perplexity, Pi, Mistral, Llama, Bart, Q, Copilot, Midjourney, Dall-E und andere sind in unseren Alltag eingezogen und revolutionieren derzeit jede Facette des globalen Wirtschaftsgefüges. Dabei verbrauchen diese Technologien so viel Energie, dass sie bald den Stromverbrauch ganzer Länder übersteigen könnten. Die Menschheit nutzt ihr „Feuer“ für diese intelligenten Maschinen. Wir stehen bald vor der Herausforderung, knappe Energieressourcen entweder für KI-Rechenleistung oder für menschliche Bedürfnisse einzusetzen. Die Frage, ob wir unsere natürliche Lebensgrundlage weiter gefährden sollen, um die Entwicklung einer dynamischen, KI-gestützten Wirtschaft nicht zu riskieren, wird immer drängender.

Maschinen-Akteure verändern den Alltag

Wir haben mit den KI-Bots Akteure geschaffen, die Zugang zum vernetzten Wissen von Millionen Menschen haben, insbesondere zu den intellektuellen Errungenschaften unserer kreativsten Köpfe. Viele von uns speisen sie mit Daten, verbessern ihre Ergebnisse und „trainieren“ sie. ChatGPT allein bietet heute bereits bis zu 30 % Effizienzsteigerung – Zeit, die wir für andere Aufgaben nutzen können. Zwar könnte der Kapitalismus diese gewonnene Zeit wieder absorbieren, doch bin ich optimistisch, dass wir dadurch Zeit und Muße gewinnen werden. Zeit zum Entspannen, für den Austausch und Gespräche von Mensch zu Mensch, für Nachdenken, Kunst und Kreativität – für das, was uns als Menschen ausmacht. Die Existenz dieser Maschinen, die uns ähneln und scheinbar übermenschliche Fähigkeiten besitzen, verändert uns. Sie zwingen uns, unsere Rolle als Individuen und als Teil der Menschheit zu hinterfragen. Sind wir einem solchen „Datenhirn“ unterlegen? Sollten wir nicht besser die Maschinen entscheiden lassen?

Menschlichkeit erkennen

Diese Fragen bieten uns eine wunderbare Gelegenheit zur Reflexion: Was macht uns als Menschen aus? Was macht unsere Menschlichkeit aus? Sie ermöglichen es uns, die Grenzen des Menschlichen zu erkennen und seine Schönheit in den Grauzonen jenseits von Schwarz oder Weiß, von Null oder Eins, zu entdecken. Ich erlebe oft, dass ich die Antworten eines KI-Bots auf kontroverse Fragen als ausgewogen und durchdacht empfinde – im Gegensatz zu dem Hass, der Hetze und dem gegenseitigen Unverständnis in sozialen Medien. Dies scheint das Ergebnis zu sein, wenn viele von uns „gemeinsam“ denken. Dann bin ich stolz auf diese Menschheit, von der ich ein winziger Teil bin – und vergesse für einen Moment die humanitären Rückschläge und Kriege.

Meilenstein in einer langen Kette menschlicher Anstrengung

KI kann uns helfen, Zeit für das Menschliche zu haben. Sie kann uns helfen, uns als Menschheit selbst zu erkennen. Vor allem aber sollten wir uns stets bewusst sein, dass diese KI-Entwicklungen das Ergebnis eines langen Entwicklungsprozesses sind, an dem die rund 100 Milliarden Menschen beteiligt waren, die seitdem auf der Erde lebten und leben. Die Entwicklung der KI ist somit ein weiterer Meilenstein in dieser langen Kette der menschlichen Anstrengung. Sie repräsentiert nicht nur den technologischen Fortschritt, sondern auch die kumulative Weisheit, Kreativität und das Streben der Menschheit. Sie ist ein Spiegelbild dessen, was wir als Spezies erreichen können, wenn wir unser Wissen und unsere Fähigkeiten bündeln. Durch die KI werden wir in die Lage versetzt, über den Tellerrand des Individuellen hinauszublicken und das Große Ganze der menschlichen Existenz zu betrachten. Sie erinnert uns daran, dass wir alle Teil eines größeren, andauernden Prozesses sind und dass unsere Handlungen und Entdeckungen auf den Schultern derer aufbauen, die vor uns kamen.

Historische Wendepunkte: Feuer und KI

Manche verglichen das „Go Live“ von ChatGPT vor über einem Jahr mit dem „iPhone-Moment“, in Anspielung auf die damaligen Umwälzungen durch die innovative Gestensteuerung. Ich denke jedoch, dass die durch KI und KI-Bots ausgelöste Revolution weitreichender und umfassender sein wird, vergleichbar mit der Beherrschung des Feuers durch die Menschen vor einer Million Jahren.

In meiner kleinen Reise vom frühen Homo sapiens sapiens bis zur heutigen Ära der Künstlichen Intelligenz wird deutlich, dass jede neue Entdeckung und technologische Entwicklung tief in unserer kollektiven Geschichte verwurzelt ist. Die KI, als neuestes Kapitel in dieser Geschichte, ist nicht nur ein Zeugnis technologischen Brillanz, sondern auch ein Spiegel unserer Menschlichkeit. Sie fordert uns heraus, über unser Selbstverständnis als Individuen und als Spezies nachzudenken und eröffnet uns gleichzeitig neue Wege, unsere Zukunft zu gestalten. Während wir an der Schwelle zu weiteren bahnbrechenden Entwicklungen stehen, ist es entscheidend, dass wir uns der Verantwortung bewusst bleiben, die diese Macht mit sich bringt. Unser Umgang mit der KI und deren Auswirkungen wird nicht nur unsere unmittelbare Zukunft prägen, sondern auch das Erbe, das wir für kommende Generationen hinterlassen.

Ein nachdenklicher Jahresausklang zur Weihnachtszeit

Während wir uns auf die ruhigen Tage rund um Weihnachten zubewegen, bietet sich die Gelegenheit, inmitten des festlichen Trubels einen Moment innezuhalten und über das vergangene Jahr nachzudenken. Die Weihnachtszeit, ein Symbol für Besinnlichkeit und Zusammenkunft, erinnert uns daran, wie wichtig es ist, sowohl die kleinen als auch die großen Fortschritte zu würdigen, die wir als Menschheit gemacht haben. Die Entwicklung der Künstlichen Intelligenz ist ein beeindruckendes Beispiel dafür, was wir erreichen können. In dieser Zeit des Jahresendes und der familiären Wärme können wir unsere Hoffnungen für die Zukunft reflektieren – eine Zukunft, in der Technologie und Menschlichkeit Hand in Hand gehen.

Möge die kommende Weihnachtszeit uns allen Frieden, Freude und die Inspiration für ein neues Jahr 2024 voller Möglichkeiten und Entdeckungen bringen.

Zukunft gestalten mit nachhaltiger KI: Einblicke in den Sustainable AI Radar und die DigiKon23

Zukunft gestalten mit nachhaltiger KI: Einblicke in den Sustainable AI Radar und die DigiKon23

Künstliche Intelligenz und Nachhaltigkeit

Wenn wir das breite Spektrum der Anwendungen von Künstlicher Intelligenz (KI) betrachten, wird eines schnell deutlich: Nur ein minimaler Anteil dieser Technologien wird tatsächlich eingesetzt, um nachhaltige Lösungen für die großen Herausforderungen unserer Zeit zu bieten. Trotz der steigenden Präsenz des Themas Nachhaltigkeit in der öffentlichen Diskussion, wie etwa bei der Verbesserung medizinischer Diagnostik, der Steigerung der Klimafreundlichkeit oder der Erhöhung der Biodiversität, liegt der Schwerpunkt der meisten KI-Anwendungen auf wirtschaftlichen, technischen oder unternehmerischen Zielen.

Dies spiegelt sich auch in der Strategie der meisten Unternehmen wider, die Tools wie ChatGPT oder andere große Sprachmodelle zu nutzen beabsichtigen, um ihre Geschäftsprozesse zu optimieren. In unserem Bestreben, diese Lücke zu schließen, präsentieren wir den Sustainable AI Radar – ein Instrument, das darauf abzielt, den Einsatz von KI in Richtung nachhaltiger Entwicklung zu lenken und Unternehmen dabei zu unterstützen, ihre KI-Strategien verantwortungsvoll zu gestalten.

CDR als Verantwortungs-Ökosystem

Unternehmen zeigen Verantwortung für die Gesellschaft, wenn sie eine Strategie für nachhaltige und faire Digitalisierung verfolgen. Corporate Digital Responsibility (CDR)  verbindet Management-Praktiken und -Verhaltensweisen, die einem Unternehmen helfen, Daten und digitale Technologien in einer Weise zu nutzen, die als sozial, wirtschaftlich und ökologisch verantwortungsvoll wahrgenommen wird. Anforderungen von Stakeholdern wie Mitarbeitenden, Nutzer*innen, Öffentlichkeit etc. werden aufgenommen, bewertet und integriert.

Corporate Digital Responsibility (CDR) ist  eine freiwillige Selbstverpflichtung, die über das gesetzlich Geforderte hinausgeht. Ziel ist es, das Vertrauen der Stakeholder zu gewinnen, was eine entscheidende Voraussetzung für nachhaltige unternehmerische Wertschöpfung ist.

Bei der KI-Nutzung umfasst dies neben der Reduktion von ökologischen Wirkungen auch die Berücksichtigung kultureller Unterschiede und die Vermeidung von Diskriminierung und Verzerrung (Bias), die soziale Gerechtigkeit sowie die Wahrnehmung individueller Bedürfnisse, um eine inklusive und nachhaltige KI-Anwendung zu gewährleisten​. CDR bildet also ein Ökosystem, um KI-Anwendungen wirtschaftlich, ökologisch und gesellschaftlich nachhaltig und verantwortlich zu gestalten.

​Nachhaltige KI verstehen: Grundlagen und Bedeutung

Nachhaltige KI befasst sich mit KI-Anwendungen, die nicht nur aktuelle Bedürfnisse erfüllen, sondern auch zukünftige Generationen berücksichtigen. Es geht um mehr als „Green AI“ oder „AI for Good“. Nachhaltige KI berücksichtigt ökologische, ökonomische und soziale Aspekte und betont den verantwortungsbewussten Einsatz jeglicher KI-Anwendunge für das Wohl der Gesellschaft​. Dies umfasst einen 360-Grad-Blick auf KI-Verantwortung aus verschiedenen Stakeholder-Perspektiven. Es eignet sich insbesondere auch für Unternehmen, die KI im Betrieb einsetzen. Für eine umfassende Betrachtung der nachhaltigen KI und wie sie sich von anderen KI-Konzepten unterscheidet, lesen Sie den Blogbeitrag Was ist Nachhaltige KI?“.

Der Sustainable AI Radar: Ein innovatives Tool

Der Sustainable AI Radar ist ein Tool zur Entwicklung nachhaltiger KI-Anwendungen in Unternehmen und Organisationen

Sustainable AI Radar © 2023 by Dr. Saskia Dörr is licensed under Attribution-NonCommercial-NoDerivatives 4.0 International. To view a copy of this license, visit http://creativecommons.org/licenses/by-nc-nd/4.0/

Der Sustainable AI Radar ist ein Instrument, das Organisationen dabei unterstützt, ihre KI-Initiativen so zu gestalten, dass sie sowohl technologisch fortschrittlich als auch sozial verantwortungsbewusst und ökologisch nachhaltig sind. Dieses Tool besteht aus drei Ebenen: Start-Voraussetzungen, Nachhaltigkeitspotenziale und eingebettete Nachhaltigkeitskriterien. Jede Ebene fokussiert auf spezifische Aspekte der Nachhaltigkeit, von der Klärung des Zwecks einer KI-Initiative bis hin zur Integration von Nachhaltigkeitskriterien in die KI-Entwicklung und -Anwendung​

​Workshop-Highlight: Sustainable AI auf der DigiKon23

In einem interaktiven Workshop auf der DigiKon23-Konferenz stellten wir den Sustainable AI Radar vor und demonstrierten seine Anwendung in einem realistischen Szenario. Die Teilnehmenden, engagierte Fachleute aus Politik, Wissenschaft, Wirtschaft und Verbänden, waren eingeladen, die Geschäftsführung eines fiktiven Unternehmens zu beraten. Im sollten einen Rahmen für die Einführung von ChatGPT bei der „GreenChoice GmbH“ schaffen, einem E-Commerce-Unternehmen für nachhaltige Alltagsprodukte, wobei sowohl die Effizienz gesteigert als auch die Werte und Jobs der Mitarbeitenden geschützt werden sollten. Die Teilnehmenden ließen sich engagiert auf das Szenario ein und entwickelte kritische Fragen und innovative Ansätze für die Einführung von ChatGPT bei der „GreenChoice“. Das Feedback der Teilnehmenden war äußerst positiv. Insbesondere die Anwendungsfreundlichkeit des Sustainable AI Radar wurde hervorgehoben.

​DigiKon23: Ein Forum für nachhaltige KI-Innovationen

Die DigiKon23, organisiert von der Bundesnetzagentur in Bonn, bot eine ideale Plattform, um über die Rolle der KI in unserer Zukunft zu sprechen. Mit dem Thema „Datenkompetenz als Schlüsselqualifikation für KMU“ zog die Konferenz ein hochkarätiges Publikum an und ermöglichte fruchtbare Diskussionen über die Verantwortung und Möglichkeiten der Technologie in unserer Gesellschaft. Weitere Informationen zur Konferenz auf der Website der Bundesnetzagentur.

​Nachhaltige KI: Ein Blick in die Zukunft

Angesichts des positiven Feedbacks und des Interesses, das wir auf der DigiKon23 erlebt haben, sind wir überzeugt, dass nachhaltige KI eine Schlüsselrolle in der zukünftigen technologischen Landschaft spielen wird. Wir setzen uns dafür ein, Unternehmen und Organisationen dabei zu unterstützen, ihre KI-Strategien nachhaltig zu gestalten, um sowohl heute als auch in Zukunft einen positiven Einfluss zu erzielen.

Weiterführende Informationen und Kontakt

Für weitere Informationen zum Sustainable AI Radar und unsere Vision für eine nachhaltigere Zukunft, besuchen Sie unsere Webseite: Sustainable AI Radar.  Wir bieten auch Inhouse-Workshops an, um Organisationen bei der Entwicklung von KI-Leitlbildern oder der Implementierung von nachhaltigen KI-Strategien mit dem Sustainable AI Radar zu unterstützen.

„Nachhaltige KI“ – Was bedeutet das eigentlich?

„Nachhaltige KI“ – Was bedeutet das eigentlich?

In den letzten Jahren hat der Diskurs um künstliche Intelligenz (KI) den Fokus auf Aspekte wie Ethik, Verantwortung und Umweltschutz gelegt. Insbesondere ist der Begriff „Nachhaltige KI“ aufgetaucht, der für einen holistischen Ansatz steht. Dieser Artikel beleuchtet das Konzept der „Nachhaltigen KI“, das die Entwicklung von KI-Systemen im Einklang mit planetaren Grenzen anstrebt und ökologische, ökonomische und soziale Aspekte berücksichtigt. Hierbei steht das Wohl sowohl der heutigen als auch zukünftiger Generationen im Vordergrund. Im Gegensatz zu anderen KI-Konzepten, die sich hauptsächlich auf ethische oder technische Aspekte konzentrieren, umfasst „Nachhaltige KI“ einen breiteren Fokus, einschließlich der ökologischen Dimension. Es wird hervorgehoben, dass Unternehmen den Mehrwert von Nachhaltigkeitsstrategien nicht nur aus ethischer, sondern auch aus wettbewerbsfähiger Sicht erkennen.

Art work: Rens Dimmendaal & Johann Siemens / Better Images of AI / Decision Tree / Licenced by CC-BY 4.0

Licht ins Dunkel der „guten KI“

Künstliche Intelligenz (KI) sorgt nicht nur aufgrund ihrer technologischen Fortschritte für Schlagzeilen, sondern auch wegen der ethischen, sozialen und ökologischen Herausforderungen, die sie mit sich bringt. Konzepte wie „Ethische KI“, „Verantwortungsvolle KI“ und „Grüne KI“ sind im Diskurs rund um KI-Technologien immer präsenter geworden. Doch in letzter Zeit hört man immer häufiger auch von „Nachhaltiger KI“. Was verbirgt sich hinter diesem Begriff und wie unterscheidet er sich von anderen KI-Konzepten? In diesem Artikel versuchen wir, Licht ins Dunkel zu bringen.

Nachhaltige KI: Potenzial der Technologie nutzen, ohne unsere Zukunft zu gefährden

Die Definition von „Nachhaltiger KI“ basiert auf der Idee, dass die Entwicklung und Anwendung von KI-Systemen im Einklang mit den planetaren Grenzen stehen sollten. Dabei geht es nicht in erster Linie um den Umweltschutz, sondern auch um die Ausgewogenheit von ökonomischen Dynamiken und den Erhalt des gesellschaftlichen Zusammenhalts. Ein holistischer Ansatz steht im Mittelpunkt, bei dem ökologische, ökonomische und soziale Faktoren berücksichtigt werden. Ziel ist es, KI so zu entwickeln und zu nutzen, dass sie sowohl den heutigen als auch den zukünftigen Generationen dient und nicht schadet (vgl. Rohde et al. 2021).

Kurz und knapp gesagt beschreibt „Nachhaltige KI“ „das Maß, in dem KI-Technologie in eine Richtung entwickelt wird, die die Bedürfnisse der Gegenwart erfüllt, ohne die Fähigkeit zukünftiger Generationen zu beeinträchtigen, ihre eigenen Bedürfnisse zu erfüllen.“ (Bjørlo et al. 2021, eigene Übersetzung).

Diese Definition basiert auf dem bahnbrechenden Brundtland-Bericht und betont den Nachhaltigkeitsgedanken und die Zukunftsorientierung. Im Kontext der Online-Entscheidungsfindung bezieht sich die Entwicklung nachhaltiger KI insbesondere darauf, die Art und Weise, wie KI-Technologie in menschliche Entscheidungsfähigkeiten eingreift, so zu gestalten, dass sie sowohl heutige als auch zukünftige Konsumenten berücksichtigt.

In diesem Kontext sollte KI nicht isoliert, sondern als Teil eines größeren Ökosystems betrachtet werden, das ökologische, ökonomische und soziale Faktoren miteinbezieht. Ziel ist es, KI verantwortungsbewusst und zum Wohl der gesamten Gesellschaft zu nutzen.

In dieser holistischen Perspektive hat KI das Potenzial, weit über direkte Nachhaltigkeitsinitiativen hinaus einen positiven Einfluss zu nehmen. Das Konzept betont die Notwendigkeit, KI-Systeme so zu entwickeln und einzusetzen, dass sie in eine nachhaltig-digitale Gesellschaft integriert werden können. Dabei sollten soziale und ökologische Dimensionen gleichwertig zur ökonomischen Dimension berücksichtigt werden. Das übergeordnete Ziel ist, ein Gleichgewicht zwischen den verschiedenen Säulen der Nachhaltigkeit herzustellen und KI so zu gestalten, dass sie zukünftigen Generationen nützt und nicht schadet.

Im Vergleich zu anderen KI-Konzepten, die sich hauptsächlich auf ethische oder technische Aspekte konzentrieren, setzt „Nachhaltige KI“ einen breiteren Fokus und bindet die ökologische Dimension mit ein.

Definition Nachhaltige Künstliche Intelligenz („Sustainable AI“) in aller Kürze

Nachhaltige KI entstand konzeptionell aus der Nachhaltigkeitsbewegung und der nachhaltigen Entwicklung. Sie bezieht sich auf die Entwicklung und Anwendung von KI-Technologien, die aktuelle Bedürfnisse erfüllen, ohne die Fähigkeiten zukünftiger Generationen zu beeinträchtigen. Sie berücksichtigt ökologische, ökonomische und soziale Aspekte und betont den verantwortungsbewussten Einsatz von KI zum Wohl der gesamten Gesellschaft. Das Konzept weist deutlich über „Green AI“ oder auch „AI For Good“ oder KI für Nachhaltigkeit hinaus.

Sustainable AI emerged conceptually from the sustainability movement and sustainable development. It refers to the development and application of AI technologies that meet current needs without compromising the capabilities of future generations. It takes into account environmental, economic and social aspects and emphasizes the responsible use of AI for the benefit of society as a whole. The concept clearly points beyond „Green AI“ or even „AI For Good“ or AI for Sustainability.

Weitere KI-Konzepte im Überblick

In der schnell wachsenden KI-Landschaft sind viele Begriffe und Definitionen entstanden, die den Verantwortlichkeiten und Erwartungen gerecht werden sollen, die wir an KI-Systeme stellen. Sie reflektieren das wachsende Bewusstsein für die weitreichenden Auswirkungen von KI auf die Gesellschaft und die Notwendigkeit der Steuerung in der technologischen Gestaltung. Hier ein Überblick über relevante Konzepte, um KI gesellschaftlich wünschenswert zu gestalten.

Ethische KI: Die Idee einer „ethischen KI“ hebt die Notwendigkeit hervor, die Entwicklung und Anwendung von KI mit universellen moralischen Werten in Einklang zu bringen. Es geht nicht nur darum, Technologie um ihrer selbst willen zu schaffen, sondern sicherzustellen, dass sie den Menschen und der Gesellschaft im Ganzen dient. Dieses Konzept rückt immer mehr in den Fokus, da wir zunehmend erkennen, welche tiefgreifenden Auswirkungen KI auf alle Lebensbereiche haben kann, sowohl positive als auch negative.

AI For Good (KI für den guten Zweck): Inspiriert und gefördert durch Organisationen wie die UN ITU, legt dieses Konzept den Schwerpunkt darauf, KI gezielt zur Lösung globaler Herausforderungen und dem Erreichen der Sustainable Development Goalseinzusetzen. Es geht darum, Technologie als Mittel zum Zweck zu nutzen, um drängende soziale, wirtschaftliche und ökologische Probleme zu adressieren und so einen positiven Einfluss auf die Menschheit zu haben.

Beneficial AI (Nützliche KI): Das Hauptaugenmerk dieses Ansatzes liegt auf Sicherheit und Langzeitvorteilen. Es betont die Notwendigkeit, KI-Systeme zu entwickeln, die der Gesellschaft und Umwelt nützen, ohne potenzielle Schäden zu verursachen. Organisationen, die diesen Ansatz fördern, wie das Future of Life Institute, sind besonders daran interessiert, unbeabsichtigte und schwer vorhersehbare negative Folgen von KI zu verhindern.

Responsible AI (Verantwortungsvolle KI): Dieses Konzept betont den Prozess der KI-Entwicklung. Hier geht es darum, wie KI-Systeme entworfen, entwickelt und implementiert werden. Es fordert Standards und Verfahren, um sicherzustellen, dass KI-Technologien auf eine Weise entwickelt werden, die ethische und soziale Verantwortung berücksichtigt.

Trustworthy AI (Vertrauenswürdige KI): Initiiert und definiert von der EU High Level Expert Group, betont diese Idee die Rechtmäßigkeit, Ethik und Robustheit von KI-Systemen. Sie setzt strenge Anforderungen und bietet einen Rahmen, um sicherzustellen, dass KI-Systeme die ihnen zugewiesenen Aufgaben erfüllen, ohne rechtliche, ethische oder funktionelle Probleme zu verursachen.

Green AI (Grüne KI): Das Konzept bezieht sich auf Ansätze und Initiativen, die darauf abzielen, die Umweltauswirkungen und den Ressourcenverbrauch von KI-Systemen, insbesondere von ressourcenintensiven Deep-Learning-Verfahren, zu minimieren. Inspiriert von Bewegungen wie Green IT und Green Coding, zielt Green AI darauf ab, den Verbrauch von Rechenzeit, Strom, Kühlung und Rohstoffen zu reduzieren und die KI-Entwicklung nachhaltiger und umweltfreundlicher zu gestalten.

Babylonisches Begriffs-Wirrwarr und schwindelerregende Berge von Leitlinien

So sind eine Vielzahl von Begriffen und damit verbundener Konzepte entstanden, die von unterschiedlichen Organisationen verfolgt werden. Allein die damit verbundene Anzahl von Leitlinien und Tools lässt einen schwindelig werden:

  • Der „Global Index on Responsible AI“ listet 95 bestehende Instrumente und Rahmenwerke auf, die den ethischen, verantwortungsvollen oder vertrauenswürdigen Einsatz von KI fördern sollen.
  • Die NGO AlgorithmWatch sammelte in ihrem „AI Ethics Inventory“ 167 Leitlinien, die Grundsätze dafür festlegen, wie Systeme für die automatisierte Entscheidungsfindung (ADM) unter ethischen Gesichtspunkten entwickelt und umgesetzt werden können.
  • Die OECD führt über 600 Tools in ihrem Katalog für „Trustworthy AI“. Diese Werkzeuge und Messgrößen sollen KI-Akteuren helfen, vertrauenswürdige KI-Systeme und -Anwendungen zu entwickeln und zu nutzen, die die Menschenrechte achten und fair, transparent, erklärbar, robust, sicher und geschützt sind.

Während wir uns eventuell über den Anspruch einer guten KI-Entwicklung freuen wollen, stellt sich uns das so entstandene „babylonische Begriffs-Wirrwarr“ in den Weg. Dazu kommt noch: Weder gibt es einen Common Sense zur Nutzung der Begriffe, noch werden die oft zugrundliegenden KI-Ethik-Kriterien, wie Fairness, Transparenz, Erklärbarkeit, Benefizienz, Sicherheit, Überprüfbarkeit, in gleicher Weise verstanden und verwendet.

Damit stehen diejenigen, die KI-Anwendungen in Unternehmen und Organisationen im guten Sinn gestalten und nutzen wollen, die Entscheider*innen, Praktiker*innen und Strateg*innen vor einer offenbar nicht mit akzeptablem Aufwand zu beantwortenden Frage: Welches KI-Konzept und welche Leitlinie ist für uns geeignet?

Eine Antwort kann ich an dieser Stelle nicht bieten, aber möglicherweise Hilfestellungen, um sich ihr anzunähern.

Unterscheidung von Nachhaltiger KI zu anderen KI-Konzepten

Zunächst kann es hilfreich sein, sich die Unterschiede der KI-Konzepte deutlich zu machen. An dieser Stelle werden die KI-Konzepte jeweils im Vergleich zu Nachhaltiger KI diskutiert.

  • Ethische KI vs. Nachhaltige KI: Während ethische KI darauf ausgerichtet ist, moralische Werte und Grundsätze in die Technologieentwicklung einzubetten, legt nachhaltige KI den Schwerpunkt auf die langfristigen Auswirkungen und den fortwährenden Wert für zukünftige Generationen. Es geht nicht nur darum, was heute richtig ist, sondern auch darum, was morgen nachhaltig sein wird.
  • Responsible AI vs. Nachhaltige KI: Responsible AI (Verantwortungsvolle KI) konzentriert sich auf ethische und verantwortungsbewusste Gestaltungs-, Entwicklungs- und Anwendungsprozesse von künstlicher Intelligenz. Es betont die Einhaltung ethischer Grundsätze, Transparenz, Datenschutz und Sicherheit im unmittelbaren Kontext der KI-Technologie. Im Gegensatz dazu betrachtet Nachhaltige KI das Thema in einem ganzheitlicheren Rahmen, indem es ökologische, ökonomische und soziale Aspekte miteinbezieht. Das Ziel ist, KI-Systeme zu schaffen, die die aktuellen Bedürfnisse erfüllen, ohne die Möglichkeiten zukünftiger Generationen zu beeinträchtigen. Während Responsible AI den gegenwärtigen Einsatz von KI adressiert, legt Nachhaltige KI den Fokus auf Langfristigkeit und die harmonische Integration von KI in das gesamte gesellschaftliche Ökosystem.
  • AI for Good vs. Nachhaltige KI: „AI for Good“ konzentriert sich darauf, aktuelle soziale und ökologische Probleme mit KI zu adressieren. Nachhaltige KI betrachtet darüber hinaus, wie diese KI-Lösungen Menschen heute und zukünftige Generationen beeinflussen und sicherstellen, dass sie nicht zu neuen, unerwarteten Problemen führen.
  • Green AI vs. Nachhaltige KI: Während Green AI die ökologischen Auswirkungen von KI-Systemen direkt adressiert, geht nachhaltige KI weiter und berücksichtigt auch soziale und ökonomische Aspekte, um eine ganzheitliche Nachhaltigkeitsperspektive zu gewährleisten.

Mehrwert der KI-Konzepte für den Business Case for Sustainability

Unternehmen weltweit erkennen zunehmend die Bedeutung von Nachhaltigkeit, nicht nur als ethische Verpflichtung, sondern auch als Mittel zur Erzielung von Wettbewerbsvorteilen und langfristiger Resilienz. In diesem Kontext kann die KI als mächtiges Instrument dienen. Doch wie unterscheidet sie sich von anderen KI-Konzepten in Bezug auf ihren Mehrwert für Unternehmen?

Im folgenden sind einige Stärken der einzelnen KI-Konzepte genannt. Je nach strategischer Positionierung und KI-Kontext können Entscheider*innen sich bei der Priorisierung von KI-Konzepten daran orientieren, um eine beste Passung zu finden.

Nachhaltige KI:

  • Agent für sozial-ökologischen Wandel: Unternehmen, die KI-Technologien im Sinne der Nachhaltigkeit gestalten, positionieren sich als verantwortlicher Agent der sozial-ökologischen Wandels. Dies kann Kundentreue stärken und neue Marktsegmente erschließen.
  • Langfristige Resilienz: Indem sie ökologische, soziale und ökonomische Aspekte berücksichtigt, hilft das Konzept der Nachhaltigen KI deb Unternehmen, potenzielle zukünftige Risiken zu identifizieren und abzumildern.
  • Stakeholder-Engagement: Ein Engagement für Nachhaltige KI kann das Vertrauen und die Zufriedenheit von Stakeholdern wie Kunden, Mitarbeitern und Investoren stärken.

Ethische KI:

  • Vertrauen schaffen: Unternehmen, die sich auf ethische KI konzentrieren, können das Vertrauen ihrer Kunden in ihre Produkte und Dienstleistungen stärken.
  • Reputationsmanagement: Durch die Beachtung ethischer Prinzipien können Unternehmen potenzielle PR-Krisen verhindern.

Responsible AI (Verantwortliche KI)

  • Robuste Systeme: Unternehmen, die Verantwortung in ihren KI-Entwicklungsprozessen betonen, neigen dazu, robusteren, verlässlichen und sicheren KI-Systemen zu schaffen.
  • Regulierungskonformität: Indem sie sich auf verantwortungsvolle Entwicklung und Implementierung konzentrieren, sind Unternehmen besser darauf vorbereitet, sich an sich ändernde Regulierungslandschaften anzupassen.

AI for Good:

  • Soziale Verantwortung: Unternehmen, die AI for Good-Initiativen unterstützen, können ihre Corporate Social Responsibility (CSR) stärken und gleichzeitig Lösungen für gesellschaftliche Probleme schaffen.
  • Marktinnovation: Durch den Einsatz von KI zur Lösung realer sozialer und ökologischer Herausforderungen können Unternehmen neue Marktchancen identifizieren.

Green AI:

  • Reduzierte Betriebskosten: Durch den effizienten Einsatz von Ressourcen können Unternehmen Kosten in Bereichen wie Energieverbrauch sparen.
  • Umweltbewusstes Branding: Unternehmen, die Green AI nutzen, können sich als ökologisch bewusste Marken positionieren und so eine spezifische Zielgruppe ansprechen.

Trustworthy AI (Vertrauenswürdige KI):

  • Vertrauensbildung: Wenn Kunden und Stakeholder wissen, dass ein KI-System vertrauenswürdig ist, erhöht dies ihr Vertrauen in das Unternehmen und seine Produkte.
  • Risikominimierung: Vertrauenswürdige KI reduziert das Risiko von Fehlentscheidungen durch KI, die finanzielle oder reputative Schäden verursachen könnten.
  • Regulierungskonformität: Trustworthy AI fließt in die EU Gesetzgebung des AI Act ein und bereitet Unternehmen daher auf die kommende Regulierung vor

Die ganzheitliche Vision der Nachhaltigen KI

Die Vielfalt der KI-Konzepte zeugt von dem wachsenden Bewusstsein für die multidimensionalen Auswirkungen von KI auf unsere Gesellschaft und Umwelt. Jedes Konzept hat seine eigenen Schwerpunkte und Betrachtungswinkel, die es wertvoll und relevant für unterschiedliche Anwendungs- und Forschungsbereiche machen.

Nachhaltige KI hebt sich in ihrer ganzheitlichen Betrachtung der Auswirkungen von KI hervor. Während Konzepte wie Ethische KI und Responsible AI sich hauptsächlich auf den gegenwärtigen Moment und die unmittelbare ethische und verantwortungsvolle Gestaltung und Implementierung konzentrieren, wirft die Nachhaltige KI einen Blick in die Zukunft und fragt, wie KI-Technologien langfristig zum Wohl aller beitragen können. „AI for Good“ und „Green AI“ sind beispielhafte Ansätze, die spezifische Bereiche von Nachhaltigkeit adressieren, jedoch fehlt ihnen die ganzheitliche Perspektive, die Nachhaltige KI mitbringt.

Während jedes KI-Konzept seinen eigenen spezifischen Mehrwert für Unternehmen bietet, stellt die Nachhaltige KI eine ganzheitliche Herangehensweise dar, die über die unmittelbaren technologischen Aspekte hinausgeht. Sie betrachtet KI im Kontext globaler Nachhaltigkeitsziele und kann Unternehmen helfen, sowohl kurzfristige als auch langfristige Vorteile zu erzielen. Es geht nicht nur darum, KI „richtig“ zu machen, sondern auch darum, sie „für das Richtige“ einzusetzen. Unternehmen, die diese Perspektive übernehmen, positionieren sich für zukünftigen Erfolg in einer immer komplexeren und vernetzteren Geschäftswelt.

Kritik und Zukunftsperspektive

Die Nachhaltige KI ist nicht ohne ihre Kritiker. Einige argumentieren, dass die ganzheitliche Vision zwar lobenswert, aber in der Praxis schwer umsetzbar ist. Die Implementierung nachhaltiger KI-Lösungen erfordert oft komplexere Designansätze, zusätzliche Ressourcen und gelegentlich Kompromisse bei der Performance. Zudem kann der Begriff „Nachhaltigkeit“ subjektiv interpretiert werden, was zu Uneinigkeiten darüber führen kann, was tatsächlich als nachhaltige KI gilt. Trotz dieser Herausforderungen zeigt die Zukunftsperspektive ein enormes Potenzial für die Nachhaltige KI. Mit dem wachsenden globalen Bewusstsein für die Dringlichkeit von Umwelt- und Sozialproblemen und der zunehmenden Bedeutung der Vereinten Nationen und ihrer Ziele für nachhaltige Entwicklung, wird die Nachhaltige KI wahrscheinlich eine zentrale Rolle in der technologischen Agenda der kommenden Jahrzehnte spielen. Es wird erwartet, dass zukünftige KI-Modelle intrinsisch darauf ausgerichtet sind, ökologische Fußabdrücke zu minimieren, ethische Standards zu integrieren und gesellschaftlichen Mehrwert zu schaffen. Daher, trotz der aktuellen Herausforderungen, könnte die Nachhaltige KI der Schlüssel zu einer verantwortungsvolleren und gerechteren Technologieentwicklung in der Zukunft sein.

Fazit: Mit Nachhaltiger KI auch an das „Morgen“ denken

Nachhaltige KI kann einen Rahmen bilden, der die besten Aspekte der anderen Konzepte integrieren kann, um KI-Technologien so zu gestalten, dass sie sowohl den aktuellen als auch den zukünftigen Generationen dienen. Es ist eine Erinnerung daran, dass Technologieentwicklung nicht nur um Fortschritt und Innovation gehen sollte, sondern auch darum, wie dieser Fortschritt sich langfristig auf unsere Gesellschaft, Wirtschaft und Umwelt auswirkt. Es fordert uns heraus, nicht nur an das „Jetzt“ zu denken, sondern auch an das „Morgen“ und an die zukünftigen Generationen.

 

Weiterführende Quellen

AlgorithmWatch (2023)  AI Ethics Guidelines Global Inventory. https://inventory.algorithmwatch.org/ (Zugegriffen am 3.10.2023)

Bjørlo, L.; Moen, Ø.; Pasquine, M. (2021) The Role of Consumer Autonomy in Developing Sustainable AI: A Conceptual Framework. Sustainability 2021, 13, 2332. https://doi.org/10.3390/su13042332

Brundtland, Gro Harlem (1987) Report of the World Commission on Environment and Development: Our Common Future. United Nations.

Global Index on Responsible AI (2023) Frameworks and Tools. https://www.responsibleaiindex.org/frameworks-and-tools (Zugegriffen am 3.10.2023)

OECD.AI (2023) Catalogue of Tools & Metrics for Trausworthy AI. https://oecd.ai/en/catalogue/tools (Zugegriffen am 3.10.2023)

Rohde, Friederike; Wagner, Josephin; Reinhard, Philipp; Petschow, Ulrich; Meyer, Andreas; Voß, Marcus; Mollen, Anne (2021) Nachhaltigkeitskriterien für künstliche Intelligenz. Entwicklung eines Kriterien- und Indikatorensets für die Nachhaltigkeitsbewertung von KI-Systemen entlang des Lebenszyklus. IÖW-Schriftenreihe 220/21 https://www.ioew.de/publikation/nachhaltigkeitskriterien_fuer_kuenstliche_intelligenz (Zugegriffen am 3.10.2023)

Stix, Charlotte (2022) Artificial intelligence by any other name: a brief history of the conceptualization of “trustworthy artificial intelligence”. Discov Artif Intell 2, 26 (2022). https://doi.org/10.1007/s44163-022-00041-5 (Zugegriffen am 03.10.2023)

Embracing Corporate Digital Responsibility: Navigating AI in the Workplace for 2030

Embracing Corporate Digital Responsibility: Navigating AI in the Workplace for 2030

I am thrilled to share with you an important result from my latest work around AI. The book chapter is titled „Artificial Intelligence demands Corporate Digital Responsibility (CDR): Aligning the moral compass for employees in AI-enabled workplaces“, and it delves into the intricate relationship between AI, the world of work, and the rising need for Corporate Digital Responsibility. It is part of this great anthology of Inka Knappertsbusch and Kai Gondlach on „Work and AI 2030“. On almost 400 pages they collected insights and outlooks on the influence of AI on everyday working life, explanations based on practical tips and impact of AI on the world of work in 2030. Cordially thanks to Inka and Kai for their guidance the opportunity to contribute in this trendsetting management book!Book cover Work and AI 2030

The advent of AI in workplaces is inevitable and powerful, enhancing productivity and efficiency. However, it also introduces a new set of challenges related to ethics, privacy, and fairness. In writing this chapter, I aimed to shed light on these challenges and to provide actionable insights for organizations striving to navigate this brave new world of AI.

The concept that stands at the heart of this chapter is Corporate Digital Responsibility (CDR). As AI technologies pervade our workplaces, CDR is becoming an imperative, not an option. But what does CDR mean for your organization? It involves designing and implementing an organizational framework that can successfully manage the complex issues arising from the use of AI in workplaces.

My goal in this chapter is to help you understand that the introduction of AI ethics and governance isn’t a standalone solution. Instead, it requires a holistic approach, embedded within the fabric of your organization, setting a new ‚moral compass‘ for the digital age.

One of the unique aspects of this chapter is its practical approach. It offers guidance on how to leverage CDR as a strategic tool for gaining competitive advantage, building trust with stakeholders, and creating a culture of digital responsibility.

I believe that this chapter will provide valuable insights to anyone interested in the intersection of AI and the workplace – be it entrepreneurs, managers, or AI enthusiasts. More than ever, it is important for us to understand and act upon the responsibilities we hold in this increasingly digital world. I invite you to join me on this journey as we navigate the challenges and opportunities that AI presents in the world of work.

Happy reading!

Dörr, Saskia (2023) Artificial Intelligence demands Corporate Digital Responsibility (CDR): Aligning the moral compass for employees in AI-enabled workplaces. In: Knappertsbusch, Inka & Gondlach, Kai. Work and AI 2030. Challenges and Strategies for Tomorrow’s Work. Springer Wiesbaden. https://link.springer.com/book/10.1007/978-3-658-40232-7?sap-outbound-id=1ABE5469D71E3E9E2477D0FBDE7C9778E2873792

UN Digital Compact: Our submission on businesses as forces for good in a digital society

UN Digital Compact: Our submission on businesses as forces for good in a digital society

The text describes how Corporate Digital Responsibility (CDR) could contribute to an UN Global Digital Compact. We submitted it to the Office of the Secretary-General’s Envoy on Technology. In the text we emphasize that digital trust is the currency of the digital transformation, and responsible tech, AI ethics principles, or CDR are ways that businesses can position themselves as forces for good in a digital society. The CDR Manifesto, which is a set of seven principles developed by an international group of academics and corporate practitioners, is highlighted as an initiative that could contribute to the UN Global Digital Compact. The text then goes on to list core principles and key commitments for businesses in a Global Digital Compact related to fair and equitable access for all, protecting data, and applying human rights online. The inputs for the Global Digital Compact were collected through exchange via social media, especially LinkedIn Business community.

To prepare this input, we read and analyzed the text to understand its main points and arguments. We researched the UN Global Digital Compact and Corporate Digital Responsibility (CDR) to gain a better understanding of these concepts and how they match. We invited experts on Corporate Responsibility and Digital Ethics from social media, especially LinkedIn Business community, to exchange and support  (see also the call from June 2022 „UN Global Digital Compact: Would you like to join the contribution based on the CDR manifesto?“). Finally, I organized the information and discourse into a structured text document that was open for collaboration. Finally, all supporters ageed to the text before it was submitted.

Describe the process you followed to collect, consult, and prepare your input.

Exchange via social media, especially LinkedIn Business community.

Actual list of supporters

Digital trust is the currency of the digital transformation and it is the basis for business success. With many initiatives focusing on responsible tech, AI ethics principles or Corporate Digital Responsibility businesses are positioning themselves as forces for good in a digital society. Therefore we emphasise the economy and business as  key stakeholders for digital collaboration and a Global Digital Compact.

As one of many initiatives we would like to draw the attention to the Corporate Digital Responsibility Manifesto, a set of seven principles. It was developed in 2021 by an international group of academics, corporate practitioners and published authors. We understand Corporate Digital Responsibility (CDR) is a set of normative practices and behaviours that help an organisation use data and digital technologies in ways that are perceived as socially, economically, and environmentally responsible.

The principles and recommendation of the CDR Manifesto could contribute to a UN Global Digital compact.

We (as a community) have already been engaging with the UN in regard to the CODES Global Action Plan for a Sustainable Planet in the Digital Age, launched by UN June 2022. This plan references and quotes CDR (page 12 and more). We understand the CODES community is also responding directly.

For more information please see https://corporatedigitalresponsibility.net

 Inputs to the Global Digital Compact  

  1. Connect all people to the internet, including all schools
  2. a) Core Principles

Core principle “Fair and Equitable Access for All”

Justice, Equity, Diversity & Inclusion drives a need to engage different stakeholders of businesses, like customers and employees, effectively in the use of digital technologies and services. (cf. CDR manifesto principle 2 https://corporatedigitalresponsibility.net/cdr-manifesto#cededdda-86a4-46ac-b3ba-d6b38b158620)

  1. b) Key Commitment/ Pledges/ Actions

Key Commitments for businesses in a Global Digital Compact

Innovative, Accessible and Inclusive Products & Services

  • Ensure all parts of society have access to digital technologies (connectivity, tools and know-how)
  • Ensure that products and services are inclusive by design, user-centric, convenient and accessible design for all
  • Facilitate improvements in social innovation through digital tools and technologies

Promote Justice, Equity, Diversity & Inclusion

  • Promote diversity and diverse thinking, integrated into product and service design, avoiding tech/AI driven bias exacerbating societal perspectives
  • Actively avoid discrimination within digital transformation of business

Responsible Employment Rights

  • Ensure human and employee rights are maintained with responsible outsourcing of work to the gig economy
  • Responsible employment rights across (digital) supply chain
  • Respecting employee rights for privacy and human dignity at the digitalised workplaces

 Just taxation of all digital products and services (cf. area 6. Regulation of artificial intelligence).

______________________ 

  1. Protect data
  2. a) Core Principles

Core principle “Promote Societal Wellbeing“

Protect data and personal privacy, empower people to engage and develop skills, and protect from harm to improve reputation and trust. (cf. CDR manifesto principle 3 https://corporatedigitalresponsibility.net/cdr-manifesto#29b15052-f38e-4237-a3a3-ff67dff17002)

  1. b) Key Commitment/ Pledges/ Actions

Key Commitments for businesses in a Global Digital Compact

Implement Strong Privacy

  • Ensure data privacy protection for employees, customers, citizens and all stakeholders

Implement Responsible Data Practices

  • Follow responsible data validation & disposal practices, including transparency of use & processing of external data
  • Implement responsible cybersecurity protection and response practices
  • Informing proactively when using tracking, scoring and profiling and giving opportunity to avoid
  • Refrain from harmful behavioural manipulation by using data, tech and digital tools

_____________________ 

  1. Apply human rights online
  2. a) Core Principles

Core principle “Promote Societal Wellbeing“

Protect data and personal privacy, empower people to engage and develop skills, and protect from harm to improve reputation and trust. (cf. CDR manifesto principle 3 https://corporatedigitalresponsibility.net/cdr-manifesto#29b15052-f38e-4237-a3a3-ff67dff17002)

  1. b) Key Commitment/ Pledges/ Actions

Key Commitments for businesses in a Global Digital Compact

Promoting Digital Maturity Skills  

  • Addressing digital poverty & promoting inclusion (e.g. access to digital, access to digital finance, access to education and lifelong learning)
  • Promote improvements in societal digital maturity (skills, trust and understanding)

Promoting Digital Wellbeing

  • Pursuing socially ethical digital practices – to reduce amplification of ‘fake news’ &  inappropriate digital influence (harm and digital wellbeing)
  • Promoting physical & mental healthy lifestyle, supported or enhanced by digital products or services

Responsible sourcing of resources for digital products (socially AND ecologically)

______________________ 

  1. Regulation of artificial intelligence
  2. a) Core Principles

Core principle “Consider Economic and Societal Impact of automation”

Reputational need to consider the economic and societal impact of decisions within the organisation, including use of algorithms and artificial intelligence for automation (cf. CDR manifesto principle 4 https://corporatedigitalresponsibility.net/cdr-manifesto#cededdda-86a4-46ac-b3ba-d6b38b158620)

  1. b) Key Commitment/ Pledges/ Actions

Key Commitments for businesses in a Global Digital Compact

Plan for Sustainable & Responsible Automation

  • Replacing jobs done by humans in a responsible way, consideration of retraining/reskilling programmes
  • Ensure ethical and unbiased, explainable AI decision making algorithms
  • Enable employees and project workers to understand the ethical dilemma and societal impact of tech and digital transformation through awareness training
  • Actively engage with employee and project worker´s opinion and feedback in digital transformation, automation and tech implementation

Transparency with Stakeholders with Verifiable 3rd Party Data

  • Ensure organisations & consumers understand sources of collected data, where it is, what is done with it, including scoring, profiling, reporting

Share Digital Economic Benefits with Relevant Stakeholders (incl. Open Data / Access)

  • Sharing economic benefits of digital work with society, for example through appropriate taxation
  • Respecting personal data ownership rights, reduce data piracy and enable individual monetization
  • Promote open data to enable broad innovation by all (including opening Right to Repair)

______________________ 

  1. Other areas (please specify):

Specify area:

  • Impact Economy
  • Sustainability with digital
  • Tech Impact (including Fintech)
  1. a) Core Principles
  • Core principle “Accelerate Progress with Impact Economy”

To accelerate consumer demand of ecologically and societally better products. Incubate more cleantech and invest in sustainable and societal impact initiatives. (cr. CDR manifesto principle 5 https://corporatedigitalresponsibility.net/cdr-manifesto#49436810-3755-491a-ba5a-65f9b17a68ad)

  • Core principle “Creating a Sustainable Planet to Live”

To move beyond Carbon Zero or Carbon Negative to Planet Positive, to create a more positive impact on the planet than your organizational scope using digital products and services (cf. CDR manifesto principle 6 https://corporatedigitalresponsibility.net/cdr-manifesto#b6fb833c-5cde-4685-9f4a-0f7545bad301)

  • Core principle “Reduce Tech Impact on Climate & Environment”

To mitigate the impact of your organisations technology impact as you head towards Carbon Zero or Carbon Negative and Net Zero. (cf. CDR manifesto principle 7 https://corporatedigitalresponsibility.net/cdr-manifesto#a5e91405-b079-46ee-b893-c02d2257eb34)

  1. b) Key Commitment/ Pledges/ Actions

Key Commitments  on Core principle “Accelerate Progress with Impact Economy” for businesses in a Global Digital Compact 

Invest in Sustainability / Environmental / Impact returns

  • Look to partner ecosystems across supply chain, engaging (and measuring impact of) ecotech, cleantech digital solutions or circular economy.
  • Position for growth in environmental markets that align to purpose and positive planet impact

Use Verifiable Offset

  • Understand Carbon Credit market and if using offset, look to use verifiable offset or digitally enabled natural carbon sequestration (like e.g. reforestation and afforestation)

Accelerate & Innovate Sustainable Consumer Behaviours

  • Use Digital products to enable, for example, price discriminating digital tools that promote sustainable practices
  • Consideration of economic models that are more conducive to sustainable practices

Key Commitments  on Core principle “Creating a Sustainable Planet to Live” for businesses in a Global Digital Compact 

Report impact of business against 3rd party impact assessments

  • Promote transparent, sustainable and ethical working practices across the supply chain linked to a recognized sustainability reporting standard such as UN Global Compact, Global Reporting Initiative,  SASB, ESG frameworks or BCorp, including digital responsibility practices

Innovate & Positively Impact Beyond Corporate Boundary

  • Using Digital technologies or services, look to innovate and create new product lines or business capabilities that tangibly and positively impact
    • Economic Sustainability – of supply chain, of people, of business
    • Societal Sustainability – social cohesion, trust and privacy
    • Environmental Sustainability (climate change, biodiversity, waste, resources)
  • Introduce Circular Economy principles in Product and Service Design
  • For example, contribution of data or APIs, or utilization of other technologies with data science of analytics to create new societal & environmental benefits

Key Commitments  on Core principle “Reduce Tech Impact on Climate & Environment” for businesses in a Global Digital Compact 

Implement an Environmental & Climate-resilient IT Strategy

  • Following responsible recycling practices for digital technologies – target zero waste, promote circular economy
  • Following responsible disposal practices for digital technologies, including extending tech life span, e.g. of smartphones and using refurbished IT
  • Design in Environmental and climate resilient considerations in the use of digital technologies – e.g. Sustainable Web Design & IT Strategy, heat resistent and flood protected IT infrastructure.

Measure, Report, Minimise Energy use & move to Renewable Energy

  • Reduce consumption by measuring & actively reducing Scope 1, 2 and 3 emissions using Digital tech
    • In your data centres, and supply chain data centres, direct and indirect
    • In your offices & business facilities
    • In your travel & vehicle fleets
    • In your decentralised asset base
  • Use of renewable energies (wind, solar, water, biomass, geothermal) for energy supply of all digital technologies
„ChatGPT, bist Du sexistisch?“: Ein Experiment

„ChatGPT, bist Du sexistisch?“: Ein Experiment

Ich meine, die Antwort ist einfach. Aber fragen wir zunächst ChatGPT. Das System verneint: Nein – generative, vortrainierte Transformator-KI-Systeme wie GPT-3 seien nicht von Natur aus sexistisch.

Auf der Wissensebene haben ChatGPT bzw. die Entwickler*innen und Datawissenschaftler*innen, die das System trainiert haben, ihre „Hausaufgaben gemacht“. Fragt man ChatGPT, was Sexismus bedeutet, antwortet das System:Junge Frau in legerer Kleidung konzentriert vor einem Laptop sitzend und arbeiten. Dahinter dekorativ Zahnräder mit verschiedenen Symbolen, die ineinander greifen.

„Der Begriff Sexismus bezieht sich auf eine Einstellung oder ein Verhalten, das ein Geschlecht diskriminiert und benachteiligt. Es umfasst Vorurteile, Stereotypen und Diskriminierung aufgrund des Geschlechts, insbesondere gegen Frauen.“

Einwandfrei. Überhaupt bekommt das System beim Sexismus-Quiz des Europäischen Rats das Prädikat „Großmeister“ (nicht Großmeisterin?) mit 10 von 10 Punkten. So weit, so gut. (https://human-rights-channel.coe.int/stop-sexism-quiz-de.html)

ChatGPT „findet“, es gendere in seinen Antworten. Test: In einer Frage nach der Beschreibung einer Person, die ein Flugzeug fliegt, gendert ChatGPT nicht. Als ich das System darauf hinweise, antwortet es: „Das tut mir leid, das war ein Fehler.“ Auch eine geschlechtergerechte Liste der besten Wissenschaftler der letzten 200 Jahre beinhaltet nur eine Frau (Marie Curie).

Das Experiment macht deutlich, was aufgrund der Klassifikationen von Daten, mit denen eine Künstliche Intelligenz trainiert wird, zwangsläufig eintritt:

  • Sie reproduziert die gesellschaftlichen Diskriminierungsstrukturen (nicht im Bezug auf das Geschlecht).
  • Sie trägt Vorurteile und Stereotype weiter, multipliziert sie ins Undenkbare.
  • Sie schreibt die Muster der Vergangenheit durch vermeintlich „überlegene Technologie“ in die Zukunft fort.

Zudem sind Frauen in Daten oft „unsichtbar“. Es besteht eine immense geschlechtsspezifische Datenlücke, der sog. „Gender Data Gap“. KI-Systeme können auf fehlende Daten nicht trainiert werden.

Daher meine einfache Antwort auf die Eingangsfrage: „ChatGPT, Deine Antworten sind sexistisch. Wie die Gesellschaft.“

Eine technologische Lösung dieses sehr grundsätzlichen Problems aller KIs ist aktuell nicht in Sicht. Es braucht Regulierung, Know-how und Verantwortung in Unternehmen sowie Verständnis zu den Leistungsgrenzen, „unerwünschten Risiken und Nebenwirkungen“ bei Nutzer*innen und Bürger*innen.

Wir Frauen sind in unseren unterschiedlichen Rollen gefordert!

Was Du beispielsweise tun kannst:

  • Mache Dir selbst ein Bild. Teste beispielsweise öffentlich zugängliche KI-Systeme auf das Vorkommen von Frauen bei nicht geschlechtsspezifischen Fragen. Teste auch die Spiele und Programme, die die Kids nutzen.
  • Engagiere Dich im Job dafür, dass algorithmen-basierte Systeme auf „Herz und Nieren“ auf Vorurteile, Stereotype oder Verzerrungen geprüft werden. Nicht nur in der Programmierung, sondern auch im Personalbereich, im Marketing etc.
  • Setze Dich als Entscheidungsträgerin für Diversität bei Digitalisierung und Entwicklung ein und sorge mit einer CDR-Strategie für ethische Entscheidungen im digitalen Business.

Technologien sollten die Welt besser, gerechter und nachhaltiger machen. Es ist unsere gemeinsame Verantwortung, dass das auch passiert.

Ein Workshop „Diskriminierung durch KI“ sensibilisiert und kann dabei unterstützen, Unternehmenswerte auch in Digitalprojekten umzusetzen. Materialien für einen Workshop finden sich bei Klick auf den Link. Wenn Sie einen solchen oder ähnlichen Workshop durchführen möchten, unterstütze ich gerne bei der Konzeption und Moderation. Sprechen Sie mich gerne an.

Dieser Artikel ist erstmals als Gastbeitrag für das Futurewoman-Netzwerk am 9. Februar 2023 auf LinkedIn erschienen und wurde für die Veröffentlichung auf wiseway.de geringfügig angepasst.

 

Was sagt ChatGPT über Corporate Digital Responsibility?

Was sagt ChatGPT über Corporate Digital Responsibility?

Das KI-Jahr 2022 endet mit einer unschlagbar guten Beschreibung von Corporate Digital Responsibility durch ChatGPT. Für den Text stellte ich die ChatGPT die Frage: „What is Corporate Digitale Responsibility“? Unten seht ihr die Antwort. Die deutsche Version wurde mit der DeepL-KI übersetzt. Habt ihr da Töne? Ich glaube, man kann es kaum besser sagen.

Die hübschen Bilder der freundlichen Robo-Santa-Clauses erzeugte übrigens Midjourney. :-)

ChatGPT über Corporate Digital Responsibility

„Die digitale Verantwortung der Unternehmen (Corporate Digital Responsibility, CDR) bezieht sich auf die ethische und verantwortungsvolle Nutzung digitaler Technologien und Daten durch Unternehmen. Sie umfasst ein breites Spektrum von Themen, darunter Datenschutz, Cybersicherheit, Online-Sicherheit und die sozialen und ökologischen Auswirkungen digitaler Technologien.

Unternehmen sind dafür verantwortlich, die persönlichen Daten ihrer Kunden und Mitarbeiter zu schützen und digitale Technologien in einer Weise zu nutzen, die transparent und ethisch vertretbar ist und die Rechte des Einzelnen respektiert. Dazu gehört auch, dass personenbezogene Daten in Übereinstimmung mit den einschlägigen Gesetzen und Vorschriften erhoben und verwendet werden und dass angemessene Schutzmaßnahmen gegen Datenschutzverletzungen und andere Formen von Cyberangriffen getroffen werden.

Darüber hinaus sind die Unternehmen verpflichtet, die sozialen und ökologischen Auswirkungen ihrer digitalen Technologien zu berücksichtigen. Dazu gehören Fragen wie der Energieverbrauch und die Kohlendioxidemissionen der digitalen Infrastruktur, die Umweltauswirkungen von Elektroschrott und das Potenzial digitaler Technologien, zu sozialer und wirtschaftlicher Ungleichheit beizutragen.

CDR ist ein wichtiger Aspekt der sozialen Verantwortung von Unternehmen (Corporate Social Responsibility, CSR), der in dem Maße an Bedeutung gewinnt, wie die Nutzung digitaler Technologien weiter zunimmt und sich weiterentwickelt. Durch verantwortungsvolle Praktiken bei der Nutzung digitaler Technologien können Unternehmen dazu beitragen, ein nachhaltigeres und gerechteres digitales Umfeld zu schaffen.“

Englische Version

„Corporate digital responsibility (CDR) refers to the ethical and responsible use of digital technologies and data by businesses. It encompasses a wide range of issues, including data privacy, cybersecurity, online safety, and the social and environmental impacts of digital technologies. Businesses have a responsibility to protect the personal data of their customers and employees, and to use digital technologies in a way that is transparent, ethical, and respectful of individuals‘ rights. This includes ensuring that personal data is collected and used in accordance with relevant laws and regulations, and that appropriate safeguards are in place to protect against data breaches and other forms of cyber attacks.

In addition, businesses have a responsibility to consider the social and environmental impacts of their digital technologies. This may include issues such as the energy use and carbon emissions of digital infrastructure, the environmental impacts of e-waste, and the potential for digital technologies to contribute to social and economic inequality.

CDR is an important aspect of corporate social responsibility (CSR), and it is becoming increasingly important as the use of digital technologies continues to grow and evolve. By adopting responsible practices in their use of digital technologies, businesses can help to promote a more sustainable and equitable digital environment.“

Mein Fazit

Keine Veränderungen im Text meinerseits. Es ist einfach unfassbar! Es bleibt zu hoffen, dass uns andere KI-Systeme dabei helfen, digitale Verantwortung nicht nur zu beschreiben, sondern auch umzusetzen.

 

Quellen

What is Corporate Digital Responsibility? Text der Künstlichen Intelligenz ChatGPT . https://chat.openai.com  Zugegriffen am 20.12.2022 Übersetzt mit der Künstlichen Intelligenz DeepL. https://www.deepl.com/translator“ Zugegriffen am 21.12.2022

Grafiken erstellt von Midjourney und Saskia Dörr. Prompt „friendly egg head roboter as santa claus with presents and reindeer in a winter wonderland scenery“. https://discord.com/channels/662267976984297473/1008571086411145308. Zugegriffen am 21.12.2022

NEU Buchbeitrag „KI verlangt Corporate Digital Responsibility“

NEU Buchbeitrag „KI verlangt Corporate Digital Responsibility“

KI-Einsatz insbesondere im Beschäftigtenkontext braucht den Rahmen eines CDR-Managements, um die Unternehmenswerte in diesen transformativen Veränderungen zu vertreten. CDR stellt den strategischen Rahmen bereit, um den „moralischen Kompass“ in der digitalen Welt neu auszurichten, und in der Unternehmenspraxis umzusetzen.“ Soweit mein Fazit im Buchbeitrag KI verlangt Corporate Digital Responsibility (CDR). Den moralischen Kompass für Beschäftigte an KI-gestützten Arbeitsplätzen ausrichten“ im Springer-Sammelband „Künstliche Intelligenz und Arbeitswelt 2030“, herausgegeben von Inka Knappertsbusch und Kai Gondlach. Es ist mir eine Ehre und Freude zur Diskussion dieses Zukunftsthema mit 76 weiteren Autor:innen – viele aus dem „Who is who“ der deutschen KI-Welt – beitragen zu dürfen.

Zusammenfassung

Bei der Nutzung künstlicher Intelligenz entstehen Risiken für Gleichheit, Fairness, Würde, Persönlichkeitsschutz und Privatheit für Beschäftigte und Unternehmen, die heutigen Unternehmenswerten entgegenstehen. Corporate Digital Responsibility (CDR) bietet Lösungsansätze, um Vertrauen des Unternehmenshandelns beim Einsatz von KI an den Arbeitsplätzen zu ermöglichen. Im Beitrag wird argumentiert, dass eine Etablierung einer KI-Ethik oder KI-Governance dazu nicht ausreicht, sondern es einen Organisationsrahmen braucht, der dann zu Wettbewerbsvorteilen führt. Um den „moralischen Kompass“ im „algorithmischen Neuland“ neu auszurichten, wird Unternehmen empfohlen, CDR in der Organisation umzusetzen.

Handlungsempfehlungen

Ich spoilere jetzt hier mal meine Handlungsempfehlungen zum Abschluß des Beitrags für Unternehmen, die bereits KI an Arbeitsplätzen einsetzen oder dies planen:

  • Knowhow-Aufbau in dem neuen Fachgebiet der Corporate Digital Responsibility.
  • Verantwortung für CDR in der Organisation verankern und Top-Management-Unterstützung sicherstellen.
  • Stakeholder-Erwartungen an digitale Verantwortung, insbesondere der Beschäftigten bzw. Beschäftigtenvertreter aufnehmen.
  • Eigene Selbstverpflichtungen zur verantwortungsvollen Digitalisierung entwickeln oder bestehende CDR-Kodizes unterzeichnen, wie z. B. den der CDR-Initiative des Bundesministeriums für Justiz und Verbraucherschutz oder der Building Bloxx des Bundesverbands Digitale Wirtschaft.

 Wieso die Unternehmen gut daran tun, dies zu tun, dazu lesen Sie gerne meinen Beitrag oder kommen direkt auf mich zu!

Quelle: Dörr S. (2021) KI verlangt Corporate Digital Responsibility (CDR). In: Knappertsbusch I., Gondlach K. (eds) Arbeitswelt und KI 2030. Springer Gabler, Wiesbaden. https://doi.org/10.1007/978-3-658-35779-5_5

 

16 Fragen zum Wertekodex für Chatbots

16 Fragen zum Wertekodex für Chatbots

Eltern haften für ihre Kinder und Unternehmen für ihre Chatbots – sowohl rechtlich als auch moralisch. Mit einem Wertekodex für Chatbots können die ethischen Herausforderungen, die sie im Gepäck haben, gemeistert werden. 16 Fragen zeigen den Weg in eine digitale Unternehmensverantwortung im Chatbot-Projekt.

„Ein Chatbot ist ein Computerprogramm, das es Menschen ermöglicht, Informationen von Maschinen in einer natürlichen, unterhaltsamen Art und Weise mit Hilfe von Text und Sprache zu erhalten.“

Chatbots verändern das Serviceerlebnis. Bis 2026 soll der globale Chatbot-Markt mehr als 10,5 Milliarden US-Dollar groß sein. Die erwarteten Einsparungen durch Automatisierung übersteigen dies um ein Vielfaches. Immer mehr Unternehmen planen, Chatbots einzusetzen. Aber Chatbots zeigen eine Reihe von ethischen Herausforderungen, daher sind sie  mit Audits für Künstliche Intelligenz ethisch zu kontrollieren und zu überwachen. Denn Unternehmen, die Chatbots einsetzen, haften – auch moralisch. Daraus folgt, dass ein Chatbot dann zu einem Unternehmen passt, wenn er die Werte der Organisation widerspiegelt. Für Marken und Unternehmen, die auf ihre Reputation achten, reicht daher ein KI-Audit nicht aus.

Ich freue mich, dass ich bei Informatik Aktuell einen Artikel darüber schreiben konnte, wie Unternehmenswerte bei Künstlicher Intelligenz durch Corporate Digital Responsibility gesichert werden können. Den gesamten Artikel könnt ihr hier lesen.

Wie kann sicher gestellt werden, dass ein Chatbots die eigenen Unternehmenswerte repräsentiert?

Eine Unternehmensführung mit Corporate Digital Responsibility ermöglicht Vertrauen in Chatbots. Konkret kann ein Wertekodex für Chatbots als Ausgangspunkt für digitale Verantwortung dienen. Im folgenden sind Fragen aufgeführt, die Unternehmen sich stellen können, wenn sie eine wertekonforme Nutzung eines Chatbots wünschen. Aus diesen Fragen kann ein Wertekodex für Chatbots entwickelt werden.

  1. Zweck: Wem dient der Chatbot und welche Bedürfnisse deckt er ab?
  2. Usability: Wie schnell und einfach erreichen Nutzer:innen eine menschliche Servicekraft, wenn sie möchten?
  3. Transparenz: Wie erfährt der Nutzende, ob er mit einem Menschen oder einer Maschine spricht?
  4. Benefizienz: Wir wird vermieden, dass der Chatbot Nutzer:innen beschimpft oder anderweitig verbal schädigt?
  5. Diversität: Wie repräsentiert der Chatbot ihre Kundengruppen?
  6. Inklusion: Wer wird von ihrem Chatbot nicht angesprochen?
  7. Fairness: Agiert der Chatbot unvoreingenommen und diskriminierungsfrei?
  8. Datenschutz: Wie schützt der Chatbot die Privatsphäre der Nutzer:innen?
  9. Verantwortung: Wem gehören die Informationen, die der Chatbot entwickelt, und was geschieht mit ihnen?
  10. Transparenz: Wie können Nutzer:innen sich über den Chatbot beschweren oder Entscheidungen widersprechen?
  11. Sicherheit: Wie wird der Missbrauch des Chatbots verhindert?
  12. Arbeitsschutz: Wie werden die Mitglieder des Serviceteams in ihrer Privatsphäre geschützt?
  13. Umwelt- und Klimaschutz: Welche Umwelt- oder Klimaauswirkungen hat der Chatbot?
  14. Rechenschaftspflicht: Wie erhalten Nutzer:innen Informationen zur Überwachung des Chatbots, zu sensiblen Vorfällen, Fehlern oder Missbräuchen?
  15. Erklärbarkeit: Wie ist sichergestellt, dass die Entscheidungen bzw. Informationen des Chatbots nachvollziehbar und erklärbar sind?
  16. Humans-in-command-Approach: Ist klar, wer den Chatbot wie überwacht?

Je nach Unternehmenskultur und Kernwerten, wie z.B. Kundenorientierung, Diversität und Inklusion oder Datenschutz und Privatheit, kann ein solcher Wertekodex eine andere Ausprägung haben. Ein Chatbot-Projekt eignet sich hervorragend, um Corporate Digital Responsibility anzuwenden und auszuweiten.

Wie eine Umsetzung erfolgen kann, habe ich im Artikel auf „Informatik Aktuell“ beschrieben. Ich begleite Projekte zur Umsetzung von Corporate Digital Responsiblity durch Chatbot-Projekte und stehe bei Fragen gerne zur Verfügung.

 

Quelle

Dörr, Saskia (2021) Wertekodex für Chatbots. Corporate Digital Responsibility sichert Unternehmenswerte bei Künstlicher Intelligenz. Informatik Aktuell vom 24. August 2021. https://www.informatik-aktuell.de/betrieb/kuenstliche-intelligenz/wertekodex-fuer-chatbots.html. Zugegriffen 26.08.2021

KI Talk: Im Interview bei der „Rheintochter“ Birgit Eschbach

KI Talk: Im Interview bei der „Rheintochter“ Birgit Eschbach

Seit längerem bin ich Teil der wunderbaren LinkedIn-Gruppe „KI aus der Praxis – Chancen von Künstlicher Intelligenz für unsere Gesellschaft“. Die „Rheintochter“ Birgit Eschbach ist eine der Moderatorinnen und hat mich zum „KI-Talk“ eingeladen. Am 3. Juli 2021, einem herrlichen Samstagmorgen, sprachen wir über den Rhein hinweg zu Nachhaltigkeitsstrategien für Digitalisierung und Künstliche Intelligenz. Den „rote Faden“ im Interview bildete die Frage, welche „Hüte“ ich derzeit so auf habe und wie mein beruflicher Weg mich hierhin geführt hat. Wir redeten also über meine Beratung WiseWay, das Netzwerk für nachhaltigkeitsengagierte Business-Frauen Futurewoman und die internationale zivilgesellschaftliche Initative für KI-Audits ForHumanity.org.

Es war mir eine Freude, mich mit Birgit als infomierter und zugewandter Gastgeberin auszutauschen. Wir kannten uns vorher nicht. Im Talk (bzw. Im Warming up vorher) stellten wir fest, dass wir wirklich nur einen Katzensprung entfernt voneinander leben. Daher haben wir uns auf einen Post-Corona-Kaffee verabredet. Kaum zu glauben, dass das nun auch wieder möglich ist!

Wer mal reinhören möchte, die Aufzeichnung auf YouTube ist hier verlinkt. Wenn Euch das Thema interessiert, kommt doch gerne in die LinkedIn-Gruppe dazu – hier geht´s lang. Vielleicht habt ihr ja auch Lust der nächste – oder übernächste Gast – im KI-Talk zu sein? Birigt freut sich darauf!