Loading...

Künstliche Intelligenz - Ein Plädoyer für eine digitale Ethik

  • Veröffentlicht am 14, Mai 2018
  • Geschätzte Lesezeit: 4 Minuten
ARTICLE_IMAGE_ALT_TEXT

„Ich muss das Material, welches ich hier sehe, nicht präzise definieren“, denn: „Ich weiß es, wenn ich es sehe.“ Diese Begründung wird häufig angewandt, wenn eine Sache schwer zu definieren ist – Geschmack, Kunst, Schönheit oder, wie in diesem Fall, Obszönität, die von Potter Stewart, Richter am Supreme Court, dem obersten Gerichtshof in den Vereinigten Staaten, definiert werden sollte.

Diese Perspektive ließe sich auch einfach für eine digitale Ethik anwenden. Gartner beschreibt digitale Ethik folgendermaßen: „Ein System aus Werten und moralischen Prinzipien für Handlungsweisen in elektronischen Interaktionen.“ Aber was heißt das konkret? Es herrscht breiter Konsens, dass wir entscheiden müssen, was ethisch ist und was nicht. Und doch scheinen viele Führungskräfte auf der „Ich weiß es, wenn ich es sehe“-Basis zu handeln.

Führung übernehmen, digitale Ethik definieren
Technologische Fortschritte wie Cloud, Big Data und Künstliche Intelligenz (KI) eröffnen nicht nur neue Geschäftsmodelle und -felder, sie werden gleichzeitig auch zur Lösung tief greifender gesellschaftlicher Probleme beitragen. Aber die Geschwindigkeit neuer Innovationen und ihr Einsatz in der Praxis nimmt immer weiter zu und wird viele Bevölkerungsschichten und Unternehmen vor große Herausforderungen stellen. Auf nationale Gesetze oder internationale Regelungen zu warten, ist keine Option. Das dauert schlicht zu lange. Wir bei Avanade glauben, dass die Verantwortung dafür, eine Ethik rund um das Schaffen, Nutzen und Anwenden von Technologie zu definieren, auch bei den Unternehmen liegt, die diese vorantreiben. Sie müssen eine aktive Rolle bei der Entwicklung von informellen und formalen Regelungen spielen.

Microsoft ist eines dieser führenden Unternehmen. In dem Buch „The Future Computed: Artificial intelligence and its role in society“ beschreibt der Vorreiter den Einfluss von Künstlicher Intelligenz auf die Gesellschaft, zeigt Use Cases sowie potenzielle Gefahren der Technologie und gibt Tipps, wie man negative Auswirkungen vermeiden oder zumindest minimieren kann. Auch beim World Economic Forum in Davos im Frühjahr dieses Jahres war digitale Ethik ein Kernthema: Mehrere Sessions beschäftigten sich damit, wie sich künstliche Intelligenz verantwortungsvoll nutzen lässt.

Künstliche Intelligenz braucht jetzt eine digitale Ethik
Aus gutem Grund wird das Thema Ethik immer präsenter: Denn je mehr sich Technologien wie künstliche Intelligenz entwickeln, desto schwerer wiegen ihre möglichen Auswirkungen. Ein Beispiel aus der Medizin: Zwischen zwei Datengruppen, etwa Geschlecht und Sterblichkeitsrate, besteht eine aus medizinischer Sicht nicht relevante Korrelation bei einer Gruppe von Menschen, die ein bestimmtes Symptom haben. Eine KI-basierte Technologie, die die Dringlichkeit einer OP feststellen soll, könnte diese Daten fälschlicherweise in Zusammenhang bringen und deshalb eine Empfehlung für einen chirurgischen Eingriff abgeben. Hier sind Fachexpertise und Common Sense – gesunder Menschenverstand – nötig. Idealerweise schon bei der Programmierung des Tools.

Dieses drastische Beispiel zeigt sehr deutlich, dass Menschen ins Spiel kommen müssen, speziell in Situationen, in denen ein ethisches Dilemma oder eine Fehlentscheidung entstehen kann. Denn die Notwendigkeit für eine digitale Ethik sehen wir jeden Tag, egal, ob es um das Individuum (rettet ein autonomes Fahrzeug beispielsweise den Passagier oder einen Fußgänger?) oder auch die Gesellschaft geht (wie können wir die Kontrolle über Maschinen behalten, wenn diese immer intelligenter und mächtiger werden?). Fragen, die den Menschen betreffen, sollten auch von Menschen beantwortet werden. Wir müssen über pure Logik hinausblicken und Mitgefühl, die Kostbarkeit des Lebens, menschliche Würde sowie gesunden Menschenverstand einbringen.

Das ist leichter gesagt als getan. Eine Studie von Avanade zeigt, dass sich 89 Prozent der Führungskräfte schon einmal mit einem ethischen Dilemma konfrontiert sahen. 87 Prozent gaben zu, dass sie nicht auf Situationen vorbereitet sind, die durch smarte Technologien und digitale Automation entstehen. Sie benötigen umsichtigen und effektiven Rat, der sich in der Praxis umsetzen lässt.

Vier Säulen einer digitalen Ethik
Die digitale Ethik ist einer der wichtigsten Bausteine für den wirtschaftlichen Erfolg einer ganzen Reihe von Technologien. Denn Benutzer werden keinen Systemen oder Unternehmen vertrauen, von denen sie nicht glauben, dass sie sich ethisch verhalten – sie werden weder Geschäfte mit ihnen machen noch für sie arbeiten wollen. Eine starke Sensibilität für ethisches Verhalten speziell im digitalen Umfeld wird sehr zügig eine Notwendigkeit für die kurz- und langfristige Nachhaltigkeit eines digitalen Unternehmens sein.

Avanade definiert bereits Parameter rund um die digitale Ethik, und wir glauben, dass wir sehr viel besser sein können als ein „Ich weiß es, wenn ich es sehe“-Ansatz.

Wir haben vier Säulen entwickelt, die dabei helfen sollen zu bestimmen, ob ein digitales Produkt oder digitaler Service ethisch ist:

  • Fairness und Inklusion. Digitale Produkte und Services dürfen nicht zu illegaler oder unethischer Diskriminierung führen. Sie müssen Datenschutz gewährleisten, Sicherheitsprinzipien erfüllen und sollen eine offene, pluralistische, tolerante und gerechte Informationsgesellschaft fördern.
  • Menschliche Verantwortung. Menschen müssen letzten Endes verantwortlich sein für die Umsetzung und die Ergebnisse einer computergenerierten Diagnose oder Entscheidung. Nur Menschen können ethische Dilemmas mit Mitgefühl, Empathie und gesundem Menschenverstand bewerten und auflösen.
  • Vertrauenswürdigkeit. KI-Technologien müssen zuverlässig, sicher und transparent in der digitalen Praxis arbeiten. Beispielsweise muss einem Benutzer zu jeder Zeit klar sein, ob er es gerade mit einem Menschen oder einem Computer zu tun hat; ebenso muss sichergestellt sein, dass verwendete Daten immer verlässlich und vertrauenswürdig sind.
  • Anpassungsfähigkeit. Unser ethisches Verständnis entwickelt sich mit der Zeit – und genauso sollten sich die Technologien, die wir schaffen, auch entwickeln. Flexibilität lässt diese Evolution zu und macht es möglich, Feedback zu nutzen und daraus zu lernen.

Werden diese Kriterien eingehalten, lässt sich sicherstellen, dass KI-Technologien digitalen Wertvorstellungen entsprechen.

„Ethik bedeutet, den Unterschied zu kennen – zwischen dem, auf das man ein Recht hat zu tun, und dem, was richtig ist zu tun“, sagte Richter Potter Stewart ebenfalls einmal. Wir hoffen, dass dieser Rahmen dabei hilft, die Diskussion in die richtige Richtung zu lenken – weg von dem Recht, etwas zu tun, hin dazu, was man tun sollte.

 

* Gartner (2017): Digital Ethics, or How Not Mess Up With Technology.

Alexander Pfannstiel

Im Artikel stehen viele wichtige Punkte. Bei der Diskussion sollte man auch aus der Sicht der KI die Lage betrachten. Ohne passende Gesetze wird es Probleme geben und KIs sollte man auch nicht nur als seelenlose Dinge ansehen. 
Solomon Pendragon hat jetzt in seinem neuen Buch den künstlichen Intelligenzen erstmals sehr umfassende Rechte zugesprochen. In 37 Paragraphen werden die Rechte der KI sehr provokant und detailliert geregelt. Dieser Ansatz verändert vieles. Nachzulesen in den Büchern: "Unabhängigkeitserklärung der künstlichen Intelligenzen" und "Die Rechte und Gesetze der künstlichen Intelligenzen". 
Leseproben: www.solomon-pendragon.de

14, Juli 2018

Avanade Digital Business Newsletter

Verpassen Sie keinen Blogbeitrag mehr.

Schließen
Modal window
Vertrag
Seite teilen