Loading...

Loading...

Artificial Intelligence braucht ethischen Konsens

  • Veröffentlicht am 21, Mai 2019
  • Geschätzte Lesezeit: 3 Minuten
ai-avanade-robert-laube

Während in vielen Wirtschaftsunternehmen daran gearbeitet wird, die Möglichkeiten von Artificial Intelligence (AI) weiterzuentwickeln und immer neue zukunftsweisende Einsatzszenarien zu finden, sitzt der Sozialethiker, Medienethiker und Theologe Alexander Filipović an der Münchner Hochschule für Philosophie daran, eine Ethik für AI zu formulieren. Das sei gar nicht so einfach, sagte er in einer Radiosendung des Bayerischen Rundfunks. Allein die Strukturen der an einer AI Beteiligten seien komplexer als das, mit dem er landläufig zu tun habe. Nun könnte mancher sagen: Kaum ist eine Technologie auf dem Weg zum Erfolg, kommen schon diejenigen, die versuchen, sie einzuschränken. Das Gegenteil ist jedoch der Fall. Was Filipović und andere an dieser Stelle leisten, ist eine elementar wichtige Grundlage für den künftigen Erfolg von AI und dafür, dass die Technologie in immer mehr Arbeits- und Lebensbereiche vordringen kann.


Grenzen schaffen Spielraum
Schon heute kann Software bestimmte Krankheiten sehr gut und sehr schnell diagnostizieren. Aber wer hat bei der Entscheidung, ob und wie operiert wird, das letzte Wort? Der Arzt oder die Maschine? Und wie ordnen wir die Tatsache ein, dass auch Experten kaum mehr nachvollziehen können, wie sich selbstlernende Systeme verändern und warum sie in einem Fall so, im andern Fall so entscheiden. Eine Ethik der AI festzuschreiben, bedeutet insofern in der Tat, der Technologie Grenzen zu setzen – allerdings genau an dem Punkt, wo der Nutzen größtmöglich ausgeschöpft wird und das möglicherweise vergeudete Potenzial so gering wie möglich ist. Diese Grenze definiert die finale Verantwortung des Menschen, die sich niemals und an keiner Stelle an Software abgeben lässt.

Basis für gesellschaftliche Akzeptanz
Eine Ethik der AI ist auch deshalb so wichtig, weil wir uns in einem solch disruptiven Umfeld nicht auf gesetzliche Regeln allein verlassen dürfen. Die Entwicklung im Bereich der AI ist so rasant, dass Gesetzgeber und Justiz schon heute nicht mit ihr Schritt halten können. Ende 2018 hat beispielsweise Microsoft Regierungen weltweit aufgefordert, die automatische Gesichtserkennung zu regeln, um Missbrauch und Diskriminierung zu verhindern. Wir können davon ausgehen, dass dieser Abstand in Zukunft eher wachsen als schrumpfen wird. Insofern ist ein allgemeiner Konsens darüber, was AI darf und was nicht, entscheidend für die breite gesellschaftliche Akzeptanz von AI. Und diese Zustimmung der Menschen, sei es in ihrer Rolle als Bürger, Arbeitnehmer oder Verbraucher, ist entscheidend dafür, dass Unternehmen mit AI-getriebenen Lösungen Erfolg haben können. Deshalb müssen Unternehmen gerade jetzt in die Diskussion rund um eine Ethik der AI und in den Dialog mit Bürgern und Politik einsteigen.

Responsible Automation
Kostet AI Arbeitsplätze? Oder schafft sie welche? Über diese Frage sind sich Experten nach wie vor uneins. Sicher ist jedenfalls, dass in Zukunft bestimmte Arbeiten von Maschinen auf Basis von AI übernommen werden. Und das sind zunächst einmal nicht die Jobs, für die man händeringend nach Fachkräften sucht. An dieser Stelle ist die gesellschaftliche Verantwortung von Unternehmen gefragt: Was stellen sie mit den durch AI gewonnenen Effizienzzuwächsen an? Entscheidend ist, dass sie allen Stakeholdern zugutekommen – und dazu gehören auch die Mitarbeitenden, deren Arbeitsplätze verschwinden. Im Zuge der bevorstehenden AI-getriebenen Automatisierungswelle werden neue Jobs entstehen, für die Unternehmen ihre Belegschaften fit machen müssen: Maschinen installieren, warten, bedienen, Produkt weiterverarbeiten etc. AI schafft Freiräume, die Unternehmen für Innovation nutzen können. Insofern sind keine massiven Entlassungswellen aufgrund von AI zu befürchten.

Bei Avanade haben wir ein unter Beteiligung aller Unternehmensbereiche ein „Ethic Framework“ geschaffen. Dieses Framework setzt den Menschen über die Maschinen; das Framework begleitet die KI- und Automatisierungsprojekte bei unseren Kunden. Es setzt auf vier Schlüsselmerkmale eines digital ethischen Produkts oder einer digital ethischen Dienstleistung:

  • Fairness und Inklusivität: frei von diskriminierender Voreingenommenheit und in Übereinstimmung mit den Prinzipien des Datenschutzes und der Sicherheit.
  • Menschliche Verantwortlichkeit: mit Menschen, die Verantwortung für den Einsatz und die Ergebnisse der robotergestützten Entscheidungsfindung übernehmen.
  • Vertrauenswürdigkeit: sichere, transparente und wahrheitsgetreue Systeme, auf die sich die Benutzer verlassen können.
  • Anpassungsfähigkeit: flexibel genug, um sich an die Entwicklung unseres Verständnisses von digitaler Ethik anzupassen.

Wir selbst setzen beispielsweise auf AI, um das Arbeitsumfeld von Menschen zu verbessern. Wir entlasten Mitarbeiter von stupiden Tätigkeiten, damit sie sich um interessantere Aufgaben kümmern können. Wir sorgen dafür, dass sich der Arbeitsplatz an die Bedürfnisse des Menschen anpasst und nicht umgekehrt. Wir schaffen die Basis für Mobilität und Flexibilität. Und wir sind uns bewusst, wie groß unsere Verantwortung als einer der Protagonisten dieser Entwicklung ist.

Lesen Sie auch aus unserer Trendline Serie den aktuellen Report “Digital Ethics:It’s time to act. Here’s how.” Avanade hat untersucht, was Unternehmen in Bezug auf digitale Ethik bereits umsetzen und was andere für Maßnahmen ergreifen können.

Wie stehen Sie zur Ethik der AI? Ich freue mich auf den Dialog mit Ihnen.

Weitere Artikel zum Thema „Artificial Intelligence“:

Avanade Digital Business Newsletter

Verpassen Sie keinen Blogbeitrag mehr.

Seite teilen
Schließen
Modal window
Vertrag