In der letzte Zeit werden im Rahmen der Digitalisierung endlich auch Diskussionen über die Ethik beim Einsatz künstlicher (artifizieller) Intelligenz (KI) geführt. Ich spreche hier gern von Robotern, obwohl der Begriff in dem Zusammenhang eher unüblich ist.
Warum spreche ich vom Roboter?
Wikipedia sagt:
„Ein Roboter ist eine technische Apparatur, die üblicherweise dazu dient, dem Menschen mechanische Arbeit abzunehmen. Roboter können sowohl ortsfeste als auch mobile Maschinen sein und werden von Computerprogrammen gesteuert.“
„Üblicherweise mechanische Arbeit“ – die Einschränkung beinhaltet ja, dass es Weiterungen gibt z.B. in der geistigen Arbeit. Roboter nehmen uns zunehmend auch andere als körperliche Arbeiten ab, wir nennen sie dann nur nicht mehr Roboter. Wir sprechen in dem Zusammenhang von Bots, was nur eine Verkürzung von Roboter ist.
Wo liegen die ethischen Herausforderungen?
Isaac Asimov und die Robotergesetze
Isaac Asimov, ein Wissenschaftler und Science-Fiction-Schriftsteller, sah sich bereits in den 40er Jahren des zwanzigsten Jahrhunderts mit dieser Thematik konfrontiert. Seine Lösung formulierte er 1948 die „Grundregeln des Roboterdienstes“ die er später als die drei Robotergesetze bezeichnete.
- Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit (wissentlich) zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.
- Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
- Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.
Nun schrieb Asimov Science-Fiction-, besser gesagt zu großen Teile Social-Fiction-Literatur, aber wir befinden uns in der realen Welt: Was können wir nun davon gebrauchen?
Das erste Robotergesetz
Ich beschränke mich auf dieses, die anderen resultieren daraus. Hier ist die wichtigste Frage: „Was weiß ein Roboter?“ Asimov schränkt das Gesetz ja auf ‚wissentlich‘ ein. Ich weiß nicht, wann er diese Einschränkung getroffen hat, in einer Ausgabe der Foundation-Trilogie (als mir diese Gesetze erstmals unter kamen) stand diese, meiner Meinung nach, nicht. Das mag allerdings an meinem Gedächtnis oder am Übersetzer liegen.
Die Antwort ist einfach, er „weiß“, was ihm programmiert wurde.
Das verlagert also die ethische Frage auf die Programmierer und ihre Auftraggeber.
Wissentlich Menschen schaden
Hier verlasse ich Asimov und begebe mich in die Gegenwart mit ihren Herausforderungen durch Roboter, Bots oder allgemein künstliche Intelligenz. Deshalb verwende ich hier auch nicht „verletzen“ sondern „Schaden zufügen“, Asimovs Definition gilt ja hauptsächlich für mobile, wenn nicht gar humanoide, Roboter.
Ich denke, wir müssen nicht darüber streiten ob künstliche Intelligenz (KI) den Menschen, oder der menschlichen Gesellschaft, Schaden zufügen kann. Selbst Computerwürmer, wie Stuxnet, oder Trojaner können das. KI in autonomen Autos kann Menschen verletzen und in Kampfdrohnen ist es ihr Ziel, Menschen zu töten. Andererseits ist es in vielen wirtschaftlichen Bereichen das Ziel, mit dem Einsatz von KI Menschen um ihre Arbeitsplätze zu bringen und ihnen ihre materielle Lebensgrundlage zu entziehen, also ihnen zu schaden – wenn auch zu vermeintlich höherem Nutzen. Das kann man so sehen, wenn keine Lösungen für neue Arbeitsplätze oder z.B. andere Arbeits- und Lebenszeitregelungen angeboten werden.
Der Roboter, Bot oder die KI kann das nicht selbst lösen – auch bei Asimov wurden die Roboter „mit den Robotergesetzen ausgestattet“.
Was tun?
Ich bin ziemlich ratlos. Die einzige Möglichkeit sehe ich darin, analog zur Bewegung zur „Ächtung der Atomwaffen“ eine starke internationale Bewegung für die „Unschädliche Nutzung der künstlichen Intelligenz“ ins Leben zu rufen, internationale Verträge abzuschließen und schädliche Nutzung unter schwere Strafen zu stellen.
Ihr werdet sagen, dass ich träume. Aber ich sage mit John Lennon:
You, you may say I’m a dreamer
But I’m not the only one
I hope someday you will join us
And the world will be as one.
P.S. Ich bin nicht allein mit meinem Interesse für dieses Thema. Die University of Harvard und das MIT beschäftigen sich unter „The Ethics and Governance of Artificial Intelligence“ und die University of Texas at Austin unter „Ethical Foundation of Computer Science“ mit ethischen Fragen. Soweit mir bekannt ist, ist auch die Stiftung Globale Werte Allianz in Basel an diesem Thema dran.
Bildnachweis: unter CCO Creativ Commons by Geralt