[heise.de] Mit der weiteren Entwicklung von autonomen Systemen wird vermehrt darüber diskutiert, wie diese selbständig entschieden sollen
US Army und Navy investieren bis 2010 vier Milliarden US-Dollar in
ein Forschungsprogramm zur robotischen Kampfmoral. Die Befehlshaber im
Pentagon erklären dazu, tief besorgt zu sein aufgrund von Studien,
denen zufolge viele ihrer menschlichen Frontkämpfer im Irak durch die
starke Anspannung in den militärischen Auseinandersetzungen zu
Racheakten und Folterungen gegenüber feindlichen Soldaten neigen.
Der Computerwissenschaftler Ronald Arkin vom Georgia Institute of
Technology, der an Software für die US-Armee arbeitet, bestätigte denn
auch gerne gegenüber der New York Times, dieses Problem lasse sich mit moralisch überlegener Robotertechnik
beheben. Ihr Vorzug sei, nicht durch negative Emotionen belastet zu
sein, die das Urteilsvermögen von Menschen im Gefecht beeinträchtigt.
Roboter seien ohne einen Instinkt für die Selbsterhaltung zu
entwickeln, ohne Furcht oder Rücksichtslosigkeit. In einem für die
US-Armee verfassten Bericht schrieb Arkin:
Ich glaube nicht, dass sich ein
unbemanntes System vollkommen moralisch auf dem Schlachtfeld verhalten
wird, aber ich bin überzeugt, dass sich Roboter moralischer verhalten
können, als es menschlichen Soldaten möglich ist.
Software zur Beachtung des Kriegsrechts
Während die Roboter bisheriger Generationen im militärischen Einsatz
nicht wirklich autonome Systeme sind, sondern ferngesteuert durch
Menschen operieren, arbeiten die Forscher auch an "soldier bots", die
weit mehr können und dürfen als das. Sie sollen Ziele und Waffen
identifizieren können und zwischen feindlichen Kräften wie Panzern oder
bewaffneten Männern einerseits und "weichen Zielen" wie
Ambulanzfahrzeugen oder Zivilisten unterscheiden können. Regeln für die
Kampfhandlungen sollen in die Systeme eingebettet werden.
Den Robotern eine bessere Moral per Software implementieren möchte auch der Wissenschaftsphilosoph Colin Allen von der Indiana University, wie er gegenüber der britischen Tageszeitung Telegraph erklärte. Er ist Berater der US Navy, die gerne wissen möchte, wie sich
Militärroboter entwickeln lassen, die nicht gegen die Genfer
Konventionen verstoßen:
Die Frage, die sie beantwortet wissen
wollen, lautet: Können wir automatische Waffen entwickeln, die den
Kriegsgesetzen entsprechen? Können wir die Moraltheorie heranziehen, um
bei der Konzeption dieser Maschinen zu helfen?
Es sei richtig, argumentiert Allen, die ethischen Dilemmas zu einem frühen Zeitpunkt anzugehen:
Es ist Zeit, dass wir über diese
Fragen nachzudenken beginnen, wie wir die Moraltheorie nehmen und sie
in die Software einbauen, die das korrekte Handeln der Roboter
sicherstellt, statt zu warten, bis es zu spät ist. Wir haben bereits
Computer, die Entscheidungen fällen und damit bestimmend auf das Leben
von Menschen einwirken, aber sie tun es in einer ethisch blinden Weise.
Computer entscheiden über die Vergabe von Kreditkarten ohne jede
menschliche Beteiligung, und wir erleben es in einigen Situationen
hinsichtlich medizinischer Leistungen für ältere Menschen.
Mit dem letzten Satz bezog sich der Moraltheoretiker auf Krankenhäuser
in den USA, die sich von Computerprogrammen bei der
Entscheidungsfindung helfen lassen, wenn über die Wiederbelebung
einzelner Patienten zu entscheiden ist.
In seinem eigenen Blog Moral Machines bestätigt Allen seine Aussagen gegenüber der Zeitung, spielt aber
seine Aufgabe als Militärberater herunter. Seine Rolle als externer
Berater für einen von der Navy gesponserten Bericht über Risiken, Ethik
und Entwicklung autonomer Militärroboter sei stark übertrieben
dargestellt. Die Zeitung gebe jedoch gut wieder, was nun hinsichtlich
dieser ethischen Fragen zu bedenken sei.
Töten mit Robotergefühlen?
Anders als Ronald Arkin setzt Colin Allen auch auf
Roboter, die mit Gefühlen umgehen können. In seinem Buch "Moral
Machines: Teaching Robots Right from Wrong", das er zusammen mit dem
Ethiker Wendell Wallach von der Yale University verfasste, empfiehlt er
das als eine der möglichen Strategien, um Roboter auf der moralischen
Spur zu halten. Die beiden Autoren wollen ihnen nämlich die
Unterschiede zwischen "Right and Wrong" (eine vermutlich bewusst
doppelsinniger Titel, meinen sie nun Richtig und Falsch oder Gut und
Böse?) beibringen, indem sie mit Gefühlen umzugehen lernen. Menschliche Empathie, Emotionen und Sensibilität für nichtverbale
Kommunikation sollen ihnen bei der Interaktion mit Menschen helfen.
Die Autoren empfehlen weiterhin, Roboter mit klaren
Regeln zu programmieren wie etwa Asimovs Robotergesetzen, in denen der
SF-Autor klar postulierte, Roboter dürften Menschen unter keinen
Umständen Schaden zufügen, was eigentlich ihren Einsatz als
waffentragende Kampfroboter von vornherein ausschließen müsste. Auch
sollten Roboter nicht bewaffnet sein, geben sie als weitere Strategie
vor. Es sei zwar möglicherweise zu spät, diese Entwicklung aufzuhalten,
doch sollten zumindest die Waffenart und die Situationen eingeschränkt
werden, in denen Roboter Waffen anwenden dürfen.
Es gibt allerdings auch Forscher, die nicht wie Allen das Pentagon beraten und eine ganz andere Sicht der Dinge haben. Wie etwa Noel Sharkey , Professor an der University of Sheffield, dr eine schleichende
Entwicklung, ausgehend von DARPA-Projekten, bis hin zum tödlichen
Kampfroboter befürchtet. Innerhalb eines Zeitraums von zehn Jahren erwartet er Maschinen,
die über die Anwendung tödlicher Gewalt entscheiden, wann und gegen wen
sie anzuwenden ist.
In einer Keynote beim Royal United Services Institute for Defence and Security Studies forderte er im Februar dieses Jahres ein Verbot autonomer
Waffensysteme: "Wir müssen sagen, wo wir die Grenze ziehen und was wir
tun wollen – und dann eine internationale Vereinbarung erreichen."
Da er seit Jahrzehnten in der Künstlichen Intelligenz
arbeite, erschrecke ihn die Vorstellung, ein Roboter könne die
Entscheidung über die Auslöschung eines menschlichen Lebens treffen.
Seiner Einschätzung nach lassen die Militärführer allerdings "keinen
Zweifel daran, dass sie so schnell wie möglich autonome Roboter wollen,
da sie kostengünstiger sind und einen risikofreien Krieg versprechen".
Daher sei "das Problem, dass wir den Geist nicht wieder zurück in die
Flasche bekommen. Wenn die neuen Waffen da draußen sind, werden sie
ziemlich leicht zu reproduzieren sein." Was wiederum erst recht neue
Probleme schaffen werde:
Wie lange wird es dauern, bis
Terroristen das für ihre Zwecke nutzen? Bei den derzeit fallenden
Preisen für die Konstruktion von Robotern und der Verfügbarkeit
fertiger Komponenten für den Markt enthusiastischer Hobbyisten bedürfte
es keines übermäßigen Geschicks, autonome Robotwaffen zu bauen.
von: Bernd Kling
Quelle: heise.de