[heise.de]
Rund 50 Angriffe auf al-Qaida-Angehörige und andere feindliche Kräfte
hat die US-Armee mit Hilfe von Flugdrohnen allein in den vergangenen
zwölf Monaten im Grenzgebiet zwischen Afghanistan und Pakistan
durchgeführt. Zu den jüngsten Opfern gehört Medienberichten zufolge
offenbar auch ein Sohn des al-Qaida-Anführers Osama Bin Laden, der zwar
nicht selbst Ziel eines Angriffes war, sich aber in der Nähe
einschlagender Raketen aufgehalten haben soll. Über die Zahl ziviler
Opfer bei Drohnen-Angriffen ist nur wenig bekannt. Unbestätigten
Quellen zufolge sollen auf 14 getötete al-Qaida-Mitglieder aber fast
700 zivile Todesopfer kommen.
Bei den Streitkräften sind solche Unmanned Aerial Vehicles (UAVs)
höchst populär, weil sich die Gefährdung der eigenen Soldaten auf ein
Minimum reduzieren lässt: Erkundung, Überwachung, Angriff – für jedes
Einsatzziel stehen inzwischen spezielle Maschinen zur Verfügung, die
teilweise Tage in der Luft bleiben und schnell große Distanzen
zurücklegen können. Und auch für den Bodeneinsatz
werden zunehmend Kampfroboter konstruiert und eingesetzt, die im
schlimmsten Fall als Haufen Schrott enden – nicht aber im Bodybag nach
Hause transportiert werden müssen.
Werden solche mit Kameras und verschiedensten Sensoriksystemen
ausgestatteten Kampfmaschinen bislang noch meist ferngesteuert und die
an Bord befindlichen Waffensysteme über entfernte Kommandozentralen
bedient, soll die Zukunft völlig anders aussehen, wie sich dem im Juli
2009 veröffentlichen Strategieplan
"Unmanned Aircraft Systems Flight Plan 2009-2047" der United States Air
Force entnehmen lässt: "Full Autonomy", "Artificial Intelligence",
"Execute Complex Decisions", "Automated Target Engagement", "Decision
Making Power" lauten die Schlagwörter der Kriegsführung von morgen.
"Roboter sollen künftig selbst entscheiden können, wer wann wo
getötet wird", fasst der Robotik-Experte Noel Sharkey von der
Universität Sheffield die Entwicklung zusammen. "Und das alles auf der
Basis einer künstlichen Intelligenz, die sich das Militär offenbar bei
Science-Fiction-Filmen abgeguckt hat." Roboter sind Sharkeys Auffassung
zufolge längst noch nicht so weit, dass man sie wenigstens als dumm
bezeichnen könnte: "Sie können keine Unterscheidung zwischen Zivilisten
und Nicht-Zivilisten treffen und sie beherrschen auch nicht die
Verhältnismäßigkeit beim Einsatz von Kampfmitteln."
Weil sich die Art der Kriegsführung bald dramatisch ändern könnte,
fordert Robotik-Professor Sharkey nun den Beginn einer internationalen
Diskussion, bevor weiter in die Entwicklung autonom agierender
Killermaschinen investiert wird. Den Amerikanern hält er zugute, dass
sie in dem UAV-Strategieplan zumindest darauf hinweisen, dass die neue
Technik auch erhebliche Probleme mit sich bringen könnte. "Bevor eine
Maschine autorisiert werden kann, im Kampfeinsatz Entscheidungen über
Leben und Tod zu treffen, müssen politische und militärische Führer
zunächst die damit zusammenhängenden juristischen und ethischen Fragen
klären", heißt es in dem Strategieplan – genug Stoff also für eine
angeregte Diskussion.
(pmz/c’t)