Überwachung: Neue Sicherheitssysteme setzen auf Verhaltensanalyse

[gulli.com] "Traditionelle"
Überwachungssysteme wie beispielsweise Überwachungskameras haben aus
Sicht ihrer Anwender und Befürworter einen entscheidenden Nachteil: Sie
benötigen menschliche Intervention zur Bewertung der gesammelten
Informationen. Das ist mitunter schwierig zu bewerkstelligen

Dabei
müssten nicht nur Personen und Objekte, sondern auch "verdächtiges
Verhalten" erkannt werden. Es existieren mehrere Konzepte für solche Firma,
die meisten davon sind jedoch noch im Experimentalstadium. Nicht so bei
der Firma Cybernet Systems, die unter anderem Forschung für die US Army
betreibt: Cybernet Systems hat bereits mehrere dieser Systeme an
sicherheitsrelevanten Orten angebracht. Mehr davon sollen demnächst
folgen.

Eines der Merkmale, die die Systeme analysieren, ist
die Art, wie eine Person geht und sich bewegt. So soll beispielsweise
festgestellt werden können, ob jemand Explosivstoffe mit sich trägt.

Einige Systeme sind sogar in der Lage, den Kontext eines Verhaltens
mit in die Analyse einzubeziehen. So ist es beispielsweise an
bestimmten Orten verdächtig, längere Zeit stehen zu bleiben, während
ein solches Verhalten beispielsweise an einer Bushaltestelle vollkommen
normal und unverdächtig ist. Laut James Davis, einem Experten für
Videoüberwachungssysteme von der Ohio State University in Columbus,
finden solche Systeme bereits Verwendung.

Als nächster Schritt sollen Gesichtsausdrücke mit analysiert werden.
Als besonders interessant stufen Experten dabei sogenannte
"micro-expressions" ein. Dabei handelt es sich um winzige, nur kurz
(oft nur eine Zehntelsekunde) auftretende Anzeichen für bestimmte
Emotionen im Gesicht eines Menschen. Diese sind, im Gegensatz zum
allgemeinen Gesichtsausdruck, so gut wie gar nicht bewusst
kontrollierbar und geben daher viel über den wirklichen Gemütszustand
und eventuell die Motive eines Menschen preis. Menschliche Beobachter
allerdings übersehen diese "micro-expressions" erfahrungsgemäß
teilweise. Die automatisierten Systeme sollen diesen Fehler nicht
machen.

Mit Hilfe dieser Merkmale sollen Menschen, die beispielsweise
aggressiv wirken oder unter erhöhter Anspannung stehen, herausgefunden
werden können. Die Erkennungsraten sind bereits recht gut; so wurden in
Versuchen bis zu 80% derjenigen, die Aggressionen an den Tag legten
oder eine "Bombe" an den Kameras vorbeischmuggeln wollten, erkannt.

Allerdings wurden auch mehrere Personen, die nicht bewusst
verdächtiges Verhalten an den Tag legten, vom System fälschlicherweise
als verdächtig eingestuft. Diese sogenannten "active failures" bei
Sicherheitssystemen können ein ernsthaftes Problem darstellen. Einige
Experten argumentieren sogar, dass das System diskriminierend ist, da
beispielsweise Menschen, die aus repressiven Staaten kommen, in
Gegenwart von Autoritäten eher Stresssymptome zeigen. Das aber würde
sie für das System verdächtig machen. In anderen Fällen könnten so
triviale Dinge wie erhöhter Stress, weil man zu spät für die Arbeit
dran ist, einen Alarm auslösen.

Bürgerrechtler
befürchten eine extreme Anzahl falscher Verdächtigungen oder gar eine
Umkehrung der Beweislast hin zum Beweis der Unschuld durch solche
Technologien und vergleichen diese teilweise sogar mit den Zuständen im
Film "Minority Report". Dort werden Menschen, die ein Verbrechen planen, "präventiv" dafür bestraft, indem ihre Gedanken überwacht werden. Mit Sicherheit
eine Übertreibung, aber es zeigt die Ängste und Zweifel, die solche
Pläne bei vielen kritisch eingestellten Menschen auslösen. (Annika Kremer)

Source: http://www.gulli.com/news/berwachung-neue-2008-10-26/