Erst Anfang November (also im letzten Monat) wurde in breiteren Kreisen bekannt, dass sich die EU-Kommission anschickt, viel Geld in Forschung (und Umsetzung!) einer automatisierten Kontrolle von in die EU-Festung einreisenden Menschen zu stecken.
Das Vorhaben nennt sich „iBorderCtrl“, ein offenbar von Technikliebhabern (um nicht von Technikgläubigen zu reden) ausgedachter Spitzname für ein System, dass automatisiert und zunächst ohne Eingriff eines Menschen beurteilen soll, ob ein nicht in der EU ansässiger Mensch das Recht erhalten soll, nach Europa zu reisen. Oder auch nicht!
Dazu errechnet die (Achtung: Buzzword!) „künstliche Intelligenz“ einen „Risiko-Score“ für den Menschen, basierend auf eingereichten Dokumenten, vermutlich weiteren Internetrecherchen sowie einer automatisierten Auswertung eines Interviews mit dem Reisenden mit einer Kunstfigur („Virtual Border Agent“), die u.a. herauszufinden versuchen soll, ob der Mensch bei der Beantwortung von Fragen lügt oder nicht.
Das an der Universität Hannover (LUH – Leibniz Universität Hannover) angesiedelte Institut für Rechtsinformatik hat sich bereit erklärt, eine „ethische und rechtliche“ Klärung von in diesem Zusammenhang auftretenden Fragen zu erledigen. Und droht damit (neben anderen internationalen Forschungspartnern), zum moralischen Feigenblatt für die Installation eines potentiell rassistischen IT-Systems zur weiteren Abschottung der EU vor dem Rest der Welt zu werden: Ein weiterer Pflasterstein auf einen dystopisch abschüssigen Weg unserer Gesellschaft.
Der AStA der Uni Hannover wendet sich nun in einem offenen Brief gegen diese „Forschung“. [Update: Pressemitteilung des AStA der Uni Hannover]
Wir haben diesen offenen Brief dankenswerterweise zur Verfügung gestellt bekommen, halten ihn für sehr lesenswert und möchten ihn deswegen hier weiter veröffentlichen:
Offener Brief des AStA der LUH an das Institut für Rechtsinformatik:
“iBorderCtrl” – Rassistischer Science-Fiction-Albtraum oder Realität?
Leibniz Universität hilft der EU bei der Abschottung
Unter dem Namen “iBorderCtrl” testet die EU eine Software, mit deren Hilfe Einreisende ohne EU-Pass einer Befragung durch eine künstliche Intelligenz einschließlich Lügendetektor unterzogen werden sollen, um ihnen einen „Risiko-Score“ zuzuweisen. Dieser soll die Wahrscheinlichkeit für falsche Aussagen bei der Befragung angeben, was als Grundlage weiterer Kontrollen dienen kann.
Reisende sollen von zu Hause aus Dokumente hochladen und von einer künstlichen Intelligenz befragt werden. Hierbei beteiligt sich das Institut für Rechtsinformatik laut eigener Aussage mit Klärung „rechtlicher und ethischer Fragen“. Der Avatar soll anhand des aufgezeichneten Gespräches beurteilen, ob die Reisenden lügen und „bedrohlich“ seien. Gerade wird der Einsatz an vier Grenzübergängen in Griechenland, Lettland und Ungarn getestet. Während bisher die Teilnahme freiwillig sei und keine Auswirkungen hätte, liegt die Befürchtung nahe, dass beides nicht so bleiben wird. So oder so wirft diese Idee viele Fragen auf:
- Warum wird kein Programm für sichere Fluchtrouten oder globale Umverteilung von Ressourcen entwickelt statt automatisiert Menschen kontrollieren und abweisen zu wollen?
- Wie ist ein aufgezeichnetes Verhör durch einen Lügendetektor mit Persönlichkeitsrechten und Privatsphäre zu vereinbaren?
- Wer gilt aus welchen Gründen als bedrohlich?
- Kann eine künstliche Intelligenz wirklich beurteilen, ob jemand lügt?
- Wieso sollen Lügendetektoren, die vor Gericht nicht als Beweismittel zugelassen sind, an der EU-Grenze eingesetzt werden?
Selbst nach eigenen Angaben hat der Lügendetektor nur 75% Erfolgsquote. Gerade der Verlass auf Muskelzucken als Anzeichen von Nervosität wirkt absurd, wenn man bedenkt, dass sowohl eine Flucht als auch die Kontrolle selbst nervös machen kann.
Es ist skandalös, dass eine so zweifelhafte Technologie, die wirkt wie aus einem Science-Fiction-Albtraum, an den Grenzen – fern von jeglicher kritischen Öffentlichkeit – gegen Menschen eingesetzt werden soll, die nur wenige Möglichkeiten haben, sich dagegen zur Wehr zu setzen.
Wir verstehen solche Projekte als Kampfansage gegen Menschen ohne EU-Pass, weil ein Generalverdacht hergestellt und extrem weitgehende Überwachung angestrebt wird. Scheinbar soll der Kampf gegen Menschen auf der Flucht auf eine weitere Ebene gebracht werden. Die Staaten der EU hindern Schiffe daran, Menschen im Mittelmeer zu retten, die sie selbst retten müssten. Sie verstecken sich hinter Dublin-Gesetzen, um Geflüchtete hin und her zu schieben. Überall gibt es vermehrt offen rassistische Parteien, Aufmärsche und Brandanschläge.
Die im Rahmen von “iBorderCtrl” an geflüchteten Menschen erprobte Technologie sollte auch im Zusammenhang mit anderen Formen präventiver Überwachung und/oder Bestrafung gesehen werden: Z.B. neue Polizeigesetze in deutschen Bundesländern oder „Predictive Policing“-Programme, die durch künstliche Intelligenz angeblich gefährliche Gebiete oder sogar Personen bestimmen sollen. Denn in all diesen Fällen nimmt die Verfolgung von Menschen zu, wobei Rassismus eine immer größere und reale Vorwürfe eine immer kleinere Rolle spielen.
Vor diesen Hintergründen betrachten und kritisieren wir “iBorderCtrl”. Eine kritische Auseinandersetzung mit „ethischen und rechtlichen Fragen“ sollte zum Fazit kommen, dieses Projekt zu verhindern, anstatt es zu legitimieren! Außerdem fordern wir das Präsidium auf, solche Forschungen nicht zuzulassen! Der Einsatz dieser Technik sollte verhindert werden, solange sie noch in den Startlöchern ist!
Quellen:
Südduetsche Zeitung, Onlineartikel vom 05.11.: https://www.sueddeutsche.de/digital/grenze-kuenstliche-intelligenz-software-iborderctrl-1.4196243
SpiegelOnline, Onlineartikel vom 19.11.2018: http://www.spiegel.de/netzwelt/web/projekt-iborderctrl-darf-und-kann-ki-luegner-bei-der-einreise-stoppen-a-1238448.html