Interview
„Die zentrale Frage muss immer lauten: Was wollen wir optimieren?“

Künstliche Intelligenz durchdringt unseren Alltag. Sie erleichtert uns Entscheidungen, indem sie vorschlägt, welche Filme wir sehen oder welchen Menschen wir online folgen sollten. Gleichzeitig sind die problematischen Auswirkungen auf Einzelpersonen und die Gesellschaft deutlich sichtbar: Seien es die Zunahme extremistischer Ansichten oder Hassreden im Netz oder negative Folgen für Menschen, die sich um einen Kredit oder einen Job bewerben. Unsere Senior Migrationsexpertin Jessica Bither beschreibt, welche Risiken und Herausforderungen KI-basierte Technologien im Bereich der Migration bergen.

Robert Bosch Stiftung | Januar 2022
Eine Visualisierung von Daten mit einer Frau und zwei Männern im Hintergrund
©Friends Stock - stock.adobe.com

Von der Früherkennung von Krankheiten bis hin zur Bewältigung des Klimawandels oder der Bekämpfung von Armut: Auf dem Einsatz künstlicher Intelligenz in verschiedenen Politikfeldern liegt große Hoffnung. Welche Rolle spielt künstliche Intelligenz in einem politisch sensiblen Bereich wie der Migrationspolitik?

Jessica Bither: Zunächst einmal wurde der Begriff „KI“ in den letzten Jahren für sehr unterschiedliche Dinge verwendet, daher ist es wichtig, sich darüber klar zu werden, was wir mit diesem Begriff meinen. In meiner jüngsten Arbeit habe ich mich mit dem beschäftigt, was wir „automatisierte Entscheidungsfindung“ (Englisch: automated decision-making, kurz ADM) in der Migrationspolitik nennen. Diese Systeme, die auf automatisierten Entscheidungen beruhen, werden bereits in bestimmten Bereichen der Migrationssteuerung getestet. So haben einige Regierungen beispielsweise damit begonnen, sie bei der Bearbeitung von Visaanträgen einzusetzen. Zudem gibt es in der Schweiz oder in den Vereinigten Staaten Programme, die Algorithmen nutzen, um anerkannte Asylbewerber:innen oder Flüchtlinge geeigneten geografischen Regionen oder Gemeinden zuzuordnen. Und es gibt auch andere Bereiche, zum Beispiel im humanitären Sektor oder in der Krisenprävention, wo im Zusammenhang mit Vertreibungen oder Migrationsbewegungen in bestimmten Regionen verschiedene, auf maschinellem Lernen basierende Modelle entwickelt werden.

Da Sie die Visapolitik erwähnt haben: Wie kann man beispielsweise sicherstellen, dass Menschen aus einem bestimmten Land durch den Einsatz von automatisierten Entscheidungssystemen nicht benachteiligt werden?

Wenn wir uns die Visapolitik ansehen, müssen wir erst einmal ganz genau verstehen, was dort automatisiert wird. Die kanadische Regierung hat beispielsweise ein Pilotprogramm für bestimmte Anträge auf befristete Aufenthaltsgenehmigungen für Menschen aus Indien und China eingeführt, bei dem ein ADM-System die Anträge nach Komplexität in Kategorien einsortiert. Die Anträge in Kategorie „eins“ werden direkt befürwortet, sodass der automatisierte Teil der Entscheidung nur bei Anträgen angewendet wird, die ohnehin genehmigt worden wären. Das ist wichtig: Es macht einen Unterschied, ob wie in diesem Fall das ADM-System bei sehr einfachen Anträgen positive Entscheidungen trifft oder ob ein Algorithmus eine Art Vorhersage oder Risikobewertung vornimmt. Derzeit setzt Kanada automatisierte Entscheidungssysteme nicht ein, um Visaanträge abzulehnen. 

Natürlich ist es auch wichtig, auf welche Art von Daten man den Algorithmus stützt. Wenn man als Basis für ein ADM-System beispielsweise frühere Visa-Entscheidungen nutzt, besteht die Gefahr, persönliche Voreingenommenheiten einzelner Sachbearbeiter:innen zu codieren. Daher ist es bei der Entwicklung dieser Systeme immer wichtig, sich einer potenziellen Diskriminierung und Voreingenommenheit bewusst zu sein und die verwendeten Daten zu verstehen, auch, um eine aussagekräftige Wirkungsanalyse vornehmen zu können. 

Jessica Bither
Privat

Über die Person

Jessica Bither ist Senior Expertin für Migration. Sie verfügt über langjährige Erfahrung in der Zusammenarbeit mit Praktikern der internationalen Migrationspolitik. Sie leitet unter anderem die Arbeit der Stiftung im Bereich Technologie und Migration.

Institutionen wie das Europäische Unterstützungsbüro für Asylfragen auf Malta haben ein Frühwarn- und Prognosesystem entwickelt, um Migrationsbewegungen besser vorhersagen zu können. Wie funktionieren diese Systeme?

Das bedeutet, dass entweder neue technologische Anwendungen in der Lage sind, bestehende Datensätze auf neue Weise zu analysieren, oder neue Datenquellen genutzt werden können, um Vorhersagen oder Einschätzungen einer bestimmten Situation zu treffen. Verschiedene staatliche und humanitäre Organisationen haben in den letzten Jahren maschinelles Lernen oder künstliche Intelligenz in sogenannten Prognosesystemen eingesetzt. Dabei werden verschiedene Datenquellen von Satellitenbildern bis hin zu Statistiken über Vertreibung, Konflikte oder Umweltfaktoren kombiniert, um zu sehen, ob es Warnzeichen oder Indikatoren gibt, die ein solches maschinelles Lernsystem aufdecken und als Teil eines Vorhersagemodells verwenden kann. 

Der Dänische Flüchtlingsrat hat beispielsweise eine Software mit dem Namen „Foresight“ entwickelt, die eine ganze Reihe verschiedener Faktoren zusammenführt und die er beispielsweise dazu nutzt, das Ausmaß der Vertreibung in bestimmten Regionen zu bewerten und finanzielle oder personelle Ressourcen besser zuzuweisen, Entscheidungen humanitärer Mitarbeiter:innen vor Ort zu verbessern und eine politische Strategie zu entwickeln. Der wichtigste Punkt dabei ist die Motivation, die hinter einem solchen System steht: Man kann dieselbe Art von KI-basiertem System verwenden, um humanitäre Hilfe zu schicken und mehr Aufnahmezentren zu eröffnen – oder aber, um den Grenzschutz zu verstärken oder Grenzen zu schließen. Die bloße Möglichkeit, ein auf diesen neuen Technologien basierendes System zu entwickeln, sagt noch nichts darüber aus, ob wir das System nutzen sollten oder nicht - oder ob es ethisch vertretbar ist, dies zu tun.

Die bloße Möglichkeit, ein auf diesen neuen Technologien basierendes System zu entwickeln, sagt noch nichts darüber aus, ob wir das System nutzen sollten oder nicht.

Wie sollten wir diese Technologien idealerweise nutzen?

Um automatisierte Entscheidungsfindungssysteme und ihre Folgen zu bewerten, müssen alle Akteur:innen aus dem Migrationsbereich die Nuancen jedes einzelnen Falles betrachten und Fragen stellen, wie: Welche Datenquellen wurden verwendet? Wurden die Daten auf Verzerrungen geprüft? Ist das System so präzise, wie behauptet wird? Ist es vollautomatisch - was in der Regel nie der Fall ist - oder wird nur eine kleine zusätzliche Information für eine Entscheidung genutzt? Noch wichtiger ist der Kontext, in dem diese Technologien eingesetzt werden. Führt die automatisierte Entscheidungsfindung zu dem Ergebnis, das wir eigentlich wollen, oder verfestigt sie systematische Diskriminierung und Vorurteile, die es in der Welt bereits gibt? Schließlich muss die Frage, die jedem ADM-System zugrunde liegt, immer lauten: Was wollen wir optimieren? Das ist im Grunde eine Frage der Werte. 

Daher müssen Akteur:innen der Migrationspolitik und alle, die in diesem Bereich tätig sind, die Auswirkungen automatisierter Entscheidungsfindung auf Einzelpersonen, Gemeinschaften und die Migrationspolitik grundsätzlich durchdenken und Schutzmaßnahmen sowie Verfahren wie beispielsweise eine verpflichtende Wirkungsanalyse einbauen. Dazu brauchen wir mehr Zusammenarbeit und Orte für echten Austausch zwischen Menschen, die im Bereich der Migration arbeiten, mit Informatiker:innen, Data Scientists und Technolog:innen. An der Schnittstelle von Technologie und Migration sehen wir in naher Zukunft einen echten Bedarf, weshalb die Robert Bosch Stiftung Partner:innen darin unterstützt, diese Räume zu schaffen und relevantes Wissen aufzubauen.

Mehr zum Thema