noch nicht in diesem Umfang und das wird für die bürgerliche Gesellschaft problematisch werden Meiner Meinung nach liegt es derzeit an Europa sich zu entscheiden ob und unter welchen Bedingungen es ein Player im Bereich der künstlichen Intelligenz wird Eine gegenwärtig wichtige Debatte bezieht sich auf die sogenannten Bias oder algorithmische Voreinge nommenheit die etwa zu rassisti schen Beurteilungen führen kann Wo entstand diese Debatte Für diskriminierende Entscheidungen durch Algorithmen existieren zahl reiche Beispiele Eine Google Wer bung zeigte Frauen in den USA keine hochbezahlten Stellen an US ameri kanische Software bewertete das Rückfallrisiko bei schwarzen Gefäng nisinsassen höher als bei weißen Patienten erhielten plötzlich keine Behandlung mehr da algorithmische Systeme ohne menschliche Über prüfung entschieden hatten dass eine Fortsetzung der Behandlung unnötig sei Solche Fälle werfen bereits seit einigen Jahren Fragen auf bereits bei einfachen KI Systemen Und bei den sehr fortschrittlichen KI Systemen gibt es Probleme mit der Rückverfolg barkeit von Entscheidungen Reagieren Unternehmen und Wissenschaft angemessen Ich stelle mit Sorge fest dass sich die Vorstellung verbreitet es könne eine schnelle Lösung gefunden werden etwa durch eine mathematische Fairnessformel die sich einfach in die technologischen Systeme einbauen ließe Das wird nicht gelingen Unsere KI Systeme werden mit Daten aus der Vergangenheit trainiert einer Vergangenheit die von Vorurteilen und Diskriminierung geprägt ist Diese Debatte darf nicht nur in Computerwissenschaftslaboren geführt werden Wir brauchen einen stärker interdisziplinären Ansatz wir müssen Politiker Soziologen Poli tikwissenschaftler Philosophen und Historiker einbinden Die Frage die sich gegenwärtig stellt lautet Wie möchten wir leben und wie sollten unsere technologischen Systeme unsere Vorstellungen unterstützen Dies ist die größte Herausforderung der kommenden Jahre Wird es jemals eine Welt ohne diese Vorurteile ohne Diskriminierung geben In der Vergangenheit wurden gesell schaftliche Veränderungen da durch bewirkt dass Menschen sich gegen Systeme erhoben die in ihren Augen ungerecht waren Um Änderungen zu fordern muss ein System jedoch zunächst einmal sichtbar sein Bei den komplexen KI Systemen sind wir uns häufig nicht einmal bewusst mit welchen Syste men wir es zu tun haben und selbst wenn sind deren Entscheidungen oft schwer nachvollziehbar Für Betroffene ist es so extrem schwierig sich zu verteidigen Deshalb müssen wir darauf bestehen dass diese Systeme rechenschaftspflichtig und transparent sind Wir wissen aber auch dass es keine schnelle technolo gische Lösung gibt Wir müssen akzep tieren dass diese Systeme immer Formen der Diskriminierung erzeu gen und müssen entscheiden auf welchen Gebieten das akzeptabel ist Können wir bereits vor dem Einsatz von KI Systemen feststellen ob diese diskriminierend wirken Im AI Now Institute der ersten universitären Forschungseinrichtung die die gesellschaftlichen Auswir kungen von künstlicher Intelligenz untersucht erforschen wir wie ein System so getestet werden kann dass man von Anfang an und im Laufe seines Einsatzes versteht inwieweit es bestimmte Gruppen diskriminiert Wir haben außerdem ein Rahmen werk für die Folgeneinschätzung von Algorithmen entwickelt Dieses hilft Behörden und Bürgern künstli che Intelligenz und algorithmische Systeme die Entscheidungen treffen zu überwachen und zu verstehen sowie zu entscheiden ob ein System eingesetzt werden sollte oder nicht Wie bringen wir Maschinen bei nicht zu diskriminieren Maschinen lernen stets auf der Basis von Daten aus der Vergangenheit und können damit bestehende ungleiche Verhältnisse zementieren Wenn ein System beispiels weise aus dem Internet lernt welche Berufe Männer und welche Berufe Frauen ausüben könnte es zu dem Schluss kommen dass Frauen künftig keine Stellenanzeigen für Ärzte oder Informatiker präsentiert bekommen und Männer keine mehr für Krankenpfleger Forscher kämpfen derzeit damit KI solche Schwächen auszutreiben Da KI allerdings so perfekt darin ist Muster in Daten zu erkennen genügt es nicht jene Faktoren wie das Geschlecht oder die Hautfarbe einfach aus den Daten zu löschen Die KI errechnet sie sich einfach aus anderen Zusammenhängen vom Namen über den Wohnort das soziale Umfeld und vieles mehr Dazu kommt eine weitere Schwäche des maschinellen Lernens allen voran des Deep Learnings auf Basis tiefer neuronaler Netze Die Systeme können nicht erklären wie sie zu einer Entscheidung gekommen sind Bei komplexen Entschei dungen führt das dazu dass Menschen ihr einfach trauen müssen Doch angesichts der Pannen die in der Vergangenheit geschehen sind ist das kein gutes Konzept In der Forschung gibt es erste vielver sprechende Ansätze einer erklärbaren KI die zumindest teilweise preisgibt auf welche Faktoren sie sich bei einer Entschei dung stützt sodass Menschen sie auf Plausibilität überprüfen können und auch darauf ob die Entscheidung auf der Basis unseres Wertesystems getroffen worden ist KI wird mit Daten aus der Vergangen heit trainiert die von Vorurteilen und Diskriminie rung geprägt ist Interview36 Robert Bosch Stiftung

Vorschau RBS 2018-03 DE Seite 36
Hinweis: Dies ist eine maschinenlesbare No-Flash Ansicht.
Klicken Sie hier um zur Online-Version zu gelangen.