Brauchen wir eine digitale Ethik?
Künstliche Intelligenz wird viele Lebensbereiche revolutionieren. Aber sollten wir alles Machbare auch machen? Diese Frage haben wir mit einem Ethik-Experten und einem Computerwissenschaftler diskutiert. Nicht nur der Ethiker zeigt sich skeptisch - auch der Technik-Experte sagt: Unser Vertrauen in Maschinen sei „extrem gefährlich“.
Künstliche Intelligenz aus ethischer und technischer Perspektive - darüber diskutierten (v.l.n.r.) Siri Warrlich von der Stuttgarter Zeitung, Ethik-Professor Thomas Potthast, IT-Professor Michael Resch und Armin Käfer von der Stuttgarter Zeitung.
Nein, dieser Text wurde nicht von einem Computer geschrieben – obwohl längst erforscht wird, wie auch journalistische Arbeit durch Rechner statt durch Menschen erledigt werden kann. Künstliche Intelligenz (KI) dringt in immer neuer Lebensbereiche vor, sie verändert unseren Alltag: Computer übernehmen das Steuer der Autos, sie analysieren Röntgenbilder, sie erkennen einzelne Gesichter in großen Menschenmassen. Aber sind Computer wirklich „intelligent“? Und welche Regeln sollte die Gesellschaft setzen für das Erforschen und Anwenden der Künstlichen Intelligenz?
Der Stuttgarter Professor Michael Resch warnte bei einer Veranstaltung von Stuttgarter Zeitung, Robert-Bosch-Stiftung und Schauspiel Stuttgart vor einer „Vermenschlichung“ der Computer. Begriffe wie Computer-Gehirn oder Maschinelles Lernen seien unzureichende Versuche, sprachlich zu fassen, was da gerade passiere. Aber Computer folgten immer dem, was Menschen ihnen einprogrammieren. „Ein Rechner arbeitet nicht wie ein Gehirn“, betonte Resch, der das Institut für Höchstleistungsrechnen der Universität Stuttgart leitet. Es gebe auch „keine lernenden Maschinen, nur lernende Menschen“.
Macht in den Händen von Staaten und Konzernen
Die Abhängigkeit der Maschine vom Menschen betonte auch der Philosoph und Biologe Thomas Potthast, der mit Resch auf der Bühne des Schauspielhauses im Rahmen der Reihe „Theater trifft Wirklichkeit“ diskutierte. Allerdings entstehe durch die erhöhte Leistungsfähigkeit von Rechnern und Programmen eine „neue Qualität“: Computern würden immer mehr „Entscheidungen überlassen, die wir bisher urteilsfähigen Menschen überlassen haben“. Potthast ist Sprecher des Internationalen Zentrums für Ethik in den Wissenschaften an der Uni Tübingen. Jede Gesellschaft müsse genau prüfen, wofür sie KI einsetzen wolle und wer die Kontrolle darüber besitze, sagte Potthast.
Im Fall China mit seinen Überwachungsmethoden gebe es die „berechtigte Sorge, dass ein Staat Schindluder mit der Künstlichen Intelligenz betreibt“. Die westlichen Gesellschaften müssten sich angesichts von Google, Facebook & Co. allerdings noch mehr die Frage stellen, „wie viel Macht sie einigen wenigen Monopolisten übereignen wollen. Diese Debatte wird zu wenig geführt.“ Resch mahnte, im Westen die Gefahr des Missbrauchs durch staatliche Stellen nicht zu ignorieren: „Ich vertraue auch denen nicht.“
Nicht darauf vertrauen, dass Computer fehlerlos arbeiten
Braucht es angesichts dieser Risiken neue gesellschaftliche Spielregeln, vielleicht sogar eine spezielle „digitale Ethik“? Das fragten die Moderatoren des Abends, die Redakteur:innen der Stuttgarter Zeitung Siri Warrlich und Armin Käfer. „Wir brauchen keine neue Ethik“, antwortete Potthast. Die Menschheit verfüge seit 2500 Jahren über einen Satz ethischer Maßstäbe, die es nun auf ein neues Handlungsfeld anzuwenden gelte. Ein besonderes Augenmerk müsse dabei auf die Frage gerichtet werden, inwieweit Berechnungen von KI-Systemen durch die Menschen überprüfbar sind.
Tatsächlich erschwerten die wachsende Komplexität der Programme und die extrem hohe Geschwindigkeit vieler Anwendungen Künstlicher Intelligenz eine solche Überprüfbarkeit, erklärte Resch. Zudem sei es ein Problem, dass Computern heute oft eher geglaubt werde als Menschen. „Wir vertrauen darauf, dass der Computer fehlerlos arbeitet, dass er nur logische Ableitungen macht und in seine Berechnungen keine persönlichen Empfindungen einfließen“, so der Stuttgarter Experte für Hochleistungsrechner. „Das ist extrem gefährlich.“