„In kritischen Bereichen funktioniert KI heute nicht“
Künstlicher Intelligenz wird riesiges Potenzial zugesprochen. Sie nährt Hoffnungen, schürt aber auch Ängste, wie bei ihrem Einsatz in der Medizin oder bei Waffensystemen. Wo steht die Entwicklung und was könnte kommen?
Die Anwendungsbeispiele klingen revolutionär: Algorithmen, die Krebs entdecken, Modelle, die die nächste Naturkatastrophe vorhersagen oder selbstfahrende Fahrzeuge. Gleichzeitig fürchten viele Menschen, dass algorithmische Entscheidungen und KI-Systeme zu mächtig werden könnten. Sie könnten Diskriminierung fördern und tödliche Fehler begehen, die einem Menschen niemals passieren würden, lauten vielverbreitete Sorgen.
Wie gut und fair solche algorithmischen Entscheidungssysteme sind, untersucht das sogenannte Algorithm Accountability Lab, das die Professorin Katharina Zweig an der Technischen Universität in Kaiserslautern leitet. Zweig hat eine klare Meinung dazu, wann künstliche Intelligenz eingesetzt werden sollte und wann besser nicht.
Für Sie ist KI so revolutionär wie der Buchdruck. Wo werden wir ihre Auswirkungen am stärksten spüren?
Das ist schwer zu sagen. Im Gegensatz zu früher können Computer mittlerweile nicht nur strukturierte Daten verstehen, sondern auch Worte und Bilder entschlüsseln. Das ist der eigentliche Gamechanger. Bei der Frage, was wir damit machen können, stehen wir ganz am Anfang. KI könnte die Technologie sein, die selbstfahrende Autos oder eine individuellere Therapie mit wirksamen und gut verträglichen Medikamenten ermöglicht. In anderen Bereichen wie der Personalentwicklung bin ich etwas kritischer.
KI ist nicht mehr als ein Werkzeug (…) Es ist entscheidend, dass sich ein Mensch die Ergebnisse ansieht.
Warum?
Weil KI nicht mehr als ein Werkzeug ist. Die heutigen algorithmischen Entscheidungssysteme treffen oft unhinterfragt Entscheidungen, anhand von Daten aus der Vergangenheit. Aber es ist ganz entscheidend, dass sich ein Mensch die Ergebnisse der KI ansieht, um zu überprüfen, ob die vermeintlich gefundenen Kausalzusammenhänge auch tatsächlich bestehen. Man muss ganz klar sagen: In kritischen Bereichen wie der Bewertung oder gar Vorhersage menschlichen Verhaltens funktioniert KI heute nicht.
Wenn solch fundamentale Rechtsprinzipien verletzt werden, sollte KI nicht eingesetzt werden.
Wie können Menschen dann sicherstellen, dass KI wirklich zu ihrem Wohl arbeitet?
Da gibt es klare Kriterien: Zunächst braucht es einen Evaluierungsprozess, bei dem Expert*innen die Qualität von algorithmischen Entscheidungen überprüfen und notfalls Veränderungen vornehmen. Zum anderen müssen grundlegende Fragen aus der Philosophie beachtet werden. Autonome Waffensysteme, sogenannte Killerroboter, verletzen das Unschuldsprinzip. Wenn solch fundamentale Rechtsprinzipien verletzt werden, sollte KI nicht eingesetzt werden, selbst wenn die Entscheidungen zu 99,99 Prozent richtig wären – was sie nicht sind.
Viele Menschen fürchten, dass Algorithmen Diskriminierung fördern könnten. Für wie berechtigt halten Sie diese Sorge?
Die ist durchaus berechtigt. Menschliches Verhalten ist zu komplex, um es unhinterfragt mathematischen Modellen zu überlassen. In manchen Gerichtsräumen in den USA wird heute beispielsweise eine Software eingesetzt, die vorhersagen soll, ob Kriminelle wieder rückfällig werden. Die Erfolgsquote ist bei der Vorhersage gewalttätiger Straftaten gering. Ich hielte diese Nutzung aber auch aus fundamentalen Gründen für wirklich problematisch. Das Verhalten von Menschen mit großer Erfolgsquote vorherzusagen, übersteigt im Moment den Stand der Forschung.
Menschliches Verhalten ist zu komplex, um es unhinterfragt mathematischen Modellen zu überlassen.
Einige Firmen versprechen sich davon jedoch eine Menge Profit.
Den können sie auch machen. Aber momentan wird oft diskutiert, mit KI menschliches Verhalten zu kategorisieren, bewerten und vorherzusagen. Das kostet viel Geld und die Maschinen sind nicht unbedingt gut darin. Ich fände es viel sinnvoller, wenn Firmen die Technologie stärker in der Produktion einsetzen würden. Da ist heute noch viel Luft nach oben.
Wie achten Sie selbst auf Ihre Daten im Netz?
Ich schaue mir fast jede Cookie-Richtlinie an und gebe minimale Zugriffsrechte. Wir holen uns als Familie auch keinen Sprachassistenten ins Haus holen. Die größte Gefahr sehe ich darin, dass man mittlerweile Menschen Fake-News in den Mund legen kann. Schon mit relativ wenig Filmmaterial kann die Stimme und Mimik einer Person erstaunlich gut nachgemacht werden. Hier werden in den nächsten Jahren viele KI-gesteuerte Betrugsversuche auf uns zukommen.
Über Katharina Zweig
Katharina Zweig ist Professorin für Informatik an der TU Kaiserslautern. Sie berät Arbeitnehmer*innen, Betriebsräte und Politik zum Thema Künstliche Intelligenz und wurde mehrfach für ihre Wissenschaftskommunikation ausgezeichnet, u. a. mit dem DFG-Communicator-Preis. Ihr Buch zum Thema mit dem Titel „Ein Algorithmus hat kein Taktgefühl“ ist ein Bestseller. Ihr Start-Up „Trusted AI“ hilft Firmen, vertrauenswürdige KI zu kaufen oder selbst zu entwickeln.
Andrea Michels
… ist fasziniert davon, wie schnell KI unseren Alltag verändert. Gleichzeitig fragt sie sich, welche Entscheidungen wir Maschinen überlassen können und wo der Mensch unabkömmlich bleibt.
Empfohlene Inhalte
Digitaler Umbruch | Standpunkt
„KI-Technologie braucht immer den Menschen“ „KI-Technologie braucht immer den Menschen“
Simon Carter verantwortet datengetriebene Innovationen in der Deutschen Bank und kann sich noch lange keine Welt vorstellen, in der KI regiert.
Digitaler Umbruch | Ausblick
Wie Künstliche Intelligenz das Bankgeschäft verändert Wie künstliche Intelligenz das Bankgeschäft verändert
KI kann das Bankgeschäft stark verändern. Wir zeigen drei Möglichkeiten – vom Investieren bis zur Finanzkriminalität.
Digitaler Umbruch | Video-Story
So verhilft KI autonomem Fahren zum Durchbruch So verhilft KI autonomem Fahren zum Durchbruch
Autonomes Fahren gilt als Zukunftsversprechen. Doch immer wieder schrecken tragische Unfälle auf. Wie das Start-Up Deep Safety das ändern will.