Vertrauenswürdige KI – verlässlich und berechenbar

Beim Vertrauen in KI-Modelle z?hlt nicht nur die technische Leistung. Genauso wichtig sind ethische Prinzipien und Werte.

Eine Gruppe von Menschen und KI-Systemen arbeitet gemeinsam.
Vertrauenswürdige KI unterstützt Menschen, indem sie ihnen in einer Entscheidung verschiedene L?sungsoptionen vorschl?gt. (Bild: KI-generiert mit Adobe Firefly; Prompt: ETH Zürich)

Zun?chst ist Vertrauen eine zutiefst menschliche Angelegenheit. Wir vertrauen dem Busfahrer, dass er uns sicher ans Ziel bringt – doch wie ist das mit dem Bus? Vertrauen wir ihm ebenso wie einem Menschen? Oder muss die Technologie einfach nur zuverl?ssig funktionieren? Und wie ist das, wenn künstliche Intelligenz (KI) das Steuer übernimmt?

?Ja, Vertrauen l?sst sich direkt auf KI übertragen?, meint Petar Tsankov, CEO und Mitbegründer von LatticeFlow AI. Das Spin-off der ETH Zürich unterstützt Unternehmen dabei, vertrauenswürdige, zuverl?ssige und leistungsf?hige KI für reale Anwendungen zu entwickeln. Vertrauen in KI entsteht, wenn die KI-Modelle in verschiedenen Umfeldern konsistent und fehlerfrei antworten sowie zuverl?ssig entscheiden. Wenn Nutzende erleben, dass eine KI vorhersehbar und verl?sslich funktioniert, beginnen sie ihr zu vertrauen – genauso wie bei einer zuverl?ssigen Person. Dass KI zuverl?ssig sei und für neue, unbekannte Daten gut funktioniere, sei der erste und wichtigste Schritt zum Vertrauen. Entscheidend sei, dass eine KI nicht nur in kontrollierten Laborumgebungen funktioniere, sondern mit realen Daten konsistente Antworten liefere. ?Allzu oft bleiben KI-Modelle unter den Erwartungen, wenn sie realen Bedingungen ausgesetzt sind. Das untergr?bt das Vertrauen.?

Margarita Boenig-Liptsin pflichtet Tsankov bei, dass Menschen einer Technologie vertrauen k?nnen. Als ETH-Professorin für Ethik, Technologie und Gesellschaft untersucht sie, wie sich soziale Werte und der Wandel digitaler Technologien, einschliesslich der KI, gegenseitig beeinflussen und zusammen weiterentwickeln. Der springende Punkt ist für sie, dass Vertrauen relational ist, also mit Beziehungen zu tun hat. Menschen beziehen ihr Vertrauen sowohl auf andere Personen als auch auf eine Institution oder auf ein technisches Ger?t. Im Kern geht es um die Frage: Kann ich mich auf dich verlassen? Dabei bezieht sich dieses ?dich? in hochentwickelten technologischen Gesellschaften in der Regel auf die menschliche und technologische Handlungsf?higkeit, da sie zusammenwirken.

Ihr Vertrauensbegriff berücksichtigt ganze Beziehungsnetze: ?Vertrauenswürdigkeit ist nicht nur eine Eigenschaft der Technologie, sondern des gesamten sozialen und technischen Umfelds, in das sie eingebettet ist?, sagt Boenig-Liptsin. Dieses Umfeld umfasst Designerinnen und Designer, Nutzende oder Institutionen. ?Um die Vertrauenswürdigkeit einer KI zu beurteilen, müssen wir sie aus den Perspektiven verschiedener Anspruchsgruppen betrachten.? Diese Betrachtungsweise lenkt den Blick nicht nur auf die Entwicklung und Anwendung, sondern auch auf die Auswirkungen auf Wissen und Verantwortung.  ?Diese sozio-technische Systembetrachtung liefert wichtige Impulse für KI-Forschende, die vertrauenswürdige Modelle entwickeln m?chten. Wenn die Forschenden Transparenz herstellen und sich mit den Beteiligten über die Merkmale, Grenzen und M?glichkeiten eines Modells austauschen, erhalten sie wertvolle Hinweise, wie die neue KI die Vertrauensbeziehungen im System beeinflusst und welche ?nderungen sie selbst vornehmen k?nnen.?

Für Alexander Ilic, dem Gesch?ftsführer des ETH AI Center, kommt Vertrauenswürdigkeit dann ins Spiel, wenn Technologie und Gesellschaft aufeinandertreffen. ?Die tiefgreifenden Ver?nderungen durch KI sind noch nicht abgeschlossen. In der n?chsten Phase geht es darum, das Potenzial firmeninterner Daten in verschiedenen Branchen zu erschliessen und hochgradig personalisierte KI-Begleiter zu entwickeln, die uns bei komplexen Aufgaben unterstützen. Gleichzeitig müssen wir über die Auswirkungen dieser neuen M?glichkeiten auf die Anwenderinnen und Anwender nachdenken und überlegen, wie wir Vertrauen in KI schaffen, damit das Unbehagen vor den Risiken der KI nicht deren Vorteile überschattet.? Um Risiken zu erkennen, werden sie am ETH AI Center offen zwischen den Forschenden und unter Einbezug verschiedener Gruppen diskutiert.

?Wir müssen sicherstellen, dass die Neuerungen vielen zugutekommen, nur so k?nnen wir das volle Potenzial der KI für die Gesellschaft aussch?pfen. Deshalb unterstützen wir aktiv die interdisziplin?re Forschung und die Zusammenarbeit mit Industrie und Start-ups.?
Alexander Ilic

Offenheit als Schlüssel

Für Andreas Krause, Professor für Informatik und Vorsteher des ETH AI Center, ist Offenheit ein Schlüssel zum Vertrauen: ?Wir KI-Forschende k?nnen Vertrauen nicht erzwingen. Wir k?nnen Transparenz schaffen, indem wir die verwendeten Daten offenlegen und erkl?ren, wie die KI-Modelle entwickelt werden.? Krause erforscht neue Ans?tze, die Unsicherheiten in KI-Modellen einsch?tzen k?nnen, damit diese besser erkennen, was sie nicht wissen.  Die Einsch?tzung solcher Unsicherheiten ist wichtig für das Vertrauen in KI, beispielsweise, um sogenannte Halluzinationen leichter auszumachen.

Alexander Ilic erg?nzt: ?Am ETH AI Center arbeiten wir mit offenen Grundlagen, die unabh?ngige Parteien prüfen und begutachten k?nnen.? Wahre Reallabore der offenen KI-Entwicklung sind die Swiss AI Initiative und das Swiss National AI Institute: Hier entwickeln über 650 Forschende der ETH Zürich, der EPF Lausanne und zehn weiteren inl?ndischen Hochschulinstituten ein grosses Schweizer Sprachmodell und die n?chste Generation von Basismodellen. Damit schaffen sie die Grundlage für generative KI nach Schweizer Werten.  Offenheit bedeutet in diesem Zusammenhang, dass Quellcodes, Tools, Trainingsdaten und Modellgewichte – welche die Entscheidungen einer KI beeinflussen – frei zug?nglich sind. Dies erm?glicht es auch KMU und Start-ups, ihre Innovationen darauf aufzubauen. Darüber hinaus führen gemeinsam genutzte Open-Source-Basismodelle zu erheblichen Einsparungen bei den Kosten und beim CO?-Fussabdruck.

Es gibt Prinzipien, um das Vertrauen in KI zu f?rdern, wie Zuverl?ssigkeit, Sicherheit, Robustheit, Konsistenz und Nachvollziehbarkeit. Für Ilic sind dies grundlegende Anforderungen: ?Nur wenn wir verstehen, was sich in der KI abspielt, k?nnen Organisationen beginnen, diese einzusetzen, um ihre Kernprozesse zu ver?ndern und mit sensiblen Daten zu arbeiten.? Sogenannte Blackbox-Systeme, die auf Daten mit versteckten Vorurteilen oder fremden politischen Werten trainiert wurden, k?nnen mitunter sehr irritieren. ?Das Vertrauen in KI w?chst, wenn wir sicher sein k?nnen, dass sie auf denselben ethischen Prinzipien und Werten beruht, die auch unsere eigenen sind?, erkl?rt er.

Menschliche Werte

Petar Tsankov erg?nzt: ?Menschen erwarten, dass KI ethische Normen respektiert, Diskriminierung vermeidet und Inhalte produziert, die menschlichen Werten entsprechen. Beim Vertrauen in KI geht es nicht nur um technische Leistung, sondern auch darum, sicherzustellen, dass KI mit unseren gesellschaftlichen Prinzipien im Einklang steht.?

Ein Weg, um Prinzipien festzulegen, sind Governance-Richtlinien, Standards und Gesetze. ?Doch Prinzipien allein reichen nicht?, sagt Tsankov. ?Vertrauen basiert nicht nur auf abstrakten Prinzipien. Eine vertrauenswürdige KI erfordert eine rigorose technische ?berprüfung, ob sie tats?chlich robust, zuverl?ssig, fair, sicher, erkl?rbar und gesetzeskonform funktioniert. Die Prinzipien technisch messbar zu machen, ist die grosse Herausforderung.?

In sensiblen Umfeldern kommen zwei weitere Prinzipien ins Spiel: Interpretierbarkeit und Erkl?rbarkeit. Das bedeutet, dass Menschen, die eine KI nutzen, wissen, wie diese ihre Entscheidungen f?llt und dass sie diese Entscheidungen anderen gegenüber verst?ndlich erkl?ren k?nnen.

Je nach Perspektive

Wichtig sind die beiden Prinzipien zum Beispiel in der Medizin, besonders wenn eine KI die Diagnose und Behandlung einer Kinderkrankheit unterstützt. Hier beurteilen Menschen, wie Margarita Boenig-Liptsin sagt, die Vertrauenswürdigkeit einer KI je nach Perspektive anders: weil Erfahrung, Wissen und Verantwortung der KI-Forscherin, der ?rztin, des Kindes und der Eltern sich unterscheiden und sie die Auswirkungen nicht gleich erleben.

?In der Medizin müssen KI-Modelle transparent, interpretierbar und erkl?rbar sein, um Vertrauen zu gewinnen?, sagt Informatikprofessorin Julia Vogt. Sie leitet die Medical Data Science Group der ETH und entwickelt KI-Modelle, die ?rztinnen und ?rzte bei der Diagnose und Behandlung von Krankheiten unterstützen. Ihre Forschung zeigt, dass es dabei nicht nur auf die Leistung der KI ankommt, sondern auch darauf, dass ihre Entscheidungen und Empfehlungen für ?rztinnen und ?rzte und für Patientinnen und Patienten verst?ndlich sind. Die Modelle werden daher streng validiert und der Datenschutz muss gew?hrleistet sein.

?Wir stellen fest, dass Nutzerfeedback im Entwicklungsprozess das Vertrauen in KI erheblich steigert. Benutzerfreundliches Design spielt in Spit?lern eine grosse Rolle, da Zeit für ?rztinnen und ?rzte knapp ist.?
Julia Vogt

Für Blinddarmentzündungen von Kindern hat Julia Vogts Forschungsgruppe interpretierbare maschinelle Lernmodelle entwickelt, die ?rztinnen und ?rzte zur Diagnose und Behandlung einsetzen k?nnen. Auf den Ultraschallbildern erkennt die KI, wie schwer die Blinddarmentzündung eines Kindes ist, und schl?gt eine Behandlung vor. Diese KI-Modelle sind für die ?rztinnen und ?rzte gut interpretierbar, weil die KI auf den Ultraschallbildern die Konzepte und Merkmale erkennt, die ?rztinnen und ?rzte in der Praxis verwenden – bei Blinddarmentzündungen sind dies zum Beispiel entzündliche Reaktionen des umliegenden Gewebes oder Verstopfung. Dadurch wissen die ?rztinnen und ?rzte, ob die KI wirklich die klinisch relevanten Merkmale für ihre Empfehlung verwendet hat, und k?nnen die KI-Diagnose den Eltern und dem Kind verst?ndlich erkl?ren.

In einem anderen Fall hat Julia Vogts Gruppe eine interpretierbare und erkl?rbare KI entwickelt, die einsch?tzen kann, wie schwer ein neugeborenes Kind an pulmonaler Hypertonie erkrankt ist. Bei dieser schweren Herzkrankheit ist eine frühe und genaue Diagnose entscheidend für die Behandlung. Dafür verwendete die Forscherin einen Deap-Learning-Ansatz, also neuronale Netze, um Ultraschallbilder des Herzens auszuwerten.

Diese KI erstellt aus den Ultraschallbildern spezielle Merkmalskarten, die diejenigen Bereiche des Herzens farblich hervorheben, aus der die KI ihre Diagnose herleitet. Auf diesen Karten sehen die ?rztinnen und ?rzte auf einen Blick, ob die KI tats?chlich die klinisch relevanten Herzstrukturen berücksichtigt. Entsprechend k?nnen sie die Empfehlung der KI interpretieren und die KI-Diagnose erkl?ren. Das ist bemerkenswert, weil Deep Learning oft wie eine Blackbox funktioniert, bei der nicht nachvollziehbar ist, wie genau die KI entscheidet.

Die Entscheidungen einer KI überprüfbar und nachvollziehbar zu machen, schafft Vertrauen. Dennoch bleibt ein Teil der Entscheidungen, die eine KI trifft, für uns Menschen stets unerkl?rlich. Diese Ungewissheit muss das Vertrauen in KI jedoch nicht schm?lern. Vollst?ndigkeit sei dafür nicht notwendig, sagt Andreas Krause: ?Es ist genauso schwierig, KI-Modelle vollst?ndig zu erkl?ren, wie menschliche Entscheidungen neurobiologisch vollst?ndig zu verstehen. Trotzdem k?nnen Menschen einander vertrauen.?

?Globe? Vertraust du mir?

Globe 25/01 Titelblatt

Dieser Text ist in der Ausgabe 25/01 des ETH-????Magazins Globe erschienen.

Download Ganze Ausgabe lesen (PDF, 3.6 MB)

JavaScript wurde auf Ihrem Browser deaktiviert