Der letzte Teil in der dreiteiligen Serie thematisiert Fragen nach der Haftbarkeit von KI-Methoden. Wenn diese aufgeworfen werden, wird es heikel. Beispiel Anlagenberatung (Robo-Advisor): Grundlage des deutschen Haftungsrechts ist eine Pflichtverletzung, welche zu einem Schaden führt.
Prof. Dr. Marcus Becker, Leiter der Masterstudiengänge Business Intelligence & Date Science (Präsenzstudium) sowie Applied Business Data Science (Fernstudium), stellte zusammen mit seinem Team bei Analysen fest, dass die Intransparenz algorithmischer Systeme die rechtliche Prüfung der Haftungsregeln erschwert.
Bei Black Box Algorithmen ist die Frage, wie Entscheidungen getroffen werden, häufig nur schwer zu beantworten (sog. Opazitätsrisiko). Selbst dem Entwickler ist es oft nicht mehr möglich, den Fehler zu finden oder zu bestimmen. Es liegt ein Kausalitätsproblem vor. Das bereitet Anspruchsstellern große Probleme. Pflichtverletzungen lassen sich nicht beweisen, also bleibt unklar, wer in solchen Konstellationen die Beweislast trägt. Denn in KI-Systemen fehlt eine eigenständige Rechtspersönlichkeit. Nach aktueller Rechtslage muss man daher auf das Fehlverhalten des Nutzers, der sich des Black Box Algorithmus bedient, nach §280 Abs. 1 BGB verweisen.
Demnach würde der Nutzer selbst für Schaden aufkommen müssen, der ihm durch KI entstanden ist. Der Erfinder einer KI-Applikation aber bleibt nach dieser Auffassung außen vor, sofern ihm nicht grobfahrlässige Fehlentscheidungen nachgewiesen werden können.
"Selbst dem Entwickler ist es oft nicht mehr möglich, den Fehler zu finden oder zu bestimmen,“ weiß Wirtschaftsinformatiker Prof. Dr. Markus Becker aus seinen Untersuchungen.
Ein erster Schritt in die richtige Richtung sind die in dieser Woche von der EU Kommission erlassenen Gesetzesentwürfe, dem sog. EU AI Act. Grundsätzlich ist eine einheitliche KI-Regelung begrüßenswert, ob sie jedoch die Risiken beim Einsatz von KI verringern, bleibt offen. Interessant dürfte sein, ob zukünftige KI-Systeme, wie Artificial general intelligence, über eine eigenständige Rechtspersönlichkeit verfügen.
Von einer Verselbständigung solcher sogenannten Robo-Advisor würde ich noch nicht sprechen. Wie ich bereits 2021 nahelegte, werden Machine Learning Algorithmen in der automatisierten Vermögensberatung noch gar nicht so häufig angewendet, wie man denken mag (Becker, M., Beketov, M., & Wittke, M. (2021). Machine Learning in Automated Asset Management Processes 4.1. Die Unternehmung, 75(3), 411-431).
Im Grunde genommen bewegen wir uns hier auch in einem hochregulierten Bereich. Nach den Grundsätzen der EU-Richtlinie zur Harmonisierung der Finanzmärkte MIFID-II müssen Anlageberatungen, egal ob menschlich oder maschinell, immer dem „Suitability“-Prinzip genügen, also dem Prinzip der Geeignetheit. Man kann demnach Rentnern also nicht ohne weiteres „Junk Bonds“ verkaufen.
Ohne Transparenzalgorithmen (XAI) aber handeln die Algorithmen schlicht mit einer gewissen Willkür untereinander. Das kann mitunter sogar zu „Flash Crashes“ führen, wie die Vergangenheit gezeigt hat. Um hier nur zwei Beispiele zu nennen: Algo Trader Softwares haben mitunter den Börsenkrach am 19. Oktober 1987, den sog. „Schwarzen Montag“, begünstigt. Ein weiteres Beispiel ist der 6. Mai 2010. An diesem Tag fiel der Dow Jones innerhalb von acht Minuten um über 1000 Punkte. Ausgelöst wurde dieser Crash durch eine einfache Sell-Order des Handelshauses Waddell & Reed. Das kann man noch nicht einmal als KI bezeichnen, sondern war einfach eine automatisierte Verkaufsvereinbarung, die ab einer gewissen Schwelle eingeläutet wurde.
Meine Prognose ist: Wenn undurchsichtige Back Box Algorithmen ohne jegliche Validierung auf die Finanzmärkte losgelassen werden, könnten sich Flash Crashes in immer kürzeren Abständen wiederholen. Zum Glück gibt es bereits Gesetze, die es erlauben, bestimmte Finanzinstrumente vom Handel auszuschließen (vgl. § 73 WpHG). Das hält das Kursrutschpotential in Grenzen.
Es gibt eine Vielzahl von vorimplementierten Erklärungsmodellen (wie z.B. LIME und SHAP), die quasi universal, anwendbar sind. Allerdings nutzen die Firmen diese kaum, auch weil sie nicht gesetzlich vorgeschrieben sind.
Durch die „Suitability“-Forderung gemäß der oben genannten MIFID II-Richtlinie ist meines Erachtens der Einsatz von Transparenzalgorithmen andererseits zwingend notwendig. Sie würden das Nutzervertrauen erhöhen, Assoziationen von Input und Output herstellen, sowie verlässliche und faire RA-Systeme erzeugen, die zudem im Einklang mit aktuellen Datenschutzbestimmungen stehen und somit die Identität des Nutzers wahren.
Ohne Erklärbarkeit durch Transparenzalgorithmen kann keine Interpretation und somit auch keine Validierung seitens des prüfenden Fachpersonals vorgenommen werden.
Unsere Empfehlungen zum Einsatz von Transparenzalgorithmen erstrecken sich hierbei auf fünf Gütekriterien: Vertrauen, Assoziationen, Verlässlichkeit, Fairness und Identität.
wird generiert indem Entwickler die Anzahl der falsch-positiven Vorhersagen minimieren. Falsch-Positive Vorhersagen, könnten z.B. dazu führen, dass risikoaverse Investoren fälschlicherweise als risikofreudig eingestuft werden.
Geschädigte Investoren von KI gesteuerten Anlageberatungen können allenfalls eine Klage auf Schadensersatz wegen Pflichtverletzung gegenüber den Finanzdienstleistern geltend machen. Es lässt sich darüber streiten, ob der Betreiber des Robo-Advisors für einen Programmierfehler verantwortlich gemacht werden kann. Insbesondere bei Black Box Algorithmen, die nicht mehr auf expliziten Programmierlogiken wie einfachen Wenn-Dann-Beziehungen bestehen, ist es sehr schwer hier einen „tatsächlichen“ Fehler in der Implementierung ausfindig zu machen. Der Fehler könnte lediglich in der nicht sachgerechten Steuerung der Inputparameter liegen.
Wenn eine Haftung des Herstellers aufgrund einer fehlenden Rechtsgutverletzung ausscheidet, wäre die Einführung einer eigenständigen Gefährdungshaftung des Betreibers von Robo-Advisorn im Rahmen der Produkthaftung begrüßenswert.
Die Frage der Gefährdungshaftung ist vermutlich im Bereich des autonomen Fahrens schon viel weiter fortgeschritten, als im Anlagebereich. Hier können wir von vorreitenden Rechtsprechungen in anderen Bereichen mit Sicherheit lernen.
Schicke uns gerne eine Nachricht von Montag bis Freitag. Wir sind immer werktags von 10:00 bis 15:00 Uhr (MEZ) für dich da.
Während der Feiertage steht der WhatsApp Service nicht zur Verfügung. Bitte nutzt für diese Zeit den Chat Bot oder schickt uns eine E-Mail an
AACSB Akkreditierung
0151.41 97 68 03
Antworten montags bis freitags 10:00 – 15:00 Uhr oder spätestens am nächsten Werktag.