In einer Zeit, da künstliche Intelligenz breite Bereiche der Arbeits-, Gesundheits- und Finanzwelt erobert, häufen sich Fragen nach dem Nutzen und danach, wie diese Algorithmen verfasst sind. Zumal der KI bereits erhebliche Tätigkeitsfelder überantwortet werden. Doch wie kann das Phänomen der sogenannten Künstlichen Intelligenz überhaupt mit Verantwortung in Zusammenhang gebracht werden? Der Wirtschaftsinformatiker und Leiter der Masterstudiengänge Business Intelligence & Date Science (Präsenzstudium) sowie Applied Business Data Science (Fernstudium) Prof. Dr. Marcus Becker hat anschauliche Beispiele gewählt, um dies systematisch durchzuspielen. Teil 1 der dreiteiligen Serie thematisiert:
Die Intransparenz der KI-Prozesse / Teil 1
Marcus Becker, Professor für Quantitative Methoden der Wirtschaftsinformatik an der ISM Dortmund, beschäftigt sich mit Methoden des maschinellen Lernens seit vielen Jahren.
Was hat sie bei der Analyse der Lernmethoden von KI überrascht?
Am meisten hat mich überrascht, das künstliche Intelligenz - oder wie sich in den meisten Fällen herausstellt: Machine Learning (ML) - die pure Anwendung von Mathematik ist. Während meines Mathematik-Studiums habe ich mir häufig die Frage gestellt: Wofür soll das gut sein? Machine Learning Algorithmen (MLA) verbinden dabei mehrere Teilbereiche der Mathematik auf überaus elegante Weise: Optimierung und Numerik, aber auch Basiswissen aus der Stochastik, Analysis und der Linearen Algebra. Mathematik ist wie eine Sprache, die man erlernen muss, wenn man sich selbstbewusst in der Thematik von Machine Learning bewegen möchte.
Was mich ebenfalls überrascht: Wie einfach es heutzutage ist, komplexe MLA in Programmier-Code, wie z.B. Python, umzusetzen. Früher waren mehrere hundert Zeilen Code dazu nötig. Die Initialisierung eines künstlichen neuronalen Netzes (KNN) z.B. lässt sich schon mit 10 Zeilen Code realisieren. Mit Chat-GPT müssen Anwender noch nicht einmal zwingend eine Programmiersprache beherrschen. Hierzu genügt eine kurze Prompt-Eingabe und schon erhält man einen halbwegs brauchbaren Code. Das kann natürlich Fluch und Segen zugleich sein.
Marcus Becker, Professor für Quantitative Methoden der Wirtschaftsinformatik an der ISM Dortmund, analysiert, wie sich Licht in das Dunkel der Algorithmen bringen lässt.
In Kreisen, die auf die KI viel Hoffnung setzen, findet sich die Meinung, KI suche „beste“ Sachverhalte heraus und kombiniere sie nach dem Wahrscheinlichkeitsprinzip auf eine ebenfalls beste Weise – schöpfe also vorhandenes Wissen ab und kombiniere es „sinnvoll“ nach dem Intelligenzmuster von Menschen, nur schneller. Was ist von dieser Vorstellung zu halten?
Zunächst einmal muss man feststellen, dass sich Neurowissenschaftler noch keine abschließende Meinung darüber gebildet haben, was menschliche Intelligenz überhaupt ist. Es gibt jedoch gesicherte Konzepte darüber wie Neuronen Informationen verarbeiten und miteinander interagieren. Künstliche neuronale Netze (KNN) versuchen auf diesen Konzepten aufzubauen und wissenschaftliche Erkenntnisse in Maschinencode umzuwandeln. Daher ist es grundsätzlich schwer, „künstliche Intelligenz“ zu definieren, wenn man noch keine abschließende Definition von (menschlicher) „Intelligenz“ hat.
Aber der Erfolg von KNN gibt den Konstrukten im Grunde genommen Recht. Sie können nicht allzu schlecht sein, ansonsten wäre die Performanz dieser Modelle nicht so hoch. Ein generelles Problem, das sich hierbei ergibt, ist die Nachvollziehbarkeit dieser komplexen Modelle. KNN zählen zu den sog. Black Box Algorithmen (BBA). Wir können a priori also nicht genau feststellen, wie das Modell entscheiden wird für gegebene Input-Informationen.
Unsicheres Umfeld mit unvollständigen Informationen
Um auf die oben gestellte Frage noch einmal genauer Bezug zu nehmen, müssen wir herausfinden, welche Informationen der Algorithmus als „beste Sachverhalte“ identifiziert, und mit welchen „Gewichten“ er dieses tut. Je nach Modell, z.B. im Bereich der selbstverstärkenden Algorithmen (Reinforcement Learning, RL), bewegt sich der Entscheider in einem unsicheren Umfeld mit unvollständigen Informationen. RL-Algorithmen lernen und verbessern sich selbst durch eine kontinuierliche Interaktion mit ihrer Umwelt. Hier spielt die Einschätzung der Wahrscheinlichkeit, in welcher Art und Weise Algorithmen in Zukunft mit ihrer Umwelt weiter interagieren können, natürlich eine maßgebende Rolle. Auch bei den aktuell viel betrachteten Large Language Modellen (LMM) wie Chat-GPT, sind Wahrscheinlichkeiten maßgeblich.
Diese fußen auf einer Vielzahl von Trainingsereignissen mit denen die Algorithmen gefüttert werden. Dabei zählt, je mehr desto besser. Allerdings besteht auch immer die Gefahr, dass unsere Trainingsdaten einer bestimmten Voreingenommenheit obliegen, oder BIAS wie wir sagen. Um ein kleines Beispiel zu geben: Stellen Sie sich vor, dass Sie eine KI entwickeln möchten, die automatisiert Bewerbungen ausliest und entscheidet, ob eine Einladung zum Bewerbungsgespräch zu erteilen ist. Hierzu wird die KI mit historischen Daten von Bewerbungen und Entscheidungsresultaten (abgelehnt oder eingeladen) trainiert. Wenn in der Vergangenheit die vorwiegend durch Menschen getroffenen Entscheidungen ein bestimmtes Geschlecht diskriminieren, dann merken das die Algorithmen und übernehmen diesen BIAS auch für zukünftige Prognosen.
Du möchtest dich zu Hause in Ruhe über unsere Bachelor- und Master-Studiengänge informieren? Fülle einfach das Formular aus und lade dir kostenlos und unverbindlich das Infomaterial. Zusätzlich schicken wir es dir auch gerne per Post.
Jetzt Infos anfordern
Du hast Fragen zur Hochschule oder zum Studium? Wir sind für dich da!
Schicke uns gerne eine Nachricht von Montag bis Freitag. Wir sind immer werktags von 10:00 bis 15:00 Uhr (MEZ) für dich da.
Während der Feiertage steht der WhatsApp Service nicht zur Verfügung. Bitte nutzt für diese Zeit den Chat Bot oder schickt uns eine E-Mail an Diese E-Mail-Adresse ist vor Spambots geschützt! Zur Anzeige muss JavaScript eingeschaltet sein.