ISM Blog

Wird Verantwortung künftig in der Black-Box von KI begraben? (Teil 2)

Teil 2 der dreiteiligen Serie (Teil 1) thematisiert die Intransparenz der Prozesse bei künstlicher Intelligenz. Dies stellt ein erhebliches Problem dar, da Betroffene kaum Entscheidungen nachvollziehen und mögliche Fehler oder Schäden identifizieren können.
Prof. Becker fordert deshalb, Black-Box-Algorithmen durchschaubar zu machen, um eine angemessene Verantwortung zu gewährleisten. Der ISM Studiengangsleiter Business Intelligence & Date Science (M. Sc. Präsenzstudium) sowie Applied Business Data Science (M. Sc. Fernstudium) schlägt praktische Ansatzpunkte vor.

Algorithmen validieren / Teil 2

Wer den Test mit Promptern fürs Schreiben macht, kann rasch identifizieren, ob ein Satz oder Abschnitt Sinn macht oder nur Versatzstücke grammatisch richtig zusammengewürfelt hat, ohne letztlich neue Gedanken hervorzubringen. Auf diesem Feld ist es vergleichsweise leicht, da wir als sprechende Wesen einer falschen Sprech- oder unlogischen Denkweise schnell auf die Spur kommen.

Wie sieht das in anderen Bereichen aus, wo wir nur aufgrund komplexer Berechnungsformeln Ergebnisse erhalten:

Wird Verantwortung künftig in der Black-Box von KI begraben?
Wie lässt sich die Güte solcher Prozesse und Resultate nachprüfen?

Zunächst freue ich mich als Stochastiker sehr darüber, wie gut die Anwendung von Wahrscheinlichkeitstheorie in der Praxis funktioniert. Mit ChatGPT haben wir ein Beispiel von einem Konstrukt, welches allein durch das Auslesen von Internetquellen Sprachkenntnisse erlernt und Sätze erzeugt, die nicht nur grammatisch korrekt sind, sondern mitunter auch Sinn ergeben. Das war vor kurzem noch undenkbar.

Wahrscheinlichkeitsberechnungen helfen dabei sehr, nicht nur einzelne Wörter, sondern ganze Textbausteine so miteinander zu assoziieren, dass es sich „menschlich“ anhört.

Wir können die von Black Box Algorithmen erzeugten Vorhersagen nicht einfach so ungeprüft übernehmen.

Als Forscher bin ich natürlich auch der Wahrheitssuche verpflichtet. Dazu gehört der Wunsch, genauer nachvollziehen zu können, wie ein Algorithmus zu einem Ergebnis kommt. Das ist gegenwärtig bei etlichen KI-Anwendungen leider nicht gegeben.

Daher plädiere ich dafür, die Überhand über die Algorithmen zu behalten und fordere den Einsatz von Transparenzalgorithmen (sog. „Explainable AI“ oder kurz XAI), um die Black Box von Künstlichen Neuronalen Netzen zu öffnen.

Denn: Wir müssen die Entscheidungen auch validieren können, also feststellen, ob über Algorithmen gefundene Resultate als gültig anzusehen sind. Nur so können Black Box Algorithmen als Hebel für die menschliche Entscheidungskompetenz sinnvoll sein. Mit sinnvoll meine ich: so, dass sie mit menschlichem Expertenwissen übereinstimmen, oder dieses sogar noch erweitern. Eine bloße kontinuierliche Wiederanwendung des bereits Erlernten führt lediglich dazu, dass unser Informationsstand auf derselben Stufe bleibt. Wir bewegen uns dann in einer Wissensblase. Innovationen bleiben aus und der Fortschritt wird verlangsamt.

Wird Verantwortung künftig in der Black-Box von KI begraben?
Verhindern somit zunehmend KI basierte Anwendungen letztlich also Innovation?

In wie weit eine allgemeine künstliche Intelligenz (AGI) zum Innovationsprozess beizutragen vermag, kann ich zum heutigen Standpunkt noch nicht sagen. Viele Innovationen sind auch aus reinem Zufall entstanden. Sog. Deep Reinforcement Learning-Algorithmen (DRLA) mischen ihre Entscheidungen auch aus einer Kombination von alt Bekanntem („Exploitation“) und Neuerung („Exploration“). Das sind rein zufällige Aktionen, die marginal zu einer Verbesserung des Entscheidungssystems führen können.

Was jedoch die menschliche Entscheidungskraft so einzigartig macht, ist die Intuition. Intuition ist technisch nur sehr schwer abbildbar. Wie gut sich allgemeine künstliche Intelligenz menschlicher Intuition annähern kann, wird sich in Zukunft zeigen. Ob diese Prozesse einen fundamentalen Mehrwert bringen oder nur semistrukturierbare Aufgaben übernhemen, also Prozesse, die einer gewissen Struktur Folge leisten, aber nicht vollständig determiniert werden können anhand von sog. „Wenn-Dann-Beziehungen“, ist Gegenstand aktueller Forschung.

Weitere Beiträge zu diesem Thema:

Erfahre mehr in deinem kostenlosen Infomaterial

Du möchtest dich zu Hause in Ruhe über unsere Bachelor- und Master-Studiengänge informieren? Fülle einfach das Formular aus und lade dir kostenlos und unverbindlich das Infomaterial. Zusätzlich schicken wir es dir auch gerne per Post.

Jetzt Infos anfordern




Du hast Fragen zur Hochschule oder zum Studium?
Wir sind für dich da!

Schicke uns gerne eine Nachricht von Montag bis Freitag. Wir sind immer werktags von 10:00 bis 15:00 Uhr (MEZ) für dich da.

Vereinbare ein Beratungsgespräch mit uns. Informiere dich jederzeit, unverbindlich und individuell!

Die International School of Management (ISM) ist AACSB akkreditiert, staatlich anerkannt und belegt seit Jahren Top-Plätze in Hochschul-Rankings

AACSB Akkreditierung

Eine der besten privaten Hochschulen Deutschlands
Logo Universum
Bestnoten für internationale Ausrichtung & Praxisbezug
Ausgezeichnete Ergebnisse im globalen Multirank