top of page
AutorenbildDr. Christian Julmi

Die Grenzen künstlicher Intelligenz im Management

Das Studium der Betriebswirtschaftslehre zielt darauf ab, Entscheider:innen der Zukunft zum Treffen guter Entscheidungen zu befähigen. Die Herausforderung der Betriebswirtschaftslehre – das dürfte unstrittig sein – besteht darin, dass die steigende Komplexität das Treffen guter Entscheidungen immer schwieriger macht.


Ausweg künstliche Intelligenz?

Da neben der Komplexität der (nicht nur) betriebswirtschaftlichen Welt auch die Möglichkeiten ihrer datengestützten Vermessung steigen, sehen Einige Künstliche Intelligenz als Ersatz für den Manager oder die Managerin beim Treffen von komplexen Entscheidungen.

In der Tat werden Algorithmen als selbstlernende Systeme mit künstlicher Intelligenz in der Problemlösung immer selbständiger und effektiver. Heute werden Computer beispielsweise nicht mehr auf ein determiniertes Ergebnis hin programmiert, sondern lernen anhand von Beispielen, eine Aufgabe zu bewältigen (vgl. Brynjolfsson/​​​McAffee 2017, S. 28). Sie agieren zunehmend selbständig, einhergehend mit der Tendenz, sich von Vorgaben ihrer Entwickler:innen oder Anwender:innen zu lösen.

Managemententscheidungen in Zukunft intelligenten Systemen zu überlassen, die zwar einzelne Zusammenhänge erkennen und verknüpfen, die Welt aber nicht verstehen können, mag bei eindeutigen, in sich geschlossenen Entscheidungssituationen funktionieren. Ansonsten bedürfen ‚Zahlen, Daten, Fakten‘ immer einer Interpretation vor ihrem lebensweltlichen Hintergrund, will man unerwünschte Folge-, Rück- oder Nebenwirkungen vermeiden (vgl. Scherm 2021, S. 223-224).

In mehrdeutigen Entscheidungssituationen kommen intelligente Systeme schnell an ihre Grenzen. Dann übernehmen sie, wie jüngst mehrfach berichtet, sogar die Vorurteile ihrer Programmierer:innen (vgl. z. B. Gramsch 2021; Harlan u. a. 2021) und ‚finden‘ zu Entscheidungen, denen Außenstehende aufgrund ihrer fehlenden Nachvollziehbarkeit blind vertrauen müssen. Die Rationalität ‚künstlicher Entscheidungen‘ kann dann weder sichergestellt noch überprüft werden.


Die Grenzen künstlicher Intelligenz

Bei der Verarbeitung von Mehrdeutigkeit haben künstliche Systeme aber eine Grenze, die nicht überbrückbar ist und ein blindes Vertrauen gefährlich macht. Der Mediziner und Philosoph Thomas Fuchs sagt über Systeme künstlicher Intelligenz:

Sie kennen nur eindeutige Einzelelemente, 0 oder 1 – für alles, was mehrdeutig, schillernd oder vage ist, eine atmosphärische Anmutung hat, fehlt ihnen der Sinn. Das Verhältnis zwischen Vordergrund und Hintergrund, Gegenstand und Kontext existiert für sie nicht. Leibniz zum Trotz geht unsere Welt eben nicht in binären Daten und kontextfreien Einzelmerkmalen auf. Unsere Erfahrung, unser implizites Wissen und unsere intuitive Vertrautheit mit der Welt sind in Algorithmen nicht zu erfassen (Fuchs 2020, S. 45).

Selbst wenn Systeme künstlicher Intelligenz auch bei Mehrdeutigkeit gute betriebliche Entscheidungen treffen könnten, müssen Manager:innen Entscheidungen nicht nur treffen, sondern sie auch durchsetzen, reflektieren und Verantwortung für sie übernehmen. Computer können niemanden begeistern oder soziale Kräfte wie Scham, Neid, Mitleid oder Solidarität nutzen, um andere zu inspirieren oder zu überzeugen, also auch keine Entscheidungen durchsetzen. Sie können zwar Antworten liefern, aber keine Fragen stellen, also auch keine Entscheidungen reflektieren (vgl. Brynjolfsson/​​​McAffee 2017, S. 34). Und selbstverständlich können sie keine Verantwortung für ihre Entscheidungen übernehmen. Im Gegenteil dienen ‚künstliche Entscheidungen‘ eher der Absicherung als der Übernahme von Verantwortung.


Entscheiden heißt Verantwortung übernehmen

Welche Konsequenz mit der Absicherung durch Systeme künstlicher Intelligenz verbunden ist, bringt wiederum Alard von Kittlitz in Die Zeit gut auf den Punkt. Sie besteht darin, dass am Ende eigentlich niemand mehr Verantwortung trägt. Es war der Prozess, es war der Algorithmus, es war jedenfalls ganz sicher nicht die Intuition des Einzelnen (Kittlitz 2021, S. 61).

Spätestens hier schließt sich der Kreis, denn Verantwortung kann man (eigentlich) nur für Entscheidungen übernehmen, die man zu verantworten, d. h. selbst getroffen hat. Es ist daher meine feste Überzeugung, dass sich die betriebswirtschaftliche Forschung und Lehre in Zukunft stärker der Frage nach dem Definieren, Treffen, Durchsetzen, Reflektieren und Verantworten ‚guter‘ Entscheidungen in einer mehrdeutigen Welt zuwenden sollte – anstatt die Zukunft des Managements einseitig in den Verheißungen der künstlichen Intelligenz zu sehen.


Literatur

Brynjolfsson, Erik/McAffee, Andrew: Von Managern und Maschinen, in: Harvard Business Manager 28 (11/2017), S. 22-34

Fuchs, Thomas: Verteidigung des Menschen. Grundfragen einer verkörperten Anthropologie, Frankfurt a. M. 2020

Gramsch, Maria: Twitter-Algorithmus bevorzugt schlanke, junge Gesichter mit heller Haut, https://www.basicthinking.de/blog/2021/08/10/twitter-algorithmus-vorurteile/, 2021, zuletzt geprüft am 11.8.2021

Harlan, Elisa/Köppen, Uli/Schnuck, Oliver/Wreschniok, Lisa: Fragwürdige Personalauswahl mit Algorithmen, https://www.tagesschau.de/investigativ/report-muenchen/kuenstliche-intelligenz-persoenlichkeitsanalyse-101.html, 2021, zuletzt geprüft am 11.8.2021

Kittlitz, Alard von: Wie klug ist unser Bauch? In: Die Zeit, Nr. 29, Hamburg, 15.07.2021, S. 60-61

Scherm, Ewald: Das Vermessen der Hochschulen und seine Folgen. Was beim Management von Hochschulen beachtet werden sollte, in: Zeitschrift Führung + Organisation 90 (4/2021), S. 220-225

49 Ansichten0 Kommentare

Ähnliche Beiträge

Alle ansehen

Comments


bottom of page