Chance oder Risiko: Das liegt im Auge des Betrachters © APA - Austria Presse Agentur

Künstliche Intelligenz kann Menschen bei vielen Tätigkeiten effizienter machen - man sollte sie deshalb vor allem als nützliches Werkzeug und nicht als Bedrohung sehen, sagt der KI-Experte Michael Widowitz, Partner bei der Strategieberatung BCG in Wien. Es gebe aber auch Jobs, die ersetzbar und "massiv in Gefahr sind", etwa jene von Call-Center- und Bank-Mitarbeitern oder Lkw- und Taxifahrern.

"Ich bin optimistisch - ich fühle mich weniger bedroht als enabled", sagte Widowitz im Gespräch mit der APA. "ChatGPT hat große Fähigkeiten, Probleme zu beschreiben und kreativ über Dinge nachzudenken, das ist das Erstaunliche. Wir sind ja gewohnt, dass Maschinen unkreativ sind, aber sehr präzise tausend Additionen durchführen können. Was wir nicht gewohnt sind: dass eine Maschine kreativ über etwas nachdenken könnte."

"KI ist schon jetzt im Alltag super, um sich in ein neues Thema einzuarbeiten - was unsere Berater ja auch permanent machen müssen." Dass ein Strategieberater wie die Boston Consulting Group selbst ein KI-Modell für die Beratung trainieren und als Produkt auf den Markt bringen könnte, um vergleichsweise teure menschliche Berater zu ersetzen, glaubt Widowitz nicht. "Dazu sind einfach die Fragestellungen, an denen wir arbeiten, viel zu komplex." Oft seien die dafür notwendigen Fakten in Unternehmen gar nicht offensichtlich und müssten erst von den Beratern in Gesprächen mühsam herausgearbeitet werden. "Das kann die Maschine gar nicht machen, weil sie keine Füße hat und nicht mit allen sprechen kann." Die Informationen müssten auch bewertet werden und vieles hänge vom menschlichen Urteilsvermögen ab.

Tatsächlich ersetzt werden könnten Tätigkeiten, die nicht so vielfältig seien: "Der Call-Center-Job ist massiv in Gefahr", glaubt Widowitz. Ähnlich sei es bei Lastwagen- oder Taxifahrern. Aber auch viele Prozesse in Banken, etwa bei Kreditentscheidungen, seien teilweise durch KI ersetzbar. Dass andererseits auch mehr IT-Spezialisten gebraucht werden, helfe den konkret betroffenen Menschen wenig, "das ist ein soziales Problem".

Banken gehören laut Widowitz zu den Branchen, die das Potenzial von Künstlicher Intelligenz früh erkannt haben und nun Beratung dafür suchen. Das gelte ähnlich auch für Versicherungen, Pharma und Forschung oder für das Gesundheitswesen.

BCG selbst nutze KI bereits auf verschiedenen Ebenen, erzählte Widowitz. "Das Einfachste ist, erst einmal sowas wie ChatGPT zu nutzen - natürlich in der Enterprise-Version." Dabei gehe es unter anderem auch darum, dass Kundendaten sicher seien und nicht für das Training der KI verwendet werden. Das würden BCG-Mitarbeiter nutzen, "weil wir überzeugt sind, dass es effizienter, schneller und kreativer macht. Und übrigens: Falls wir es nicht anbieten würden, müssten wir davon ausgehen, dass es viele dann trotzdem nutzen würden, selbst wenn wir es verbieten würden".

Die nächste Stufe und sehr vergleichbar mit ChatGPT sei "Copilot" zur Programmierung. "Das machen wir auch substanziell. Zehn Prozent unserer Mitarbeiter sind Tech-Leute - ungefähr 3.000 von 30.000 weltweit." Widowitz glaubt nicht, dass Programmierer deswegen ihre Jobs verlieren werden. Es werde sich nämlich durch die höhere Effizienz künftig lohnen, Dinge zu automatisieren, für die das bisher wirtschaftlich nicht sinnvoll gewesen wäre.

Der nächste große KI-Anwendungsbereich bei BCG werde das Wissensmanagement sein. Bisher konnte man die große firmeninterne Datenbank mit Dokumenten mit einer eigenen Suchmaschine durchsuchen, ähnlich wie mit Google. "Jetzt haben wir mit KI eine Lösung gebaut, für unseren eigenen Zweck, um KI-basiert und mit natürlicher Interaktion über diese Dinge zu diskutieren." Diese Anwendung sei jetzt im Roll-out, nun folge die Feinjustierung.

Ein wichtiges Thema sei der Fragenkomplex um Datenschutz, Ethik und Regulierung, betonte Widowitz. Grundsätzlich hätten Menschen kein Problem damit, mit KI zu interagieren, wenn die Qualität gut sei. "Auf jeden Fall sollte man nicht suggerieren, dass es ein Mensch ist. Erstens, weil das verboten ist oder sein wird; Zweitens, weil es ein Reputationsproblem wäre, und drittens, weil Studien ergeben haben, dass es als extrem 'creepy' und sehr schlecht ankommt, wenn dann irgendwo kleine Dissonanzen auftreten und es nicht ganz real wirkt."

Kirsten Rulf, Partner und Associate Director bei BCG, glaubt, dass das am Freitag auf EU-Botschafterebene gebilligte KI-Gesetz den Unternehmen eine viel schnellere und rechtssichere Einführung von Tools ermöglichen wird, da es Vorlagen und Richtlinien enthält. "Dadurch wird der derzeitige Stillstand zwischen Rechtsabteilung, IT, Compliance und Unternehmen vermieden, der oft sechs bis neun Monate für die Freigabe von Tools und Anwendungsfällen benötigt", so Rulf, die zuvor als Referatsleiterin und Beraterin für Grundsatzfragen der Digitalpolitik im deutschen Bundeskanzleramt tätig war.

"Es ist wichtig für Unternehmen, dass die europäische KI-Regulierung jetzt wie geplant in wenigen Monaten in Kraft treten kann." Führungskräfte sollten aber nicht auf die EU-Vorlagen und Best-Practice-Beispiele für Unternehmen warten, sondern schon jetzt "einige Baustellen auflösen, die Unternehmen an der KI-Wertschöpfung derzeit hindern", zum Beispiel lange und bürokratische Freigabeprozesse für KI Tools im Unternehmen oder einen KI-Projekt-Wildwuchs, fehlende Datengovernance und fehlende Qualitätssicherung.