In nur wenigen Jahren ist KI zu einem festen Bestandteil alltäglicher Geschäftsabläufe geworden, viele Unternehmen automatisieren schnell Prozesse und verlassen sich auf KI-gesteuerte Systeme. Doch laut Georg Meyer, einem Strategen und Systemexperten, können Geschwindigkeit und Bequemlichkeit ihren Preis haben, insbesondere wenn Unternehmen den Überblick darüber verlieren, wie ihre wichtigsten Systeme tatsächlich funktionieren.
Meyer warnt, dass eines der größten Risiken ein falsches Verständnisgefühl ist. „Unternehmen denken vielleicht, sie wissen, was vor sich geht, weil sie die Eingaben gemacht haben", erklärt er, „aber sie haben keine echte Einsicht in das, was in der Box passiert."

Moderne KI-Systeme, insbesondere große Sprachmodelle, sind leistungsstark, aber schwer vollständig zu überprüfen. Ihre internen Prozesse sind nicht immer transparent, und ihre Ergebnisse können aufgrund eingebauter Zufälligkeit variieren. Dies schafft Herausforderungen in Bezug auf Konsistenz und Zuverlässigkeit, besonders wenn KI in zentralen Geschäftsfunktionen eingesetzt wird. „Es gibt verborgene Risiken für Reproduzierbarkeit und Zuverlässigkeit", sagt Meyer, „die katastrophal sein können, wenn sie das Herz des Unternehmens betreffen."
Für Meyer besteht die Lösung nicht darin, KI zu vermeiden, sondern sicherzustellen, dass menschliches Verständnis zentral bleibt. Unternehmen brauchen weiterhin Menschen, die wissen, wie Systeme funktionieren, auch wenn diese Systeme durch KI unterstützt werden.
Kurzfristige Gewinne, langfristige Risiken
Ein weiteres Anliegen, das Meyer hervorhebt, sind die langfristigen Auswirkungen von KI auf die Expertise innerhalb von Organisationen. Während KI Arbeitsabläufe dramatisch beschleunigen und dabei helfen kann, Wissen in Handlung umzusetzen, kann übermäßiges Vertrauen darauf unbeabsichtigte Folgen haben.
„Sowohl übermäßiges als auch zu geringes Vertrauen können riskant sein", sagt Meyer. „KI kann die Zeit verkürzen, die zur Anwendung von Expertise benötigt wird, aber sie wirft eine wichtige Frage auf: Wie trainieren wir die nächste Generation von Experten, wenn sie nie die Grundlagen entwickeln?"
Kurzfristig kann KI Teams produktiver machen. Aber wenn Mitarbeiter beginnen, sich bei grundlegendem Denken und Problemlösen darauf zu verlassen, riskieren Unternehmen den Verlust der Expertise, die zur Bewältigung komplexer, unerwarteter Situationen oder solcher benötigt wird, die eine menschliche Note erfordern. Meyer glaubt, dass Unternehmen und Pädagogen gleichermaßen bewusst grundlegendes Wissen aufrechterhalten müssen, insbesondere für Szenarien, in denen man sich nicht auf KI verlassen kann.
Verantwortlichkeit liegt immer noch beim Menschen
Vielleicht die wichtigste Frage, die Meyer aufwirft, ist die Verantwortlichkeit. Da KI-Systeme mehr Verantwortung übernehmen, könnten einige Organisationen versucht sein, die Schuld abzuschieben, wenn etwas schiefgeht. Meyer macht deutlich, dass dies kein gangbarer Ansatz ist.
„Verantwortlichkeit und ihr rechtliches Gegenstück, die Haftung, sind grundlegend an Menschen gebunden", sagt er. „Man kann sich nicht von einem schlechten Ergebnis freimachen, indem man sagt ‚die KI hat es getan'."
Er weist darauf hin, dass viele Unternehmen bereits versuchen, sich in diesem Graubereich zurechtzufinden. KI-Anbieter fügen oft Haftungsausschlüsse hinzu, dass ihre Systeme Fehler machen können, während Branchen wie die Automobilindustrie „selbstfahrende" Funktionen bewerben, aber dennoch den menschlichen Fahrer verantwortlich machen. Meyer argumentiert jedoch, dass wenn Systeme wirklich autonom sind, die Verantwortung auf diejenigen übergehen muss, die sie entwerfen und einsetzen.
Dies gilt auch für kleinere, alltägliche Anwendungsfälle. Zum Beispiel können Unternehmen, die KI zur Entwicklung von Anwendungen verwenden, die sensible Daten verarbeiten, nicht davon ausgehen, dass die Technologie die Sicherheit korrekt verwaltet. „Der KI werden die Daten nicht anvertraut", sagt Meyer. „Dem Unternehmen."







