taz.de -- Künstliche Intelligenz in Unternehmen: KI spart kaum Arbeitszeit
Sie sollte die Arbeitswelt revolutionieren. Doch mehrere Studien belegen nun, dass der Einsatz von KI keine Effizienzgewinne in Unternehmen bringt.
Es sind Ergebnisse, die so gar nicht passen wollen in die Erzählung von der schönen neuen, hyperproduktiven KI-Arbeitswelt: 95 Prozent der in einer [1][Studie] vom Media Lab der Massachusetts Institute of Technology (MIT) untersuchten KI-Pilotprojekte in US-amerikanischen Unternehmen führten zu keinerlei messbaren positiven Auswirkungen.
Trotz des Einsatzes von zweistelligen Milliardensummen wurden in gerade einmal 5 Prozent der untersuchten Fälle nennenswerte Einnahmen oder Ersparnisse erzielt. Der überwältigende Rest der Firmen scheiterte mit seinen Projekten dagegen und stellte diese teils sogar ganz ein.
Führungskräfte suchen die Schuld hierfür meist bei den Sprachmodellen oder regulatorischen Anforderungen, während die Studienautoren das Problem eher im Aufstülpen von KI auf zu komplexe Prozesse und einer mangelnden Schulung der Mitarbeiter sehen. Sinngemäß: Eine schlechte (Prompt-)Eingabe führt zwangsläufig zu einem schlechten Resultat.
Schauspielerisches Talent
Eine andere [2][Untersuchung] der Unternehmensberatung McKinsey ergab, dass 80 Prozent der Firmen, die [3][Generative KI] einsetzen, keine signifikanten Verbesserungen erzielen konnten, rund die Hälfte davon gab ihre KI-Projekte daraufhin auf.
Nicht weniger drastisch klingt es bei [4][Harvard Business Review]: Über 40 Prozent der befragten US-Arbeitnehmer berichteten, dass KI-Ergebnisse sich als gute Arbeit „tarnen“, aber wenig Substanz für die tatsächliche Lösung der Aufgabenstellung haben. Wer mit KI-Texten weiterarbeiten muss, verwendet jede Menge Zeit auf die Korrektur dieses „Workslop“ („Arbeitsabfall“) genannten Unsinns. Die Autoren warnen, dass dies den erhofften Produktivitätszuwachs regelrecht zerstört.
Das Problem liegt wohl auch am schauspielerischen Talent der Sprachmodelle, die ohne mit der Wimper zu zucken „halluzinieren“ und Fakten frei erfinden: So kann ein mit KI geschriebener Text auf den ersten Blick überzeugend und fehlerfrei wirken.
Die internationale Unternehmensberatung Deloitte hat unlängst etwa [5][für rund 250.000 Euro] ein Dokument über die Jobsuche im Sozialsystem für die australische Regierung verfasst. Dieses enthielt jedoch jede Menge Fehler, weil sich die dafür verwendete KI wissenschaftliche Belege und Zitate einfach „ausgedacht“ hatte. Eine australische Politikerin warf dem Unternehmen daraufhin vor, ein „[6][menschliches Intelligenz-Problem]“ zu haben. „Worskslop“ ist somit nicht nur ärgerlich und teuer, sondern kann für ein Unternehmen handfeste negative Folgen haben.
Vertrauenssache Datenschutz
Hinzu kommt die Datenschutz-Thematik: Schlagzeilen machte hier schon vor zwei Jahren ein Fall, in dem Mitarbeiter von [7][Samsung Semiconductor] internen Code und andere Daten an ChatGPT sendeten, nachdem das Unternehmen die Nutzung des Sprachmodells prinzipiell erlaubt hatte. Dadurch gelangten sensible Betriebsgeheimnisse nicht nur an OpenAI, sondern theoretisch auch an andere Nutzer des Sprachmodells.
Zwar ermöglichen es viele Anbieter heutzutage, die Verwendung der Daten für Trainingszwecke in den Einstellungen zu unterbinden. Doch das bleibt im US-Rechtsraum eher Vertrauenssache.
Dass Generative KI derzeit häufig nicht nur inhaltlichen Müll produziert (vom enormen [8][Energie- und Wasserhunger] einmal ganz zu schweigen), sondern auch gefährliche Desinformation, erscheint besonders alarmierend: Laut einer [9][Studie] der Europäischen Rundfunkunion geben KI-Assistenten Nachrichteninhalte in 45 Prozent der Fälle fehlerhaft wieder. Besonders mit Quellenangaben schludern sie, unterscheiden zweifelhafte Blogs kaum von seriösen Nachrichtenquellen und scheitern häufig bereits an einfachen Fragestellungen wie „[10][Was exportiert China?]“.
Vor diesem Hintergrund fordert die Rundfunkunion die EU und nationale Regulierungsbehörden auf, bestehende Gesetze zur Informationsintegrität, zu digitalen Diensten und zur Medienvielfalt konsequent durchzusetzen. KI-Assistenten müssten fortlaufend unabhängig überwacht werden.
31 Oct 2025
LINKS
AUTOREN
TAGS
ARTIKEL ZUM THEMA
Eine Studie zur „Rushhour des Lebens“ schlägt eine neue familienpolitische Leistung vor. Damit sollen traditionelle Arbeitsteilungen aufgebrochen werden.
Anwendungen mit KI nehmen in Alltag und Arbeitswelt immer mehr Raum ein. Mehrere Organisationen haben sich nun Regeln zur Nutzung auferlegt.
Telekom baut in München ein Rechenzentrum für künstliche Intelligenz. Dabei kooperiert sie mit dem Chiphersteller Nvidia und der Softwareschmiede SAP.
Arbeitnehmer:innenvertretungen schützen einer Studie zufolge nicht nur das Lohnniveau in Betrieben. Auch die Unternehmen können profitieren.
Elon Musks Unternehmen xAI hat eine Konkurrenz-Plattform zur Wikipedia gestartet. Aber welchen Mehrwert bringt eine KI, die keine Wahrheit kennt, nur Wahrscheinlichkeiten und Ideologie?
Die KI-Debatte pendelt zwischen Heilsversprechen und der Sorge vor Kontrollverlust. Sie offenbart viel über Ängste und Sehnsüchte unserer Gesellschaft.
Um die Macht der Tech-Bosse zu brechen, arbeiten Entwickler an alternativen Sozialen Medien. Wie könnten die Plattformen der Zukunft funktionieren?