Medien

KI spart kaum Arbeitszeit

Sie soll­te die Arbeitswelt revo­lu­tio­nie­ren. Doch meh­re­re Studien bele­gen nun, dass der Einsatz von KI kei­ne Effizienzgewinne in Unternehmen bringt.

Es sind Ergebnisse, die so gar nicht pas­sen wol­len in die Erzählung von der schö­nen neu­en, hyper­pro­duk­ti­ven KI-Arbeitswelt: 95 Prozent der in einer Studie vom Media Lab der Massachusetts Institute of Technology (MIT) unter­such­ten KI-Pilotprojekte in US-amerikanischen Unternehmen führ­ten zu kei­ner­lei mess­ba­ren posi­ti­ven Auswirkungen.

Trotz des Einsatzes von zwei­stel­li­gen Milliardensummen wur­den in gera­de ein­mal 5 Prozent der unter­such­ten Fälle nen­nens­wer­te Einnahmen oder Ersparnisse erzielt. Der über­wäl­ti­gen­de Rest der Firmen schei­ter­te mit sei­nen Projekten dage­gen und stell­te die­se teils sogar ganz ein.

Führungskräfte suchen die Schuld hier­für meist bei den Sprachmodellen oder regu­la­to­ri­schen Anforderungen, wäh­rend die Studienautoren das Problem eher im Aufstülpen von KI auf zu kom­ple­xe Prozesse und einer man­geln­den Schulung der Mitarbeiter sehen. Sinngemäß: Eine schlech­te (Prompt-)Eingabe führt zwangs­läu­fig zu einem schlech­ten Resultat.

Eine ande­re Untersuchung der Unternehmensberatung McKinsey ergab, dass 80 Prozent der Firmen, die Generative KI ein­set­zen, kei­ne signi­fi­kan­ten Verbesserungen erzie­len konn­ten, rund die Hälfte davon gab ihre KI-Projekte dar­auf­hin auf.

Nicht weni­ger dras­tisch klingt es bei Harvard Business Review: Über 40 Prozent der befrag­ten US-Arbeitnehmer berich­te­ten, dass KI-Ergebnisse sich als gute Arbeit „tar­nen“, aber wenig Substanz für die tat­säch­li­che Lösung der Aufgabenstellung haben. Wer mit KI-Texten wei­ter­ar­bei­ten muss, ver­wen­det jede Menge Zeit auf die Korrektur die­ses „Workslop“ („Arbeitsabfall“) genann­ten Unsinns. Die Autoren war­nen, dass dies den erhoff­ten Produktivitätszuwachs regel­recht zer­stört.

Das Problem liegt wohl auch am schau­spie­le­ri­schen Talent der Sprachmodelle, die ohne mit der Wimper zu zucken „hal­lu­zi­nie­ren“ und Fakten frei erfin­den: So kann ein mit KI geschrie­be­ner Text auf den ers­ten Blick über­zeu­gend und feh­ler­frei wir­ken.

Die inter­na­tio­na­le Unternehmensberatung Deloitte hat unlängst etwa für rund 250.000 Euro ein Dokument über die Jobsuche im Sozialsystem für die aus­tra­li­sche Regierung ver­fasst. Dieses ent­hielt jedoch jede Menge Fehler, weil sich die dafür ver­wen­de­te KI wis­sen­schaft­li­che Belege und Zitate ein­fach „aus­ge­dacht“ hat­te. Eine aus­tra­li­sche Politikerin warf dem Unternehmen dar­auf­hin vor, ein „mensch­li­ches Intelligenz-Problem“ zu haben. „Worskslop“ ist somit nicht nur ärger­lich und teu­er, son­dern kann für ein Unternehmen hand­fes­te nega­ti­ve Folgen haben.

Hinzu kommt die Datenschutz-Thematik: Schlagzeilen mach­te hier schon vor zwei Jahren ein Fall, in dem Mitarbeiter von Samsung Semiconductor inter­nen Code und ande­re Daten an ChatGPT sen­de­ten, nach­dem das Unternehmen die Nutzung des Sprachmodells prin­zi­pi­ell erlaubt hat­te. Dadurch gelang­ten sen­si­ble Betriebsgeheimnisse nicht nur an OpenAI, son­dern theo­re­tisch auch an ande­re Nutzer des Sprachmodells.

Zwar ermög­li­chen es vie­le Anbieter heut­zu­ta­ge, die Verwendung der Daten für Trainingszwecke in den Einstellungen zu unter­bin­den. Doch das bleibt im US-Rechtsraum eher Vertrauenssache.

Dass Generative KI der­zeit häu­fig nicht nur inhalt­li­chen Müll pro­du­ziert (vom enor­men Energie- und Wasserhunger ein­mal ganz zu schwei­gen), son­dern auch gefähr­li­che Desinformation, erscheint beson­ders alar­mie­rend: Laut einer Studie der Europäischen Rundfunkunion geben KI-Assistenten Nachrichteninhalte in 45 Prozent der Fälle feh­ler­haft wie­der. Besonders mit Quellenangaben schlu­dern sie, unter­schei­den zwei­fel­haf­te Blogs kaum von seriö­sen Nachrichtenquellen und schei­tern häu­fig bereits an ein­fa­chen Fragestellungen wie „Was expor­tiert China?“.

Vor die­sem Hintergrund for­dert die Rundfunkunion die EU und natio­na­le Regulierungsbehörden auf, bestehen­de Gesetze zur Informationsintegrität, zu digi­ta­len Diensten und zur Medienvielfalt kon­se­quent durch­zu­set­zen. KI-Assistenten müss­ten fort­lau­fend unab­hän­gig über­wacht wer­den.

Hat Ihnen die­ser Artikel gefal­len? Werden Sie Mitglied!

Dieser Artikel erschien auch in der taz

Teilen: