Während Arbeitnehmer zunehmend KI-Tools wie ChatGPT für ihre Arbeit nutzen, hinken Unternehmen mit ihren Richtlinien und Kontrollen hinterher.
Laut einer aktuellen Analyse der Financial Times nutzen Arbeitnehmer KI-Tools wie ChatGPT deutlich schneller und häufiger, als Unternehmen entsprechende Richtlinien entwickeln können. Eine Umfrage der Federal Reserve Bank of St. Louis ergab, dass bereits fast ein Viertel der US-Arbeitnehmer generative KI wöchentlich nutzt - in der Software- und Finanzbranche sind es sogar bis zu 50 Prozent.
Wie die Financial Times berichtet, hatte bis September weniger als die Hälfte der befragten Unternehmen konkrete Regeln für den Umgang mit KI aufgestellt. Viele Mitarbeiter experimentieren daher im Verborgenen mit den neuen Technologien.
Von Totalverbot zu kontrollierter Nutzung
Die ersten Reaktionen vieler großer Unternehmen waren Verbote: Unter anderem Apple, Samsung und Goldman Sachs untersagten ihren Mitarbeitern zunächst die Nutzung von ChatGPT, vor allem aus Datenschutzgründen.
Inzwischen setzen immer mehr Unternehmen auf eine kontrollierte Nutzung. So hat der US-Einzelhandelsriese Walmart einen eigenen KI-Assistenten für den internen Gebrauch entwickelt. Gleichzeitig überwacht das Unternehmen, wie Mitarbeiter externe KI-Tools auf Firmengeräten nutzen.
"Wir haben mit dem Blockieren angefangen, wollten es aber nicht dabei belassen", erklärt Jerry Geisler, Chief Information Security Officer bei Walmart, gegenüber der Financial Times. "Wir brauchten einfach Zeit, um eine interne Alternative aufzubauen."
Mitarbeiter verschweigen KI-Nutzung
Ein besonders heikles Problem: Laut einer Slack-Umfrage würde fast die Hälfte aller Büroangestellten ihren Vorgesetzten nicht sagen, dass sie KI nutzen. Sie fürchten, als faul oder inkompetent zu gelten oder einen Stellenabbau zu riskieren. Ähnliche Ergebnisse hatte auch eine Umfrage von Microsoft und LinkedIn.
Diese Sorge illustriert der Fall eines 27-jährigen Pharmaforschers, der der Financial Times anonym von seinen Erfahrungen berichtete: Er nutzte heimlich ChatGPT für seine Programmieraufgaben, weil es keine klaren Richtlinien gab. "Ich sah keinen Grund, warum es ein Problem sein sollte, aber ich fühlte mich trotzdem beschämt", wird er zitiert.
Auch die unklare Rechtslage erschwert es Unternehmen, langfristige KI-Strategien zu entwickeln. Sowohl in den USA als auch in der EU und Großbritannien werden derzeit entsprechende Gesetze erarbeitet, insbesondere der EU AI Act stellt zahlreiche Anforderungen an Unternehmen im Umgang mit KI. Viele Fragen zu geistigem Eigentum, Datenschutz und Transparenzanforderungen sind jedoch noch offen.