Eine Studie der Universität des Saarlandes zeigt, dass Entwickler Vorschläge von KI‑Assistenten weniger kritisch prüfen. Das Team um Sven Apel stellte fest, dass Lernprozesse schwächer ausfallen, wenn Studierende beim Programmieren mit GitHub Copilot arbeiten. Apel sagte, dass menschliche Paare mehr Fragen stellen, breiter diskutieren und stärker voneinander lernen. In den KI‑Teams drehte sich vieles nur um den Code.

Die Forscher ließen 19 Studierende in Paaren arbeiten: sechs mit Menschen, sieben mit KI. Laut Apel übernahmen die KI‑Nutzer Vorschläge oft einfach, weil sie annahmen, dass der Code schon passt. Er warnte, dass so spätere Fehler entstehen können, die viel Arbeit verursachen. Apel betonte, dass KI bei einfachen Aufgaben hilft, komplexe Probleme aber weiter menschlichen Austausch benötigen.