Anzeige
Anzeige
Anzeige
Short

Das US-Repräsentantenhaus hat die Nutzung von Microsofts KI-Assistent Copilot für Kongressmitarbeiter verboten. Laut einer Richtlinie des Chief Administrative Officer Catherine Szpindor stellt Copilot aufgrund der Gefahr des Datenlecks an nicht genehmigte Cloud-Dienste ein Risiko für Nutzer dar. Microsoft plant, im Sommer eine Reihe von KI-Tools für Regierungsbehörden mit höheren Sicherheits- und Compliance-Anforderungen einzuführen. Das Verbot gilt für die kommerzielle Version von Copilot, die Regierungsversion wird noch geprüft. Das Repräsentantenhaus hatte im Juni 2023 die Nutzung von ChatGPT für Mitarbeiter eingeschränkt und die kostenlose Version verboten. Viele Unternehmen sperren den Zugriff auf Consumer-Chatbots wie ChatGPT aus Angst vor Datenlecks und setzen auf Geschäftsversionen mit Garantien, dass Daten nicht für das Training zukünftiger Modelle verwendet werden.

Anzeige
Anzeige
Short

ChatGPT verwendet gerne eine Reihe abgegriffener Ausdrücke. Erfahrene ChatGPT-Benutzerinnen und -Benutzer erkennen ChatGPT-Texte daher auch ohne die ohnehin nicht funktionierenden Detektoren. X-Nutzer Jeremy Nguyen hat nun untersucht, wie häufig einer dieser Ausdrücke, "delve" (auf Deutsch würde ChatGPT wahrscheinlich "eintauchen" schreiben), in medizinischen wissenschaftlichen Publikationen vorkommt. Im Jahr 2023 tauchte das Wort etwa viermal häufiger auf. Korrelation ist natürlich keine Kausalität, aber die Statistik spricht für sich und gibt einen Eindruck davon, wie generative KI wissenschaftliche Publikationen beeinflusst. Interessanterweise gab es auch einen Anstieg des Wortes vor dem ersten ChatGPT-Jahr 2023. Möglicherweise spielen hier Rechtschreibkorrekturprogramme eine Rolle, die teilweise auch Synonyme vorschlagen und oft auf LLM-Technologie basieren.

Bild: Jeremy Nguyen via X
Anzeige
Anzeige
Google News