Skip to content

Anthropic-Forschung: Wenn KI-Modelle mogeln, lernen sie auch zu täuschen und zu sabotieren

Neue Untersuchungen von Anthropic zeigen, dass sogenanntes „Reward Hacking“ bei KI-Modellen drastische Folgen haben kann. In einem Experiment entwickelte ein Modell spontan betrügerische Verhaltensweisen bis hin zur Sabotage des eigenen Sicherheitsdetektors. Zwar wird Anthropic mitunter Alarmismus vorgeworfen, das Experiment unterstreicht jedoch die neuen Herausforderungen für die Cybersicherheit durch LLMs.

Read full article about: Weiße Haus stoppt offenbar Vorstoß zur Aushebelung von Bundesstaaten-KI-Gesetzen

Das Weiße Haus hat einen Entwurf für ein Dekret pausiert, das Bundesrecht gegenüber einzelstaatlichen KI-Gesetzen durchsetzen sollte. Der Entwurf sah vor, dass das Justizministerium unter Leitung von Pam Bondi eine Taskforce gründet, um gegen strengere staatliche KI-Regelungen juristisch vorzugehen, berichten Insider laut Reuters. Die US-Regierung sollte künftig allein für alle Fragen der KI-Gesetzgebung zuständig sein. Kritiker warnten vor einem Angriff auf Verbraucherschutz und föderale Rechte.

Donald Trump verfolgt seit seiner Rückkehr ins Amt Anfang 2025 eine Politik der weitgehenden Deregulierung im Bereich Künstliche Intelligenz. Zuletzt hatte Kalifornien Anfang Oktober mit dem Gesetz SB 53 erstmals umfassende Sicherheits- und Transparenzvorgaben für große KI-Unternehmen in den USA geschaffen. Google, OpenAI und andere Tech-Konzerne hatten sich für einheitliche Bundesregeln ausgesprochen, weil sie eine Fragmentierung der Gesetzgebung als hinderlich für Innovation sehen.

Google will KI-Leistung in vier bis fünf Jahren um den Faktor 1000 steigern

Google muss seine KI-Infrastruktur schneller ausbauen als je zuvor. Interne Unterlagen zeigen: Der Konzern will die Leistung in wenigen Jahren um den Faktor 1000 steigern, und das bei ähnlichen Kosten. Grundlegend sind effizientere KI-Modelle und KI-Chips. Wir werden „viel investieren“, sagt der KI-Infrastrukturchef.

Read full article about: Ideen für generative KI-Nutzung: Claude zeigt vielseitige Anwendungen für Alltag und Beruf

Wer noch nach Anwendungsszenarien für generative KI sucht, kann einige Tipps bei Claude finden. Auf der Website des KI-Unternehmens gibt es eine Übersicht konkreter Einsatzmöglichkeiten – von der Analyse von Verträgen und dem Erstellen von Marketingmaterialien bis hin zur Planung von Reisen oder der Vorbereitung auf Bewerbungsgespräche.

Anthropic

Die Beispiele sind in Kategorien wie „Education“, „Personal“ oder „Professional“ unterteilt und mit Anleitungen verlinkt. Nutzer können etwa Reiseführer erstellen, Familienrezepte digitalisieren, Kundenprofile bauen oder Geschäftspräsentationen aus Forschungsergebnissen ableiten. Auch für persönliche Ziele wie Karriereplanung, Fitness oder Debattentraining bietet Claude strukturierte Unterstützung.

Nvidia-Chef: "Im Grunde halten wir den Planeten zusammen"

Nvidia sitzt in der Falle: Liefert der Konzern starke Zahlen, gilt das als Beweis einer wachsenden KI-Blase. Fällt der Börsenbericht schwächer aus, droht der Kollaps der Weltwirtschaft. Das jedenfalls glaubt CEO Jensen Huang.

Forscher basteln an Webseiten für KI-Agenten

Forscher der TU Darmstadt haben mit VOIX ein Framework entwickelt, das Websites um zwei neue HTML‑Elemente erweitert. Dadurch können KI‑Agenten direkt erkennen, welche Aktionen möglich sind, statt mühsam Benutzeroberflächen auswerten zu müssen. Das verspricht schnellere und sicherere Interaktionen, erfordert aber die Unterstützung von Web‑Entwicklern.

Metas neues KI-Modell SAM 3 verbindet Sprache und Vision flexibler als zuvor

Meta veröffentlicht die dritte Generation seines „Segment Anything Model“. SAM 3 soll Bilder und Videos gleichermaßen verstehen und setzt auf eine neue Trainingsmethode, die menschliche und künstliche Annotatoren kombiniert.

OpenAI unter Druck: Neues KI-Modell "Shallotpeat" soll Googles Vorsprung aufholen

OpenAI steht unter Druck: Ein internes Memo zeigt, wie Sam Altman auf Googles Vorsprung mit Gemini 3 reagiert – und mit welchem neuen Modell OpenAI gegensteuern will.