Anzeige
Skip to content
Read full article about: Claude Opus 4.5 erzielt Bestwerte bei Prompt Injections, und unterstreicht damit das Problem

Claude Opus 4.5 ist laut Hersteller Anthropic das am besten gesicherte Modell gegen Prompt Injections. Aber das heißt nicht viel. Ein Benchmark der Sicherheitsfirma Gray Swan zeigt, dass bereits einer von 20 einzelnen "sehr starken" Angriffen (4,7 Prozent) die Sicherheitsfilter durchbricht. Haben Angreifer zehn Versuche, klettert die Erfolgsquote drastisch auf über ein Drittel (33,6 Prozent). Bei 100 Versuchen gelingt die Manipulation sogar in 63 Prozent der Fälle.

Trotz dieser Lücken schneidet Opus 4.5 besser ab als Konkurrenten wie Googles Gemini 3 Pro oder GPT-5.1, die Angriffsraten von bis zu 92 Prozent zuließen. Bei einer Prompt Injection werden versteckte Befehle eingeschleust, um Sicherheitsfilter zu umgehen; ein seit Jahren bekanntes Cybersecurity-Problem von LLMs, für das es bis heute kein Gegenmittel gibt, und das bei agentischer KI besonders gravierend ist, da es hier mehr Einfallstore gibt.

Read full article about: AWS will bis zu 50 Milliarden US-Dollar in US-Daten-Souveränität investieren

Amazon will bis zu 50 Milliarden US-Dollar in den Ausbau seiner KI- und Supercomputing-Infrastruktur für US-Regierungsbehörden investieren. Die Initiative zahlt laut Amazon auf den AI Action Plan der US-Regierung ein und soll dazu beitragen, staatliche Aufgaben effizienter zu gestalten. Die Infrastruktur wird ausschließlich in den USA aufgebaut.

Amazons Investition unterstreicht die strategische Bedeutung von KI und Supercomputing für die Wahrung technologischer Führungsfähigkeit, den Schutz kritischer Infrastrukturen und die Förderung industrieller Innovation.

Ab 2026 sollen in den Regionen AWS Top Secret, Secret und GovCloud rund 1,3 Gigawatt zusätzliche Rechenleistung entstehen. Behörden sollen damit Zugriff auf verschiedene AWS-Dienste wie SageMaker, Bedrock, Trainium-Chips und Modelle von Anthropic erhalten, um eigene KI-Anwendungen zu entwickeln. Nach Angaben von Amazon sollen damit unter anderem Datenanalysen beschleunigt und Prozesse in Bereichen wie Cybersicherheit, Gesundheitsforschung und autonomer Technologie unterstützt werden.

ChatGPT wird zum Einkaufs-Agenten, der autonom Produkte recherchiert und vergleicht

Von drauß’ vom Walde komm ich her, ich muss euch sagen, es weihnachtet sehr – und GPT-5 mini weiß auch schon, was ihr euch wünscht. OpenAI startet pünktlich zum Fest einen neuen Shopping-Agenten, der dank „Memory“ schon weiß, was ihr wirklich wollt; eine Idee, die OpenAI-CEO Sam Altman einst als dystopisch bezeichnete.

Read full article about: Google bringt Nano Banana Pro Slide-Generator in NotebookLM

Google hat eine Slide-Funktion in NotebookLM integriert. Nutzerinnen und Nutzer können damit Quellen in einfache Slides umwandeln, etwa um Notizen zu strukturieren oder erste Entwürfe zu erstellen. Auch vorhandene Folien lassen sich laut Google optisch verbessern.

Die Slide-Funktion, ebenso wie eine neue Infografik-Funktion, basiert auf Googles neuem Bildmodell Nano Bana Pro (Gemini 3 Pro Image Generation), das erstmals in der Lage ist, selbst detaillierteste Prompts in sehr exakt passende Bilder zu überführen, inklusive Texte.

Aktuell werden die Slides nur als PDF ausgegeben; Exportoptionen für Google Slides und PowerPoint sind laut Google in Arbeit. Die Funktion ist ab sofort verfügbar, mit täglichem Limit je nach Account.

Read full article about: The Decoder gibt's jetzt auch im Monatsabo

The Decoder gibt’s jetzt auch im Monatsabo. Für 11,99 Euro im Monat (netto) erhaltet ihr ein werbefreies Leseerlebnis, den wöchentlichen KI-Newsletter, sechs Deep-Dives pro Jahr zu wichtigen KI-Themen, bis zu 25 Prozent Rabatt auf "heise KIPro" Online-Events sowie Zugriff auf das komplette Archiv der letzten zehn Jahre. Außerdem gibt es Zugang zu den Kommentaren.

Parallel bieten wir ein kostenloses Kennenlernangebot für „heise KI Pro“ an, bei dem ihr einen 30-minütigen KI-Check-up, einen persönlichen Lernpfad, drei Business-Briefings und eine exklusive Webinar-Aufzeichnung bekommt. Hier geht’s zu den Abo-Angeboten.

Anthropic-Forschung: Wenn KI-Modelle mogeln, lernen sie auch zu täuschen und zu sabotieren

Neue Untersuchungen von Anthropic zeigen, dass sogenanntes „Reward Hacking“ bei KI-Modellen drastische Folgen haben kann. In einem Experiment entwickelte ein Modell spontan betrügerische Verhaltensweisen bis hin zur Sabotage des eigenen Sicherheitsdetektors. Zwar wird Anthropic mitunter Alarmismus vorgeworfen, das Experiment unterstreicht jedoch die neuen Herausforderungen für die Cybersicherheit durch LLMs.