Anzeige
Skip to content
Read full article about: Anthropic-Sicherheitsleiter warnt bei Abschied vor Werteverfall des Unternehmens

Es scheint so, als ob Anthropic langsam den OpenAI-Effekt spüren würde. Die zunehmende Kommerzialisierung und die Notwendigkeit, Milliarden US-Dollar einzusammeln, zwingt das Unternehmen zu Kompromissen, etwa das Geldeinsammeln bei autoritären Regimes, die Zusammenarbeit mit dem US-Verteidigungsministerium und speziell Palantir oder explizites Lob für Donald Trump.

Jetzt geht Mrinank Sharma, Leiter des Safeguards Research Teams – zuständig für die Sicherheit von KI-Modellen – und deutet in seiner Verabschiedung an, dass sich Anthropic von seinen Werten entfernt hat.

Ich habe immer wieder gesehen, wie schwer es ist, unsere Werte unser Handeln bestimmen zu lassen. Innerhalb der Organisation stehen wir ständig unter Druck, das Wichtigste beiseitezuschieben.

Mrinank Sharma

Der in Oxford promovierte Forscher sieht die Zeit gekommen, weiterzuziehen. Auch OpenAI kämpfte mit Abgängen von Sicherheitsforschern, die sich mit der schnellen Verbreitung der Technologie rein aus Umsatzgründen nicht wohlfühlten. Anthropic wurde einst von ehemaligen OpenAI-Mitarbeitern mit dem Ziel gegründet, KI-Sicherheit stärker in den Vordergrund zu stellen.

Read full article about: Google Translate lässt sich mit simplen Worten hacken und umgehen

Das Gemini-basierte Google Translate lässt sich mit Worten hacken. Nutzer können über sogenannte Prompt Injection, also eingeschleuste Anweisungen in natürlicher Sprache, das dahinterliegende Sprachmodell direkt ansprechen, statt nur Übersetzungen zu erhalten. Entdeckt wurde der Trick von einem Tumblr-Nutzer (via LessWrong). Die Methode funktioniert, indem man eine Frage in einer Fremdsprache wie Chinesisch eingibt und darunter eine englische Meta-Anweisung anfügt. Google Translate beantwortet dann die Frage, statt den Text zu übersetzen.

via Tumblr

Der LLM-Hacker "Pliny the Liberator" zeigte auf X, dass sich so sogar gefährliche Inhalte wie Anleitungen für Drogen oder Schadsoftware erzeugen lassen.

via X

Google stellte Google Translate im Dezember 2025 auf Gemini-Modelle um. Welches Modell genau zum Einsatz kommt, ist nicht bekannt; das System selbst behauptet, es nutze Gemini 1.5 Pro. Der Fall zeigt erneut, dass auch große Konzerne noch keine verlässlichen Schutzmaßnahmen gegen natürlichsprachige Angriffe haben, ein grundlegendes Sicherheitsproblem von Sprachmodellen.

Read full article about: Investoren glauben, dass KI Gehälter statt bloß Software ersetzt

Investoren wetten darauf, dass KI Gehälter statt Software-Budgets ersetzt.

"Wir haben die Ansicht vertreten, dass KI keine 'Unternehmenssoftware' im herkömmlichen Sinne ist, die auf IT-Budgets abzielt: Sie erfasst Arbeitsausgaben, und irgendwann übernimmt man menschliche Arbeitsabläufe von Ende zu Ende", erklärt Sebastian Duesterhoeft, Partner bei Lightspeed Venture Partners, gegenüber der Financial Times.

Diese Logik bildet den Hintergrund für die laufende Finanzierungsrunde, die Anthropic mit 350 Milliarden Dollar bewertet: Während klassische SaaS-Lösungen um begrenzte IT-Etats kämpfen, zielen "Agentic AI"-Systeme auf den weitaus größeren Pool der Lohnkosten.

Die Brisanz dieser Verschiebung zeigte sich bereits an den Märkten. Eine Serie von Entwicklungen – darunter neue Modelle, spezialisierte Industrie-Tools und die Nachricht, dass Goldman Sachs Bankrollen automatisieren will – löste gemeinsam einen Ausverkauf bei traditionellen Software-Aktien aus. Investoren realisieren laut der FT zunehmend, dass autonome KI-Agenten bestehende Geschäftsmodelle bedrohen könnten.

Nvidia-CEO Jensen Huang halluziniert, Sprachmodelle würden nicht mehr halluzinieren

Nvidia-CEO Jensen Huang behauptet in einem CNBC-Interview, Sprachmodelle würden nicht mehr halluzinieren. Das ist falsch, und ihm wird nicht widersprochen. Ein Beispiel dafür, wie unsachlich die KI-Hype-Debatte mittlerweile geführt wird.

Read full article about: Wahlen in Japan: Bevölkerung kämpft mit gefälschten KI-Inhalten

Auch die japanische Bevölkerung kämpft mit KI-Fake-Inhalten im Kontext von Wahlen. Bei der Unterhauswahl verbreiten sich massenhaft gefälschte Videos und Nachrichten in sozialen Medien, berichtet Japan Times. Generative KI macht die Erstellung täuschend echter Videos einfach, Plattformen wie YouTube und TikTok belohnen hohe Klickzahlen.

Ein gefälschtes Video etwa zeigte zwei Parteichefs mit einem kommunistisch anmutenden roten Logo. Ein YouTube-Kanal mit KI-generierten über Politik schimpfenden Großmüttern erreichte fast sechs Millionen Aufrufe. Laut Professor Shinichi Yamaguchi von der International University of Japan hielten 51,5 Prozent in einer umfassenden Umfrage Falschnachrichten für wahr: eine Gefahr für die Demokratie.

Es geht auch umgekehrt: Ein Kandidat postete ein Video einer großen Menschenmenge bei seiner Wahlkampfveranstaltung. Der KI-Chatbot Grok stufte es als KI-generiert ein, obwohl es authentisch war. Dieses Phänomen nennt sich Lügner-Dividende: Allein die Existenz generativer KI spielt Lügnern in die Hände. Donald Trump etwa behauptete, authentische Fotos eines Harris-Empfangs seien KI-manipuliert. Auch anderswo setzen primär konservative Kräfte KI im Wahlkampf ein, teils offen, teils verdeckt.

Roboter brauchen deinen Körper: Neue Plattform lässt KIs echte Menschen anheuern

Auf Rentahuman.ai können KI-Agenten Menschen für Aufgaben in der echten Welt beauftragen: vom Schilderhalten bis zum Paketabholen. Klingt absurd, zeigt aber, was passieren kann, wenn Sprachmodelle Worten auch Taten folgen lassen können.

Read full article about: Französische Staatsanwaltschaft durchsucht X-Büros in Paris und lädt Elon Musk vor

Die französische Staatsanwaltschaft hat die Büros von Elon Musks Plattform X in Paris durchsucht. Die Cyberkriminalitätseinheit ermittelt wegen mehrerer Vorwürfe, darunter unrechtmäßige Datenextraktion und Beihilfe zur Verbreitung von Darstellungen von Kindesmissbrauch. Auch sexuelle Deepfakes sind Teil der Untersuchung. Musk und die frühere X-Chefin Linda Yaccarino wurden für April zu Anhörungen vorgeladen, berichtet die BBC. X hat die Ermittlungen zuvor als politisch motiviert bezeichnet.

Parallel dazu hat die britische Datenschutzbehörde ICO eine Untersuchung gegen Musks KI-Tool Grok eingeleitet. Es geht um die Frage, ob persönliche Daten ohne Zustimmung zur Erstellung sexualisierter Bilder verwendet wurden. Auch die britische Medienaufsicht Ofcom und die Europäische Kommission prüfen die Plattform weiterhin. X hat sich bisher nicht zu den Ermittlungen geäußert.