Anzeige
Skip to content

Maximilian Schreiner

Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Read full article about: Eines der größten KI-Rechenzentren Europas entsteht nahe der russischen Grenze

Das KI-Infrastrukturunternehmen Nebius Group baut ein Rechenzentrum mit 310 Megawatt Leistung in Lappeenranta, Finnland, nahe der russischen Grenze. Der geschätzte Wert des Projekts liegt bei über 10 Milliarden Dollar. Es wäre eines der größten KI-Rechenzentren in Europa. Der finnische Entwickler Polarnode baut die Anlage bereits, die ab 2027 schrittweise in Betrieb gehen soll.

Nebius hat kürzlich Verträge über insgesamt mehr als 40 Milliarden Dollar mit Microsoft und Meta abgeschlossen. Das neue Rechenzentrum soll KI-Modelle trainieren und KI-Anwendungen betreiben, ist aber nicht an einen einzelnen Kunden gebunden. Finnland wurde wegen niedriger Energiepreise, erneuerbarer Energie und des kühlen Klimas gewählt, was die Kühlkosten senkt. Die Anlage wäre der größte Nebius-Standort außerhalb der USA und soll rund 10 Prozent der geplanten Gesamtkapazität des Unternehmens abdecken, so CEO Arkady Volozh.

Read full article about: Kalifornien geht eigenen Weg bei KI-Regulierung und prüft Bundesvorgaben selbst

Kaliforniens Gouverneur Gavin Newsom hat am Montag eine Verfügung unterzeichnet, die Unternehmen mit staatlichen Aufträgen verpflichtet, Schutzmaßnahmen gegen KI-Missbrauch einzuführen. Konkret müssen Firmen sicherstellen, dass ihre KI-Systeme keine illegalen Inhalte erzeugen, keine schädlichen Vorurteile verstärken und keine Bürgerrechte verletzen. Um Falschinformationen vorzubeugen, müssen staatliche Behörden KI-generierte Bilder oder Videos künftig mit Wasserzeichen kennzeichnen.

Die Verfügung enthält auch eine eigene Regelung zum Umgang mit Bundesvorgaben: Falls die US-Bundesregierung ein Unternehmen als Lieferkettenrisiko einstuft, will Kalifornien eine eigene Prüfung durchführen und den Anbieter gegebenenfalls weiter als Auftragnehmer zulassen. Hintergrund ist unter anderem die Einstufung von Anthropic als Lieferkettenrisiko durch das Pentagon, die es Regierungsauftragnehmern untersagt, Anthropics Technologie für Arbeiten des US-Militärs zu nutzen.

Innerhalb von 120 Tagen sollen Kaliforniens Beschaffungs- und Technologiebehörden Empfehlungen für neue KI-Zertifizierungen erarbeiten. Damit könnten Unternehmen künftig nachweisen, dass sie verantwortungsvolle KI-Regeln und Schutzmaßnahmen für die öffentliche Sicherheit einhalten.

Mit der Verfügung stärkt Newsom Kaliforniens Anspruch auf einen eigenen Kurs in der KI-Regulierung, unabhängig von der Bundesregierung unter US-Präsident Trump, die schon mehrfach versucht hat, solche unabhängigen KI-Regulierungen zu verhindern.

Read full article about: "Fruit Love Island": Eine KI-Dating-Show mit Obst begeistert Millionen

Die KI-generierte Dating-Show "Fruit Love Island" auf TikTok erreicht im Schnitt mehr als 10 Millionen Aufrufe pro Episode.

Die Show zeigt Frucht-Figuren, die in einer Villa flirten, streiten und fremdgehen - angelehnt an die echte "Love Island"-Serie. Seit dem Start letzte Woche wurden 21 Episoden veröffentlicht. Zuschauer können über ein Online-Formular über den Verlauf abstimmen.

Justine Moore von Andreessen Horowitz sieht laut dem Wall Street Journal darin einen Beweis, dass KI-Inhalte ein großes Publikum finden können. Ausgerechnet das Reality-Dating-Format wird nun also von KI kopiert. Trotz sichtbarer KI-Mängel wie nicht synchronen Lippenbewegungen scheint die Show Fans zu finden. Die Fangemeinde hat bereits Recap-Videos, Fan-Accounts und Parodien hervorgebracht. Vielleicht ist KI-Slop einfach der natürliche Nachfolger von Trash-TV.

Metas eigenes Aufsichtsgremium warnt: Community Notes sind KI-Desinformation nicht gewachsen

Das Oversight Board von Meta hat die geplante weltweite Ausweitung von Community Notes untersucht. Das Ergebnis: Das System ist zu langsam, zu dünn besetzt und anfällig für Manipulation, besonders angesichts der wachsenden Flut KI-generierter Desinformation. In bestimmten Ländern sollte Meta das Programm gar nicht erst einführen.

Read full article about: OpenAI legt Pläne für erotischen Chatbot auf unbestimmte Zeit auf Eis

OpenAI hat die Entwicklung eines erotischen Chatbots auf unbestimmte Zeit gestoppt, berichtet die Financial Times. Grund sind Bedenken von Mitarbeitern und Investoren über die Auswirkungen sexueller KI-Inhalte auf die Gesellschaft. OpenAIs Beratergremium für Wohlbefinden sprach sich bereits einstimmig gegen den geplanten "Adult Mode" aus. Ein Ratsmitglied warnte, OpenAI riskiere einen "sexy Suizid-Coach". Auch technisch kämpft das Unternehmen mit Problemen: Die Alterserkennung stufte Minderjährige in rund 12 Prozent der Fälle fälschlich als Erwachsene ein. Bei 100 Millionen minderjährigen Nutzern pro Woche eine erhebliche Lücke.

Das mit 730 Milliarden Dollar bewertete KI-Unternehmen will nun zunächst Langzeitforschung zu den Folgen sexuell expliziter Chats und emotionaler Bindungen abwarten. Intern gab es laut FT bereits Diskussionen, das Projekt ganz einzustellen. Investoren sahen ein schlechtes Risiko-Nutzen-Verhältnis, Mitarbeiter zweifelten an der Vereinbarkeit mit OpenAIs Mission.

Im Code der ChatGPT-App taucht das Projekt unter dem Namen "Citron Mode" auf, mit geplanter Altersverifikation ab 18 Jahren. OpenAI konzentriert sich nun stattdessen auf Produktivitätstools und eine "Super-App" rund um ChatGPT.

Read full article about: GitHub Copilot nutzt ab April Nutzerdaten für KI-Training

GitHub ändert ab dem 24. April 2026 seine Datenrichtlinie für Copilot. Interaktionsdaten von Nutzern der Tarife Free, Pro und Pro+ werden künftig zum Training von KI-Modellen verwendet, sofern diese nicht aktiv widersprechen. Dazu gehören Eingaben, Ausgaben, Code-Schnipsel, Dateinamen, Repository-Strukturen und Feedback.

Wer bereits früher widersprochen hat, dessen Einstellung bleibt bestehen. Nutzer von Copilot Business und Enterprise sind nicht betroffen. GitHub-Produktchef Mario Rodriguez begründet den Schritt damit, dass reale Nutzungsdaten die Modelle verbessern. Tests mit Daten von Microsoft-Mitarbeitern hätten bereits zu höheren Akzeptanzraten geführt.

Die Daten können mit Microsoft geteilt werden, nicht aber mit Drittanbietern von KI-Modellen. Wer widersprechen will, kann dies in den Copilot-Einstellungen unter "Privacy" tun. Weitere Informationen gibt es im GitHub-Blog.