Anzeige
Skip to content

Pentagon plant offenbar KI-Training auf geheimen Militärdaten

Das US-Verteidigungsministerium will laut einem Bericht sichere Umgebungen einrichten, in denen KI-Firmen ihre Modelle mit klassifizierten Daten trainieren. Bisher durften Modelle geheime Daten nur lesen, nicht daraus lernen.

OpenAIs eigene Berater warnen vor Erotik-Modus und sprechen von "sexy Suizid-Coach"

OpenAIs Beratergremium für Wohlbefinden soll sich einstimmig gegen den geplanten Adult Mode für ChatGPT ausgesprochen haben. Intern kämpft das Unternehmen mit einer fehleranfälligen Alterserkennung und ungelösten Sicherheitsproblemen.

Read full article about: EU-Rat billigt Position zu KI-Erleichterungen: Fristen für Hochrisiko-Systeme sollen 2027 und 2028 greifen

Der Rat der EU hat seine Position zu einem Vorschlag zur Vereinfachung der KI-Regeln festgelegt. Der Vorschlag ist Teil des "Omnibus VII"-Pakets, das den digitalen Rechtsrahmen der EU vereinfachen soll.

Die EU-Kommission hatte vorgeschlagen, den Start der Vorschriften für Hochrisiko-KI-Systeme um bis zu 16 Monate zu verschieben, bis die nötigen Standards und Werkzeuge vorliegen. Der Rat unterstützt diese Richtung und legt feste Termine fest: Für eigenständige Hochrisiko-KI-Systeme sollen die Regeln ab dem 2. Dezember 2027 gelten, für Hochrisiko-KI in Produkten ab dem 2. August 2028.

Zusätzlich will der Rat ein neues Verbot aufnehmen: KI soll nicht zur Erzeugung nicht einvernehmlicher sexueller und intimer Inhalte oder von Material zu sexuellem Kindesmissbrauch eingesetzt werden dürfen. Außerdem sollen bestimmte Ausnahmen für kleine und mittlere Unternehmen auch auf kleinere Midcap-Unternehmen ausgeweitet und die Zuständigkeiten des EU-KI-Büros präzisiert werden.

Die zypriotische stellvertretende Europaministerin Marilena Raouna betonte, die Vereinfachung der KI-Regeln sei entscheidend für die digitale Souveränität der EU. Sie hob zudem Wettbewerbsfähigkeit und Innovation hervor. Als Nächstes beginnen die Verhandlungen mit dem Europäischen Parlament.

Read full article about: Technikchef des US-Militärs: Anthropics KI-Modelle "verschmutzen" die Lieferkette

Emil Michael, der Technikchef des US-Kriegsministeriums, macht mit seiner Begründung für die Einstufung von Anthropic als Lieferkettenrisiko deutlich, dass es sich um eine ideologisch motivierte Maßnahme handelt. Claude-Modelle würden die Lieferkette "verschmutzen", weil in ihnen eine "andere Richtlinien-Präferenz" verankert sei, sagte Michael bei CNBC. Er verwies auf Anthropics "Verfassung", ein Regelwerk, das Ethik und Sicherheit betont. Dies könne dazu führen, dass Soldaten unwirksame Ausrüstung erhalten. Die Maßnahme sei "nicht als Strafe gedacht".

Anthropic ist das erste US-Unternehmen mit dieser Einstufung, die eigentlich ausländischen Gegnern vorbehalten ist. Die KI-Firma klagt dagegen und erhält Unterstützung von Microsoft-, OpenAI- und Google-Angestellten sowie Ex-US-Militärs. Anthropic wehrte sich zuvor dagegen, dass die eigenen KI-Modelle für US-Massenüberwachung und autonome Waffen genutzt werden.

Die Trump-Regierung zeigte bereits zuvor, dass sie KI ideologisch steuern möchte, indem sie Regulierungen gegen sogenannte "woke AI" erließ – kommuniziert als Verpflichtung zu politischer Neutralität. Das Vorgehen erinnert an die chinesische Regierung, die ebenfalls versucht, KI-Modelle politisch zu steuern.

Read full article about: Anthropic gründet eigene Denkfabrik zur Erforschung von KI-Risiken und gesellschaftlichen Auswirkungen

Anthropic hat das neue "Anthropic Institute" gestartet, eine interne Denkfabrik, die die Auswirkungen leistungsstarker KI auf Gesellschaft, Wirtschaft und Sicherheit untersuchen soll. Geleitet wird das Institut von Mitgründer Jack Clark, der dafür eine neue Rolle als "Head of Public Benefit" übernimmt.

Das Institut will unter anderem erforschen, wie KI Arbeitsplätze verändert, welche neuen Risiken durch Missbrauch entstehen, welche "Werte" KI-Systeme ausdrücken und wie Menschen die Kontrolle über sich selbst verbessernde KI-Systeme behalten können.

Das Team umfasst rund 30 Personen aus drei bestehenden Forschungsgruppen: dem Frontier Red Team, dem Societal-Impacts-Team und dem Wirtschaftsforschungsteam. Zu den ersten Mitarbeitern gehören Matt Botvinick (ehemals Google Deepmind), Anton Korinek (Universität Virginia) und Zoë Hitzig (zuvor OpenAI).

Der Start fällt in eine turbulente Phase: Anthropic hat das US-Verteidigungsministerium verklagt, nachdem es als Lieferkettenrisiko eingestuft wurde. Laut The Verge sagte Clark, er habe "keine Bedenken" wegen der Forschungsfinanzierung. Anthropic eröffnet zudem ein Büro in Washington, D.C.