Anzeige
Skip to content
Read full article about: EU-Rat billigt Position zu KI-Erleichterungen: Fristen für Hochrisiko-Systeme sollen 2027 und 2028 greifen

Der Rat der EU hat seine Position zu einem Vorschlag zur Vereinfachung der KI-Regeln festgelegt. Der Vorschlag ist Teil des "Omnibus VII"-Pakets, das den digitalen Rechtsrahmen der EU vereinfachen soll.

Die EU-Kommission hatte vorgeschlagen, den Start der Vorschriften für Hochrisiko-KI-Systeme um bis zu 16 Monate zu verschieben, bis die nötigen Standards und Werkzeuge vorliegen. Der Rat unterstützt diese Richtung und legt feste Termine fest: Für eigenständige Hochrisiko-KI-Systeme sollen die Regeln ab dem 2. Dezember 2027 gelten, für Hochrisiko-KI in Produkten ab dem 2. August 2028.

Zusätzlich will der Rat ein neues Verbot aufnehmen: KI soll nicht zur Erzeugung nicht einvernehmlicher sexueller und intimer Inhalte oder von Material zu sexuellem Kindesmissbrauch eingesetzt werden dürfen. Außerdem sollen bestimmte Ausnahmen für kleine und mittlere Unternehmen auch auf kleinere Midcap-Unternehmen ausgeweitet und die Zuständigkeiten des EU-KI-Büros präzisiert werden.

Die zypriotische stellvertretende Europaministerin Marilena Raouna betonte, die Vereinfachung der KI-Regeln sei entscheidend für die digitale Souveränität der EU. Sie hob zudem Wettbewerbsfähigkeit und Innovation hervor. Als Nächstes beginnen die Verhandlungen mit dem Europäischen Parlament.

Read full article about: Technikchef des US-Militärs: Anthropics KI-Modelle "verschmutzen" die Lieferkette

Emil Michael, der Technikchef des US-Kriegsministeriums, macht mit seiner Begründung für die Einstufung von Anthropic als Lieferkettenrisiko deutlich, dass es sich um eine ideologisch motivierte Maßnahme handelt. Claude-Modelle würden die Lieferkette "verschmutzen", weil in ihnen eine "andere Richtlinien-Präferenz" verankert sei, sagte Michael bei CNBC. Er verwies auf Anthropics "Verfassung", ein Regelwerk, das Ethik und Sicherheit betont. Dies könne dazu führen, dass Soldaten unwirksame Ausrüstung erhalten. Die Maßnahme sei "nicht als Strafe gedacht".

Anthropic ist das erste US-Unternehmen mit dieser Einstufung, die eigentlich ausländischen Gegnern vorbehalten ist. Die KI-Firma klagt dagegen und erhält Unterstützung von Microsoft-, OpenAI- und Google-Angestellten sowie Ex-US-Militärs. Anthropic wehrte sich zuvor dagegen, dass die eigenen KI-Modelle für US-Massenüberwachung und autonome Waffen genutzt werden.

Die Trump-Regierung zeigte bereits zuvor, dass sie KI ideologisch steuern möchte, indem sie Regulierungen gegen sogenannte "woke AI" erließ – kommuniziert als Verpflichtung zu politischer Neutralität. Das Vorgehen erinnert an die chinesische Regierung, die ebenfalls versucht, KI-Modelle politisch zu steuern.

Read full article about: Anthropic gründet eigene Denkfabrik zur Erforschung von KI-Risiken und gesellschaftlichen Auswirkungen

Anthropic hat das neue "Anthropic Institute" gestartet, eine interne Denkfabrik, die die Auswirkungen leistungsstarker KI auf Gesellschaft, Wirtschaft und Sicherheit untersuchen soll. Geleitet wird das Institut von Mitgründer Jack Clark, der dafür eine neue Rolle als "Head of Public Benefit" übernimmt.

Das Institut will unter anderem erforschen, wie KI Arbeitsplätze verändert, welche neuen Risiken durch Missbrauch entstehen, welche "Werte" KI-Systeme ausdrücken und wie Menschen die Kontrolle über sich selbst verbessernde KI-Systeme behalten können.

Das Team umfasst rund 30 Personen aus drei bestehenden Forschungsgruppen: dem Frontier Red Team, dem Societal-Impacts-Team und dem Wirtschaftsforschungsteam. Zu den ersten Mitarbeitern gehören Matt Botvinick (ehemals Google Deepmind), Anton Korinek (Universität Virginia) und Zoë Hitzig (zuvor OpenAI).

Der Start fällt in eine turbulente Phase: Anthropic hat das US-Verteidigungsministerium verklagt, nachdem es als Lieferkettenrisiko eingestuft wurde. Laut The Verge sagte Clark, er habe "keine Bedenken" wegen der Forschungsfinanzierung. Anthropic eröffnet zudem ein Büro in Washington, D.C.

Deutsches Gericht entscheidet: Die Behauptung "Das ist KI" reicht nicht, um das Urheberrecht auszuhebeln

Das Landgericht Frankfurt hat entschieden, dass ein von einer Person geschriebener Liedtext urheberrechtlich geschützt bleibt, auch wenn die zugehörige Musik per KI (SunoAI) erzeugt wurde.

Read full article about: Keine KI für autonome Waffen und Massenüberwachung: Anthropic zieht gegen US-Regierung vor Gericht

Der KI-Entwickler Anthropic hat vor einem Bundesgericht in San Francisco Klage gegen 17 US-Bundesbehörden und das Exekutivbüro des Präsidenten eingereicht. Das Unternehmen wirft der Regierung vor, es rechtswidrig dafür bestraft zu haben, dass es an zwei Nutzungsbeschränkungen für sein KI-Modell Claude festhielt: keine letale autonome Kriegsführung und keine Massenüberwachung von US-Bürgern.

Das Kriegsministerium drohte Anthropic laut Klageschrift gleichzeitig mit zwei sich widersprechenden Maßnahmen: Entweder werde man den Defense Production Act nutzen, um Anthropic zur Bereitstellung von Claude zu zwingen, oder man werde das Unternehmen als Sicherheitsrisiko aus der Lieferkette verbannen. Ein Unternehmen könne aber kaum gleichzeitig so unverzichtbar sein, dass es per Gesetz zur Kooperation gezwungen werden muss, und so gefährlich, dass es komplett ausgeschlossen werden soll, argumentiert Anthropic.

Juristisch stützt sich die Klage unter anderem darauf, dass das verwendete Gesetz 10 U.S.C. § 3252 nur für Fälle gedacht sei, in denen ein ausländischer Gegner ein Informationssystem sabotieren oder unterwandern könnte. Die Exekutive selbst definiere solche Gegner als China, Russland, Iran, Nordkorea, Kuba und Venezuela.

Read full article about: Millionen Menschen nutzen KI-Chatbots bereits als Finanzberater

Millionen Menschen nutzen bereits Chatbots wie ChatGPT für ihre Rentenplanung, berichtet die Financial Times. Laut einer Lloyds-Bank-Umfrage verwendet mehr als die Hälfte der befragten Briten KI für Finanzfragen. Experten weisen aber auf klare Grenzen hin, so auch die britische Finanzaufsicht FCA, die erst kürzlich vor Halluzinationen warnte.

Ein Test von Which? zeigte beispielsweise im November, dass gängige Chatbots wie ChatGPT, Gemini, Perplexity oder Meta AI Gesamtbewertungen von nur 55 bis 71 Prozent erzielten. Trotzdem ist der Druck auf die Finanzindustrie groß: Rentenanbieter wie Scottish Widows entwickeln mittlerweile eigene KI-Tools.

"Ich denke, das ist die große Gefahr von KI: dass die Leute annehmen werden, sie wüssten, was sie nicht wissen", warnt dagegen JPMorgan-Stratege John Bilton. Wenn Nutzer KI als Investment-Tool statt als reines Datenwerkzeug verwenden, riskieren sie laut Bilton, "zugrundeliegende Verhaltensverzerrungen – wie die Tendenz, zu viel Bargeld zu halten oder zu oft zu handeln – stärker zu machen".

Ein Gegenbeispiel ist ein 41-jährige Software-Ingenieur, der sein gesamtes 200.000-Dollar-Portfolio von ChatGPT umstrukturieren ließ. ChatGPT riet ihm, seine Risiken breiter zu streuen: 80 Prozent in einen Marktindex-Tracker und den Rest in einen Anleihen-ETF. Er betonte laut der Financial Times, dass das Gespräch mit dem Chatbot ihm vor allem auch half, "sich zu verpflichten und [den Plan] tatsächlich auszuführen".

Read full article about: Softbank will Rekordkredit von bis zu 40 Milliarden Dollar für OpenAI-Beteiligung aufnehmen

Wer eine KI-Bubble befürchtet, der darf noch etwas mehr fürchten: Softbank will laut Bloomberg einen Kredit von bis zu 40 Milliarden Dollar aufnehmen, um vor allem seine Beteiligung an OpenAI zu finanzieren. Es wäre die größte reine Dollar-Kreditaufnahme in der Geschichte des japanischen Konzerns. Der Überbrückungskredit soll eine Laufzeit von etwa zwölf Monaten haben, vier Banken, darunter JPMorgan Chase, sollen ihn zeichnen. Die Verhandlungen laufen noch.

SoftBank-Gründer Masayoshi Son setzt massiv auf KI: Neben den 30 Milliarden Dollar für OpenAI hat der Konzern bereits über 30 Milliarden in das Startup gesteckt und hielt Ende Dezember rund elf Prozent der Anteile. Dafür wurden unter anderem Nvidia-Aktien verkauft.

Insgesamt haben OpenAI-Partner laut Financial Times rund 96 Milliarden Dollar Schulden angehäuft. Die fünf großen Tech-Konzerne nahmen laut Bank of America 121 Milliarden Dollar an neuen Schulden auf – das Vierfache des Üblichen. Die Bank of England warnte Ende 2025 vor wachsenden Risiken, da bisher nur drei Prozent der Verbraucher für KI-Dienste zahlen.