Read full article about: EU-Rat billigt Position zu KI-Erleichterungen: Fristen für Hochrisiko-Systeme sollen 2027 und 2028 greifen
Der Rat der EU hat seine Position zu einem Vorschlag zur Vereinfachung der KI-Regeln festgelegt. Der Vorschlag ist Teil des "Omnibus VII"-Pakets, das den digitalen Rechtsrahmen der EU vereinfachen soll.
Die EU-Kommission hatte vorgeschlagen, den Start der Vorschriften für Hochrisiko-KI-Systeme um bis zu 16 Monate zu verschieben, bis die nötigen Standards und Werkzeuge vorliegen. Der Rat unterstützt diese Richtung und legt feste Termine fest: Für eigenständige Hochrisiko-KI-Systeme sollen die Regeln ab dem 2. Dezember 2027 gelten, für Hochrisiko-KI in Produkten ab dem 2. August 2028.
Zusätzlich will der Rat ein neues Verbot aufnehmen: KI soll nicht zur Erzeugung nicht einvernehmlicher sexueller und intimer Inhalte oder von Material zu sexuellem Kindesmissbrauch eingesetzt werden dürfen. Außerdem sollen bestimmte Ausnahmen für kleine und mittlere Unternehmen auch auf kleinere Midcap-Unternehmen ausgeweitet und die Zuständigkeiten des EU-KI-Büros präzisiert werden.
Die zypriotische stellvertretende Europaministerin Marilena Raouna betonte, die Vereinfachung der KI-Regeln sei entscheidend für die digitale Souveränität der EU. Sie hob zudem Wettbewerbsfähigkeit und Innovation hervor. Als Nächstes beginnen die Verhandlungen mit dem Europäischen Parlament.
Kommentieren
Quelle: ECC
Read full article about: Technikchef des US-Militärs: Anthropics KI-Modelle "verschmutzen" die Lieferkette
Emil Michael, der Technikchef des US-Kriegsministeriums, macht mit seiner Begründung für die Einstufung von Anthropic als Lieferkettenrisiko deutlich, dass es sich um eine ideologisch motivierte Maßnahme handelt. Claude-Modelle würden die Lieferkette "verschmutzen", weil in ihnen eine "andere Richtlinien-Präferenz" verankert sei, sagte Michael bei CNBC. Er verwies auf Anthropics "Verfassung", ein Regelwerk, das Ethik und Sicherheit betont. Dies könne dazu führen, dass Soldaten unwirksame Ausrüstung erhalten. Die Maßnahme sei "nicht als Strafe gedacht".
Anthropic ist das erste US-Unternehmen mit dieser Einstufung, die eigentlich ausländischen Gegnern vorbehalten ist. Die KI-Firma klagt dagegen und erhält Unterstützung von Microsoft-, OpenAI- und Google-Angestellten sowie Ex-US-Militärs. Anthropic wehrte sich zuvor dagegen, dass die eigenen KI-Modelle für US-Massenüberwachung und autonome Waffen genutzt werden.
Die Trump-Regierung zeigte bereits zuvor, dass sie KI ideologisch steuern möchte, indem sie Regulierungen gegen sogenannte "woke AI" erließ – kommuniziert als Verpflichtung zu politischer Neutralität. Das Vorgehen erinnert an die chinesische Regierung, die ebenfalls versucht, KI-Modelle politisch zu steuern.
Kommentieren
Quelle: CNBC
Read full article about: Anthropic gründet eigene Denkfabrik zur Erforschung von KI-Risiken und gesellschaftlichen Auswirkungen
Anthropic hat das neue "Anthropic Institute" gestartet, eine interne Denkfabrik, die die Auswirkungen leistungsstarker KI auf Gesellschaft, Wirtschaft und Sicherheit untersuchen soll. Geleitet wird das Institut von Mitgründer Jack Clark, der dafür eine neue Rolle als "Head of Public Benefit" übernimmt.
Das Institut will unter anderem erforschen, wie KI Arbeitsplätze verändert, welche neuen Risiken durch Missbrauch entstehen, welche "Werte" KI-Systeme ausdrücken und wie Menschen die Kontrolle über sich selbst verbessernde KI-Systeme behalten können.
Das Team umfasst rund 30 Personen aus drei bestehenden Forschungsgruppen: dem Frontier Red Team, dem Societal-Impacts-Team und dem Wirtschaftsforschungsteam. Zu den ersten Mitarbeitern gehören Matt Botvinick (ehemals Google Deepmind), Anton Korinek (Universität Virginia) und Zoë Hitzig (zuvor OpenAI).
Der Start fällt in eine turbulente Phase: Anthropic hat das US-Verteidigungsministerium verklagt, nachdem es als Lieferkettenrisiko eingestuft wurde. Laut The Verge sagte Clark, er habe "keine Bedenken" wegen der Forschungsfinanzierung. Anthropic eröffnet zudem ein Büro in Washington, D.C.
Kommentieren
Quelle: Anthropic | The Verge
Deutsches Gericht entscheidet: Die Behauptung "Das ist KI" reicht nicht, um das Urheberrecht auszuhebeln
Das Landgericht Frankfurt hat entschieden, dass ein von einer Person geschriebener Liedtext urheberrechtlich geschützt bleibt, auch wenn die zugehörige Musik per KI (SunoAI) erzeugt wurde.
Read full article about: Keine KI für autonome Waffen und Massenüberwachung: Anthropic zieht gegen US-Regierung vor Gericht
Der KI-Entwickler Anthropic hat vor einem Bundesgericht in San Francisco Klage gegen 17 US-Bundesbehörden und das Exekutivbüro des Präsidenten eingereicht. Das Unternehmen wirft der Regierung vor, es rechtswidrig dafür bestraft zu haben, dass es an zwei Nutzungsbeschränkungen für sein KI-Modell Claude festhielt: keine letale autonome Kriegsführung und keine Massenüberwachung von US-Bürgern.
Das Kriegsministerium drohte Anthropic laut Klageschrift gleichzeitig mit zwei sich widersprechenden Maßnahmen: Entweder werde man den Defense Production Act nutzen, um Anthropic zur Bereitstellung von Claude zu zwingen, oder man werde das Unternehmen als Sicherheitsrisiko aus der Lieferkette verbannen. Ein Unternehmen könne aber kaum gleichzeitig so unverzichtbar sein, dass es per Gesetz zur Kooperation gezwungen werden muss, und so gefährlich, dass es komplett ausgeschlossen werden soll, argumentiert Anthropic.
Juristisch stützt sich die Klage unter anderem darauf, dass das verwendete Gesetz 10 U.S.C. § 3252 nur für Fälle gedacht sei, in denen ein ausländischer Gegner ein Informationssystem sabotieren oder unterwandern könnte. Die Exekutive selbst definiere solche Gegner als China, Russland, Iran, Nordkorea, Kuba und Venezuela.
Kommentieren
Quelle: Complaint
Read full article about: Millionen Menschen nutzen KI-Chatbots bereits als Finanzberater
Millionen Menschen nutzen bereits Chatbots wie ChatGPT für ihre Rentenplanung, berichtet die Financial Times. Laut einer Lloyds-Bank-Umfrage verwendet mehr als die Hälfte der befragten Briten KI für Finanzfragen. Experten weisen aber auf klare Grenzen hin, so auch die britische Finanzaufsicht FCA, die erst kürzlich vor Halluzinationen warnte.
Ein Test von Which? zeigte beispielsweise im November, dass gängige Chatbots wie ChatGPT, Gemini, Perplexity oder Meta AI Gesamtbewertungen von nur 55 bis 71 Prozent erzielten. Trotzdem ist der Druck auf die Finanzindustrie groß: Rentenanbieter wie Scottish Widows entwickeln mittlerweile eigene KI-Tools.
"Ich denke, das ist die große Gefahr von KI: dass die Leute annehmen werden, sie wüssten, was sie nicht wissen", warnt dagegen JPMorgan-Stratege John Bilton. Wenn Nutzer KI als Investment-Tool statt als reines Datenwerkzeug verwenden, riskieren sie laut Bilton, "zugrundeliegende Verhaltensverzerrungen – wie die Tendenz, zu viel Bargeld zu halten oder zu oft zu handeln – stärker zu machen".
Ein Gegenbeispiel ist ein 41-jährige Software-Ingenieur, der sein gesamtes 200.000-Dollar-Portfolio von ChatGPT umstrukturieren ließ. ChatGPT riet ihm, seine Risiken breiter zu streuen: 80 Prozent in einen Marktindex-Tracker und den Rest in einen Anleihen-ETF. Er betonte laut der Financial Times, dass das Gespräch mit dem Chatbot ihm vor allem auch half, "sich zu verpflichten und [den Plan] tatsächlich auszuführen".
Kommentieren
Quelle: FT