Themen Hub Künstliche Intelligenz
Künstliche Intelligenz ist wahlweise ein Forschungsgebiet, die wichtigste Tech-Innovation der Menschheit, ihr Untergang – oder schlicht ein Hirngespinst aus dem Silicon Valley. Können Maschinen wirklich intelligent sein? Was ist das überhaupt: Intelligenz? Welche KI-Technik bietet Chancen, was sind die Risiken? Von neuronalen Netzen bis zur Science-Fiction-Vision Super-KI, von Deepfakes bis zur KI-Überwachung: Bei THE DECODER gibt es aktuelle KI-News und Informationen zu allen Facetten der Künstlichen Intelligenz.
Microsoft hat sein erstes selbst entwickeltes Bildgenerator-Modell MAI-Image-1 vorgestellt. Das Modell belegt aktuell den Platz 9 der Text-zu-Bild-Modelle auf LMArena. Microsoft AI sagt, das Modell sei speziell darauf ausgelegt, wiederholende oder zu generisch gestaltete Ergebnisse zu vermeiden. Dafür habe man Feedback von Fachleuten aus der Kreativbranche eingeholt. MAI-Image-1 erzeuge besonders gut fotorealistische Bilder, etwa von Lichteffekten und Landschaften. Dabei arbeite es schneller als viele größere Modelle.

Das Modell ist auf LMArena zum Testen verfügbar und soll bald in Copilot und Bing Image Creator integriert werden. Microsoft betont, auf sichere und verantwortungsvolle Ergebnisse zu achten. MAI-Image-1 ergänzt die anderen hauseigenen KI-Produkte von Microsoft, darunter der Sprachgenerator MAI-Voice-1 und der Chatbot MAI-1-preview.
Anthropic-Mitgründer Jack Clark gibt Einblick in seine Sicht auf KI – zwischen technologischem Optimismus und "angemessener Furcht".
„Es ist, als würde man in einer Hammerfabrik Hämmer herstellen – und eines Tages sagt der Hammer, der vom Band läuft: ‚Ich bin ein Hammer, wie interessant!‘“, schreibt Jack Clark über den Moment, in dem KI-Systeme Anzeichen von situativem Bewusstsein zeigen.
Clark führt dies auf Skalierung zurück: mehr Rechenleistung, mehr Daten, größere Modelle – und es entstehen Fähigkeiten, die niemand gezielt entworfen hat. „Diese Technologie ist wirklich eher etwas Gewachsenes als etwas Gemachtes“, so Clark. „Man steckt ein Gerüst in den Boden, und heraus wächst etwas von einer Komplexität, die man selbst niemals hätte entwerfen können.“
Für ihn steht fest: „Wir lassen extrem leistungsfähige Systeme heranwachsen, die wir nicht vollständig verstehen.“ Und: „In diesem Spiel verliert man garantiert, wenn man glaubt, dass die Kreatur nicht real ist. Deine einzige Chance zu gewinnen besteht darin, sie als das zu sehen, was sie ist.“
OpenAI und Broadcom arbeiten künftig gemeinsam an der Entwicklung und Auslieferung von KI-Beschleunigern mit einer Gesamtleistung von 10 Gigawatt. OpenAI entwirft die Chips selbst, Broadcom liefert die Netzwerktechnik wie Ethernet und PCIe. Die Racks sollen ab Mitte 2026 ausgeliefert und bis Ende 2029 in OpenAI- und Partner-Rechenzentren installiert werden. Der Deal hat angeblich ein Volumen von rund zehn Milliarden US-Dollar.
Die Partnerschaft folgt auf eine kürzlich angekündigte Kooperation mit AMD über 6 Gigawatt GPU-Leistung und ist ein weiterer Schritt, um die starke Abhängigkeit von Nvidia zu verringern – dem bislang mit Abstand größten Profiteur des Börsenbooms rund um generative KI.
„Die Tech-Elite hat keine moralischen Skrupel mehr – nur noch Geschäftsinteressen.“
„Es gibt sehr wenig moralische oder politische Färbung in den Gesprächen, die man jetzt von Tech-Führungskräften hört“, erklärt der US‑Technologiejournalist und Autor Jacob Silverman, der seit Jahren über die Machtstrukturen im Silicon Valley schreibt. Er beobachtet einen fundamentalen Wertewandel: „Es gibt fast ein Gefühl der Erleichterung, wieder einfach skrupellose Kapitalisten zu sein.“
In einem lesenswerten Interview mit Politico Magazine beschreibt Silverman, wie viele Tech-CEOs den moralischen Anspruch früherer Jahre abgelegt haben, um sich wieder uneingeschränkt auf Profit und Einfluss zu konzentrieren. Silverman deutet diese Entwicklung als das Ende eines kurzen moralischen Zwischenspiels im Silicon Valley – die Ära der betont progressiven Tech-Unternehmer sei vorbei. Heute dominiere ein utilitaristisches Denken, bei dem politische und gesellschaftliche Verantwortung bewusst abgestreift werde.
In seinem neuen Buch, Gilded Rage: Elon Musk and the Radicalization of Silicon Valley, zeichnet er detailliert nach, wie sich ökonomischer Zynismus, Populismus und technologische Macht gegenseitig verstärken.
Adobe begrüßt Bewerber, die KI im Bewerbungsprozess einsetzen. Stacy Martinet, Kommunikationschefin des Unternehmens, sagte gegenüber Fortune, dass Kandidaten, die KI für Arbeitsproben oder Entwürfe nutzen, besonders interessant seien. Diese Mischung aus Kreativität und Technikkompetenz sei genau das, wonach Adobe suche.
Auch wenn fehlende KI-Erfahrung kein Ausschlusskriterium sei, müssten neue Mitarbeiter bereit sein, sich mit den Tools auseinanderzusetzen. Martinet betont, dass sich die Arbeitswelt durch KI verändert und anpassungsfähige Menschen gefragt seien.
Mark Zuckerberg ist weiter auf KI-Shopping-Tour. Andrew Tulloch, Mitgründer von Mira Muratis KI-Startup Thinking Machines Lab, wechselt zu Meta, wie das Wall Street Journal berichtet. Tulloch informierte am Freitag intern über seinen Abschied. Ein Sprecher von Thinking Machines bestätigte den Schritt mit Verweis auf persönliche Gründe.
Zuckerberg hatte zuvor versucht, Thinking Machines zu übernehmen – nach der Absage kontaktierte er laut WSJ gezielt Mitarbeitende wie Tulloch. Dem Bericht zufolge wurde Tulloch damals ein Paket im Wert von bis zu 1,5 Milliarden US-Dollar über sechs Jahre angeboten. Meta kommentierte den aktuellen Bericht nicht, hatte die Summe aber zuvor als "falsch und lächerlich" bezeichnet.
Mira Murati ist die Ex-CTO von OpenAI; ihr im Herbst 2024 gegründetes Startup hat gerade das erste Produkt gelauncht, eine Finetuning-Plattform für offene KI-Modelle.
OpenAI könnte eine Milliardenstrafe bevorstehen. Autor:innen und Verlage, die OpenAI wegen Urheberrechtsverletzung verklagt haben, erhielten interne Nachrichten und E-Mails zur Löschung eines Datensatzes mit raubkopierten Büchern. Nun fordern sie auch Einsicht in die Kommunikation zwischen OpenAI und dessen Anwält:innen. Diese könnte Hinweise auf vorsätzliches Handeln liefern – mit bis zu 150.000 US-Dollar Strafe pro Werk. Das Gericht in New York prüft, ob OpenAI durch eigene Aussagen das Anwaltsgeheimnis selbst aufgehoben hat. Zudem steht der Vorwurf im Raum, dass Beweise absichtlich gelöscht wurden.
Ein ähnlicher Fall gegen Anthropic endete im August mit einem Vergleich über 1,5 Milliarden US-Dollar – wegen des Einsatzes raubkopierter Bücher als Trainingsmaterial.