Anzeige
Skip to content
Read full article about: GitHub-Repository bietet mehr als 50 anpassbare Claude Skills

Auf GitHub gibt’s eine umfassende Sammlung von "Claude Skills". Diese Skills sind anpassbare Workflows, die Anthropics KI-Assistenten Claude beibringen, bestimmte Aufgaben wiederholt und standardisiert auszuführen. Die Sammlung umfasst mehr als 50 Skills in neun Kategorien: Dokumentenverarbeitung (Word, PDF, PowerPoint), Entwicklungstools (Playwright, AWS, Git), Datenanalyse, Business und Marketing, Kommunikation, kreative Medien, Produktivität, Projektmanagement sowie Sicherheit.

Nutzer können Skills in Claude.ai über die Einstellungen hinzufügen, in Claude Code im Konfigurationsordner ablegen oder per API einbinden. Jeder Skill besteht aus einem Ordner mit einer SKILL.md-Datei. Das Repository steht unter Apache-2.0-Lizenz und nimmt Beiträge entgegen.

Da Skills letztlich nur eine Sammlung von Prompts in einem Ordner sind, gilt: Wer viel aus KI herausholen will, muss die Prompts individualisieren. Inspiration lässt sich dennoch holen. Da Skills sich als Standard zu etablieren scheinen, lohnt es sich auch über Claude.ai hinaus, sich mit dem Thema zu befassen.

Read full article about: KI-Coding-Modell GLM-4.7 merkt sich Gedankengänge über lange Dialoge

Zhipu AI stellt mit GLM-4.7 ein auf autonomes Programmieren spezialisiertes KI-Modell vor, das dank "Preserved Thinking" Gedankengänge über lange Dialoge speichert. Diese neue Funktion ergänzt das seit GLM-4.5 bekannte "Interleaved Thinking", bei dem die KI vor Aktionen pausiert. Im Vergleich zum Vorgänger GLM-4.6 erzielt das Modell deutliche Leistungssteigerungen, etwa 73,8 Prozent im SWE-bench Verified. Neben reinem Code generiert GLM-4.7 laut Anbieter auch ästhetisch ansprechendere Webseiten und Präsentationen ("Vibe Coding"). Im Blogbeitrag stellt Zhipu einige Webseiten vor, die aus einem einzigen Prompt entstanden sein sollen.

In mehreren Benchmarks wird das Kopf-an-Kopf-Rennen mit kommerziellen, westlichen Anbietern wie OpenAI und Anthropic deutlich.

Das Modell ist über die Z.ai-Plattform, OpenRouter sowie als lokaler Download auf Hugging Face verfügbar und lässt sich direkt in Coding-Tools wie Claude Code integrieren. Z.ai wirbt dabei mit einem Kampfpreis von einem Siebtel der Kosten vergleichbarer Modelle.

Read full article about: Stimmen-Klonen aus drei Sekunden Audio: Qwen veröffentlicht neue TTS-Modelle

Das Qwen-Team von Alibaba Cloud hat zwei neue KI-Modelle veröffentlicht, die Stimmen per Textbefehl entwerfen oder klonen. Das Modell Qwen3-TTS-VD-Flash erlaubt es Nutzern, Stimmen durch detaillierte Beschreibungen zu generieren und dabei Eigenschaften wie Emotionen und Sprechtempo exakt festzulegen, etwa: "Male, middle-aged, booming baritone - hyper-energetic infomercial voice with rapid-fire delivery and exaggerated pitch rises, dripping with salesmanship". Es soll laut Hersteller in Tests besser abschneiden als OpenAIs im Frühjahr eingeführte API für GPT-4o-mini-tts.

Ergänzend kopiert das Modell Qwen3-TTS-VC-Flash Stimmen anhand von nur drei Sekunden Audio-Material und gibt diese in zehn Sprachen, darunter Deutsch, wieder. Qwen gibt an, dass die Fehlerrate dabei geringer ist als bei Elevenlabs oder MiniMax. Die KI verarbeitet auch komplexe Texte und kann sogar Tierstimmen imitieren oder Stimmen aus Aufnahmen extrahieren. Beide Modelle sind über die API von Alibaba Cloud verfügbar. Demos stehen sowohl für das Design- als auch das Klon-Modell auf Hugging Face bereit.

OpenAI wehrt sich gegen Prompt-Injections, die das "agentische Web" bedrohen

OpenAI kämpft mit automatisiertem Red Teaming gegen Prompt Injections in ChatGPT Atlas. Das Unternehmen vergleicht das Problem mit Online-Betrug und verharmlost damit eine technische Sicherheitslücke, die das agentische Web ausbremsen könnte.

Read full article about: Google sichert sich weitere Energiereserven für den Ausbau seiner KI-Kapazitäten

Google baut seine KI-Kapazitäten weiter aus. Der Mutterkonzern Alphabet kauft den Entwickler für saubere Energie Intersect für 4,75 Milliarden Dollar in bar, plus übernommene Schulden. Der Grund: Große Tech-Unternehmen investieren massiv in Energiefirmen, da die US-Stromnetze mit dem steigenden Strombedarf für künstliche Intelligenz kaum Schritt halten können.

Alphabet erwirbt Intersects Energie- und Rechenzentrumsprojekte, die sich in Entwicklung oder im Bau befinden. Das Unternehmen verfügt über Anlagen im Wert von 15 Milliarden Dollar. Bis 2028 sollen Projekte mit etwa 10,8 Gigawatt Leistung online sein, mehr als das Zwanzigfache der Stromproduktion des Hoover-Staudamms laut Reuters. Intersects Betrieb bleibt von Alphabet getrennt. Bestehende Anlagen in Texas und Kalifornien gehören nicht zur Übernahme.

Der Druck auf die Energieversorgung ist enorm: Google will laut eigenen Angaben seine KI-Kapazität alle sechs Monate verdoppeln und innerhalb von vier bis fünf Jahren eine tausendfache Leistungssteigerung erreichen. Google investiert dafür auch in moderne Reaktortechnologie.

Read full article about: OpenAI steigert Effizienz bei Serverkosten deutlich und die Marge freut's

OpenAI hat angeblich die Wirtschaftlichkeit seiner KI-Dienste stark verbessert. Die sogenannte Compute-Marge – der Anteil der Einnahmen nach Abzug der Serverkosten für zahlende Nutzer – stieg von etwa 35 Prozent im Januar 2024 auf rund 70 Prozent im Oktober 2025, berichtet The Information unter Berufung auf interne Finanzdaten. Anthropic soll sich bis Ende des Jahres auf 53 Prozent verbessern.

Die Effizienzsteigerung gelang OpenAI durch sinkende Mietkosten für Rechenleistung, optimierte Modelle und ein teureres Abo-Angebot. Dennoch ist der Weg zur Profitabilität noch weit, insbesondere da OpenAI-CEO Sam Altman weiter große Investitionen in noch mehr Rechenleistung plant und weitere Zirkelgeschäfte antreibt.

OpenAI arbeitet derzeit an einer Finanzierungsrunde von bis zu 100 Milliarden Dollar.

Kling AI Videogenerator 2.6 kann jetzt Stimmen und Bewegungen präzise steuern

In kaum einem anderen Bereich war der KI-Fortschritt in diesem Jahr so deutlich spürbar wie bei der Videogenerierung. Mit neuen Funktionen für Kling 2.6 legt das chinesische Unternehmen Kuaishou zum Jahresende nach. Das beeindruckt technisch und zeigt, wie eng das KI-Wettrennen ist: international sowie zwischen großen Namen und weniger bekannten Playern.

Read full article about: Nvidia will mit NitroGen universelle KI-Agenten für alle Welten erschaffen

Nvidia hat ein neues Grundlagenmodell für Gaming-Agenten veröffentlicht. NitroGen ist ein offenes Vision-Action-Modell, das auf 40.000 Stunden Gameplay-Videos von mehr als 1.000 Spielen trainiert wurde. Die Forscher nutzten eine bisher kaum erschlossene Ressource: YouTube- und Twitch-Videos mit sichtbaren Controller-Overlays. Mit Template-Matching und einem feinabgestimmten SegFormer-Modell extrahierten sie daraus die Spieler-Eingaben.

NitroGen basiert auf dem Robotik-Modell GR00T N1.5 und ist laut den Forschern das erste Modell, das zeigt, dass Robotik-Grundlagenmodelle als universelle Agenten in virtuellen Umgebungen mit unterschiedlicher Physik und Grafik funktionieren können. Das Modell beherrscht verschiedene Genres: Action-RPGs, Plattformer, Roguelikes und mehr. Bei unbekannten Spielen erreicht es bis zu 52 Prozent bessere Erfolgsraten als Modelle, die von Grund auf trainiert werden.

Die Forscher von Nvidia, Stanford, Caltech und anderen Universitäten haben den Datensatz, die Modellgewichte, das Paper und den Code öffentlich zugänglich gemacht.

Read full article about: Neues KI-Modell von Alibaba macht statische Bilder nachträglich editierbar

Alibabas KI-Einheit Qwen hat ein neues Bild-Editierungsmodell veröffentlicht. Qwen-Image-Layered zerlegt Bilder in mehrere einzelne Ebenen mit transparentem Hintergrund (RGBA-Ebenen). Jede Ebene kann dann unabhängig bearbeitet werden, ohne andere Bildinhalte zu beeinflussen.

Das Modell ermöglicht einfache Bearbeitungen wie Größenänderung, Neupositionierung und Farbänderung einzelner Elemente. Nutzer können etwa den Hintergrund umfärben, Personen austauschen, Texte ändern oder Objekte löschen, verschieben und vergrößern.

Ein Bild kann wahlweise in 3 oder 8 Ebenen zerlegt werden. Zudem lässt sich die Zerlegung beliebig oft wiederholen – jede Ebene kann erneut in weitere Ebenen aufgeteilt werden. Das Qwen-Team bezeichnet den Ansatz als Brücke zwischen normalen Bildern und strukturierten, bearbeitbaren Darstellungen.

Das Qwen-Team stellt den Code bereit. Die Modelle sind auf Hugging Face und ModelScope verfügbar. Weitere Infos liefern der Blog sowie der technische Bericht. Wer es testen will, findet Demos auf Hugging Face und ModelScope.