o3-mini-api
Mar 19, 2026
minimax m2.7
MiniMax-M2.7 erklärt: Funktionen, Benchmarks, Zugang & Preis
MiniMax-M2.7 ist die Weiterentwicklung von MiniMax’ LLMs der M2-Serie und wurde für hocheffizientes Schlussfolgern, Programmierung und agentische Workflows entwickelt. Aufbauend auf dem Erfolg von M2 und M2.5 bietet es Verbesserungen bei der Batch-Generierung, der Kosteneffizienz und der skalierbaren API-Bereitstellung (z. B. über CometAPI). Es richtet sich an KI-Anwendungsfälle in Unternehmen, darunter Automatisierung, mehrstufiges Schlussfolgern und die groß angelegte Generierung von Inhalten.
Mar 19, 2026
Midjourney
Was ist Midjourney V8? Wann wird es veröffentlicht?
Midjourney V8 ist das kommende KI-Bildgenerierungsmodell der nächsten Generation, dessen Einführung für 2026 erwartet wird. Es bietet schnelleres Rendering (bis zu 4–5×), verbesserte Prompt-Genauigkeit, bessere Textwiedergabe, höhere Kohärenz und erweiterte Kontrolle über die Bildkomposition. Es ist darauf ausgelegt, V7 in Realismus, Konsistenz und Effizienz der Arbeitsabläufe zu übertreffen und gleichzeitig Funktionen wie Stapelgenerierung und erweiterte Personalisierung zu ermöglichen.
Mar 19, 2026
5 wichtige Aktualisierungen der Sora 2 API: Detaillierte Erläuterung
Von OpenAI entwickelt, stellt Sora 2 einen großen Sprung im Bereich generativer Medien dar und verändert die Art und Weise, wie Entwickler, Unternehmen und kreative Fachleute videozentrierte Anwendungen entwickeln. Seit seiner Veröffentlichung Ende 2025 ist das API-Ökosystem — einschließlich des Zugriffs über Drittanbieter wie CometAPI — erheblich gereift und hat neue Funktionen eingeführt, die auf Skalierbarkeit, Realismus und produktionstaugliche Zuverlässigkeit ausgerichtet sind.
Mar 19, 2026
Sora-2-pro
sora-2
Wie lang sind Sora 2-Videos?
Sora-2-Videos können derzeit in der offiziellen API von OpenAI und im Sora Video Editor pro generiertem Clip bis zu 20 Sekunden lang sein. OpenAI unterstützt außerdem Videoerweiterungen von jeweils bis zu 20 Sekunden, mit maximal sechs Erweiterungen für eine insgesamt zusammengefügte Länge von bis zu 120 Sekunden. Für die Sora 2 API unterstützt CometAPI 20s und 2K.
Mar 19, 2026
GPT 5.4 Mini und Nano sind in der CometAPI verfügbar: Was bringen sie mit?
GPT-5.4 Mini und GPT-5.4 Nano sind OpenAIs neue kompakte Varianten seiner GPT-5.4-Frontier-Familie: Mini zielt auf einen branchenführenden Leistungs-/Latenzkompromiss für Programmierung, multimodale UI-Aufgaben und Subagent-Workloads; Nano zielt auf ultraniedrige Kosten und Latenz für Klassifizierung, Extraktion, Ranking und massiv parallele Subagenten. Mini bietet bei vielen Entwickler-Benchmarks eine Genauigkeit nahe an Frontier-Modellen und läuft dabei >2× schneller als frühere Minis; Nano ist pro Token deutlich günstiger und ideal, wo Durchsatz und Reaktionsfähigkeit am wichtigsten sind. Diese Modelle sind in der API live (GPT 5.4 Mini und Nano sind in der CometAPI verfügbar).
Mar 17, 2026
Sora-2-pro
So verwenden Sie Sora 2 Pro ohne Abonnement (Leitfaden 2026)
Sie können Sora 2 Pro in OpenAIs Weboberfläche nicht legal „freischalten“, ohne den offiziellen Weg zu gehen (ChatGPT Pro oder Zugriff auf die OpenAI API). Es gibt jedoch legale Alternativen, um Ergebnisse auf Sora-Pro-Niveau zu erzielen, ohne ChatGPT Pro zu kaufen: (1) das Modell Sora 2 Pro direkt über OpenAIs Video API aufrufen und pro Nutzung bezahlen; (2) kommerzielle API-Aggregationsplattformen (zum Beispiel CometAPI) oder SaaS-Plattformen verwenden, die Sora 2/2 Pro-Aufrufe weiterverkaufen oder weiterleiten; oder (3) autorisierte API-Aggregatoren von Drittanbietern verwenden (sie erfordern eigene Konten/Gebühren).
Mar 17, 2026
GLM-5
GLM-5-Turbo erklärt: Agent-First-Basismodell für „Lobster“ (OpenClaw) Workflows (Leitfaden 2026)
GLM-5-Turbo ist ein großes Sprachmodell der nächsten Generation, das von Zhipu AI im März 2026 veröffentlicht wurde und speziell für „lobster“-Agenten-Umgebungen (OpenClaw-Ökosystem) optimiert ist. Es ist eine hochperformante, agentenfokussierte Variante von GLM-5, die für die Ausführung langer Aufgabenketten, Tool-Aufrufe und unternehmensgerechte KI-Automatisierung entwickelt wurde. Es bietet ein ~200K-Token-Kontextfenster, eine Mixture-of-Experts-Architektur und eine verbesserte Stabilität in mehrstufigen Agenten-Workflows.
Mar 16, 2026
Copilot
Kann Copilot Bilder generieren? Ein tiefer Einblick
Microsofts Copilot — der KI-Assistent, der in Windows und Microsoft-365-Apps integriert ist — kann Bilder erzeugen. Im vergangenen Jahr hat Microsoft Bildgenerierungsfunktionen in Copilot-Oberflächen (Designer, Word, PowerPoint, Copilot-Chat) integriert und dabei Modelle genutzt, die Microsoft als Designer Image Creator beschreibt (zuvor mit DALL·E-3 verbunden), wobei die Backend-Modellmischung weiterentwickelt wird, während Microsoft Partner und Optionen hinzufügt.