xai

GPT-5.2 vs. Gemini 3 Pro: Welches ist 2026 besser?
Dec 15, 2025
gpt-5-2
gemini-3-pro-preview

GPT-5.2 vs. Gemini 3 Pro: Welches ist 2026 besser?

Stand 15. Dezember 2025 zeigen öffentliche Informationen, dass Googles Gemini 3 Pro (Vorschau) und OpenAIs GPT-5.2 beide neue Maßstäbe bei Reasoning, Multimodalität und Arbeiten mit langen Kontexten setzen — sie wählen jedoch unterschiedliche Engineering-Ansätze (Gemini → sparse MoE + riesiger Kontext; GPT-5.2 → dichte/„Routing“-Designs, Verdichtung und x-high-Reasoning-Modi) und nehmen dafür Abwägungen zwischen Spitzenleistungen in Benchmarks und Planbarkeit im Engineering, Tooling und Ökosystem in kauf. Welches „besser“ ist, hängt von Ihrem primären Bedarf ab: Anwendungen mit extrem langem Kontext sowie multimodale, agentische Anwendungsfälle tendieren zu Gemini 3 Pro; stabiles Enterprise-Entwickler-Tooling, vorhersehbare Kosten und sofortige API-Verfügbarkeit sprechen für GPT-5.2.
So verwenden Sie die CometAPI in Raycast — ein praktischer Leitfaden
Dec 15, 2025
cometapi

So verwenden Sie die CometAPI in Raycast — ein praktischer Leitfaden

Die KI-Funktionen von Raycast ermöglichen es Ihnen jetzt, jeden OpenAI-kompatiblen Anbieter über einen benutzerdefinierten Provider in providers.yaml einzubinden. CometAPI ist eine Gateway-API, die Hunderte von Modellen über eine OpenAI-ähnliche REST-Schnittstelle bereitstellt — sodass Sie Raycast auf https://api.cometapi.com/v1 verweisen, Ihren CometAPI-Schlüssel hinzufügen und CometAPI-Modelle in Raycast AI verwenden können (Chat, Befehle, Erweiterungen).
Wie erstellt man ein Video mit dem Audio-Tool von Sora-2
Dec 14, 2025
sora-2-pro
sora-2

Wie erstellt man ein Video mit dem Audio-Tool von Sora-2

Sora 2 — OpenAIs Text-zu-Video-Modell der zweiten Generation — hat nicht nur den visuellen Realismus vorangetrieben: Es behandelt Audio als erstklassigen, gleichberechtigten Bestandteil. Für Creator, Marketer, Lehrkräfte und Indie-Filmemacher, die kurze, emotional fesselnde KI-Videos wollen, verdichtet Sora 2 das, was früher eine mehrstufige Audio-/Video-Pipeline war, zu einem einzigen, promptbasierten Workflow.
Was ist Mistral Large 3? Eine ausführliche Erklärung
Dec 13, 2025

Was ist Mistral Large 3? Eine ausführliche Erklärung

Mistral Large 3 ist die neueste “frontier”-Modellfamilie, die Mistral AI Anfang Dezember 2025 veröffentlicht hat. Es ist ein Open-Weight, produktionsorientiertes, multimodales Foundation-Modell auf Basis eines **granularen, spärlichen Mixture-of-Experts (MoE)**-Designs und soll “frontier”-Reasoning, Langkontext-Verständnis sowie Vision + Text-Fähigkeiten bereitstellen, während die Inferenz durch Sparsity und moderne Quantisierung praktikabel bleibt. Mistral Large 3 verfügt über **675 Milliarden Gesamtparameter** mit **~41 Milliarden aktiven Parametern** bei der Inferenz und ein **256k Token**-Kontextfenster in der Standardkonfiguration — eine Kombination, die darauf ausgelegt ist, sowohl Leistungsfähigkeit als auch Skalierung voranzutreiben, ohne jede Inferenz zu zwingen, alle Parameter anzusprechen.
Was ist GPT-5.2? Ein Einblick in 5 wichtige Updates von GPT-5.2!
Dec 12, 2025
gpt-5-2

Was ist GPT-5.2? Ein Einblick in 5 wichtige Updates von GPT-5.2!

GPT-5.2 ist OpenAIs Punktrelease vom Dezember 2025 innerhalb der GPT-5‑Familie: eine multimodale Flaggschiff‑Modellfamilie (Text + Vision + Tools), abgestimmt auf professionelle Wissensarbeit, Schlussfolgern über lange Kontexte, agentischen Werkzeugeinsatz und Softwareentwicklung. OpenAI positioniert GPT-5.2 als das bislang leistungsfähigste Modell der GPT-5‑Reihe und erklärt, es sei mit Schwerpunkt auf zuverlässigem mehrstufigem Schlussfolgern, der Verarbeitung sehr großer Dokumente sowie verbesserter Sicherheits‑ und Richtlinienkonformität entwickelt worden; die Veröffentlichung umfasst drei nutzerorientierte Varianten — Instant, Thinking und Pro.
Ist die kostenlose Gemini 2.5 Pro API defekt? Änderungen am Freikontingent im Jahr 2025
Dec 11, 2025
gemini-2-5-pro
gemini-2-5-flash

Ist die kostenlose Gemini 2.5 Pro API defekt? Änderungen am Freikontingent im Jahr 2025

Google hat die kostenlose Stufe für die Gemini API deutlich verschärft: Gemini 2.5 Pro wurde aus der kostenlosen Stufe entfernt, und die täglichen kostenlosen Anfragen für Gemini 2.5 Flash wurden drastisch gekürzt (Berichte: ~250 → ~20/Tag). Das bedeutet nicht, dass das Modell für Experimente dauerhaft „tot“ ist — aber es bedeutet, dass der kostenlose Zugang für viele reale Anwendungsfälle faktisch ausgehöhlt wurde.
Wie ändere ich das Gemini-CLI-Verzeichnis?
Dec 11, 2025
gemini-cli

Wie ändere ich das Gemini-CLI-Verzeichnis?

Gemini CLI hat sich schnell zur bevorzugten Terminalschnittstelle für die Interaktion mit Googles Gemini-Modellen entwickelt. Doch sobald Teams skalieren oder wenn Sie über verschiedene Laufwerke hinweg arbeiten oder in eingeschränkten Umgebungen (Container, unternehmensverwaltete Laptops, Cloud Shell, Windows-Systeme), stoßen Sie schnell auf eine praktische Frage: Wo speichert Gemini seine Dateien, und wie lässt sich ändern, welche Verzeichnisse Gemini zum Lesen und Schreiben verwendet?
So führen Sie Mistral 3 lokal aus
Dec 10, 2025

So führen Sie Mistral 3 lokal aus

Mistral 3 ist das Hauptrelease der Modellfamilie von Mistral AI Ende 2025. Es bietet eine Mischung aus kompakten, schnellen Modellen, die für lokale/Edge-Bereitstellung ausgelegt sind, und einem sehr großen Sparse-Flaggschiff, das den Stand der Technik bei Skalierung und Kontextlänge weiter vorantreibt. Dieser Artikel erklärt, was Mistral 3 ist, wie es aufgebaut ist, warum Sie es lokal ausführen möchten, und drei praktische Möglichkeiten, es auf Ihrem Computer oder privaten Server zu betreiben — von der „Click-to-run“-Bequemlichkeit von Ollama über GPU-Serving im Produktionsbetrieb mit vLLM/TGI bis hin zu CPU-Inferenz auf winzigen Geräten mit GGUF + llama.cpp.