xai
Dec 15, 2025
gpt-5-2
gemini-3-pro-preview
GPT-5.2 與 Gemini 3 Pro:在 2026 年哪個更好?
截至 2025 年 12 月 15 日,公開資訊顯示 Google 的 Gemini 3 Pro(預覽版)與 OpenAI 的 GPT-5.2 均在推理、多模態與長上下文處理方面開拓了新的前沿 — 但它們採取了不同的工程路徑(Gemini → 稀疏 MoE + 超大上下文;GPT-5.2 → 稠密/「routing」設計、壓縮與 x-high 推理模式),因此在峰值基準表現與工程可預測性、工具鏈與生態系之間各有取捨。哪個「更好」取決於你的主要需求:面向超長上下文的多模態代理型應用更傾向於選擇 Gemini 3 Pro;注重穩定的企業級開發者工具、可預測的成本與即時的 API 可用性則更適合 GPT-5.2。
Dec 15, 2025
cometapi
如何在 Raycast 中使用 CometAPI — 實用指南
Raycast 的 AI 功能現已支援透過 providers.yaml 的自訂提供者接入任何與 OpenAI 相容的提供者。CometAPI 是一個網關 API,透過 OpenAI 風格的 REST 介面提供數百種模型 — 因此你可以將 Raycast 指向 https://api.cometapi.com/v1,新增你的 CometAPI 金鑰,並在 Raycast AI(chat、commands、extensions)中使用 CometAPI 模型。
Dec 14, 2025
sora-2-pro
sora-2
如何使用 Sora-2 的音訊工具製作影片
Sora 2 — OpenAI 的第二代文字轉影片模型 — 不僅推進了視覺真實感:它將音訊視為一等公民。對於希望製作短篇、具有情感吸引力的 AI 影片的創作者、行銷人員、教育工作者與獨立電影人而言,Sora 2 把過去多步驟的音訊/影片管線整合為一個可由提示驅動的單一工作流程。
Dec 13, 2025
請提供需要翻譯的原文內容(目標語言:繁體中文)。
Mistral Large 3 是由 Mistral AI 於 2025 年 12 月上旬發布的最新「前沿」模型家族。它是一個開放權重、面向生產環境的多模態基礎模型,圍繞 **細粒度稀疏的專家混合(MoE)** 設計構建,旨在提供「前沿」推理、長上下文理解,以及視覺 + 文本能力,同時通過稀疏性與現代量化保持推理的實用性。Mistral Large 3 具有 **675 billion 總參數**,在推理時約有 **~41 billion 活躍參數**,並在其預設配置中提供 **256k token** 的上下文窗口——這種組合旨在同時推進能力與規模,而不必讓每次推理都觸及全部參數。
Dec 12, 2025
gpt-5-2
GPT-5.2 是什麼?深入解析 GPT-5.2 的 5 項重大更新!
GPT-5.2 是 OpenAI 於 2025 年 12 月推出的 GPT-5 家族點版本:旗艦級多模態模型家族(文字 + 視覺 + 工具),針對專業知識工作、長上下文推理、代理式工具使用與軟體工程進行調校。OpenAI 將 GPT-5.2 定位為迄今最強大的 GPT-5 系列模型,並表示其開發強調可靠的多步推理、處理超大型文件,以及更佳的安全性/政策合規性;此次發佈包含三種面向使用者的變體——Instant、Thinking 與 Pro。
Dec 11, 2025
gemini-2-5-pro
gemini-2-5-flash
Free Gemini 2.5 Pro API 是否出問題?2025 年免費配額的變更
Google 已大幅收緊 Gemini API 的免費層級:Gemini 2.5 Pro 已從免費層移除,Gemini 2.5 Flash 的每日免費請求數也被大幅削減(據報:~250 → ~20/天)。這並不意味著該模型對實驗用途已永久「死亡」——但確實意味著在許多真實世界用例中,免費存取已被實質上剝奪。
Dec 11, 2025
gemini-cli
如何更改 Gemini CLI 的目錄
Gemini CLI 已迅速成為與 Google 的 Gemini 模型互動的首選終端介面。然而,隨著團隊擴大,或當你在不同磁碟機之間工作,或處於受限的環境(容器、公司管理的筆記型電腦、Cloud Shell、Windows 系統)時,你很快就會遇到一個實務問題:Gemini 將檔案儲存在哪裡?以及如何變更 Gemini 讀寫的目錄?
Dec 10, 2025
如何在本機執行 Mistral 3
Mistral 3 是 Mistral AI 的 2025 年末模型系列的重磅發佈。它帶來面向本地/邊緣部署的緊湊且快速的模型組合,以及一個將最先進的規模與上下文長度推向新高度的超大型稀疏旗艦模型。本文說明 Mistral 3 是什麼、它如何建構、為何你可能想在本地執行它,以及三種在你的電腦或私有伺服器上執行它的實用方式 — 從 Ollama 的“一鍵執行”便利,到使用 vLLM/TGI 進行生產級 GPU 服務,再到以 GGUF + llama.cpp 在小型裝置上進行 CPU 推論。