OpenAI-х gpt-oss-120b знаменует собой первый релиз организации с открытым весом после GPT-2, предлагающий разработчикам прозрачный, настраиваемый и высокая производительность Возможности ИИ в рамках Лицензия Apache 2.0. Создан для изысканных рассуждение и агентный приложений эта модель демократизирует доступ к передовым технологиям больших языков, обеспечивая локальное развертывание и глубокую тонкую настройку.
Основные характеристики и философия дизайна
Модели GPT‑OSS разработаны как универсальные, текстовые LLM-модели. Они поддерживают высокоуровневые когнитивные задачи, включая математические рассуждения, структурный анализ и понимание языка. В отличие от закрытых коммерческих моделей, таких как GPT‑4, GPT‑OSS позволяет полностью загружать и использовать весовые коэффициенты моделей, предоставляя исследователям и разработчикам беспрецедентный доступ к проверке, настройке и развертыванию моделей исключительно на их инфраструктуре.
Основная информация
- Параметры: всего 117 миллиардов, 5.1 миллиарда активный с помощью Смесь экспертов (МО)
- Лицензия: Apache 2.0 для неограниченного коммерческого и академического использования
- Контекстное окно: Вплоть до 128 тыс. токенов, поддерживающий длинные входные данные и многодокументное обоснование
- Цепочка мыслей: Полный CoT выходы для аудита и детального контроля
- Структурированные результаты: Встроенная поддержка JSON, XML и пользовательских схем.
технические детали
GPT-OSS использует Трансформатор позвоночник дополнен Смесь экспертов (МО) Архитектура для достижения разреженной активации и снижения затрат на вывод. gpt-oss-120b модель содержит Эксперты 128 распределяется по 36 слои, активация 4 экспертов на токен (5.1 B активных параметров), в то время как gpt-oss-20b использует Эксперты 32 за 24 слои, активация 4 экспертов на токен (3.6 B активных параметров). Он использует чередующееся плотное и локально разреженное внимание, сгруппированное внимание к нескольким запросам (размер группы 8), и поддерживать 128 к Окно контекста токена — не имеющее аналогов среди предложений с открытым весом на сегодняшний день. Эффективность использования памяти дополнительно повышается благодаря **4-битному квантованию со смешанной точностью**, что позволяет использовать более широкие контексты на стандартном оборудовании.
Модели GPT‑OSS прошли строгий сравнительный анализ с известными наборами данных, показав конкурентоспособную, если не превосходящую, производительность по сравнению с аналогичными по размеру фирменными моделями.
Бенчмаркинг и оценка производительности
По стандартным показателям, gpt-oss-120b соответствует или превосходит фирменный язык OpenAI о4-мини модель:
- MMLU (Массовое многозадачное понимание языка): точность ~88%
- Codeforces Elo (кодирование рассуждений): ~ 2205
- AIME (математический конкурс с инструментами): ~87.9%
- HealthBench: Значительно превосходит o4-mini в задачах клинического контроля качества и диагностики
- Tau-Bench (Розничная торговля + Задачи на рассуждение): ~62% в среднем
Версия модели
- Вариант по умолчанию:
gpt-oss-120b(V1.0) - Активные параметры: 5.1 B (динамический выбор MoE)
- Последующие релизы: Планируемые исправления для улучшения защитные фильтры и специализированная тонкая настройка домена
ограничения
Несмотря на свою мощь, модели GPT‑OSS имеют определенные ограничения:
- Текстовый интерфейс: В отличие от GPT-4o или Gemini, GPT‑OSS не поддерживает многомодальные входные данные (изображения, аудио, видео).
- Нет прозрачности обучающего набора: OpenAI не опубликовала подробную информацию о конкретных использованных наборах данных, что может вызвать опасения относительно академической воспроизводимости или аудита предвзятости.
- Непостоянство производительности: Некоторые общественные тесты (например, Simple-Bench) показывают плохие результаты в определенных тестах на логическое мышление (~22% в некоторых заданиях для 120b), что говорит о производительность может значительно различаться в разных доменах.
- Аппаратные ограничения: Модель 120B требует значительных вычислительных мощностей для локального вывода, что делает ее недоступной для рядовых разработчиков без доступа к графическому процессору.
- Компромиссы в вопросах безопасности: Несмотря на то, что модели были протестированы в сценариях состязательной тонкой настройки, их открытый характер означает, что эти модели все равно могут быть использованы не по назначению, например, для рассылки спама, дезинформации или взлома моделей, если за ними не следить должным образом.
Тем не менее, OpenAI сообщает, что модели gpt‑oss не повышать текущие риски безопасности на пограничном уровне, особенно в областях биорисков и кибербезопасности.
Как позвонить gpt-oss-120b API от CometAPI
gpt-oss-120b Цены на API в CometAPI, скидка 20% от официальной цены:
| Входные токены | $0.16 |
| Выходные токены | $0.80 |
Необходимые шаги
- Войти в cometapi.com. Если вы еще не являетесь нашим пользователем, пожалуйста, сначала зарегистрируйтесь.
- Получите ключ API-интерфейса для доступа к учетным данным. Нажмите «Добавить токен» в API-токене в персональном центре, получите ключ токена: sk-xxxxx и отправьте.
- Получите URL этого сайта: https://api.cometapi.com/
Используйте метод
- Выберите «
gpt-oss-120b” конечная точка для отправки запроса API и установки тела запроса. Метод запроса и тело запроса получены из нашего веб-сайта API doc. Наш веб-сайт также предоставляет тест Apifox для вашего удобства. - Заменять с вашим реальным ключом CometAPI из вашей учетной записи.
- Введите свой вопрос или запрос в поле «Контент» — на него ответит модель.
- . Обработайте ответ API, чтобы получить сгенерированный ответ.
CometAPI предоставляет полностью совместимый REST API для беспроблемной миграции. Ключевые детали API документ:
- Конечная точка: https://api.cometapi.com/v1/chat/completions
- Параметр модели: gpt-oss-120b
- Аутентификация:
Bearer YOUR_CometAPI_API_KEY - Тип содержимого:
application/json. - Основные параметры:
prompt,max_tokens_to_sample,temperature,stop_sequences
Хотя GPT‑OSS можно использовать полностью в автономном режиме, он также поддерживает API чата, совместимые с OpenAI при размещении на таких сервисах, как Hugging Face или AWS Bedrock.
Вот пример интеграции с использованием Python:
from openai import OpenAI
import os
client = OpenAI(
base_url="https://api.cometapi.com/v1/chat/completions", # or AWS/Azure provider
api_key=cometapi_key
)
response = client.chat.completions.create(
model="gpt-oss-120b",
messages=[
{"role": "user", "content": "Explain how quantum tunneling works."}
]
)
print(response.choices.message.content)
В качестве альтернативы вы можете запускать модели локально, используя такие инструменты, как LMDeploy, Вывод генерации текста (TGI) или vLLM.
См. также ГПТ-ОСС-20Б


