Ces derniers mois, le paysage de l'IA a rapidement évolué : OpenAI a livré GPT-5 aux développeurs et actualisé sa pile temps réel ; Anthropic a mis à jour Claude et ses politiques d'utilisation des données ; et Google a renforcé l'intégration de Gemini dans l'écosystème des appareils domestiques et connectés. Ces évolutions sont importantes, car elles modifient les modèles à atteindre et la manière de les surveiller, précisément là où une combinaison « API unifiée + observabilité » comme LiteLLM + CometAPI brille.
Dans ce guide, vous obtiendrez une procédure pas à pas pratique et riche en code pour l'intégration LiteLLM avec API Comet (qui parle un Compatible avec OpenAI (dialecte), couvrant l'installation, les appels de base, l'asynchronisation et le streaming, ainsi que des conseils de déploiement. Nous aborderons également les implications des dernières mises à jour du modèle pour vos choix d'intégration.
Qu'est-ce que LiteLLM ?
LiteLLM est un SDK Python open source et un proxy (passerelle LLM) qui propose une API unique et cohérente pour de nombreux fournisseurs de modèles (OpenAI, Anthropic, Vertex/Google, AWS Bedrock, Hugging Face, etc.). Il normalise les différences entre les fournisseurs (format d'entrée, erreurs, formes de sortie), fournit une logique de nouvelle tentative, de secours et de routage, et prend en charge un SDK léger. et Un serveur proxy pour le routage LLM central dans les piles d'infrastructure. Autrement dit : une seule API pour appeler plusieurs modèles.
Fonctionnalité:
- Fonctions Python unifiées comme
completion,responses,embeddings. - Routage compatible OpenAI (afin que les clients qui parlent des API de style OpenAI puissent être dirigés vers d'autres fournisseurs).
- Prise en charge asynchrone + streaming (wrapper asynchrone comme
acompletionetstream=Truepour les réponses fragmentées).
Comment les modèles et les points de terminaison LiteLLM sont cartographiés
- Utilisez le
completion()(synchronisation) etacompletion()(async) dans le SDK Python pour les appels de style chat/complétion. - Pour les points de terminaison compatibles OpenAI, LiteLLM prend en charge un
api_base/api_keyremplacer afin que le SDK sache qu'il doit atteindre un chemin de style OpenAI.
Qu'est-ce que CometAPI ?
API Comet est un service « une API pour de nombreux modèles » qui expose des centaines de modèles (y compris OpenAI GPT-5, Anthropic Claude, xAI Grok, Qwen, GLM et les générateurs d'images/vidéos) via un Compatible avec OpenAI Interface REST. Grâce à sa compatibilité, vous pouvez généralement pointer votre client OpenAI vers CometAPI. base_url et conservez le même schéma de demande/réponse, ce qui en fait une alternative ou un complément aux API propriétaires.
Astuce: Cette compatibilité est exactement ce qu'attend LiteLLM. Vous pouvez référencer les modèles CometAPI via LiteLLM à l'aide d'appels de type OpenAI, ou les router via le proxy LiteLLM avec
base_urldépassements.
Prérequis pour l'intégration de LiteLLM avec CometAPI
Avant de pouvoir connecter LiteLLM à CometAPI, vous aurez besoin de quelques éléments :
Environnement Python
- Python 3.8+ (recommandé : un environnement virtuel via
venvorconda). pipmis à jour:python -m pip install --upgrade pip
LiteLLM installé pip install litellm (Facultatif : installer litellm si vous souhaitez exécuter le serveur proxy LiteLLM.)
Compte CometAPI et clé API
- Inscrivez-vous sur cometapi.com.
- Obtenez votre Clé API depuis votre tableau de bord.
- Stockez-le en tant que variable d’environnement :
export COMETAPI_KEY="sk-xxxx"
Compréhension de base des API compatibles OpenAI
- CometAPI expose Points de terminaison de style OpenAI comme
/v1/chat/completions. - LiteLLM prend en charge nativement ce format, aucun client personnalisé n'est donc nécessaire.
Comment effectuer un appel de complétion de base (en utilisant LiteLLM → CometAPI) ?
Utilisez la fonction de complétion de LiteLLM pour envoyer des messages à un modèle CometAPI. Vous pouvez spécifier des modèles tels que cometapi/gpt-5 ou cometapi/gpt-4o.
Méthode 1 : utiliser la variable d’environnement pour la clé API (recommandé).
from litellm import completion
import os
# Option A: use env var
os.environ = "sk_xxx" # CometAPI key
# Direct call with explicit api_base + api_key
resp = completion(
model="cometapi/gpt-5",
api_key=os.environ,
api_base="https://www.cometapi.com/console/", # CometAPI base URL
messages=[
{"role":"system", "content":"You are a concise assistant."},
{"role":"user", "content":"Explain why model-aggregation is useful in 3 bullets."}
],
max_tokens=200,
temperature=0.2
)
print(resp.choices.message)
Si vous préférez, vous pouvez également définir OPENAI_API_KEY/OPENAI_API_BASE — LiteLLM accepte plusieurs conventions de fournisseurs ; vérifiez votre version des documents SDK.
Méthode 2 : Transmettez explicitement la clé API :
Exemple :
from litellm import completion
import os
# Define your messages (array of dictionaries with 'content' and 'role')
messages =
api_key = 'your-cometapi-key-here' # Alternative: Store it in a variable for explicit passing
# CometAPI call - Method 2: Explicitly passing API key
response_2 = completion(model="cometapi/gpt-4o", messages=messages, api_key=api_key)
# Print the responses
print(response_2.choices.message.content)
Comment fonctionnent les appels asynchrones et en streaming avec LiteLLM → CometAPI ?
Appels asynchrones
- Sens:Un appel asynchrone se produit lorsqu'une demande est faite pour faire quelque chose (comme récupérer des données ou exécuter une tâche), mais au lieu d'attendre qu'elle se termine avant de continuer, le programme continue d'exécuter un autre code.
- Idée clé: « Ne bloquez pas, continuez à travailler en attendant. »
- Exemple:
- Dans les applications Web : récupérer des données à partir d’une API sans geler l’interface utilisateur.
- En Python : utilisation
async/awaitavecasyncio. - En JavaScript : utilisation
Promisesorasync/await.
Cas d'utilisation: Améliore les performances et la réactivité en ne bloquant pas le thread principal.
Appels en streaming
- Sens:Un appel en streaming signifie qu'au lieu d'attendre que toutes les données soient prêtes, puis de les renvoyer en une seule fois, le serveur envoie des morceaux de données dès qu'ils sont disponibles.
- Idée clé« Envoyez les données pièce par pièce pendant leur production. »
- Exemple:
- Regarder une vidéo YouTube avant que le fichier vidéo entier ne soit téléchargé.
- Applications de chat en temps réel ou mises à jour des cours de la bourse.
- Dans les API : au lieu d'attendre la sortie complète du modèle, le client reçoit des mots/jetons progressivement (comme la façon dont ChatGPT diffuse du texte).
An appel en streaming asynchrone LiteLLM et CometAPI prennent en charge le streaming et l'utilisation asynchrone. LiteLLM expose stream=True pour recevoir un itérateur de morceaux, et acompletion() Pour une utilisation asynchrone. Utilisez le streaming pour des sorties partielles à faible latence (interactivité de l'interface utilisateur, traitement jeton par jeton). La requête est effectuée sans blocage et les résultats sont livrés progressivement dès qu'ils sont prêts. Pour les applications non bloquantes ou temps réel, utilisez la fonction acompletion de LiteLLM pour les appels asynchrones. Ceci est utile avec asyncio de Python pour gérer la concurrence.
Exemple :
from litellm import acompletion
import asyncio, os, traceback
async def completion_call():
try:
print("Testing asynchronous completion with streaming")
response = await acompletion(
model="cometapi/chatgpt-4o-latest",
messages=,
stream=True # Enable streaming for chunked responses
)
print(f"Response object: {response}")
# Iterate over the streamed chunks asynchronously
async for chunk in response:
print(chunk)
except Exception:
print(f"Error occurred: {traceback.format_exc()}")
pass
# Run the async function
await completion_call()
Explication:
acompletionest la version asynchrone decompletion.stream=Truepermet le streaming, où la réponse est générée par blocs en temps réel.- Utilisez le
asynciopour exécuter la fonction (par exemple, dans un Jupyter Notebook avecawaitou parasyncio.run()dans les scripts). - Si une erreur se produit, elle est détectée et imprimée pour le débogage.
Production attendue:Vous verrez l'objet de réponse et les morceaux individuels imprimés, par exemple :
Testing asynchronous completion with streaming
Response object: <async_generator object acompletion at 0x...>
Chunk: {'choices': }
Chunk: {'choices': }
... (full response streamed in parts)
Conseils supplémentaires
- Modèle non trouvé / incompatibilité du point de terminaison : assurez-vous de choisir un nom de modèle qui existe sur CometAPI (leurs documents répertorient les identifiants disponibles) et que les conventions de préfixe de votre modèle LiteLLM correspondent (par exemple,
cometapi/<model>(si nécessaire). Les modèles CometAPI suivent le format cometapi/, par exemple : cometapi/gpt-5, cometapi/gpt-4o, cometapi/chatgpt-4o-latest. Consultez la documentation CometAPI pour connaître les modèles les plus récents. - La gestion des erreurs: Enveloppez toujours les appels dans des blocs try-except pour gérer les problèmes tels que les clés non valides ou les erreurs réseau.
- Fonctionnalités avancéesLiteLLM prend en charge des paramètres tels que la température, le nombre maximal de jetons et le nombre maximal de points pour affiner les réponses. Ajoutez-les aux appels de complétion ou d'acomplétion, par exemple : completion(…, temperature=0.7).
- 403 / erreurs d'authentification — assurez-vous d'utiliser la bonne clé CometAPI et de l'envoyer en tant que
api_keyà LiteLLM
Conclusion
L'intégration de LiteLLM avec CometAPI est peu contraignant, car les deux parties utilisent des interfaces compatibles avec OpenAI et bien documentées. Utilisez LiteLLM pour centraliser l'utilisation de LLM dans votre base de code, définissez api_base à CometAPI et transmettez la clé CometAPI, et exploitez les assistants de synchronisation/asynchrone/streaming de LiteLLM pour créer des applications réactives et flexibles.
Pour commencer
CometAPI est une plateforme d'API unifiée qui regroupe plus de 500 modèles d'IA provenant de fournisseurs leaders, tels que la série GPT d'OpenAI, Gemini de Google, Claude d'Anthropic, Midjourney, Suno, etc., au sein d'une interface unique et conviviale pour les développeurs. En offrant une authentification, un formatage des requêtes et une gestion des réponses cohérents, CometAPI simplifie considérablement l'intégration des fonctionnalités d'IA dans vos applications. Que vous développiez des chatbots, des générateurs d'images, des compositeurs de musique ou des pipelines d'analyse pilotés par les données, CometAPI vous permet d'itérer plus rapidement, de maîtriser les coûts et de rester indépendant des fournisseurs, tout en exploitant les dernières avancées de l'écosystème de l'IA.
Pour commencer, explorez les capacités du modèle dans le cour de récréation et consultez le Guide d'intégration LiteLLM Pour des instructions détaillées, veuillez vous connecter à CometAPI et obtenir la clé API avant d'y accéder. API Comet proposer un prix bien inférieur au prix officiel pour vous aider à vous intégrer.
