Mengintegrasikan LiteLLM dengan CometAPI — panduan praktis untuk para insinyur

CometAPI
AnnaSep 3, 2025
Mengintegrasikan LiteLLM dengan CometAPI — panduan praktis untuk para insinyur

Selama beberapa bulan terakhir, lanskap AI telah berubah dengan cepat: OpenAI mengirimkan GPT-5 kepada para pengembang dan menyegarkan tumpukan waktu nyatanya; Anthropic memperbarui Claude dan kebijakan penggunaan datanya; dan Google mendorong Gemini lebih dalam ke ekosistem rumah dan perangkat pintar. Pergeseran ini penting karena mengubah model mana yang ingin Anda jangkau dan bagaimana Anda akan memantaunya—persis di mana pasangan "API + observabilitas terpadu" seperti LiteLLM + CometAPI bersinar.

Dalam panduan ini, Anda akan mendapatkan panduan praktis dan padat kode tentang cara mengintegrasikan LiteLLM dengan API Komet (yang berbicara bahasa Kompatibel dengan OpenAI (dialek), yang mencakup instalasi, panggilan dasar, async & streaming, dan tips penerapan. Dalam prosesnya, kami akan membahas implikasi pembaruan model terbaru untuk pilihan integrasi Anda.

Apa itu LiteLLM?

LiteLLM adalah SDK dan proxy Python sumber terbuka (gateway LLM) yang mengekspos satu API yang konsisten untuk banyak penyedia model (OpenAI, Anthropic, Vertex/Google, AWS Bedrock, Hugging Face, dll.). Ia menormalkan perbedaan penyedia (format input, kesalahan, bentuk output), menyediakan logika coba ulang/fallback/perutean, dan mendukung SDK yang ringan. dan Server proksi untuk perutean LLM terpusat di tumpukan infrastruktur. Dengan kata lain: satu API untuk memanggil banyak model.

fitur:

  • Fungsi Python terpadu seperti completion, responses, embeddings.
  • Perutean yang kompatibel dengan OpenAI (sehingga klien yang menggunakan API bergaya OpenAI dapat diarahkan ke penyedia lain).
  • Dukungan Async + streaming (pembungkus async seperti acompletion, dan stream=True untuk respons yang dipotong-potong).

Bagaimana model dan titik akhir LiteLLM dipetakan

  • penggunaan completion() (sinkronisasi) dan acompletion() (async) dalam Python SDK untuk panggilan gaya obrolan/penyelesaian.
  • Untuk titik akhir yang kompatibel dengan OpenAI, LiteLLM mendukung api_base/api_key mengesampingkan sehingga SDK mengetahui untuk menuju jalur bergaya OpenAI.

Apa itu CometAPI?

API Komet adalah layanan “satu API untuk banyak model” yang mengekspos ratusan model (termasuk OpenAI GPT-5, Anthropic Claude, xAI Grok, Qwen, GLM, dan generator gambar/video) melalui Kompatibel dengan OpenAI Antarmuka REST. Karena kompatibel, Anda biasanya dapat mengarahkan klien OpenAI Anda ke CometAPI base_url dan mempertahankan skema permintaan/respons yang sama—menjadikannya sebagai alternatif langsung atau pelengkap API pihak pertama.

olymp trade indonesiaTip: Kompatibilitas ini persis seperti yang diharapkan LiteLLM. Anda dapat mereferensikan model CometAPI melalui LiteLLM menggunakan panggilan bergaya OpenAI, atau merutekannya melalui Proksi LiteLLM dengan base_url mengesampingkan.

Prasyarat untuk mengintegrasikan LiteLLM dengan CometAPI

Sebelum Anda dapat menghubungkan LiteLLM ke CometAPI, Anda memerlukan beberapa hal:

lingkungan Piton

  • Python 3.8+ (disarankan: lingkungan virtual melalui venv or conda).
  • pip ditingkatkan: python -m pip install --upgrade pip

LiteLLM terpasang pip install litellm (Opsional: instal litellm jika Anda ingin menjalankan server proxy LiteLLM.)

Akun CometAPI & kunci API

  1. Mendaftar di cometapi.com.
  2. Dapatkan Anda Kunci API dari dasbor Anda.
  3. Simpan sebagai variabel lingkungan: export COMETAPI_KEY="sk-xxxx"

Pemahaman dasar tentang API yang kompatibel dengan OpenAI

  • CometAPI mengekspos Titik akhir bergaya OpenAI 'like' /v1/chat/completions.
  • LiteLLM secara asli mendukung format ini, jadi tidak diperlukan klien khusus.

Bagaimana cara melakukan panggilan penyelesaian dasar (menggunakan LiteLLM → CometAPI)?

Gunakan fungsi pelengkapan LiteLLM untuk mengirim pesan ke model CometAPI. Anda dapat menentukan model seperti cometapi/gpt-5 atau cometapi/gpt-4o.

Metode 1: Gunakan variabel lingkungan untuk kunci API (disarankan).

from litellm import completion
import os

# Option A: use env var

os.environ = "sk_xxx" # CometAPI key

# Direct call with explicit api_base + api_key

resp = completion(
    model="cometapi/gpt-5",               
    api_key=os.environ,  
    api_base="https://www.cometapi.com/console/", # CometAPI base URL

    messages=[
        {"role":"system", "content":"You are a concise assistant."},
        {"role":"user", "content":"Explain why model-aggregation is useful in 3 bullets."}
    ],
    max_tokens=200,
    temperature=0.2
)

print(resp.choices.message)

Jika Anda lebih suka, Anda juga dapat mengatur OPENAI_API_KEY/OPENAI_API_BASE — LiteLLM menerima beberapa konvensi penyedia; periksa versi dokumen SDK Anda.

Metode 2: Berikan kunci API secara eksplisit:

Contoh:

from litellm import completion
import os
# Define your messages (array of dictionaries with 'content' and 'role')

messages = 

api_key = 'your-cometapi-key-here'  # Alternative: Store it in a variable for explicit passing

# CometAPI call - Method 2: Explicitly passing API key

response_2 = completion(model="cometapi/gpt-4o", messages=messages, api_key=api_key)

# Print the responses

print(response_2.choices.message.content)

Bagaimana cara kerja panggilan asinkron dan streaming dengan LiteLLM → CometAPI?

Panggilan Asinkron

  • Arti: Panggilan asinkron terjadi saat permintaan dibuat untuk melakukan sesuatu (seperti mengambil data atau menjalankan tugas), tetapi alih-alih menunggu hingga selesai sebelum melanjutkan, program terus mengeksekusi kode lainnya.
  • Ide Kunci:“Jangan halangi, teruslah bekerja sambil menunggu.”
  • Example:
  • Dalam aplikasi web: mengambil data dari API tanpa membekukan UI.
  • Dalam Python: menggunakan async/await dengan asyncio.
  • Dalam JavaScript: menggunakan Promises or async/await.

Gunakan kasing: Meningkatkan kinerja dan respons dengan tidak memblokir utas utama.


Panggilan Streaming

  • Arti:Panggilan streaming berarti bahwa alih-alih menunggu semua data siap dan kemudian mengirimkannya kembali sekaligus, server mengirimkan potongan data segera setelah tersedia.
  • Ide Kunci:“Kirimkan data sepotong demi sepotong saat sedang diproduksi.”
  • Example:
  • Menonton video YouTube sebelum seluruh berkas video diunduh.
  • Aplikasi obrolan waktu nyata atau pembaruan ticker saham.
  • Dalam API: alih-alih menunggu keluaran lengkap model, klien menerima kata-kata/token secara progresif (seperti cara ChatGPT mengalirkan teks).

An panggilan streaming asinkron Baik LiteLLM maupun CometAPI mendukung streaming dan penggunaan asinkron. LiteLLM mengekspos stream=True untuk menerima iterator potongan, dan acompletion() Untuk penggunaan asinkron. Gunakan streaming jika Anda menginginkan keluaran parsial berlatensi rendah (interaktivitas UI, pemrosesan token per token). Dengan demikian, permintaan dibuat tanpa pemblokiran, dan hasilnya dikirimkan secara progresif saat siap. Untuk aplikasi non-pemblokiran atau real-time, gunakan fungsi acompletion LiteLLM untuk panggilan asinkron. Fungsi ini berguna dengan asyncio Python untuk menangani konkurensi.

Contoh:

from litellm import acompletion
import asyncio, os, traceback

async def completion_call():
    try:
        print("Testing asynchronous completion with streaming")
        response = await acompletion(
            model="cometapi/chatgpt-4o-latest", 
            messages=, 
            stream=True  # Enable streaming for chunked responses

        )
        print(f"Response object: {response}")

        # Iterate over the streamed chunks asynchronously

        async for chunk in response:
            print(chunk)
    except Exception:
        print(f"Error occurred: {traceback.format_exc()}")
        pass

# Run the async function

await completion_call()

Penjelasan:

  • acompletion adalah versi asinkron dari completion.
  • stream=True memungkinkan streaming, di mana respons dihasilkan dalam potongan waktu nyata.
  • penggunaan asyncio untuk menjalankan fungsi (misalnya, di Jupyter Notebook dengan await atau melalui asyncio.run() dalam skrip).
  • Jika terjadi kesalahan, kesalahan tersebut akan terdeteksi dan dicetak untuk di-debug.

Keluaran yang diharapkan:Anda akan melihat objek respons dan potongan individual yang dicetak, misalnya:

Testing asynchronous completion with streaming
Response object: <async_generator object acompletion at 0x...>
Chunk: {'choices': }
Chunk: {'choices': }
... (full response streamed in parts)

Tips Tambahan

  • Model tidak ditemukan / titik akhir tidak cocok: pastikan Anda memilih nama model yang ada di CometAPI (dokumen mereka mencantumkan pengenal yang tersedia) dan konvensi awalan model LiteLLM Anda cocok (misalnya, cometapi/<model> (jika diperlukan). Model CometAPI mengikuti format cometapi/, misalnya cometapi/gpt-5, cometapi/gpt-4o, cometapi/chatgpt-4o-latest. Periksa dokumentasi CometAPI untuk model terbaru.
  • Penanganan Kesalahan: Selalu bungkus panggilan dalam blok try-except untuk menangani masalah seperti kunci tidak valid atau kesalahan jaringan.
  • Fitur LanjutanLiteLLM mendukung parameter seperti temperatur, max_tokens, dan top_p untuk menyempurnakan respons. Tambahkan parameter tersebut ke panggilan penyelesaian atau acompletion, misalnya, penyelesaian(…, temperatur=0.7).
  • 403 / kesalahan autentikasi — pastikan Anda menggunakan kunci CometAPI yang tepat dan mengirimkannya sebagai api_key ke LiteLLM

Kesimpulan

Integrasi LiteLLM dengan CometAPI gesekannya rendah karena kedua belah pihak menggunakan antarmuka yang kompatibel dengan OpenAI dan terdokumentasi dengan baik. Gunakan LiteLLM untuk memusatkan penggunaan LLM di basis kode Anda, atur api_base ke CometAPI dan meneruskan kunci CometAPI, dan memanfaatkan bantuan sinkronisasi/asinkronisasi/streaming LiteLLM untuk membuat aplikasi yang responsif dan fleksibel.

Mulai

CometAPI adalah platform API terpadu yang menggabungkan lebih dari 500 model AI dari penyedia terkemuka—seperti seri GPT OpenAI, Gemini Google, Claude Anthropic, Midjourney, Suno, dan lainnya—menjadi satu antarmuka yang ramah bagi pengembang. Dengan menawarkan autentikasi yang konsisten, pemformatan permintaan, dan penanganan respons, CometAPI secara drastis menyederhanakan integrasi kapabilitas AI ke dalam aplikasi Anda. Baik Anda sedang membangun chatbot, generator gambar, komposer musik, atau alur kerja analitik berbasis data, CometAPI memungkinkan Anda melakukan iterasi lebih cepat, mengendalikan biaya, dan tetap tidak bergantung pada vendor—semuanya sambil memanfaatkan terobosan terbaru di seluruh ekosistem AI.

Untuk memulai, jelajahi kemampuan model di tempat bermain dan konsultasikan Panduan Integrasi LiteLLM untuk petunjuk terperinci. Sebelum mengakses, pastikan Anda telah masuk ke CometAPI dan memperoleh kunci API. API Komet menawarkan harga yang jauh lebih rendah dari harga resmi untuk membantu Anda berintegrasi.

Baca Selengkapnya

500+ Model dalam Satu API

Diskon hingga 20%