Gemini 3.1 Pro için pratik, koda odaklı bir rehber — nedir, nasıl çağrılır (CometAPI üzerinden dahil), çok modlu ve “düşünme düzeyi” denetimleri, fonksiyon çağırma/araç kullanımı, vibe-coding ipuçları ve GitHub Copilot, VS Code, Gemini CLI ve Google Antigravity ile entegrasyonlar. Gemini 3.1 Pro, odaklı bir geliştirici hikayesiyle büyük çoklu modal modellerin sınırlarını ileri taşıyor: daha büyük bağlam pencereleri, yapılandırılabilir “düşünme” modları, geliştirilmiş araç ve fonksiyon çağırma ve ajan temelli iş akışlarına açık destek.
Gemini 3.1 Pro nedir?
Gemini 3.1 Pro, Gemini 3 ailesindeki en yeni “Pro” katmanıdır: yerel olarak çok modlu, karmaşık, çok adımlı görevler ve ajan temelli araç kullanımı için ayarlanmış, önce akıl yürütme yaklaşımına sahip bir model. Gemini 3 Pro’nun bir iyileştirmesi olarak sunulur ve üç pratik odak barındırır: daha güçlü akıl yürütme/gerçeklere dayanma, daha iyi token verimliliği ve geliştirici iş akışlarına (kod, planlama, geri getirme destekli görevler) yönelik kontrol edilebilir yürütme modları. Model kartı ve geliştirici sayfaları, yazılım mühendisliği davranışı, ajan boru hatları ve çok modlu girdiler (metin, görseller, ses, video ve depolar) için optimize edildiğini belirtir.
Sizin için neden önemli: bir milyon token’lık bağlam penceresi (birçok sağlayıcı varyantında), açık fonksiyon çağırma ilkelleri ve “düşünme düzeyi” kontrollerinin birleşimi; hızlı prototiplemeden üretim ajan orkestrasyonuna kadar her şey için daha öngörülebilir maliyetler ve çıktılar sunar. CometAPI hâlihazırda 3.1 Pro’yu API pazarları ve OpenAI uyumlu köprüler üzerinden sunuyor, kullanım başına ödeme kalıpları sağlar.
Gemini 3.1 Pro API’sini (CometAPI) nasıl kullanabilirsiniz?
Başlamadan önce nelere ihtiyacım var?
Kontrol listesi (önkoşullar)
- Bir CometAPI hesabı ve bir CometAPI API anahtarı (ortam değişkenlerinde saklayın).
- İsteğe bağlı olarak Google Cloud / Google AI Studio projesi ve Gemini API anahtarı (Comet üzerinden çağırırken gerekli değildir).
python 3.9+veyanode 18+, hızlı testler içincurl.- Güvenli bir gizli yönetimi mekanizması: ortam değişkenleri, kasa (vault) veya CI gizli depo.
- Comet konsolunuzda Gemini 3.1 Pro için Comet model kimliğini doğrulayın (ör. "google/gemini-3.1-pro" veya Comet’e özgü bir takma ad).
CometAPI, Gemini yerel biçim çağrılarını ve OpenAI’nin sohbet biçimi çağrılarını destekler. CometAPI, modeller arasında geçişi basitleştirir, tek bir temel URL ve SDK’lar sunar ve çok tedarikçili yığınlar için entegrasyon sürtünmesini azaltabilir.
Aşağıda iki somut, kopyala-yapıştır dostu örnek var: ilki CometAPI (OpenAI uyumlu istemci) üzerinden Gemini’yi çağırmak, ikincisi Google’ın resmi Gemini HTTP uç noktasını kullanmak. YOUR_API_KEY değerini sağlayıcı anahtarınızla değiştirin ve model adlarını sağlayıcıda mevcut varyanta ayarlayın (ör. açıklandığı yerde gemini-3.1-pro-preview).
Örnek: CometAPI kullanarak Gemini 3.1 Pro çağırma (curl + Python)
Curl (CometAPI base URL kullanan OpenAI uyumlu sarmalayıcı)
# curl example: CometAPI (OpenAI-compatible)curl https://api.cometapi.com/v1/chat/completions \ -H "Authorization: Bearer YOUR_API_KEY" \ -H "Content-Type: application/json" \ -d '{ "model": "gemini-3.1-pro-preview", "messages": [ {"role":"system","content":"You are a concise programming assistant."}, {"role":"user","content":"Write a Python function to fetch CSV from a URL and return pandas DataFrame."} ], "max_tokens": 800 }'
Python (CometAPI base_url için yapılandırılmış OpenAI uyumlu istemci)
from openai import OpenAI # or openai-python-compatible SDK offered by your platformclient = OpenAI(api_key="YOUR_API_KEY", base_url="https://api.cometapi.com/v1")resp = client.chat.completions.create( model="gemini-3.1-pro-preview", messages=[ {"role": "system", "content": "You are a concise programming assistant."}, {"role": "user", "content": "Write a Python function to fetch CSV from a URL and return pandas DataFrame."} ], max_tokens=800,)print(resp.choices[0].message.content)
Gerekçe: CometAPI, dokümanlarının çoğunda OpenAI uyumlu bir köprü sunar; bu da yalnızca
base_urlve model adını değiştirerek mevcut OpenAI istemci kodunuzu yeniden kullanmanıza izin verir. Bu, çok sağlayıcılı deneyler ve hızlı prototipleme için uygundur.
Örnek: Resmi Gemini API’si üzerinden Gemini çağırma (Node.js / HTTP)
Google’ın resmi Gemini uç noktaları, tam özellik seti (düşünme düzeyi kontrolleri, fonksiyon çağırma, çok modlu yüklemeler) için en iyisidir. Aşağıda Google AI geliştirici dokümanlarında açıklanan Gemini API yüzeyini kullanan minimal bir HTTP örneği verilmiştir.
Bunu kullanmak için resmi SDK’da veya isteklerde yalnızca Temel URL’yi ve API anahtarını değiştirin:
- Base URL: https://api.cometapi.com (
generativelanguage.googleapis.comile değiştirin) - API Key:
$GEMINI_API_KEYdeğerini kendi$COMETAPI_KEYanahtarınızla değiştirin
Curl (resmi Gemini API — örnek amaçlı)
curl "https://api.cometapi.com/v1beta/models/gemini-3-1-pro-preview:generateContent" \
-H "x-goog-api-key: $COMETAPI_KEY" \
-H 'Content-Type: application/json' \
-X POST \
-d '{
"contents": [
{
"parts": [
{
"text": "How does AI work?"
}
]
}
]
}'
Sık ayarlayacağınız parametreler
temperature(0.0–1.0) — rastgelelik. Deterministik kod çıktıları için0.0kullanın.max_output_tokens/max_tokens— çıktı uzunluğu bütçesi.top_p— çekirdek örnekleme.presence_penalty/frequency_penalty— tekrarı caydırır.thinking_levelveya model varyantı — akıl yürütme derinliğini belirler (ör.-low,-medium,-highveya açıkthinking_level). Maliyet/gecikmeyi kontrol etmek için doğruluk ihtiyacını karşılayan en düşük düşünme düzeyini kullanın.
Gemini 3.1 Pro’nun çok modlu yetenekleri nelerdir?
Gemini 3.1 Pro hangi modları destekler?
Gemini 3.1 Pro, birçok önizleme yapısında metin, görsel, video, ses ve PDF kabul eder — ve çok modlu içeriğe referans veren veya onu özetleyen metin çıktıları üretebilir. Comet, çok modlu girdileri Gemini’ye iletmeyi destekler — ya bir görsel URL’si, dosya yükleme (Comet file API) aracılığıyla ya da Gemini’nin bulut depolamadaki dosyaları okumasına izin vererek.
Geliştiriciler çok modlu istemleri nasıl düşünmeli?
- Çok modlu istemleri açık bağlam bloklarıyla yapılandırın: örneğin, kısa metin yönergesini önce ekleyin, ardından görseller/videolar/PDF’ler için meta verileri veya işaretçileri iliştirin.
- İkili veriyi metin alanlarına gömmek yerine SDK’nın medya ekleri ve dosya yükleme alanlarını kullanın — resmi istemciler ve Vertex AI / Gemini API örnekleri, medya eklerinin temiz şekilde nasıl geçirileceğini gösterir.
Pratik örnek (sözde kod): bir görsel artı soru gösterin
# Pseudocode — attach an image with a caption and ask a questionfrom google.gemini import GemSDK # conceptual import; use official client per docsresponse = client.generate( model="gemini-3.1-pro-preview", inputs = [ {"type": "text", "content": "Summarize the visual diagram and list actionable next steps."}, {"type": "image", "uri": "gs://my-bucket/diagram.png", "alt": "system architecture diagram"} ])print(response.text)
Pratik ipuçları:
- UI hata ayıklama için görsel eklerini kullanın: bir ekran görüntüsü ekleyin ve farkları veya olası nedenleri isteyin.
- Mülakat kayıt özetleme için ses dökümlerini kod örnekleriyle birleştirin.
- Büyük yapıtları (videolar, büyük kod depoları) gönderirken kademeli yaklaşımı tercih edin: varlıkları yükleyin (bulut depolama), URL’leri + kısa bir manifesti geçin ve her şeyi tek bir isteme doldurmak yerine modeli geri getirme destekli bir boru hattını yönlendirmek için kullanın.
Düşünme Düzeyleri (Düşük, Orta, Yüksek) nelerdir ve ne zaman kullanılmalı?
“Düşünme düzeyleri” nedir?
Gemini 3 serisi, modelin dahili hesap/akıl yürütme zinciri bütçesini yönlendiren bir thinking_level parametresi sunar. Bunu, gecikme + maliyeti daha derin akıl yürütmeyle takas eden bir düğme gibi düşünün:
- Düşük: minimum akıl yürütme, verim ve kısa, deterministik görevler için optimize edilmiştir.
- Orta: dengeli akıl yürütme — 3.1’de yeni, birçok mühendislik ve analitik iş akışı için idealdir.
- Yüksek: daha derin akıl yürütme, dinamik akıl yürütme zinciri tarzı; karmaşık çok adımlı problemler için en iyisidir.
(Bazı varyantlardaminimal/maxadlandırması da vardır — mevcut seçenekler için model dokümanlarına bakın.)
Hangi düşünme düzeyini seçmeliyim?
- Maliyet/gecikmenin kritik olduğu yüksek hacimli kullanıcı sohbeti, kısa yönergeler için Düşük kullanın.
- Ölçülü bir akıl yürütme gerektiren çoğu geliştirici görevi için varsayılan olarak Orta kullanın (3.1’de yeni “tatlı nokta” budur).
- Bulmacaları çözmek, uzun mantık zincirleri, planlama veya daha yüksek doğruluğu açıkça istediğiniz ve artan gecikme ve token tüketimini kabul ettiğiniz durumlarda Yüksek kullanın.
Bir istekte düşünme düzeyi nasıl ayarlanır
curl "https://api.cometapi.com/v1beta/models/gemini-3-1-pro-preview:generateContent" \
-H "x-goog-api-key: $COMETAPI_KEY" \
-H 'Content-Type: application/json' \
-X POST \
-d '{
"contents": [{ "parts": [{ "text": "Explain quantum physics simply." }] }],
"generationConfig": {
"thinkingConfig": {
"thinkingLevel": "LOW"
}
}
}'
Gemini 3.1 Pro ile fonksiyon çağırmayı ve araç kullanımını nasıl uygularım?
Fonksiyon çağırma / araç kullanımı nedir?
Fonksiyon çağırma (araç kullanımı olarak da adlandırılır), modelin uygulamanıza hangi harici aracı veya fonksiyonu (örneğin, get_current_weather(location)) hangi argümanlarla çalıştıracağınızı söyleyen yapısal “çağrı” nesneleri yaymasına olanak tanır. Model birden fazla çağrıyı zincirleyebilir, araç çıktılarını alabilir ve akıl yürütmeye devam edebilir — bu da ajan temelli davranışları mümkün kılar. Gemini SDK’ları, model-araç döngüsü (MCP/araç kayıt defteri) için yerleşik destek sunar; böylece yürütmeyi güvenle otomatikleştirebilirsiniz.
Proxy davranışını etkinleştirmek için araçları yapılandırmada beyan edebilirsiniz. Desteklenen yerleşik araçlar arasında google_search, code_execution ve url_context özel fonksiyonları bulunur.
Araç kullanımı için güvenli desen
- Araç arabirimlerini bildirin: açık şemalar ve doğrulanmış argüman tipleriyle fonksiyonları/araçları kaydedin.
- Modelin çağrıları önermesine izin verin: model hangi aracın çağrılacağını açıklayan yapısal JSON üretir.
- Host yalnızca beyaz listedeki araçları yürütür: bir izin listesi ve sıkı doğrulama uygulayın.
- Araç çıktılarını modele geri döndürün: SDK döngüsü araç yanıtını modele geri besler; model planlamaya/devam eden çağrılara devam edebilir.
Gemini 3.1 Pro entegrasyon rehberi
GitHub Copilot
GitHub Copilot (Copilot), premium katmanlarda Gemini ailesi modelleri için destek eklediğinden, ekiplerin Copilot sohbeti ve önerileri için temel model olarak Gemini’yi seçmesine izin verir. Bu, uygun planlardaki kullanıcıların Copilot model seçicide Gemini varyantlarını seçebileceği ve IDE uzantısını değiştirmeden model düzeyinde iyileştirmelerden faydalanabileceği anlamına gelir. Ekipler için Copilot, VS Code ve diğer desteklenen editörlerde Gemini akıl yürütmesine ulaşmanın yönetilen ve uygun bir yoludur.
Gemini CLI ve Code Assist
Açık kaynaklı Gemini CLI, terminalde Gemini modellerini sunar; hafif yapılıdır ve mevcut iş akışlarıyla (diff’ler, commit’ler, CI ve başsız sunucu çalıştırmaları) entegre olur. CLI’yı hızlı yineleme, ajan çalıştırmalarını betiklemek veya modeli DevOps akışlarına gömmek için kullanın. Gemini Code Assist, bağlama duyarlı kod önerileri, PR incelemeleri ve otomatik düzeltmeleri doğrudan editöre getiren VS Code uzantısı ve daha geniş IDE entegrasyonudur. Bu araçlar, model seçimi, bağlam pencereleri ve düşünme düzeyi tercihlerini kontrol etmenizi sağlar.
Visual Studio Code
Visual Studio Code ve pazar yeri, hem GitHub Copilot’u hem de Gemini Code Assist’i barındırır. Gemini için Code Assist’i kurabilir veya Copilot’u kullanmaya devam edebilirsiniz; her biri farklı ödünleşimler sunar (hız, derinlik, gizlilik). VS Code, etkileşimli kod üretimi, editör içi sohbet ve yerel çalıştırmalar veya test düzenekleriyle doğrudan entegrasyon için en olgun yüzey olmaya devam eder.
Google Antigravity
Google Antigravity, ajanları birinci sınıf varlıklar olarak ele alan, ajan-öncelikli bir IDE ve platformdur; ajan orkestrasyonu için “Mission Control”, yerleşik tarayıcı otomasyonu ve çok ajanlı projeler için bir UI sunar. Antigravity ve Gemini CLI farklı ihtiyaçlara hizmet eder: Antigravity tam teşekküllü bir ajan IDE yüzeyidir; Gemini CLI ise terminal-yerli olup Antigravity ve VS Code’a uzantılar ve MCP (Model Context Protocol) sunucuları aracılığıyla entegre olur. Antigravity ekosistemi, yoğun ajan orkestrasyonu ve daha kuralcı, görsel bir yüzey isteyen ekipler için konumlandırılmıştır.
Kim neyi kullanmalı?
- Hızlı prototipleme ve tek dosya düzenlemeleri: hız için Gemini CLI + yerel testler veya Copilot.
- Derin akıl yürütme, uzun soluklu araştırma: yüksek düşünme düzeyi ve fonksiyon çağırma ile Gemini API (Vertex).
- Ajan orkestrasyonu ve çok adımlı otomasyon: görsel yönetim için Antigravity veya fonksiyon çağırma + MCP kullanan özel bir ajan boru hattı.
- Çok sağlayıcılı deneyler / maliyet kontrolü: modeller arasında geçiş yapmak veya ekonomik olarak Flash ve Pro’yu denemek için CometAPI veya benzeri toplayıcılar.
Entegrasyon için tasarım hususları:
- Güvenlik: istemlerde gizli bilgileri veya PII’yi göndermekten kaçının. Sunucu tarafı çağrılar için token kapsamlı hizmet hesapları kullanın.
- Yerel vs bulut: hafif asistan özelliklerini yerelde çalıştırın (hızlı tamamlamalar) ancak ağır çok modlu analizleri buluta yönlendirin.
- Kullanıcı kontrolü: modelin ürettiği kod düzenlemeleri için “bu öneriyi açıkla” ve kolay geri alma kontrollerini sunun.
Entegrasyon kalıpları ve önerilen mimari
Hafif uygulama (sohbet veya asistan)
- İstemci (tarayıcı/mobil) → arka uç mikro hizmeti → Gemini API (
thinking_level=low) - Sohbet deneyimi için akış/parsiyel çıktıları kullanın. Kullanıcı girdilerini doğrulayın ve doğrulanmamış istemcilerden ham araç çağrılarına asla izin vermeyin.
Ajan temelli backend (otomatikleştirilmiş iş akışları)
- Orkestratör hizmeti: beyaz listedeki küçük bir araç setini (DB okuma, CI iş çalıştırıcı, dahili API’ler) kaydedin.
- Gemini’nin plan yapmasına ve araç çağrıları üretmesine izin verin; orkestratör doğrulanmış çağrıları yürütür ve sonuçları döndürür. Planlama aşamaları için yüksek, yürütme adımları için orta düşünme düzeyi kullanın.
Çok modlu içeri alma hattı
Büyük belgeleri, görselleri veya videoları ön işleyin ve indeksleyin.
Gemini 3.1 Pro’yu ne zaman seçmelisiniz?
Şunlara ihtiyaç duyduğunuzda Gemini 3.1 Pro’yu seçin:
- çok modlu girdiler arasında yüksek doğruluklu, çok adımlı akıl yürütme;
- güvenilir araç orkestrasyonu ve ajan temelli iş akışları;
- IDE’lerde daha iyi kod üretim/düzenleme döngüleri (Copilot/CLI/Antigravity aracılığıyla); veya
- CometAPI gibi bir ağ geçidiyle sağlayıcılar arası karşılaştırmaları prototipleme.
Verim ve maliyete önem veriyorsanız, karma strateji benimseyin: çoğu iş akışı için varsayılan olarak orta düşünme, yüksek hacimli kullanıcı sohbeti için düşük ve daha derin akıl yürütmeyi açıkça gerektiren görevler (planlama, kanıtlar, çok adımlı sentez) için yalnızca yüksek kullanın.
Son düşünceler: Gemini 3.1 Pro yığının neresine oturur?
Gemini 3.1 Pro, modern geliştirici odaklı LLM’lerin sunması gerekenlere ağırlık veriyor: çok modlu anlama, açık araç orkestrasyonu ve akıl yürütme bütçesi için pragmatik kontroller. İster Google’ın API’leri ve Vertex üzerinden doğrudan, ister premium planlarda Copilot aracılığıyla, ister CometAPI gibi çok modelli platformlar üzerinden erişin; ekipler için kritik beceriler aynıdır: dikkatli düşünme düzeyi orkestrasyonu, güvenli fonksiyon çağırma kalıpları ve sağlam geliştirici iş akışlarına (CLI, IDE, otomatik testler) entegrasyon.
Geliştiriciler Gemini 3.1 Pro’ya şimdi CometAPI üzerinden erişebilir. Başlamak için Playground’da modelin yeteneklerini keşfedin ve ayrıntılı talimatlar için API guide’a bakın. Erişmeden önce, lütfen CometAPI’ye giriş yaptığınızdan ve API anahtarını aldığınızdan emin olun. CometAPI entegrasyonunuza yardımcı olmak için resmi fiyattan çok daha düşük bir fiyat sunar.
Hazır mısınız?→ Bugün Gemini 3.1 Pro için kaydolun!
Daha fazla ipucu, rehber ve yapay zeka haberleri için bizi VK, X ve Discord üzerinde takip edin!
