Yapay zeka hızla evrimini sürdürdükçe, geliştiriciler ve kuruluşlar günlük donanımlarda çalışabilen güçlü ve aynı zamanda verimli modeller arıyorlar. Gemma 3n, Google DeepMind'ın Gemma ailesindeki en son açık kaynaklı modeli, özellikle düşük ayak izi, cihaz üzerinde çıkarım için tasarlanmıştır ve bu da onu mobil, uç ve gömülü uygulamalar için ideal bir seçim haline getirir. Bu derinlemesine kılavuzda, Gemma 3n'in ne olduğunu, neden öne çıktığını ve en önemlisi,bugün nasıl erişebilir ve kullanmaya başlayabilirsiniz.
Gemma 3n nedir?
Gemma 3n, Google'ın açık Gemma AI modelleri ailesinin en yeni çeşididir ve özellikle kaynak kısıtlı ortamlar için tasarlanmıştır. Gemma 3n, seleflerinden farklı olarak hem 4 milyar aktif parametreli "ana bilgisayar" modelini hem de entegre 2 milyar parametreli alt modeli bünyesinde barındırarak ayrı kontrol noktaları arasında geçiş yapmadan dinamik kalite-gecikme dengelerini mümkün kılar. "Çok-bir-arada" olarak adlandırılan bu ikili ölçekli mimari, bellek kullanımını azaltmak ve cihazda çıkarımı hızlandırmak için Katman Başına Gömme (PLE), Anahtar-Değer-Önbellek (KVC) paylaşımı ve gelişmiş etkinleştirme nicelemesi gibi yeniliklerden yararlanır.
Gemma 3n'yi diğer Gemma varyantlarından ayıran nedir?
İki-Bir Arada Esneklik: Gemma 3n'in iç içe geçmiş alt modeli, geliştiricilerin ayrı ikili dosyalar yüklemeden yüksek kaliteli 4 B parametreli model ile daha hızlı 2 B parametreli sürüm arasında sorunsuz bir şekilde geçiş yapmalarına olanak tanır.
Gelişmiş Verimlilik: Gemma 3n, PLE önbelleğe alma ve KVC paylaşımı gibi teknikler sayesinde Gemma 1.5 3 B'ye kıyasla mobilde yaklaşık 4 kat daha hızlı yanıt süreleri elde ediyor ve çıktı kalitesini koruyor veya iyileştiriyor.
Çok Modlu Destek: Gemma 3n, metnin ötesinde, görüntü ve ses girdilerini doğal olarak işleyerek, resim altyazısı oluşturma, ses transkripsiyonu ve çok modlu akıl yürütme gibi görevler için birleşik bir çözüm olarak konumlandırıyor.
Gemma 3n, Gemma 2 ve sonrasında Gemma 3 ile başlayan açık modellerden oluşan Gemma ailesini, mimariyi açıkça kısıtlı donanım için uyarlayarak genişletir. Gemma 3 iş istasyonlarını, giriş seviyesi GPU'ları ve bulut örneklerini hedeflerken, Gemma 3n 2 GB kadar az RAM'e sahip cihazlar için optimize edilmiştir ve kullanılabilir kaynaklara bağlı olarak alt model boyutları arasında dinamik olarak ölçeklenen iç içe geçmiş bir çok-bir arada yaklaşımına olanak tanır.
Gemini Nano'nun Rolü Nedir?
Gemini Nano yakında piyasaya sürülecek Android ve Chrome entegrasyonu Gemma 3n ile aynı temel mimariye sahip. Bu cihaz içi yetenekleri bu yılın ilerleyen zamanlarında Google'ın başlıca tüketici platformlarına doğrudan yerleştirerek erişilebilirliği genişletecek ve ekosistemi daha da sağlamlaştıracak çevrimdışı-ilk AI .
Gemma 3n'e Nasıl Erişebilirsiniz?
Gemma 3n önizlemesine, her biri farklı geliştirme tercihlerine uygun olan birden fazla kanaldan erişilebilir.
Google AI Studio aracılığıyla Bulut Tabanlı Keşif
- Oturum aç Google hesabınızla Google AI Studio'ya bağlanın.
- içinde Ayarları çalıştır paneli seçin Gemma 3n E4B (veya en son önizleme) modeli.
- İsteminizi merkezi düzenleyiciye girin ve koşmak Anında yanıtları görmek için.
Yerel kurulum gerekmez; tarayıcıda hızlı prototipleme ve denemeler için idealdir.
Google GenAI SDK ile SDK Erişimi
Python uygulamalarına entegrasyon için:
pythonfrom google.genai import Client
client = Client(api_key="YOUR_API_KEY")
model = client.get_model("gemma-3n-e4b-preview")
response = model.generate("Translate this sentence to Japanese.")
print(response.text)
Bu yöntem, Gemma 3n yeteneklerinin sadece birkaç satır kodla arka uçlara veya masaüstü araçlarına gömülmesine olanak tanır.
Google AI Edge ile Cihaz Üzerinde Dağıtım
Google AI Edge, Gemma 3n'yi doğrudan mobil uygulamaların içine dağıtmak için yerel kütüphaneler ve eklentiler (örneğin, Android için AAR paketleri veya iOS için CocoaPods aracılığıyla) sağlar. Bu rota, çevrimdışı çıkarım, verileri cihazda tutarak kullanıcı gizliliğini koruma. Kurulum genellikle şunları içerir:
- Projenize AI Edge bağımlılığını ekleme.
- Gemma 3n yorumlayıcısını gerekli modalite bayraklarıyla başlatıyorum.
- Düşük seviyeli bir API veya yüksek seviyeli bir sarmalayıcı aracılığıyla çıkarım çağrıları çalıştırma.
Dokümantasyon ve örnek kod Google Developers sitesinde mevcuttur.
Topluluk Modeli Hugging Face'te Paylaş
Gemma 3n E4B IT varyantının bir önizlemesi Hugging Face'de barındırılıyor. Erişim için:
- Log in or kaydolmak Hugging Face'te.
- Google'ın kullanım lisansını kabul edin google/gemma-3n-E4B-it-litert-önizleme sayfamızı ziyaret edin.
- Model dosyalarını şu şekilde kopyalayın veya indirin:
git lfsveya PythontransformersAPI.
Lisans koşullarını kabul ettiğiniz anda talepleriniz derhal işleme alınır.
Gemma 3n Nasıl Entegre Edilir?
Gen AI SDK'sı: Model yükleme, niceleme ve iş parçacığı oluşturma gibi düşük düzeyli ayrıntıları yöneten Android, iOS ve web için önceden oluşturulmuş istemci kitaplıkları sağlar.
TensorFlow Lite (TFLite): Otomatik dönüştürme araçları, Gemma 3n'nin kontrol noktalarını TFLite FlatBuffer dosyalarına dönüştürerek ikili boyutu en aza indirmek için eğitim sonrası kantizasyon uygular.
Edge TPU ve Mobil GPU'lar: Özel hızlandırıcıları hedefleyen geliştiriciler için Gemma 3n, XLA veya TensorRT ile derlenebilir ve bu sayede Coral Edge TPU'ları veya Adreno GPU'ları ile donatılmış cihazlarda ek verim elde edilebilir.
Hangi ön koşullara ihtiyaç var?
- donanım:Geliştirilmiş verim için isteğe bağlı NPU veya GPU desteği önerilen, modern ARM tabanlı CPU'ya sahip bir cihaz.
- Yazılım:
- Edge-lite çalışma zamanı için Android 12+ veya Linux kernel 5.x+.
- AI Edge SDK v1.2.0 veya üzeri, Google'ın Maven ve apt depoları aracılığıyla kullanılabilir.
- Örnek istemci kütüphaneleri için Python 3.9+ veya Java 11+.
Gemma 3n'i bir Android uygulamasına nasıl entegre edebilirim?
AI-Edge-Lite Bağımlılığını Ekle
groovyimplementation 'com.google.ai:edge-lite:1.2.3'
Yük Modeli İkili
javaModelLoader loader = new ModelLoader(context, "gemma-3n.tflite"); EdgeModel model = loader.load();
Çıkarım Çalıştır
javaTensor input = Tensor.fromImage(bitmap); Tensor output = model.run(input); String caption = output.getString(0);
Çok Modlu Girişleri Yönet
Kullanım EdgeInputBuilder tek bir çıkarım çağrısında metin, görüntü ve ses tensörlerini birleştirmek.
Gemma 3n'i Linux'ta yerel olarak nasıl deneyebilirim?
TFLite Modelini İndirin: Google Cloud Storage kovası aracılığıyla kullanılabilir:
arduinogs://gemma-models/gemma-3n.tflite
Python SDK'sını yükleyin:
bashpip install ai-edge-lite
Python Çıkarım Örneği:
pythonfrom edge_lite import EdgeModel model = EdgeModel("gemma-3n.tflite") response = model.generate_text("Explain quantum entanglement in simple terms.") print(response)
Gemma 3n'in tipik kullanım durumları nelerdir?
Çok modlu yeteneği cihaz üzerindeki verimlilikle birleştirerek, sektörler genelinde yeni uygulamaların önünü açıyor.
Hangi tüketici uygulamaları en fazla faydayı sağlar?
- Kamera Destekli Asistanlar: Bulut gecikmesi olmadan doğrudan cihaz üzerinde gerçek zamanlı sahne açıklaması veya çevirisi.
- Ses Öncelikli Arayüzler: Arabalarda veya akıllı ev cihazlarında özel, çevrimdışı konuşma asistanları.
- Artırılmış Gerçeklik (AR): AR gözlüklerde canlı nesne tanıma ve altyazı yerleşimi.
Gemma 3n kurumsal senaryolarda nasıl kullanılır?
- Saha Denetimi: Mobil cihazlarda görüntü-metin mantığından yararlanarak kamu hizmetleri ve altyapı için çevrimdışı denetim araçları.
- Güvenli Belge İşleme: Finans veya sağlık sektörlerinde hassas belge analizi için şirket içi yapay zeka, verilerin cihazdan asla çıkmamasını sağlar.
- Dilde Destek:Uluslararası yazışmaların gerçek zamanlı olarak anında tercümesi ve özeti.
Sonuç
Gemma 3n, bir adım öne geçmede önemli bir sıçramayı temsil ediyor güçlü, çok modlu üretken AI avucunuzun içine. Evlenerek son teknoloji verimlilik ile gizlilik öncelikli, çevrimdışı kullanıma hazır tasarım, geliştiricilerin kullanıcı verilerine saygı duyan ve minimum gecikmeyle çalışan akıllı deneyimler oluşturmasını sağlar. İster Google AI Studio'da prototipleme yapın, ister Hugging Face ile denemeler yapın veya Gen AI SDK ile entegre edin, cihaz içi yenilik için çok yönlü bir platform sunar. Model ve ekosistemi olgunlaştıkça (Ufukta Gemini Nano varken) gerçekten her yerde bulunan, özel ve duyarlı AI vaadi gerçeğe giderek daha da yaklaşıyor.
Başlamak
CometAPI, Gemini ailesi dahil yüzlerce AI modelini tutarlı bir uç noktada toplayan birleşik bir REST arayüzü sunar; yerleşik API anahtarı yönetimi, kullanım kotaları ve faturalama panoları ile. Birden fazla satıcı URL'si ve kimlik bilgilerini bir arada yürütmek yerine.
Geliştiriciler erişebilir Gemini 2.5 Flash Ön API (model:gemini-2.5-flash-preview-05-20) Ve Gemini 2.5 Pro API (model:gemini-2.5-pro-preview-05-06)vb. aracılığıyla Kuyrukluyıldız API'siBaşlamak için, modelin yeteneklerini keşfedin Oyun Alanı ve danışın API kılavuzu Ayrıntılı talimatlar için. Erişimden önce, lütfen CometAPI'ye giriş yaptığınızdan ve API anahtarını edindiğinizden emin olun.
