Bagaimana Anda Boleh Mengakses dan Menggunakan Gemma 3n?

CometAPI
AnnaJun 1, 2025
Bagaimana Anda Boleh Mengakses dan Menggunakan Gemma 3n?

Semasa AI meneruskan evolusinya yang pesat, pembangun dan organisasi sedang mencari model yang berkuasa lagi cekap yang boleh dijalankan pada perkakasan harian. Gemma 3n, model sumber terbuka terbaharu Google DeepMind dalam keluarga Gemma, direka bentuk khusus untuk jejak rendah, inferens pada peranti, menjadikannya pilihan ideal untuk aplikasi mudah alih, edge dan terbenam. Dalam panduan mendalam ini, kami akan meneroka apa itu Gemma 3n, sebab ia menonjol, dan—yang paling penting—bagaimana anda boleh mengakses dan mula menggunakannya hari ini.

Apakah Gemma 3n?

Gemma 3n ialah varian terbaharu dalam keluarga Gemma model AI terbuka Google, direka bentuk khusus untuk persekitaran yang terhad sumber. Berbeza dengan pendahulunya, Gemma 3n menggabungkan kedua-dua model "hos" parameter aktif 4 bilion dan submodel 2 bilion parameter bersepadu, membolehkan pertukaran kualiti kependaman dinamik tanpa bertukar antara pusat pemeriksaan berasingan. Seni bina dwi-skala ini, yang dicipta "Many-in-1," memanfaatkan inovasi seperti Per Benamkan Per Lapisan (PLE), perkongsian Key-Value-Cache (KVC) dan pengkuantitian pengaktifan lanjutan untuk mengurangkan penggunaan memori dan mempercepatkan inferens pada peranti .

Apakah yang membezakan Gemma 3n daripada varian Gemma yang lain?

Fleksibiliti Dua dalam Satu: Submodel bersarang Gemma 3n membolehkan pembangun melaraskan dengan lancar antara model parameter 4 B berkualiti tinggi dan versi parameter 2 B yang lebih pantas tanpa memuatkan binari berasingan.

Kecekapan yang dipertingkatkan: Melalui teknik seperti caching PLE dan perkongsian KVC, Gemma 3n mencapai kira-kira 1.5× masa tindak balas yang lebih pantas pada mudah alih berbanding Gemma 3 4 B, sambil mengekalkan atau meningkatkan kualiti output .

Sokongan Multimodal: Di luar teks, Gemma 3n memproses input penglihatan dan audio secara asli, meletakkannya sebagai penyelesaian bersatu untuk tugas seperti kapsyen imej, transkripsi audio dan penaakulan pelbagai mod .

Gemma 3n memanjangkan keluarga Gemma model terbuka—yang bermula dengan Gemma 2 dan kemudiannya Gemma 3—dengan menyesuaikan seni bina secara eksplisit untuk perkakasan yang terhad. Walaupun Gemma 3 menyasarkan stesen kerja, GPU peringkat permulaan dan kejadian awan, Gemma 3n dioptimumkan untuk peranti dengan sekurang-kurangnya 2 GB RAM, membolehkan pendekatan banyak dalam satu bersarang yang menskalakan secara dinamik antara saiz submodel bergantung pada sumber yang tersedia.

Apakah Peranan yang dimainkan oleh Gemini Nano?

Gemini Nano akan datang Penyepaduan Android dan Chrome daripada seni bina asas yang sama seperti Gemma 3n. Ia akan meluaskan kebolehaksesan dengan membenamkan keupayaan pada peranti ini terus ke dalam platform pengguna utama Google pada akhir tahun ini, seterusnya mengukuhkan ekosistem untuk luar talian-diutamakan AI .

Bagaimana Anda Boleh Mengakses Gemma 3n?

Pratonton Gemma 3n boleh diakses melalui berbilang saluran, setiap satu sesuai dengan pilihan pembangunan yang berbeza.

Penerokaan Berasaskan Awan melalui Google AI Studio

  1. Login ke Google AI Studio dengan akaun Google anda.
  2. Dalam Jalankan tetapan panel, pilih Gemma 3n E4B (atau pratonton terkini) model.
  3. Masukkan gesaan anda dalam editor pusat dan Main untuk melihat respons segera.

Tiada persediaan setempat diperlukan—sesuai untuk prototaip pantas dan percubaan dalam penyemak imbas .

Akses SDK dengan Google GenAI SDK

Untuk penyepaduan ke dalam aplikasi Python:

pythonfrom google.genai import Client

client = Client(api_key="YOUR_API_KEY")
model = client.get_model("gemma-3n-e4b-preview")
response = model.generate("Translate this sentence to Japanese.")
print(response.text)

Kaedah ini membolehkan membenamkan keupayaan Gemma 3n dalam bahagian belakang atau alatan desktop dengan hanya beberapa baris kod.

Penerapan Pada Peranti dengan Google AI Edge

Google AI Edge menyediakan perpustakaan asli dan pemalam (cth, untuk Android melalui pakej AAR, atau iOS melalui CocoaPods) untuk menggunakan Gemma 3n terus di dalam apl mudah alih. Laluan ini dibuka ? inferens, memelihara privasi pengguna dengan menyimpan data pada peranti. Persediaan secara amnya melibatkan:

  1. Menambah kebergantungan AI Edge pada projek anda.
  2. Memulakan penterjemah Gemma 3n dengan bendera modaliti yang diperlukan.
  3. Menjalankan panggilan inferens melalui API peringkat rendah atau pembalut peringkat tinggi.

Dokumentasi dan kod sampel tersedia di tapak Google Developers.

Perkongsian Model Komuniti di Muka Berpeluk

Pratonton varian Gemma 3n E4B IT dihoskan pada Hugging Face. Untuk mengakses:

  1. Log masuk or mendaftar di Muka Berpeluk.
  2. Bersetuju dengan lesen penggunaan Google pada google/gemma-3n-E4B-it-litert-preview .
  3. Klon atau muat turun fail model melalui git lfs atau Python transformers API.

Permintaan anda diproses serta-merta sebaik sahaja anda menerima syarat lesen.

Bagaimana Anda Mengintegrasikan Gemma 3n?

Gen AI SDK: Menyediakan perpustakaan pelanggan prabina untuk Android, iOS dan web yang mengurus butiran peringkat rendah seperti pemuatan model, pengkuantitian dan penjalinan.

TensorFlow Lite (TFLite): Alat penukaran automatik mengubah pusat pemeriksaan Gemma 3n kepada fail TFLite FlatBuffer, menggunakan pengkuantitian selepas latihan untuk meminimumkan saiz binari.

TPU tepi dan GPU Mudah Alih: Bagi pembangun yang menyasarkan pemecut khusus, Gemma 3n boleh disusun dengan XLA atau TensorRT, membuka kunci daya pemprosesan tambahan pada peranti yang dilengkapi dengan Coral Edge TPU atau GPU Adreno .

Apakah prasyarat yang diperlukan?

  1. perkakasan: Peranti dengan CPU berasaskan ARM moden, dengan sokongan NPU atau GPU pilihan disyorkan untuk pemprosesan yang lebih baik.
  2. perisian:
  • Android 12+ atau Linux kernel 5.x+ untuk masa jalan edge-lite.
  • AI Edge SDK v1.2.0 atau lebih baru, tersedia melalui Google's Maven dan repositori apt.
  • Python 3.9+ atau Java 11+ untuk perpustakaan klien sampel.

Bagaimanakah cara saya mengintegrasikan Gemma 3n ke dalam apl Android?

Tambah Ketergantungan AI-Edge-Lite

groovyimplementation 'com.google.ai:edge-lite:1.2.3'

Perduaan Model Muatan

javaModelLoader loader = new ModelLoader(context, "gemma-3n.tflite"); EdgeModel model = loader.load();

Jalankan Inferens

javaTensor input = Tensor.fromImage(bitmap); Tensor output = model.run(input); String caption = output.getString(0);

Mengendalikan Input Multimodal
Penggunaan EdgeInputBuilder untuk menggabungkan teks, penglihatan dan tensor audio dalam satu panggilan inferens .

Bagaimanakah saya boleh mencuba Gemma 3n secara tempatan di Linux?

Muat turun Model TFLite: Tersedia melalui baldi Storan Awan Google:

arduinogs://gemma-models/gemma-3n.tflite

Pasang Python SDK:

bashpip install ai-edge-lite

Contoh Inferens Python:

 pythonfrom edge_lite import EdgeModel model = EdgeModel("gemma-3n.tflite") response = model.generate_text("Explain quantum entanglement in simple terms.") print(response)

Apakah kes penggunaan biasa untuk Gemma 3n?

Dengan menggabungkan kehebatan multimodal dengan kecekapan pada peranti, ia membuka kunci aplikasi baharu merentas industri.

Aplikasi pengguna manakah yang paling menguntungkan?

  • Pembantu Dikuasakan Kamera: Perihalan adegan masa nyata atau terjemahan terus pada peranti, tanpa kependaman awan.
  • Antara Muka Suara Pertama: Pembantu pertuturan luar talian peribadi dalam kereta atau peranti rumah pintar.
  • Realiti Dipertingkatkan (AR): Pengecaman objek langsung dan tindanan kapsyen pada cermin mata AR.

Bagaimanakah Gemma 3n digunakan dalam senario perusahaan?

  • Pemeriksaan Lapangan: Alat pemeriksaan luar talian untuk utiliti dan infrastruktur, memanfaatkan penaakulan imej–teks pada peranti mudah alih.
  • Pemprosesan Dokumen Selamat: AI di premis untuk analisis dokumen sensitif dalam sektor kewangan atau penjagaan kesihatan, memastikan data tidak pernah meninggalkan peranti.
  • Sokongan berbilang bahasa: Terjemahan segera dan ringkasan komunikasi antarabangsa dalam masa nyata.

Kesimpulan

Gemma 3n mewakili lonjakan yang ketara dalam membawa AI generatif multimodal yang berkuasa ke tapak tangan anda. Dengan berkahwin kecekapan terkini bersama privasi-dahulukan, reka bentuk sedia luar talian, ia memberi kuasa kepada pembangun untuk mencipta pengalaman pintar yang menghormati data pengguna dan beroperasi dengan kependaman yang minimum. Sama ada anda membuat prototaip dalam Google AI Studio, bereksperimen melalui Memeluk Wajah atau menyepadukan melalui Gen AI SDK, ia menawarkan platform serba boleh untuk inovasi pada peranti. Apabila model dan ekosistemnya matang—dengan Gemini Nano di kaki langit—janji AI yang benar-benar ada di mana-mana, peribadi dan responsif menjadi semakin hampir kepada realiti.

Bermula

CometAPI menyediakan antara muka REST bersatu yang mengagregatkan ratusan model AI—termasuk keluarga Gemini—di bawah titik akhir yang konsisten, dengan pengurusan kunci API terbina dalam, kuota penggunaan dan papan pemuka pengebilan. Daripada menyesuaikan berbilang URL vendor dan bukti kelayakan.

Pembangun boleh mengakses Gemini 2.5 Flash Pra API  (model:gemini-2.5-flash-preview-05-20) dan API Gemini 2.5 Pro (model:gemini-2.5-pro-preview-05-06) dan lain-lain melalui CometAPI. Untuk memulakan, terokai keupayaan model dalam Taman Permainan dan berunding dengan Panduan API untuk arahan terperinci. Sebelum mengakses, sila pastikan anda telah log masuk ke CometAPI dan memperoleh kunci API.

Baca Lagi

500+ Model dalam Satu API

Sehingga 20% Diskaun