Comment accéder à Gemma 3n et l'utiliser ?

CometAPI
AnnaJun 1, 2025
Comment accéder à Gemma 3n et l'utiliser ?

Alors que l’IA poursuit son évolution rapide, les développeurs et les organisations recherchent des modèles puissants mais efficaces pouvant fonctionner sur du matériel de tous les jours. Gemma 3n, le dernier modèle open source de la famille Gemma de Google DeepMind, est spécialement conçu pour une inférence à faible encombrement et sur appareil, ce qui en fait un choix idéal pour les applications mobiles, périphériques et embarquées. Dans ce guide détaillé, nous explorerons ce qu'est Gemma 3n, ce qui le distingue et, surtout,comment vous pouvez y accéder et commencer à l'utiliser dès aujourd'hui.

Qu'est-ce que Gemma 3n ?

Gemma 3n est la dernière variante de la famille ouverte de modèles d'IA Gemma de Google, conçue spécifiquement pour les environnements aux ressources limitées. Contrairement à ses prédécesseurs, Gemma 3n intègre un modèle « hôte » de 4 milliards de paramètres actifs et un sous-modèle intégré de 2 milliards de paramètres, permettant des compromis dynamiques entre qualité et latence sans basculer entre différents points de contrôle. Cette architecture à double échelle, baptisée « Many-in-1 », exploite des innovations telles que les intégrations par couche (PLE), le partage de clés-valeurs-cache (KVC) et la quantification d'activation avancée pour réduire l'utilisation de la mémoire et accélérer l'inférence sur l'appareil.

Qu'est-ce qui distingue Gemma 3n des autres variantes de Gemma ?

Flexibilité deux en un : Le sous-modèle imbriqué de Gemma 3n permet aux développeurs de s'adapter de manière transparente entre le modèle de paramètres 4 B de haute qualité et une version de paramètres 2 B plus rapide sans charger de binaires séparés.

Efficacité améliorée : Grâce à des techniques telles que la mise en cache PLE et le partage KVC, Gemma 3n atteint des temps de réponse environ 1.5 fois plus rapides sur mobile par rapport à Gemma 3 4 B, tout en maintenant ou en améliorant la qualité de sortie.

Support multimodal : Au-delà du texte, Gemma 3n traite nativement les entrées visuelles et audio, le positionnant comme une solution unifiée pour des tâches telles que le sous-titrage d'images, la transcription audio et le raisonnement multimodal.

Gemma 3n étend la famille de modèles ouverts Gemma, issue de Gemma 2 puis de Gemma 3, en adaptant explicitement l'architecture aux contraintes matérielles. Alors que Gemma 3 cible les stations de travail, les GPU d'entrée de gamme et les instances cloud, Gemma 3n est optimisé pour les appareils dotés de seulement 2 Go de RAM, permettant une approche multi-en-un imbriquée qui s'adapte dynamiquement à la taille des sous-modèles en fonction des ressources disponibles.

Quel rôle joue Gemini Nano ?

Gemini Nano est le prochain Intégration Android et Chrome s'appuyant sur la même architecture sous-jacente que Gemma 3n. Elle élargira l'accessibilité en intégrant ces fonctionnalités directement aux principales plateformes grand public de Google plus tard cette année, consolidant ainsi l'écosystème. IA hors ligne en premier .

Comment accéder à Gemma 3n ?

L'aperçu de Gemma 3n est accessible via plusieurs canaux, chacun adapté à différentes préférences de développement.

Exploration basée sur le cloud via Google AI Studio

  1. Connexion à Google AI Studio avec votre compte Google.
  2. Dans l' Paramètres d'exécution panneau, sélectionnez le Gemma 3n E4B (ou le dernier aperçu) modèle.
  3. Entrez votre invite dans l'éditeur central et Courir pour voir des réponses instantanées.

Aucune configuration locale n'est requise, idéal pour le prototypage rapide et l'expérimentation dans le navigateur.

Accès au SDK avec Google GenAI SDK

Pour l'intégration dans les applications Python :

pythonfrom google.genai import Client

client = Client(api_key="YOUR_API_KEY")
model = client.get_model("gemma-3n-e4b-preview")
response = model.generate("Translate this sentence to Japanese.")
print(response.text)

Cette méthode permet d'intégrer les fonctionnalités de Gemma 3n dans des backends ou des outils de bureau avec seulement quelques lignes de code.

Déploiement sur l'appareil avec Google AI Edge

Google AI Edge fournit des bibliothèques et des plugins natifs (par exemple, pour Android via des packages AAR ou iOS via CocoaPods) pour déployer Gemma 3n directement dans les applications mobiles. Cette solution permet de débloquer direct Inférence, préservant la confidentialité des utilisateurs en conservant les données sur l'appareil. La configuration comprend généralement :

  1. Ajout de la dépendance AI Edge à votre projet.
  2. Initialisation de l'interpréteur Gemma 3n avec les indicateurs de modalité requis.
  3. Exécution d’appels d’inférence via une API de bas niveau ou un wrapper de haut niveau.

La documentation et des exemples de code sont disponibles sur le site Google Developers.

Modèle communautaire partagé sur Hugging Face

Un aperçu de la variante Gemma 3n E4B IT est disponible sur Hugging Face. Pour y accéder :

  1. Se connecter or inscrivez-vous à Hugging Face.
  2. Acceptez la licence d'utilisation de Google sur le google/gemma-3n-E4B-it-litert-preview .
  3. Clonez ou téléchargez les fichiers du modèle via git lfs ou le Python transformers API.

Vos demandes sont traitées immédiatement une fois que vous acceptez les termes de la licence.

Comment intégrer Gemma 3n ?

Kit de développement logiciel Gen AI : Fournit des bibliothèques clientes prédéfinies pour Android, iOS et le Web qui gèrent les détails de bas niveau tels que le chargement du modèle, la quantification et le threading.

TensorFlow Lite (TFLite) : Les outils de conversion automatisés transforment les points de contrôle de Gemma 3n en fichiers TFLite FlatBuffer, en appliquant une quantification post-formation pour minimiser la taille binaire.

Edge TPU et GPU mobiles : Pour les développeurs ciblant des accélérateurs spécialisés, Gemma 3n peut être compilé avec XLA ou TensorRT, débloquant un débit supplémentaire sur les appareils équipés de TPU Coral Edge ou de GPU Adreno.

Quelles sont les conditions préalables nécessaires ?

  1. Matériel:Un appareil doté d'un processeur ARM moderne, avec prise en charge NPU ou GPU en option recommandée pour un débit amélioré.
  2. Software:
  • Android 12+ ou noyau Linux 5.x+ pour l'exécution edge-lite.
  • AI Edge SDK v1.2.0 ou version ultérieure, disponible via les référentiels Maven et apt de Google.
  • Python 3.9+ ou Java 11+ pour les exemples de bibliothèques clientes.

Comment intégrer Gemma 3n dans une application Android ?

Ajouter la dépendance AI-Edge-Lite

groovyimplementation 'com.google.ai:edge-lite:1.2.3'

Charger le modèle binaire

javaModelLoader loader = new ModelLoader(context, "gemma-3n.tflite"); EdgeModel model = loader.load();

Exécuter l'inférence

javaTensor input = Tensor.fromImage(bitmap); Tensor output = model.run(input); String caption = output.getString(0);

Gérer les entrées multimodales
Utilisez le EdgeInputBuilder pour combiner les tenseurs de texte, de vision et d'audio dans un seul appel d'inférence.

Comment essayer Gemma 3n localement sur Linux ?

Téléchargez le modèle TFLite:Disponible via le bucket Google Cloud Storage :

arduinogs://gemma-models/gemma-3n.tflite

Installer le SDK Python:

bashpip install ai-edge-lite

Exemple d'inférence Python:

 pythonfrom edge_lite import EdgeModel model = EdgeModel("gemma-3n.tflite") response = model.generate_text("Explain quantum entanglement in simple terms.") print(response)

Quels sont les cas d’utilisation typiques de Gemma 3n ?

En combinant les prouesses multimodales avec l'efficacité sur l'appareil, il ouvre de nouvelles applications dans tous les secteurs.

Quelles applications grand public en bénéficient le plus ?

  • Assistants alimentés par caméra:Description ou traduction de scène en temps réel directement sur l'appareil, sans latence dans le cloud.
  • Interfaces vocales d'abord:Assistants vocaux privés et hors ligne dans les voitures ou les appareils domestiques intelligents.
  • Vuforia:Reconnaissance d'objets en direct et superposition de légendes sur des lunettes AR.

Comment Gemma 3n est-il utilisé dans les scénarios d'entreprise ?

  • Inspection sur le terrain:Outils d'inspection hors ligne pour les services publics et les infrastructures, exploitant le raisonnement image-texte sur les appareils mobiles.
  • Traitement sécurisé des documents:IA sur site pour l'analyse de documents sensibles dans les secteurs de la finance ou de la santé, garantissant que les données ne quittent jamais l'appareil.
  • Soutien multilingue:Traduction et synthèse immédiates de communications internationales en temps réel.

Conclusion

Gemma 3n représente un bond en avant significatif dans la mise en place IA générative puissante et multimodale au creux de votre main. En épousant efficacité de pointe avec conception axée sur la confidentialité et prête pour le hors ligne, il permet aux développeurs de créer des expériences intelligentes respectueuses des données utilisateur et fonctionnant avec une latence minimale. Que vous prototypiez dans Google AI Studio, expérimentiez avec Hugging Face ou intégriez via le SDK Gen AI, il offre une plateforme polyvalente pour l'innovation sur appareil. À mesure que le modèle et son écosystème mûrissent, avec Gemini Nano en perspective, la promesse d'une IA véritablement omniprésente, privée et réactive se rapproche de plus en plus de la réalité.

Pour commencer

CometAPI fournit une interface REST unifiée qui regroupe des centaines de modèles d'IA, dont la famille Gemini, sous un point de terminaison cohérent, avec gestion intégrée des clés API, des quotas d'utilisation et des tableaux de bord de facturation. Plus besoin de jongler avec plusieurs URL et identifiants de fournisseurs.

Les développeurs peuvent accéder Pré-API Flash Gemini 2.5  (modèle:gemini-2.5-flash-preview-05-20) et API Gemini 2.5 Pro (modèle:gemini-2.5-pro-preview-05-06)etc. à travers API CometPour commencer, explorez les capacités du modèle dans le cour de récréation et consultez le Guide de l'API Pour des instructions détaillées, veuillez vous connecter à CometAPI et obtenir la clé API avant d'y accéder.

En savoir plus

500+ Modèles en Une API

Jusqu'à 20% de réduction