Jak uzyskać dostęp do Gemma 3n i jak z niego korzystać?

CometAPI
AnnaJun 1, 2025
Jak uzyskać dostęp do Gemma 3n i jak z niego korzystać?

W miarę jak sztuczna inteligencja nieustannie się rozwija, twórcy oprogramowania i organizacje poszukują wydajnych i wydajnych modeli, które można uruchomić na zwykłym sprzęcie. Gemma 3n, najnowszy model open-source firmy Google DeepMind w rodzinie Gemma, został specjalnie zaprojektowany do wnioskowania na urządzeniu o niskim śladzie, co czyni go idealnym wyborem dla aplikacji mobilnych, brzegowych i osadzonych. W tym dogłębnym przewodniku przyjrzymy się, czym jest Gemma 3n, dlaczego się wyróżnia i — co najważniejsze —jak możesz uzyskać do niego dostęp i zacząć go używać już dziś.

Czym jest Gemma 3n?

Gemma 3n to najnowsza odmiana w otwartej rodzinie modeli AI Gemma firmy Google, zaprojektowana specjalnie dla środowisk o ograniczonych zasobach. W przeciwieństwie do swoich poprzedników, Gemma 3n zawiera zarówno model „hosta” o 4 miliardach aktywnych parametrów, jak i zintegrowany podmodel o 2 miliardach parametrów, umożliwiając dynamiczne kompromisy między jakością a opóźnieniem bez przełączania się między oddzielnymi punktami kontrolnymi. Ta architektura o podwójnej skali, nazywana „Many-in-1”, wykorzystuje innowacje, takie jak osadzanie na warstwę (PLE), współdzielenie pamięci podręcznej Key-Value (KVC) i zaawansowaną kwantyzację aktywacji, aby zmniejszyć wykorzystanie pamięci i przyspieszyć wnioskowanie na urządzeniu.

Co wyróżnia Gemma 3n od innych wariantów Gemma?

Elastyczność dwa w jednym: Zagnieżdżony podmodel Gemma 3n umożliwia programistom bezproblemowe przełączanie się między wysokiej jakości modelem o 4 parametrach B a szybszą wersją o 2 parametrach B bez konieczności ładowania oddzielnych plików binarnych.

Zwiększona wydajność: Dzięki takim technikom jak buforowanie PLE i udostępnianie KVC, Gemma 3n osiąga około 1.5 raza szybszy czas reakcji na urządzeniach mobilnych w porównaniu do Gemma 3 4 B, przy jednoczesnym zachowaniu lub poprawie jakości wyników.

Wsparcie multimodalne: Oprócz tekstu Gemma 3n natywnie przetwarza dane wizualne i dźwiękowe, co czyni ją ujednoliconym rozwiązaniem do takich zadań, jak tworzenie podpisów do obrazów, transkrypcja audio i rozumowanie multimodalne.

Gemma 3n rozszerza rodzinę otwartych modeli Gemma — która rozpoczęła się od Gemma 2, a później Gemma 3 — poprzez wyraźne dostosowanie architektury do ograniczonego sprzętu. Podczas gdy Gemma 3 jest skierowana do stacji roboczych, procesorów graficznych klasy podstawowej i instancji w chmurze, Gemma 3n jest zoptymalizowana dla urządzeń z zaledwie 2 GB pamięci RAM, umożliwiając zagnieżdżone podejście wiele w jednym, które dynamicznie skaluje się między rozmiarami podmodeli w zależności od dostępnych zasobów.

Jaką rolę odgrywa Gemini Nano?

Gemini Nano to nadchodzący Integracja z Androidem i Chrome tej samej podstawowej architektury co Gemma 3n. Rozszerzy dostępność poprzez osadzenie tych możliwości na urządzeniu bezpośrednio w głównych platformach konsumenckich Google w dalszej części roku, co jeszcze bardziej umocni ekosystem dla AI w trybie offline .

Jak uzyskać dostęp do Gemma 3n?

Dostęp do wersji zapoznawczej Gemma 3n jest możliwy za pośrednictwem wielu kanałów, z których każdy dostosowany jest do różnych preferencji programistów.

Eksploracja oparta na chmurze za pośrednictwem Google AI Studio

  1. Zaloguj do Google AI Studio przy użyciu konta Google.
  2. W Uruchom ustawienia panelu, wybierz Gemma 3n E4B (lub najnowszy model podglądowy).
  3. Wprowadź swój monit w edytorze centralnym i Uruchom aby zobaczyć natychmiastowe odpowiedzi.

Nie jest wymagana żadna lokalna konfiguracja — idealne rozwiązanie do szybkiego prototypowania i eksperymentowania w przeglądarce.

Dostęp do SDK za pomocą Google GenAI SDK

W celu integracji z aplikacjami Python:

pythonfrom google.genai import Client

client = Client(api_key="YOUR_API_KEY")
model = client.get_model("gemma-3n-e4b-preview")
response = model.generate("Translate this sentence to Japanese.")
print(response.text)

Metoda ta pozwala na osadzanie funkcji Gemma 3n w zapleczu lub narzędziach desktopowych za pomocą zaledwie kilku linijek kodu.

Wdrażanie na urządzeniu z Google AI Edge

Google AI Edge udostępnia natywne biblioteki i wtyczki (np. dla Androida za pośrednictwem pakietów AAR lub iOS za pośrednictwem CocoaPods) do wdrażania Gemma 3n bezpośrednio w aplikacjach mobilnych. Ta ścieżka odblokowuje nieaktywny wnioskowanie, zachowanie prywatności użytkownika poprzez przechowywanie danych na urządzeniu. Konfiguracja zazwyczaj obejmuje:

  1. Dodawanie zależności AI Edge do projektu.
  2. Inicjalizacja interpretera Gemma 3n z wymaganymi flagami modalności.
  3. Uruchamianie wywołań wnioskowania poprzez interfejs API niskiego poziomu lub opakowanie wysokiego poziomu.

Dokumentacja i przykładowy kod są dostępne w witrynie Google Developers.

Model społecznościowy Udostępnij na Hugging Face

Podgląd wariantu Gemma 3n E4B IT jest hostowany na Hugging Face. Aby uzyskać dostęp:

  1. Zaloguj Się or zapisz się w Hugging Face.
  2. Wyraź zgodę na licencję użytkowania Google na google/gemma-3n-E4B-it-litrt-podgląd strona.
  3. Sklonuj lub pobierz pliki modelu za pomocą git lfs lub Python transformers API.

Twoje żądanie zostanie rozpatrzone natychmiast po zaakceptowaniu warunków licencji.

Jak zintegrować Gemmę 3n?

Zestaw SDK Gen AI: Zawiera gotowe biblioteki klienckie dla systemów Android, iOS i sieci Web, które zarządzają szczegółami niskiego poziomu, takimi jak ładowanie modeli, kwantyzacja i wątki.

TensorFlow Lite (TFLite): Zautomatyzowane narzędzia konwersji przekształcają punkty kontrolne Gemma 3n na ​​pliki TFLite FlatBuffer, stosując kwantyzację po treningu w celu zminimalizowania rozmiaru pliku binarnego.

Edge TPU i mobilne procesory graficzne: Deweloperzy, którzy zamierzają używać specjalistycznych akceleratorów, mogą skompilować Gemmę 3n przy użyciu XLA lub TensorRT, co pozwala na uzyskanie dodatkowej przepustowości na urządzeniach wyposażonych w układy TPU Coral Edge lub GPU Adreno.

Jakie warunki wstępne są konieczne?

  1. sprzęt komputerowy:Urządzenie z nowoczesnym procesorem opartym na architekturze ARM, z opcjonalną obsługą NPU lub GPU, zalecaną w celu zwiększenia przepustowości.
  2. Oprogramowanie:
  • Android 12+ lub jądro Linux 5.x+ dla środowiska uruchomieniowego edge-lite.
  • Pakiet AI Edge SDK w wersji 1.2.0 lub nowszej jest dostępny w repozytoriach Maven i apt firmy Google.
  • Python 3.9+ lub Java 11+ jako przykładowe biblioteki klienckie.

Jak zintegrować Gemmę 3n z aplikacją na Androida?

Dodaj zależność AI-Edge-Lite

groovyimplementation 'com.google.ai:edge-lite:1.2.3'

Załaduj model binarny

javaModelLoader loader = new ModelLoader(context, "gemma-3n.tflite"); EdgeModel model = loader.load();

Uruchom wnioskowanie

javaTensor input = Tensor.fromImage(bitmap); Tensor output = model.run(input); String caption = output.getString(0);

Obsługa danych wejściowych multimodalnych
Zastosowanie EdgeInputBuilder łączenie tekstu, obrazu i tensorów audio w jednym wywołaniu wnioskowania.

Jak wypróbować Gemmę 3n lokalnie na Linuksie?

Pobierz model TFLiteDostępne za pośrednictwem kontenera Google Cloud Storage:

arduinogs://gemma-models/gemma-3n.tflite

Zainstaluj Python SDK:

bashpip install ai-edge-lite

Przykład wnioskowania w Pythonie:

 pythonfrom edge_lite import EdgeModel model = EdgeModel("gemma-3n.tflite") response = model.generate_text("Explain quantum entanglement in simple terms.") print(response)

Jakie są typowe przypadki użycia Gemma 3n?

Łącząc możliwości multimodalne z wydajnością na urządzeniu, otwiera nowe zastosowania w różnych branżach.

Które aplikacje konsumenckie odnoszą z tego największe korzyści?

  • Asystenci obsługiwani przez kamerę:Opis sceny w czasie rzeczywistym lub tłumaczenie bezpośrednio na urządzeniu, bez opóźnień spowodowanych przez chmurę.
  • Interfejsy oparte na głosie:Prywatni asystenci głosowi pracujący offline w samochodach lub urządzeniach inteligentnego domu.
  • Augmented Reality (AR):Rozpoznawanie obiektów na żywo i nakładanie napisów na okulary AR.

W jaki sposób Gemma 3n jest wykorzystywana w scenariuszach korporacyjnych?

  • Inspekcja terenowa:Narzędzia do inspekcji offline instalacji użyteczności publicznej i infrastruktury, wykorzystujące wnioskowanie obrazowo-tekstowe na urządzeniach mobilnych.
  • Bezpieczne przetwarzanie dokumentów:Lokalna sztuczna inteligencja do analizy poufnych dokumentów w sektorze finansowym lub opieki zdrowotnej, gwarantująca, że ​​dane nigdy nie opuszczą urządzenia.
  • Obsługa wielu języków:Natychmiastowe tłumaczenie i podsumowanie komunikacji międzynarodowej w czasie rzeczywistym.

Podsumowanie

Gemma 3n to znaczący krok naprzód w zakresie wprowadzania potężna, multimodalna generatywna sztuczna inteligencja na dłoni. Poślubiając najnowocześniejsza wydajność w projekt stawiający na prywatność i gotowy do pracy w trybie offline, umożliwia programistom tworzenie inteligentnych doświadczeń, które szanują dane użytkownika i działają z minimalnym opóźnieniem. Niezależnie od tego, czy tworzysz prototyp w Google AI Studio, eksperymentujesz za pomocą Hugging Face, czy integrujesz za pomocą Gen AI SDK, oferuje wszechstronną platformę do innowacji na urządzeniu. W miarę dojrzewania modelu i jego ekosystemu — z Gemini Nano na horyzoncie — obietnica prawdziwie wszechobecnej, prywatnej i responsywnej AI staje się coraz bliższa rzeczywistości.

Jak zacząć

CometAPI zapewnia ujednolicony interfejs REST, który agreguje setki modeli AI — w tym rodzinę Gemini — w ramach spójnego punktu końcowego, z wbudowanym zarządzaniem kluczami API, limitami wykorzystania i panelami rozliczeniowymi. Zamiast żonglować wieloma adresami URL dostawców i poświadczeniami.

Deweloperzy mogą uzyskać dostęp Gemini 2.5 Flash Pre API  (model:gemini-2.5-flash-preview-05-20) i Interfejs API Gemini 2.5 Pro (model:gemini-2.5-pro-preview-05-06)itp. przez Interfejs API CometNa początek zapoznaj się z możliwościami modelu w Plac zabaw i zapoznaj się z Przewodnik po API aby uzyskać szczegółowe instrukcje. Przed uzyskaniem dostępu upewnij się, że zalogowałeś się do CometAPI i uzyskałeś klucz API.

Czytaj więcej

500+ modeli w jednym API

Do 20% zniżki