คุณสามารถเข้าถึงและใช้ Gemma 3n ได้อย่างไร?

CometAPI
AnnaJun 1, 2025
คุณสามารถเข้าถึงและใช้ Gemma 3n ได้อย่างไร?

ในขณะที่ AI ยังคงพัฒนาอย่างรวดเร็ว นักพัฒนาและองค์กรต่างๆ กำลังมองหาโมเดลที่ทรงพลังและมีประสิทธิภาพที่สามารถทำงานบนฮาร์ดแวร์ในชีวิตประจำวันได้ เจมมา 3เอ็นโมเดลโอเพ่นซอร์สล่าสุดของ Google DeepMind ในตระกูล Gemma ได้รับการออกแบบมาโดยเฉพาะสำหรับการอนุมานบนอุปกรณ์ที่มีขนาดไม่ใหญ่มาก ทำให้เป็นตัวเลือกที่เหมาะสำหรับแอปพลิเคชันมือถือ เอจ และแบบฝังตัว ในคู่มือเชิงลึกนี้ เราจะมาสำรวจว่า Gemma 3n คืออะไร เหตุใดจึงโดดเด่น และที่สำคัญที่สุดคือคุณสามารถเข้าถึงและเริ่มใช้งานได้วันนี้อย่างไร.

Gemma 3n คืออะไร?

Gemma 3n คือตัวแปรใหม่ล่าสุดในตระกูลโมเดล AI แบบเปิดของ Google ที่ออกแบบขึ้นโดยเฉพาะสำหรับสภาพแวดล้อมที่มีทรัพยากรจำกัด ซึ่งแตกต่างจากรุ่นก่อนๆ Gemma 3n มีทั้งโมเดล "โฮสต์" ที่มีพารามิเตอร์ใช้งานอยู่ 4 พันล้านตัวและโมเดลย่อยที่ผสานรวม 2 พันล้านพารามิเตอร์ ช่วยให้เกิดการแลกเปลี่ยนระหว่างคุณภาพและเวลาแฝงแบบไดนามิกโดยไม่ต้องสลับไปมาระหว่างจุดตรวจสอบที่แยกจากกัน สถาปัตยกรรมแบบสองระดับนี้ที่เรียกว่า "Many-in-1" ใช้ประโยชน์จากนวัตกรรมต่างๆ เช่น การฝังตัวต่อเลเยอร์ (PLE) การแบ่งปันคีย์-ค่า-แคช (KVC) และการวัดปริมาณการเปิดใช้งานขั้นสูงเพื่อลดการใช้หน่วยความจำและเร่งการอนุมานบนอุปกรณ์

อะไรที่ทำให้ Gemma 3n แตกต่างจาก Gemma รุ่นอื่นๆ?

ความยืดหยุ่นแบบ 2-in-1: โมเดลย่อยแบบซ้อนกันของ Gemma 3n ช่วยให้นักพัฒนาปรับเปลี่ยนระหว่างโมเดลพารามิเตอร์ 4 B คุณภาพสูงกับโมเดลพารามิเตอร์ 2 B ที่เร็วกว่าได้อย่างราบรื่นโดยไม่ต้องโหลดไฟล์ไบนารีแยกกัน

เพิ่มประสิทธิภาพ: ด้วยเทคนิคต่างๆ เช่น การแคช PLE และการแชร์ KVC Gemma 3n จึงมีเวลาตอบสนองที่เร็วขึ้นประมาณ 1.5 เท่าบนมือถือเมื่อเทียบกับ Gemma 3 4 B ในขณะที่ยังคงรักษาหรือปรับปรุงคุณภาพเอาต์พุตไว้

การรองรับหลายโหมด: นอกเหนือจากข้อความแล้ว Gemma 3n ยังประมวลผลภาพและข้อมูลเสียงโดยตรง ทำให้เป็นโซลูชันแบบรวมสำหรับงานต่างๆ เช่น คำบรรยายภาพ การถอดเสียง และการใช้เหตุผลแบบหลายโหมด

Gemma 3n ขยายตระกูลโมเดลเปิดของ Gemma ซึ่งเริ่มต้นด้วย Gemma 2 และ Gemma 3 ในเวลาต่อมา โดยปรับแต่งสถาปัตยกรรมให้เหมาะกับฮาร์ดแวร์ที่มีข้อจำกัดโดยเฉพาะ ในขณะที่ Gemma 3 กำหนดเป้าหมายไปที่เวิร์กสเตชัน GPU ระดับเริ่มต้น และอินสแตนซ์คลาวด์ Gemma 3n ได้รับการปรับให้เหมาะสมสำหรับอุปกรณ์ที่มี RAM น้อยที่สุดเพียง 2 GB ช่วยให้สามารถใช้แนวทางแบบหลายในหนึ่งที่ซ้อนกันได้ ซึ่งปรับขนาดแบบไดนามิกระหว่างขนาดโมเดลย่อยขึ้นอยู่กับทรัพยากรที่มีอยู่

Gemini Nano มีบทบาทอย่างไร?

Gemini Nano คือรุ่นต่อไป การรวมระบบ Android และ Chrome ที่มีสถาปัตยกรรมพื้นฐานเดียวกันกับ Gemma 3n ซึ่งจะขยายการเข้าถึงได้โดยฝังความสามารถบนอุปกรณ์เหล่านี้โดยตรงลงในแพลตฟอร์มผู้บริโภคหลักของ Google ในช่วงปลายปีนี้ ซึ่งจะทำให้ระบบนิเวศแข็งแกร่งยิ่งขึ้น AI ออฟไลน์เป็นหลัก .

คุณสามารถเข้าถึง Gemma 3n ได้อย่างไร?

สามารถเข้าถึงตัวอย่าง Gemma 3n ได้ผ่านหลายช่องทาง ซึ่งแต่ละช่องทางเหมาะกับความต้องการในการพัฒนาที่แตกต่างกัน

การสำรวจบนคลาวด์ผ่าน Google AI Studio

  1. เข้าสู่ระบบ ไปที่ Google AI Studio ด้วยบัญชี Google ของคุณ
  2. ตัว Vortex Indicator ได้ถูกนำเสนอลงในนิตยสาร เรียกใช้การตั้งค่า แผงเลือก เจมมา 3n E4B (หรือรุ่นตัวอย่างล่าสุด)
  3. ป้อนคำเตือนของคุณในตัวแก้ไขกลางแล้ว วิ่ง เพื่อดูการตอบกลับทันที

ไม่จำเป็นต้องตั้งค่าภายในเครื่อง เหมาะสำหรับการสร้างต้นแบบอย่างรวดเร็วและการทดลองในเบราว์เซอร์

การเข้าถึง SDK ด้วย Google GenAI SDK

สำหรับการรวมเข้ากับแอปพลิเคชัน Python:

pythonfrom google.genai import Client

client = Client(api_key="YOUR_API_KEY")
model = client.get_model("gemma-3n-e4b-preview")
response = model.generate("Translate this sentence to Japanese.")
print(response.text)

วิธีนี้ช่วยให้สามารถฝังความสามารถของ Gemma 3n ลงในแบ็กเอนด์หรือเครื่องมือเดสก์ท็อปได้ด้วยโค้ดเพียงไม่กี่บรรทัด

การปรับใช้บนอุปกรณ์ด้วย Google AI Edge

Google AI Edge นำเสนอไลบรารีและปลั๊กอินดั้งเดิม (เช่น สำหรับ Android ผ่านแพ็คเกจ AAR หรือ iOS ผ่าน CocoaPods) เพื่อปรับใช้ Gemma 3n โดยตรงภายในแอปมือถือ เส้นทางนี้จะปลดล็อก ออฟไลน์ การอนุมาน การรักษาความเป็นส่วนตัวของผู้ใช้โดยเก็บข้อมูลไว้ในอุปกรณ์ การตั้งค่าโดยทั่วไปเกี่ยวข้องกับ:

  1. การเพิ่มการพึ่งพา AI Edge ให้กับโครงการของคุณ
  2. การเริ่มต้นใช้งานล่าม Gemma 3n ด้วยแฟล็กโหมดที่จำเป็น
  3. การรันการเรียกอนุมานผ่าน API ระดับต่ำหรือตัวห่อหุ้มระดับสูง

เอกสารประกอบและโค้ดตัวอย่างมีอยู่บนเว็บไซต์ Google Developers

ชุมชนโมเดลแบ่งปันในหน้ากอด

ตัวอย่าง Gemma 3n E4B IT รุ่นต่างๆ นั้นมีอยู่ใน Hugging Face หากต้องการเข้าถึง:

  1. ล็อกอิน or ลงทะเบียน ที่กอดหน้า
  2. ยอมรับใบอนุญาตการใช้งานของ Google บน google/gemma-3n-E4B-it-litert-preview หน้า.
  3. โคลนหรือดาวน์โหลดไฟล์โมเดลผ่านทาง git lfs หรือ ไพธอน transformers API

คำขอของคุณจะได้รับการดำเนินการทันทีเมื่อคุณยอมรับข้อกำหนดใบอนุญาต

คุณรวม Gemma 3n เข้าด้วยกันได้อย่างไร?

ชุดพัฒนา AI เจนเนอเรชั่น: จัดเตรียมไลบรารีไคลเอนต์ที่สร้างไว้ล่วงหน้าสำหรับ Android, iOS และเว็บที่จัดการรายละเอียดระดับต่ำเช่นการโหลดโมเดล การวัดปริมาณ และการเธรด

TensorFlow Lite (TFLite) : เทนเซอร์โฟลว์ ไลท์ เครื่องมือแปลงอัตโนมัติจะแปลงจุดตรวจสอบของ Gemma 3n ให้เป็นไฟล์ TFLite FlatBuffer โดยใช้การวัดเชิงปริมาณหลังการฝึกอบรมเพื่อลดขนาดไบนารีให้เหลือน้อยที่สุด

Edge TPU และ GPU มือถือ: สำหรับนักพัฒนาที่มุ่งเป้าไปที่ตัวเร่งความเร็วเฉพาะทาง Gemma 3n สามารถคอมไพล์ได้ด้วย XLA หรือ TensorRT เพื่อปลดล็อกปริมาณงานเพิ่มเติมบนอุปกรณ์ที่ติดตั้ง Coral Edge TPU หรือ Adreno GPU

ต้องมีข้อกำหนดเบื้องต้นอะไรบ้าง?

  1. ฮาร์ดแวร์:อุปกรณ์ที่มี CPU ARM สมัยใหม่ พร้อม NPU หรือ GPU รองรับเสริมที่แนะนำเพื่อประสิทธิภาพการทำงานที่ดีขึ้น
  2. ซอฟต์แวร์:
  • Android 12+ หรือเคอร์เนล Linux 5.x+ สำหรับรันไทม์ edge-lite
  • AI Edge SDK v1.2.0 หรือใหม่กว่า พร้อมใช้งานผ่าน Maven ของ Google และที่เก็บข้อมูลที่เหมาะสม
  • Python 3.9+ หรือ Java 11+ สำหรับไลบรารีไคลเอนต์ตัวอย่าง

ฉันจะรวม Gemma 3n เข้ากับแอป Android ได้อย่างไร?

เพิ่มการพึ่งพา AI-Edge-Lite

groovyimplementation 'com.google.ai:edge-lite:1.2.3'

โหลดโมเดลไบนารี

javaModelLoader loader = new ModelLoader(context, "gemma-3n.tflite"); EdgeModel model = loader.load();

เรียกใช้การอนุมาน

javaTensor input = Tensor.fromImage(bitmap); Tensor output = model.run(input); String caption = output.getString(0);

จัดการอินพุตแบบหลายโหมด
ใช้ EdgeInputBuilder เพื่อรวมข้อความ ภาพ และเทนเซอร์เสียงในอนุมานครั้งเดียว

ฉันจะทดลองใช้ Gemma 3n ในเครื่องบน Linux ได้อย่างไร?

ดาวน์โหลดโมเดล TFLite:มีให้ใช้ผ่านบัคเก็ต Google Cloud Storage:

arduinogs://gemma-models/gemma-3n.tflite

ติดตั้ง Python SDK:

bashpip install ai-edge-lite

ตัวอย่างการอนุมานของ Python:

 pythonfrom edge_lite import EdgeModel model = EdgeModel("gemma-3n.tflite") response = model.generate_text("Explain quantum entanglement in simple terms.") print(response)

Gemma 3n มีกรณีการใช้งานทั่วไปอะไรบ้าง

ด้วยการรวมความสามารถหลายโหมดเข้ากับประสิทธิภาพบนอุปกรณ์ ช่วยปลดล็อกแอปพลิเคชันใหม่ๆ ในทุกอุตสาหกรรม

แอปพลิเคชันสำหรับผู้บริโภคประเภทใดที่ได้รับประโยชน์มากที่สุด?

  • ผู้ช่วยที่ขับเคลื่อนด้วยกล้อง:คำอธิบายฉากแบบเรียลไทม์หรือการแปลโดยตรงบนอุปกรณ์ โดยไม่มีความล่าช้าในระบบคลาวด์
  • อินเทอร์เฟซที่เน้นเสียงเป็นหลัก:ผู้ช่วยพูดแบบส่วนตัวแบบออฟไลน์ในรถยนต์หรืออุปกรณ์บ้านอัจฉริยะ
  • เทคโนโลยี Augmented Reality (AR):การจดจำวัตถุสดและการซ้อนคำบรรยายบนแว่น AR

Gemma 3n ใช้ในสถานการณ์องค์กรอย่างไร

  • การตรวจสอบภาคสนาม:เครื่องมือตรวจสอบแบบออฟไลน์สำหรับสาธารณูปโภคและโครงสร้างพื้นฐานโดยใช้ประโยชน์จากการใช้เหตุผลแบบภาพและข้อความบนอุปกรณ์เคลื่อนที่
  • การประมวลผลเอกสารที่ปลอดภัย:AI ในสถานที่สำหรับการวิเคราะห์เอกสารที่ละเอียดอ่อนในภาคการเงินหรือการดูแลสุขภาพ รับประกันว่าข้อมูลจะไม่ถูกส่งออกจากอุปกรณ์
  • รองรับหลายภาษา:การแปลและสรุปข้อความสื่อสารระหว่างประเทศแบบเรียลไทม์

สรุป

Gemma 3n ถือเป็นก้าวกระโดดครั้งสำคัญในการนำพา AI ที่ทรงพลังและสร้างสรรค์ได้หลายโหมด สู่ฝ่ามือของคุณ โดยการแต่งงาน ประสิทธิภาพที่ล้ำสมัย สีสดสวย การออกแบบที่เน้นความเป็นส่วนตัวเป็นหลักและพร้อมสำหรับการใช้งานแบบออฟไลน์ช่วยให้นักพัฒนาสามารถสร้างประสบการณ์อัจฉริยะที่เคารพข้อมูลผู้ใช้และทำงานโดยมีเวลาแฝงน้อยที่สุด ไม่ว่าคุณจะสร้างต้นแบบใน Google AI Studio ทดลองผ่าน Hugging Face หรือบูรณาการผ่าน Gen AI SDK ก็ตาม แพลตฟอร์มนี้มอบแพลตฟอร์มที่หลากหลายสำหรับนวัตกรรมบนอุปกรณ์ เมื่อโมเดลและระบบนิเวศของมันเติบโตเต็มที่—พร้อมกับ Gemini Nano ที่ใกล้จะมาถึง—คำสัญญาของ AI ที่มีอยู่ทั่วไป เป็นส่วนตัว และตอบสนองได้อย่างแท้จริงก็ใกล้เป็นจริงมากขึ้นทุกที

เริ่มต้นใช้งาน

CometAPI มอบอินเทอร์เฟซ REST แบบรวมที่รวบรวมโมเดล AI หลายร้อยโมเดล รวมถึงตระกูล Gemini ภายใต้จุดสิ้นสุดที่สอดคล้องกัน พร้อมการจัดการคีย์ API ในตัว โควตาการใช้งาน และแดชบอร์ดการเรียกเก็บเงิน แทนที่จะต้องจัดการ URL และข้อมูลรับรองของผู้ขายหลายราย

นักพัฒนาสามารถเข้าถึงได้ API ของ Gemini 2.5 Flash เบื้องต้น  (รุ่น:gemini-2.5-flash-preview-05-20) and API เจมินี่ 2.5 โปร (รุ่น:gemini-2.5-pro-preview-05-06)ฯลฯ ผ่านทาง โคเมทเอพีไอเริ่มต้นด้วยการสำรวจความสามารถของโมเดลใน สนามเด็กเล่น และปรึกษา คู่มือ API สำหรับคำแนะนำโดยละเอียด ก่อนเข้าใช้งาน โปรดตรวจสอบให้แน่ใจว่าคุณได้เข้าสู่ระบบ CometAPI และได้รับรหัส API แล้ว

อ่านเพิ่มเติม

500+ โมเดลใน API เดียว

ลดราคาสูงสุด 20%