ทำความรู้จัก Gemma เพื่อน Gemini
รู้ไหมว่า model บ้าน Google นอกจาก Gemini ยังมีอีกตัวอย่าง Gemma ด้วยนะ!
ทำความรู้จัก model ที่นอกเหนือจาก Gemini อย่าง Gemma กัน จาก session “Evolution of Gemma 3n for Deploying Local Models on Every Device” โดยคุณ Witthawin Sripheanpol จากงาน Cloud Next Extended Bangkok 2025
.
⭐ What’s Gemma?
Gemini เป็น AI as a service เข้าไปที่เว็บเรียกใช้งานได้ ผลิตโดยบริษัท DeepMind บริษัทลูกของ Google ที่ทำด้าน AI พัฒนาให้เข้าถึงมากขึ้นเรื่อย ๆ
ส่วน Gemma เป็น open-source model base on Gemini ทุกคนเอาไปใช้งานได้บนเครื่องของตั วเองได้ โดยไม่ต้องเปิด internet! คือใช้งานบน local ไม่มีปัญหาในการเชื่อมต่อ internet เพราะมันเป็นแบบ on-device นั่นเอง จุดเด่นคือ เป็น model ที่มีขนาดเล็ก แต่ฉลาด
ในสาย model open source จะมี DeepSeek, Qwen, Llama, Phi ประมาณนี้เนอะ
Gemma ก็มีลูกหลานหลายตัว เอาไป fine-tune พัฒนาความสามารถต่าง ๆ เช่น MedGemma เป็น LLM ในเรื่องการแพทย์, ShieldGemma เป็น guardrail สามารถ detect ข้อความที่เข้ามา เป็น timeless หรือมีความ sensitive ไหม
แล้ว Gemma 3 กับ Gemma 3n ต่างกันยังไง?
Gemma 3 provide multimodal รับ input ได้ทั้งข้อความ รูปภาพ เสียง วิดีโอ และมี sizing ที่เข้าถึงได้ ไม่ต้องหา server มารัน AI ส่วน Gemma 3n สามารถรันได้บนมือถือ เช่นทำแอพ หรืออุปกรณ์ตัวเล็ก ๆ อย่าง robotic, IoT
.
⭐ Evolution from Gemma to Gemma3n
ถ้าเห็นชื่อ AI แปลก ๆเราอ่านกันยังไง?
Gemma-3n-eXb-it
3 คือ version, n คือ nano series, e คือ effective parameter, X คือ model size หน่วยเป็น billion พันล้าน, it บอกว่าเป็น model instruction-tuning ไหม ถูก train เป็น conversation base ไหม ถ้าเป็นเอาไปทำ agent base ได้
ตัว e เมื่อกี้คือ memory efficiency with PLE บอกว่า model นี้สามารถ split ส่วนไปใช้งาน model ไหน ทำให้ GPU ใช้ memory ตามที่เราใช้งาน มือถือ RAM จำกัด ROM เล็ก จึงคัดบางส่วนมาประมวลผล
Gemma เข้าใจ 140 ภาษาสำหรับ text และ 35 ภาษาสำหรับ multimodal และ support Multimodal และ Long-term conversation
เขาบอกว่า Gemma 3n ใช้ MobileNet-v5-300 แล้วเราสามารถถ่ายรูปใส่ข้อความ ใส่ prompt แล้วเข้าใจข้อความและ vision เหล่านั้นได้เร็ว
ข้อดีของ Gemma 3n
- Optimized on-device performance: เก่งในแง่การทำงานบน on-device และ
- Privacy-first, offline-ready: privacy-first เป็น offline สามารถใช้งานได้เลย
- Multimodal understanding: เข้าใจตัวหนังสือ รูป เสียง วิดีโอ ได้ดี
- Dynamic resource usage: ขนาดเล็ก scale ง่าย แล้วยังถูกกว่ามาก ๆ
.
⭐ How to use Gemma3n
ตอนนี้มี 4 version มี instruction base 2 ตัวบน ใช้งานในส่วนของ chat ใด ๆ และ model base 2 ตัวล่าง
- gemma-3n-E4B-it
- gemma-3n-E2B-it
- googlegemma-3n-E2B
- gemma-3n-E4B
สามารถ download ได้ทั้ง 4 ที่ คือ Hugging Face, kaggle, Ollama, LM Studio
และลองเล่นได้หลายที่ เช่น Hugging Face, Google AI Studio ซึ่งใน session นี้ทำผ่าน Colab ในนั้นมีการ install Python, load model และเอามาใช้งาน ซึ่งถ้ามันไม่มี text มันเข้าใจ image และ audio ได้ด้วยนะ เพราะมี encoder ที่เก่ง มันเลยสามารถจับคู่กันได้
.
⭐ How to deploy Gemma3n on local device
เอา model 8 GB ย่ออีกเป็น 3 - 4 GB ได้ไหม ก็พอใช้กับ mobile app ได้อยู่ ถ้าเครื่อง RAM เกิน 8 GB ด้วย ONNX library ที่ support ในการใช้ model ตัวเล็ก มาไว้ใน front-end ทั้ง website และ mobile การใช้งานดูใน Hugging Face ได้ มีตัวอย่างฝั่ง web front-end ให้ดู ใช้ gemma-3n-E2B-it และ support แค่ CPU ส่วน WebGPU รอต่อไป
ซึ่งเขาบอกว่าฝั่ง Android ใช้ตัว onnx ได้เนี่ยยย คิดว่าในตัว Hugging Face น่าจะเป็นโทน React Native มากกว่า เพราะเราไม่ได้ใช้ npm ใด ๆ แหะ ๆ
ยิ่ง model ใหญ่ ยิ่งเปลืองการ์ดจอ และยิ่งเปลืองเงิน ถ้าย้ายมา CPU ได้ จะลดค่าใช้จ่ายลงประมาณ 6 เท่า ทำให้ scale ได้ง่ายขึ้น
.
.
⭐ แล้วมัน matter กับ Android Developer ไหมนะ?
แน่นอนว่าฝั่ง Android Developer ก็มีทางเลือกอื่น ๆ เช่น ใช้ model ที่เทรนเอง เป็น Tensorflow Lite, MediaPipe, ML Kit แล้วก็มี Gemini Nano มาเพิ่มด้วย
ในตัว document Google AI for Developers นั้นจะมีส่วน Solution ที่เป็น MediaPipe ซึ่งมันจะมี solution อื่น ๆ เยอะมาก โดยส่วนที่เกี่ยวข้องเป็นส่วนของ LLM Inference API เป็ย Generative AI ที่รองรับทั้ง web, Android และ iOS เลย รวมถึง customize model ด้วย และ model ที่ใช้ก็คือ Gemma-3 1B และ Gemma-2 2B เป็น open-source model ที่สามารถ download ได้ผ่าน Hugging Face [1]
ฝั่ง Android สามารถลองเล่นได้ที่ Google AI Edge Gallery ว่ามันทำอะไรยังไงได้บ้าง [2] ถ้าอยากลองทำก็ลองสร้าง project ใหม่ แล้วเขียนโค้ดเพื่อให้ download model มาก่อนใช้งานในแอพ [3]
ส่วน ONNX น้านนนน ลองดูคร่าว ๆ แล้วงง ๆ คนไม่ค่อยได้แตะ Android NDK กันด้วย คงใช้วิธีปกติกันมากกว่านะ 😆
.
แล้วเพื่อน ๆ ใช้วิธีไหนกันในการนำ AI ไปใช้ในโปรเจกต์ มาเม้นบอกกันได้น้า


































































