เพียงไม่กี่สัปดาห์หลัง Gemini 2.5 Pro รุ่นใหญ่ กูเกิลเดินหน้าเปิดตัว Gemini 2.5 Flash โมเดลรุ่นเล็กต่อทันที
กูเกิลเรียกโมเดล Gemini 2.5 Flash ว่าเป็นโมเดลที่ใช้ทำงานจริงๆ (workhorse model) ปรับแต่งมาให้ตอบเร็ว (low latency) ต้นทุนต่ำ แต่ยังมีฟีเจอร์การให้เหตุผล (reasoning) โดยสามารถปรับแต่งระยะเวลาในการคิดตามงบประมาณ (thinking budget) จึงเหมาะสำหรับงานที่ต้องเรียกโมเดลเป็นจำนวนครั้งมากๆ และต้องการความเร็วแบบเรียลไทม์ เช่น การตอบคำถามลูกค้า หรือ การประมวลผลเอกสาร
ตอนนี้กูเกิลยังไม่ประกาศราคาของ Gemini 2.5 Flash ออกมา รวมถึงคะแนนเบนช์มาร์คของ 2.5 Flash ด้วย
ฝั่งของ Gemini 2.5 Pro จะได้ฟีเจอร์ supervised tuning (for unique data specialization) และ context caching (for efficient long context processing) ของแพลตฟอร์ม Vertex AI ในอีกไม่กี่สัปดาห์ข้างหน้า ซึ่งจะช่วยเพิ่มประสิทธิภาพของคำตอบและลดต้นทุนลงได้ด้วย
ที่มา - Google
Topics:
Gemini
Google
LLM
Continue reading...
กูเกิลเรียกโมเดล Gemini 2.5 Flash ว่าเป็นโมเดลที่ใช้ทำงานจริงๆ (workhorse model) ปรับแต่งมาให้ตอบเร็ว (low latency) ต้นทุนต่ำ แต่ยังมีฟีเจอร์การให้เหตุผล (reasoning) โดยสามารถปรับแต่งระยะเวลาในการคิดตามงบประมาณ (thinking budget) จึงเหมาะสำหรับงานที่ต้องเรียกโมเดลเป็นจำนวนครั้งมากๆ และต้องการความเร็วแบบเรียลไทม์ เช่น การตอบคำถามลูกค้า หรือ การประมวลผลเอกสาร
ตอนนี้กูเกิลยังไม่ประกาศราคาของ Gemini 2.5 Flash ออกมา รวมถึงคะแนนเบนช์มาร์คของ 2.5 Flash ด้วย
ฝั่งของ Gemini 2.5 Pro จะได้ฟีเจอร์ supervised tuning (for unique data specialization) และ context caching (for efficient long context processing) ของแพลตฟอร์ม Vertex AI ในอีกไม่กี่สัปดาห์ข้างหน้า ซึ่งจะช่วยเพิ่มประสิทธิภาพของคำตอบและลดต้นทุนลงได้ด้วย
ที่มา - Google
Topics:
Gemini
LLM
Continue reading...