กรุณาปิด โปรแกรมบล๊อกโฆษณา เพราะเราอยู่ได้ด้วยโฆษณาที่ท่านเห็น
Please close the adblock program. Because we can live with the ads you see


ข่าว Lamini เสนอเทคนิค Memory Tuning ใส่ความรู้ให้ LLM โดยแทบไม่เหลืออาการหลอน

News 

Moderator
สมาชิกทีมงาน
Moderator
Collaborate
Lamini บริษัทแพลตฟอร์มปัญญาประดิษฐ์แบบ LLM นำเสนอเทคนิคการปรับแต่งโมเดลปัญญาประดิษฐ์ที่ชื่อว่า Lamini Memory Tuning (LMT) โดยระบุว่าลดอาการหลอน (hallucinate) ของปัญญาประดิษฐ์แบบ LLM ได้ถึง 95%

ก่อนหน้านี้การลดอาการหลอนของ LLM นั้นอาศัยการวางข้อมูลอ้างอิงจากแหล่งที่น่าเชื่อถือต่างๆ เช่น องค์กรอาจจะมีชุดข้อมูลของตัวเองก็สามารถนำข้อมูลที่เกี่ยวข้องกับคำถามมาวางในพรอมพ์ เรียกว่า Retrieval Augmented Generation (RAG) เทคนิคนี้เพิ่มความแม่นยำได้จริง แต่ก็มีข้อจำกัดเพราะกระบวนการดึงข้อมูลไม่สมบูรณ์

แนวทาง LMT เสนอให้ใส่ความรู้เข้าไปยัง LLM ด้วยการ finetune โมเดลแบบ LoRA ซึ่งไม่ใช่เรื่องใหม่ แต่ที่พิเศษคือ LMT จะฝึกโมเดลจำนวนมหาศาลนับล้านโมเดลที่มีความเชี่ยวชาญและความรู้เฉพาะแต่ละเรื่อง เรียกว่า memory expert และเมื่อผู้ใช้ถามคำถามจริงก็จะดึง expert ที่เกี่ยวข้องกับคำถามมาสร้างคำตอบสุดท้าย เรียกสถาปัตยกรรมนี้ว่า Mixture of Memory Experts (MoME)

รายงานของ Lamini ไม่ได้เปิดเผยวิธีการทดสอบชัดเจนนัก โดยรายงาน 3 ตัวอย่างที่ทำให้กับลูกค้า ได้แก่

  1. ตัวแปลงข้อความเป็น SQL: ลูกค้ามีฐานข้อมูลภายในจำนวนมาก มีชื่อเฉพาะแต่ละระบบ สามารถฝึกโมเดลจนตอบได้ 95% จากเดิมใช้ RAG ทำได้สูงสุด 50%
  2. ระบบจัดหมวดหมู่เอกสาร: จัดหมวดหมู่เอกสารจำนวนมากเข้าหมวดประมาณ 900 หมวด ทำได้เต็ม 100%
  3. ระบบแนะนำสินค้า: ระบบที่ต้องแนะนำตามสินค้าในฐานข้อมูลจริง ระบบสามารถแนะนำได้ถูกต้อง 88% จากสินค้า 50,000 รายการ

แม้ผลของ Lamini จะน่าตื่นเต้นแต่บริษัทก็ยังไม่ได้เปิดเผยโค้ดทดลองให้ภายนอกสามารถทำซ้ำว่าสถาปัตยกรรม MoME นั้นได้ผลดีเช่นนั้นจริงหรือไม่ อาจจะต้องรอการอิมพลีเมนต์จากภายนอกว่าแนวทางเช่นนี้ทำงานนอกเหนือจากรูปแบบการใช้งานที่ Lamini เสนอมาได้กว้างเพียงใด

ที่มา - Lamini

No Description


Topics:
LLM
Artificial Intelligence

Continue reading...
 

กรุณาปิด โปรแกรมบล๊อกโฆษณา เพราะเราอยู่ได้ด้วยโฆษณาที่ท่านเห็น
Please close the adblock program. Because we can live with the ads you see
กลับ
ยอดนิยม