• แนะนำการใช้งานเบื่องต้น การใช้งาน-community
    ประกาศ :
    • ทำการแก้ไขระบบนับถอยหลังเพื่อดาวน์โหลดไฟล์แล้ว
กรุณาปิด โปรแกรมบล๊อกโฆษณา เพราะเราอยู่ได้ด้วยโฆษณาที่ท่านเห็น
Please close the adblock program. Because we can live with the ads you see


Lamini ร่วมมือ AMD ขายเซิร์ฟเวอร์รัน AI แบบ LLM ระบุประสิทธิภาพเทียบเท่า CUDA แล้ว

ข่าว Lamini ร่วมมือ AMD ขายเซิร์ฟเวอร์รัน AI แบบ LLM ระบุประสิทธิภาพเทียบเท่า CUDA แล้ว

News 

Moderator
สมาชิกทีมงาน
Moderator
Verify member
Lamini บริษัทขายแพลตฟอร์มฝึกและรันโมเดลปัญญาประดิษฐ์ รวมมือถือกับ AMD เปิดตัว LLM Superstation เซิร์ฟเวอร์สำหรับรันปัญญาประดิษฐ์ LLM โดยเฉพาะ เปิดเครื่องมามี Llama 2-70B ให้ใช้งานทันที

ความพิเศษของ LLM Superstation คือใช้การ์ด AMD Instinct MI250 แทนที่จะเป็นการ์ด NVIDIA ที่อุตสาหกรรมนิยมกัน ความได้เปรียบของ MI250 คือมันใส่แรมมาถึง 128GB ทำให้รันโมเดลขนาดใหญ่ได้ง่ายกว่าการ์ด A100 (NVIDIA เริ่มใส่แรมเยอะขึ้นในการ์ดรุ่นหลังๆ) และข้อดีสำคัญอีกอย่างคือรอสั่งเครื่องเร็วกว่าเซิร์ฟเวอร์ที่ใช้การ์ด NVIDIA

ทาง Lamini ระบุว่าบริการของบริษัทเองก็ใช้การ์ด MI210 และ MI250 มาตลอด และ AMD เองก็ใช้แพลตฟอร์ใ Lamini สำหรับ LLM ภายในบริษัทเองเพื่อให้บริการนักพัฒนาด้วย

Lamini เปิดแบบฟอร์มให้ผู้แสดงความสนใจสั่งซื้อ LLM Superstation แต่ยังไม่บอกราคาหรือสเปคโดยรวม

ที่มา - Lamini

No Description


Topics:
AMD
LLM
Artificial Intelligence

อ่านต่อ...
 

ไฟล์แนบ

  • 28a0dd7e1d645e9aa9486837094576b3.png
    28a0dd7e1d645e9aa9486837094576b3.png
    236.9 กิโลไบต์ · จำนวนการดู: 17

กรุณาปิด โปรแกรมบล๊อกโฆษณา เพราะเราอยู่ได้ด้วยโฆษณาที่ท่านเห็น
Please close the adblock program. Because we can live with the ads you see
กลับ
ยอดนิยม ด้านล่าง