• แนะนำการใช้งานเบื่องต้น การใช้งาน-community
    ประกาศ :
    • ทำการแก้ไขระบบนับถอยหลังเพื่อดาวน์โหลดไฟล์แล้ว
กรุณาปิด โปรแกรมบล๊อกโฆษณา เพราะเราอยู่ได้ด้วยโฆษณาที่ท่านเห็น
Please close the adblock program. Because we can live with the ads you see


NVIDIA เปิดตัวโมดูลปัญญาประดิษฐ์ H100 NVL อัดแรม 188GB เพื่อรัน AI ขนาดใหญ่

ข่าว NVIDIA เปิดตัวโมดูลปัญญาประดิษฐ์ H100 NVL อัดแรม 188GB เพื่อรัน AI ขนาดใหญ่

News 

Moderator
สมาชิกทีมงาน
Moderator
Verify member
NVIDIA เปิดตัวชิป H100 NVL หลังจากเปิดตัวรุ่นแรกในตระกูลเมื่อปีที่แล้ว โดยความพิเศษของโมดูลรุ่นใหม่นี้คือมันใส่แรมมาสูงถึง 188GB นับว่าสูงที่สุดจากเดิมที่ชิป H100 รองรับแรมเพียง 80GB เท่านั้น เหตุผลสำคัญคือโมเดลปัญญาประดิษฐ์ในกลุ่ม GPT ช่วงหลังมีขนาดใหญ่มากๆ ระดับแสนล้านพารามิเตอร์ การรันโมเดลระดับนี้ต้องการแรมขนาดใหญ่

นอกจาก H100 NVL แล้ว NVIDIA ยังเปิดตัวเซิร์ฟเวอร์รุ่นอื่นๆ มาอีก 3 รุ่น ได้แก่

  • NVIDIA L4 สำหรับงานวิดีโอเป็นหลัก ตัวการ์ด L4 มีแรม 24GB พลังประมวลผล 30 teraFLOPS ที่ FP32 สามารถใส่การ์ดสูงสุด 8 ใบ เหมาะสำหรับงานเรนเดอร์วิดีโอ, ภาพสามมิติ, บีบอัดวิดีโอ, หรือใช้ปัญญาประดิษฐ์ปรับปรุงคุณภาพภาพ
  • NVIDIA L40 ยังไม่เปิดเผยขนาดแรมบนการ์ดและความแรง แต่ระบุว่าเหมาะกับงานปัญญาประดิษฐ์สร้างภาพ และงานสร้างโลกเสมือน
  • NVIDIA Grace Hopper เป็นเซิรฟเวอร์สำหรับงานฐานข้อมูลเพื่อการรันปัญญาประดิษฐ์แนะนำข้อมูลที่เกี่ยวข้อง

ตอนนี้ Google Cloud เตรียมให้บริการเครื่อง L4 เป็นรายแรก และทั้ง L4/L40 นั้นจะมีผู้ผลิตเซิร์ฟเวอร์ผลิตเครื่องขายหลายแบรนด์ ขณะที่ชิป H100 NVL นั้นต้องรอครึ่งหลังของปีนี้

ที่มา - NVIDIA

9ff1c069a3489129f9a52b1c6eb51172.jpg


Topics:
NVIDIA
GPU
Enterprise

อ่านต่อ...
 

ไฟล์แนบ

  • 9ff1c069a3489129f9a52b1c6eb51172.jpg
    9ff1c069a3489129f9a52b1c6eb51172.jpg
    130.7 กิโลไบต์ · จำนวนการดู: 23

กรุณาปิด โปรแกรมบล๊อกโฆษณา เพราะเราอยู่ได้ด้วยโฆษณาที่ท่านเห็น
Please close the adblock program. Because we can live with the ads you see
กลับ
ยอดนิยม ด้านล่าง