กรุณาปิด โปรแกรมบล๊อกโฆษณา เพราะเราอยู่ได้ด้วยโฆษณาที่ท่านเห็น
Please close the adblock program. Because we can live with the ads you see


ข่าว Ilya Sutskever ผู้ร่วมก่อตั้ง OpenAI เปิดตัว Safe Superintelligence สตาร์ทอัปใหม่ด้าน AI

News 

Moderator
สมาชิกทีมงาน
Moderator
Collaborate
Ilya Sutskever ผู้ร่วมก่อตั้ง OpenAI ที่ลาออกจากบริษัทเมื่อเดือนที่แล้ว ประกาศตั้งบริษัทใหม่ด้าน AI ชื่อว่า Safe Superintelligence หรือเรียกย่อว่า SSI

Sutskever บอกว่า Safe Superintelligence มีเป้าหมายคือการสร้างปัญญาประดิษฐ์ที่ปลอดภัยเพียงอย่างเดียว สนใจเรื่องเดียว และทำผลิตภัณฑ์เดียว ตามที่ชื่อบริษัทเป็น

ในคำอธิบายของเว็บไซต์ SSI บอกว่า เมื่อบริษัทมีเป้าหมายเดียว ก็แปลว่าฝ่ายบริหารจะไม่เข้ามาสร้างสิ่งอื่น หรือกำหนดรอบการออกผลิตภัณฑ์ ทำให้เป้าหมายการสร้างปัญญาประดิษฐ์ที่ปลอดภัย ไม่ถูกรบกวนจากแผนการหาเงินระยะสั้น

SSI จะเป็นบริษัทอเมริกาโดยมีสำนักงานอยู่สองเมืองคือ Palo Alto และ Tel Aviv (อิสราเอล) เพื่อรองรับการหาทีมงานที่มีฝีมือมาร่วมงาน งานเดียวคือวิศวกรรมวิจัยในการสร้างปัญญาประดิษฐ์ปลอดภัย ไม่มีอย่างอื่น

Ilya Sutskever เคยมีตำแหน่งเป็นหัวหน้าด้านวิทยาศาสตร์ของ OpenAI ซึ่งเขาเป็นหนึ่งในตัวละครสำคัญของเหตุการณ์ไล่ออกซีอีโอ Sam Altman เพราะเป็นหนึ่งในบอร์ดที่ลงมติไล่ออกในตอนนั้น แต่ต่อมาก็เปลี่ยนกลับมาสนับสนุน ทำให้สถานะของ Ilya ใน OpenAI ไม่เหมือนเดิมอีกต่อไป จึงทำให้เขาลาออกในที่สุด

ที่มา: SSI

We will pursue safe superintelligence in a straight shot, with one focus, one goal, and one product. We will do it through revolutionary breakthroughs produced by a small cracked team. Join us: https://t.co/oYL0EcVED2

— Ilya Sutskever (@ilyasut) June 19, 2024

39ca95b98587f9006537076ed901d5f9.jpg


Topics:
Safe Superintelligence
Ilya Sutskever
Artificial Intelligence

Continue reading...
 

กรุณาปิด โปรแกรมบล๊อกโฆษณา เพราะเราอยู่ได้ด้วยโฆษณาที่ท่านเห็น
Please close the adblock program. Because we can live with the ads you see
กลับ
ยอดนิยม