กรุณาปิด โปรแกรมบล๊อกโฆษณา เพราะเราอยู่ได้ด้วยโฆษณาที่ท่านเห็น
Please close the adblock program. Because we can live with the ads you see


News

ข่าว วงการโอเพนซอร์สกำลังเผชิญปัญหา มีรายงานช่องโหว่ความปลอดภัยที่ใช้ AI แต่ไม่มีคุณภาพ เพิ่มมากขึ้น

News 

Moderator
สมาชิกทีมงาน
Moderator
Verify member
เข้าร่วม
1 มิถุนายน 2011
ข้อความ
10,267
คะแนนปฏิกิริยา
0
คะแนน
0
Seth Larson นักพัฒนาที่รับผิดชอบส่วนความปลอดภัยของโครงการ Python Software Foundation โพสต์บล็อกแสดงความกังวลต่อการรายงานปัญหาความปลอดภัยในซอฟต์แวร์โอเพนซอร์ส โดยพบจำนวนการแจ้งปัญหาบั๊กที่คุณภาพต่ำ เป็นสแปม เนื่องจากเป็นรายงานที่ออกมาจากปัญญาประดิษฐ์ LLM เพิ่มมากขึ้น

เขาบอกว่าการตรวจสอบยืนยันปัญหาความปลอดภัยในซอฟต์แวร์โอเพนซอร์ส ต้องใช้ผู้เชี่ยวชาญและสิ่งเหล่านี้คือต้นทุนทั้งแรงงานและเวลา หากแนวโน้มการส่งรายงานปัญหาด้วย AI LLM ไม่มีคุณภาพแบบนี้มีมากขึ้น อาจกระทบต่อคนทำงานให้รู้สึกมีภาระเพิ่มแต่ไม่เกิดประโยชน์ สามารถมองเป็นภัยคุกคามอย่างหนึ่งของชุมชมโอเพนซอร์สได้

Larson บอกว่าในตอนนี้จำนวนรายงานบั๊กจาก LLM ที่มีข้อบกพร่องนั้นอยู่ในระดับน้อยกว่า 10 รายงานต่อเดือน แต่สิ่งเหล่านี้ควรถูกป้องกันแต่เนิ่น ๆ ซึ่งเขาเสนอแนวทางป้องกันไว้หลายแบบ เช่น การป้องกันการส่งแบบสแปม, การเพิ่มระบบเปิดเผยชื่อผู้รายงาน ให้มีความรับผิดชอบมากขึ้น หรือระบบการให้เครดิตผู้รายงาน เป็นต้น

สุดท้าย Larson แนะนำนักล่าบั๊กที่ส่งรายงานความปลอดภัย ให้หยุดการใช้ AI LLM ค้นหาช่องโหว่ เพราะระบบปัจจุบันยังไม่สามารถเข้าใจโค้ด และพฤติกรรมใช้งานของคนได้สมบูรณ์ และต้องใช้คนทำการตรวจสอบช่องโหว่ที่พบซ้ำอีกครั้งก่อนส่งรายงาน เหล่านี้น่าจะช่วยบรรเทาปัญหาที่เกิดขึ้นได้

ที่มา: The Register

วงการโอเพนซอร์สกำลังเผชิญปัญหา มีรายงานช่องโหว่ความปลอดภัยที่ใช้ AI แต่ไม่มีคุณภาพ เพิ่มมากขึ้...jpg


Topics:
Artificial Intelligence
Open Source
LLM
Security
Bug Bounty

Continue reading...
 

กรุณาปิด โปรแกรมบล๊อกโฆษณา เพราะเราอยู่ได้ด้วยโฆษณาที่ท่านเห็น
Please close the adblock program. Because we can live with the ads you see
กลับ
ยอดนิยม