- เข้าร่วม
- 1 มิถุนายน 2011
- ข้อความ
- 10,267
- คะแนนปฏิกิริยา
- 0
- คะแนน
- 0
Seth Larson นักพัฒนาที่รับผิดชอบส่วนความปลอดภัยของโครงการ Python Software Foundation โพสต์บล็อกแสดงความกังวลต่อการรายงานปัญหาความปลอดภัยในซอฟต์แวร์โอเพนซอร์ส โดยพบจำนวนการแจ้งปัญหาบั๊กที่คุณภาพต่ำ เป็นสแปม เนื่องจากเป็นรายงานที่ออกมาจากปัญญาประดิษฐ์ LLM เพิ่มมากขึ้น
เขาบอกว่าการตรวจสอบยืนยันปัญหาความปลอดภัยในซอฟต์แวร์โอเพนซอร์ส ต้องใช้ผู้เชี่ยวชาญและสิ่งเหล่านี้คือต้นทุนทั้งแรงงานและเวลา หากแนวโน้มการส่งรายงานปัญหาด้วย AI LLM ไม่มีคุณภาพแบบนี้มีมากขึ้น อาจกระทบต่อคนทำงานให้รู้สึกมีภาระเพิ่มแต่ไม่เกิดประโยชน์ สามารถมองเป็นภัยคุกคามอย่างหนึ่งของชุมชมโอเพนซอร์สได้
Larson บอกว่าในตอนนี้จำนวนรายงานบั๊กจาก LLM ที่มีข้อบกพร่องนั้นอยู่ในระดับน้อยกว่า 10 รายงานต่อเดือน แต่สิ่งเหล่านี้ควรถูกป้องกันแต่เนิ่น ๆ ซึ่งเขาเสนอแนวทางป้องกันไว้หลายแบบ เช่น การป้องกันการส่งแบบสแปม, การเพิ่มระบบเปิดเผยชื่อผู้รายงาน ให้มีความรับผิดชอบมากขึ้น หรือระบบการให้เครดิตผู้รายงาน เป็นต้น
สุดท้าย Larson แนะนำนักล่าบั๊กที่ส่งรายงานความปลอดภัย ให้หยุดการใช้ AI LLM ค้นหาช่องโหว่ เพราะระบบปัจจุบันยังไม่สามารถเข้าใจโค้ด และพฤติกรรมใช้งานของคนได้สมบูรณ์ และต้องใช้คนทำการตรวจสอบช่องโหว่ที่พบซ้ำอีกครั้งก่อนส่งรายงาน เหล่านี้น่าจะช่วยบรรเทาปัญหาที่เกิดขึ้นได้
ที่มา: The Register
Topics:
Artificial Intelligence
Open Source
LLM
Security
Bug Bounty
Continue reading...
เขาบอกว่าการตรวจสอบยืนยันปัญหาความปลอดภัยในซอฟต์แวร์โอเพนซอร์ส ต้องใช้ผู้เชี่ยวชาญและสิ่งเหล่านี้คือต้นทุนทั้งแรงงานและเวลา หากแนวโน้มการส่งรายงานปัญหาด้วย AI LLM ไม่มีคุณภาพแบบนี้มีมากขึ้น อาจกระทบต่อคนทำงานให้รู้สึกมีภาระเพิ่มแต่ไม่เกิดประโยชน์ สามารถมองเป็นภัยคุกคามอย่างหนึ่งของชุมชมโอเพนซอร์สได้
Larson บอกว่าในตอนนี้จำนวนรายงานบั๊กจาก LLM ที่มีข้อบกพร่องนั้นอยู่ในระดับน้อยกว่า 10 รายงานต่อเดือน แต่สิ่งเหล่านี้ควรถูกป้องกันแต่เนิ่น ๆ ซึ่งเขาเสนอแนวทางป้องกันไว้หลายแบบ เช่น การป้องกันการส่งแบบสแปม, การเพิ่มระบบเปิดเผยชื่อผู้รายงาน ให้มีความรับผิดชอบมากขึ้น หรือระบบการให้เครดิตผู้รายงาน เป็นต้น
สุดท้าย Larson แนะนำนักล่าบั๊กที่ส่งรายงานความปลอดภัย ให้หยุดการใช้ AI LLM ค้นหาช่องโหว่ เพราะระบบปัจจุบันยังไม่สามารถเข้าใจโค้ด และพฤติกรรมใช้งานของคนได้สมบูรณ์ และต้องใช้คนทำการตรวจสอบช่องโหว่ที่พบซ้ำอีกครั้งก่อนส่งรายงาน เหล่านี้น่าจะช่วยบรรเทาปัญหาที่เกิดขึ้นได้
ที่มา: The Register
Topics:
Artificial Intelligence
Open Source
LLM
Security
Bug Bounty
Continue reading...