ผู้ร่วมก่อตั้ง Ethereum วิตาลิก บูเทริน ได้เตือนถึงความเสี่ยงที่เกี่ยวข้องกับ AI ที่มีความฉลาดสูงและความจำเป็นในการมีระบบป้องกันที่แข็งแกร่ง
ความคิดเห็นของบูเทรินเกิดขึ้นในช่วงเวลาที่การพัฒนา AI กำลังเติบโตอย่างรวดเร็ว ความกังวลเกี่ยวกับความปลอดภัยของ AI ก็เพิ่มขึ้นอย่างมากเช่นกัน
แผนควบคุม AI ของ Buterin: ความรับผิดชอบ, ปุ่มหยุดชั่วคราว, และการควบคุมระหว่างประเทศ
ใน บล็อกโพสต์ ลงวันที่ 5 มกราคม วิตาลิก บูเทริน ได้อธิบายแนวคิดของเขาเกี่ยวกับ ‘d/acc หรือการเร่งป้องกัน’ ซึ่งเทคโนโลยีควรถูกพัฒนาเพื่อป้องกันไม่ใช่เพื่อก่อให้เกิดอันตราย อย่างไรก็ตาม นี่ไม่ใช่ครั้งแรกที่บูเทรินได้เปิดเผยถึงความเสี่ยงที่เกี่ยวข้องกับ ปัญญาประดิษฐ์
“วิธีหนึ่งที่ AI ที่ผิดพลาดอาจทำให้โลกแย่ลงคือ (เกือบ) วิธีที่แย่ที่สุด: มันอาจทำให้มนุษยชาติสูญพันธุ์ได้” บูเทริน กล่าว ในปี 2023
บูเทรินได้ติดตามทฤษฎีของเขาจากปี 2023 โดยกล่าวว่าปัญญาประดิษฐ์ที่มีความฉลาดสูงอาจจะเกิดขึ้นในอีกไม่กี่ปีข้างหน้า
“ดูเหมือนว่าเรามีเวลาอีกสามปีจนกว่าจะถึง AGI และอีกสามปีจนกว่าจะถึงความฉลาดสูงสุด ดังนั้นหากเราไม่ต้องการให้โลกถูกทำลายหรือเข้าสู่กับดักที่ไม่สามารถย้อนกลับได้ เราไม่สามารถเร่งเพียงสิ่งที่ดีได้เท่านั้น แต่ต้องชะลอสิ่งที่ไม่ดีด้วย” บูเทรินเขียน
เพื่อบรรเทาความเสี่ยงที่เกี่ยวข้องกับ AI บูเทรินสนับสนุน การสร้าง ระบบ AI แบบกระจายศูนย์ ที่ยังคงเชื่อมโยงกับการตัดสินใจของมนุษย์อย่างแน่นหนา โดยการทำให้ AI ยังคงเป็นเครื่องมือในมือของมนุษย์ ความเสี่ยงของผลลัพธ์ที่ร้ายแรงสามารถลดลงได้
บูเทรินอธิบายว่ากองทัพอาจเป็นผู้รับผิดชอบในสถานการณ์ ‘AI doom’ การใช้ AI ทางทหารกำลังเพิ่มขึ้นทั่วโลก ดังที่เห็นในยูเครนและกาซา บูเทรินยังเชื่อว่ากฎระเบียบ AI ที่มีผลบังคับใช้จะยกเว้นกองทัพ ซึ่งทำให้พวกเขาเป็นภัยคุกคามที่สำคัญ
ผู้ร่วมก่อตั้ง Ethereum ยังได้อธิบายแผนการของเขาในการควบคุม การใช้งาน AI เขากล่าวว่าขั้นตอนแรกในการหลีกเลี่ยงความเสี่ยงที่เกี่ยวข้องกับ AI คือการทำให้ผู้ใช้ต้องรับผิดชอบ
บูเทอรินอธิบายว่า “แม้ว่าความเชื่อมโยงระหว่างวิธีการพัฒนารูปแบบและวิธีการใช้งานจะไม่ชัดเจน แต่ผู้ใช้เป็นผู้ตัดสินใจว่าจะใช้ AI อย่างไร” โดยเน้นถึงบทบาทของผู้ใช้
หากกฎความรับผิดชอบไม่ทำงาน ขั้นตอนต่อไปคือการใช้ปุ่ม “หยุดชั่วคราว” ที่ช่วยให้การควบคุม AI ชะลอความก้าวหน้าที่อาจเป็นอันตราย
“เป้าหมายคือการลดการคำนวณที่มีอยู่ทั่วโลกลงประมาณ 90-99% เป็นเวลา 1-2 ปีในช่วงเวลาวิกฤต เพื่อให้มนุษยชาติเตรียมตัวได้มากขึ้น”
เขากล่าวว่าการหยุดชั่วคราวสามารถทำได้โดยการตรวจสอบและลงทะเบียนตำแหน่ง AI
อีกวิธีหนึ่งคือการควบคุมฮาร์ดแวร์ AI บูเทอรินอธิบายว่าฮาร์ดแวร์ AI สามารถติดตั้งชิปเพื่อควบคุมได้
ชิปจะอนุญาตให้ระบบ AI ทำงานได้เฉพาะเมื่อได้รับลายเซ็นจากองค์กรระหว่างประเทศสามแห่งทุกสัปดาห์ เขาเสริมว่าหนึ่งในองค์กรเหล่านี้ควรไม่มีความเกี่ยวข้องกับทหาร
อย่างไรก็ตาม บูเทอรินยอมรับว่ายุทธศาสตร์ของเขามีช่องโหว่และเป็นเพียง ‘การแก้ปัญหาชั่วคราว’
ข้อจำกัดความรับผิด
หมายเหตุบรรณาธิการ: เนื้อหาต่อไปนี้ไม่ได้สะท้อนถึงมุมมองหรือความคิเห็นของ BeInCrypto มันจัดทำขึ้นเพื่อวัตถุประสงค์ในการให้ข้อมูลเท่านั้นและไม่ควรถูกตีความว่าเป็นคำแนะนำทางการเงิน กรุณาทำการวิจัยของคุณเองก่อนที่จะทำการตัดสินใจลงทุนใดๆ