เอเจนต์ AI ได้เข้าครอบครอง ETHDenver 2026 อย่างโดดเด่น ตั้งแต่การเงินอัตโนมัติไปจนถึงหุ่นยนต์บนเชน อย่างไรก็ตาม ขณะที่กระแสความตื่นเต้นเรื่อง agentic economies กำลังเพิ่มขึ้น คำถามที่เข้มข้นกว่าก็ได้ปรากฏขึ้น: สถาบันสามารถพิสูจน์ได้หรือไม่ว่า AI ของตนถูกฝึกด้วยข้อมูลอะไร?
หนึ่งในสตาร์ทอัพที่กำลังแก้ไขปัญหานี้คือ Perle Labs ซึ่งให้เหตุผลว่าระบบ AI จำเป็นต้องมีสายโซ่ของความน่าเชื่อถือที่สามารถตรวจสอบได้สำหรับข้อมูลฝึก โดยเฉพาะอย่างยิ่งในสภาพแวดล้อมที่มีการกำกับดูแลและความเสี่ยงสูง ด้วยการมุ่งเน้นสร้างโครงสร้างพื้นฐานข้อมูลที่สามารถตรวจสอบและรับรองได้สำหรับสถาบัน Perle สามารถระดมทุนได้ถึง 17.5 ล้าน USD โดยในการระดมทุนล่าสุด รอบที่นำโดย Framework Ventures นักลงทุนรายอื่น ๆ ได้แก่ CoinFund, Protagonist, HashKey และ Peer VC ทางบริษัทระบุว่ามีผู้ให้คะแนนข้อมูลมากกว่าหนึ่งล้านคน ที่มีส่วนร่วมระบุจุดข้อมูลกว่า 1 พันล้านคะแนนบนแพลตฟอร์มของตน
ทาง BeInCrypto ได้สัมภาษณ์ Ahmed Rashad, CEO ของ Perle Labs ที่งาน ETHDenver 2026 Rashad เคยดำรงตำแหน่งผู้นำปฏิบัติการที่ Scale AI ในช่วงการเติบโตแบบก้าวกระโดด ในบทสนทนานี้ เขาได้พูดถึงที่มาของข้อมูล, ปัญหา model collapse, ความเสี่ยงแบบ adversarial และเหตุผลที่เขาเชื่อว่า sovereign intelligence จะกลายเป็นเงื่อนไขสำคัญก่อนการนำ AI ไปใช้ในระบบสำคัญ
BeInCrypto: คุณนิยาม Perle Labs ว่าเป็น “ชั้นความฉลาดอธิปไตยสำหรับ AI” สำหรับผู้อ่านที่ไม่ได้อยู่ในการถกเถียงเรื่องโครงสร้างพื้นฐานข้อมูล สิ่งนี้มีความหมายในเชิงปฏิบัติอย่างไร?
Ahmed Rashad: “คำว่าอธิปไตยนี้ตั้งใจใช้ครับ และมันมีหลายแง่มุม
ความหมายแรกอย่างตรงตัวคือการควบคุม หากคุณเป็นรัฐบาล, โรงพยาบาล, ผู้รับเหมากลาโหม หรือองค์กรขนาดใหญ่ที่นำ AI มาใช้ในสภาพแวดล้อมที่มีความเสี่ยงสูง คุณต้องเป็นเจ้าของความฉลาดเบื้องหลังระบบนั้นเอง ไม่ใช่ส่งต่องานให้กับกล่องดำที่คุณไม่สามารถตรวจสอบหรือสอบทานได้ อธิปไตยหมายความว่าคุณรู้ว่า AI ของคุณถูกฝึกกับอะไร ใครเป็นผู้ตรวจสอบ และคุณสามารถพิสูจน์ได้ ซึ่งวันนี้ส่วนใหญ่ในวงการยังทำไม่ได้
ความหมายที่สองคือความเป็นอิสระ คือการกระทำโดยไม่มีการแทรกแซงจากภายนอก ซึ่งนี่คือสิ่งที่สถาบันอย่าง DoD หรือองค์กรขนาดใหญ่ต้องการเมื่อพวกเขานำ AI ไปใช้ในสภาพแวดล้อมที่ไวต่อความปลอดภัย คุณไม่สามารถให้โครงสร้าง AI ที่สำคัญต้องพึ่งพาท่อส่งข้อมูลที่คุณควบคุมเองไม่ได้ ตรวจสอบไม่ได้ และป้องกันการบิดเบือนไม่ได้ นี่ไม่ใช่ความเสี่ยงเชิงทฤษฎี NSA และ CISA ได้ออกแนวทางปฏิบัติสำหรับช่องโหว่ของซัพพลายเชนข้อมูลในฐานะปัญหาด้านความมั่นคงแห่งชาติแล้ว
ความหมายที่สามคือความรับผิดชอบ เมื่อ AI ก้าวจากการสร้างคอนเทนต์สู่การตัดสินใจ ทั้งด้านการแพทย์ การเงิน หรือการทหาร จะต้องมีคนตอบได้ว่าความฉลาดนี้มาจากไหน ใครเป็นผู้ตรวจสอบข้อมูลนั้น และบันทึกนั้นถาวรหรือไม่ บนแพลตฟอร์มของ Perle เป้าหมายของเราคือให้การมีส่วนร่วมทุกครั้งจากผู้ให้คะแนนผู้เชี่ยวชาญแต่ละคนถูกบันทึกไว้บนเชน ไม่สามารถถูกแก้ไขได้ ความเปลี่ยนแปลงไม่ได้ตรงนี้คือสิ่งที่ทำให้คำว่าอธิปไตยแม่นยำจริง ไม่ใช่แค่วาทกรรม
ในทางปฏิบัติ พวกเรากำลังสร้างชั้นสำหรับตรวจสอบและออกใบรับรอง หากโรงพยาบาลนำระบบ AI สำหรับวินิจฉัยมาใช้ ควรสามารถสืบย้อนจุดข้อมูลแต่ละจุดในชุดฝึกกลับไปยังผู้เชี่ยวชาญที่ได้รับรับรองซึ่งตรวจสอบข้อมูลนั้นได้ นี่แหละคือความฉลาดแบบอธิปไตย หมายถึงสิ่งที่พวกเราต้องการ”
BeInCrypto: คุณเคยอยู่กับ Scale AI ในช่วงที่กิจการเติบโตอย่างรวดเร็ว รวมถึงดีลใหญ่กับกลาโหมและการลงทุนจาก Meta สิ่งเหล่านั้นสอนอะไรคุณเกี่ยวกับจุดที่โครงสร้างข้อมูล AI แบบเดิมๆ พังทลาย?
Ahmed Rashad: “Scale เป็นบริษัทที่ยอดเยี่ยมมาก ผมอยู่ที่นั่นในช่วงที่บริษัทโตจาก 90 ล้าน USD จนตอนนี้กลายเป็น 29,000 ล้าน USD ทั้งหมดนี้เกิดขึ้นต่อหน้าต่อตา และผมได้เห็นจุดร้าวต่างๆ ด้วยตัวเอง
ปัญหาพื้นฐานคือคุณภาพและปริมาณของข้อมูลมักดึงไปในทิศทางตรงข้ามกัน เวลาที่คุณเติบโตขึ้น 100 เท่า ความกดดันคือการต้องเร่งเดินหน้า: ได้ข้อมูลมากขึ้น, การกำหนดฉลากที่รวดเร็วขึ้น, ค่าใช้จ่ายต่อฉลากต่ำลง และสิ่งที่พลาดไปคือความแม่นยำและความรับผิดชอบ ในที่สุดคุณจะได้โครงข่ายที่คลุมเครือ: คุณรู้คร่าว ๆ ว่าใส่อะไรเข้าไปบ้าง, มีตัวชี้วัดคุณภาพบางอย่างในผลลัพธ์ที่ออกมา, แต่ช่วงกลางเป็นกล่องดำ ใครเป็นคนตรวจสอบ? พวกเขามีคุณสมบัติเพียงพอหรือไม่? การกำหนดฉลากมีความสม่ำเสมอหรือเปล่า? คำถามเหล่านี้แทบจะตอบไม่ได้เลยเมื่อขยายขนาดด้วยโมเดลแบบเดิม
สิ่งที่ดิฉันได้เรียนรู้อีกอย่างคือ มนุษย์แทบทุกคนมักถูกมองว่าเป็นต้นทุนที่ต้องลดทอนมากกว่าความสามารถที่ต้องพัฒนา โดยรูปแบบการทำงานแบบธุรกรรม: จ่ายเงินต่อภารกิจ แล้วเพิ่มประสิทธิภาพเพื่อให้ได้จำนวนงานมากขึ้น มันจะทำให้คุณภาพถดถอยเรื่อย ๆ และยังกระทบกับผู้ที่เป็นผู้มีศักยภาพสูงของคุณด้วย คนที่สามารถให้ข้อมูลหรือการกำหนดฉลากที่มีคุณภาพระดับมืออาชีพจริง ๆ จะไม่ใช่คนเดียวกับผู้ที่นั่งทำระบบ micro-task แบบ gamified เพื่อแลกกับเงินเพียงเล็กน้อย หากคุณต้องการข้อมูลคุณภาพ คุณต้องสร้างระบบที่แตกต่างออกไป
การตระหนักเช่นนี้คือรากฐานที่ Perle ถูกสร้างขึ้นมา ปัญหาด้านข้อมูลไม่ได้แก้ด้วยการโยนแรงงานเข้าไปเพิ่ม แต่ต้องแก้ด้วยการปฏิบัติต่อผู้ให้ข้อมูลในฐานะมืออาชีพ สร้างระบบรับรองที่ตรวจสอบได้ในระบบ และทำให้กระบวนการทั้งหมดสามารถตรวจสอบย้อนหลังได้ตั้งแต่ต้นจนจบ
BeInCrypto: คุณขยายเครือข่ายผู้กำหนดฉลากทะลุล้านคน และทำคะแนนข้อมูลได้เกินพันล้านจุด แพลตฟอร์มกำหนดฉลากส่วนใหญ่อาศัยแรงงานนิรนามเป็นกลุ่ม อะไรที่แตกต่างเชิงโครงสร้างในโมเดลด้านชื่อเสียงของคุณ?
Ahmed Rashad: ความแตกต่างหลักคือใน Perle ประวัติการทำงานเป็นของคุณเองและถาวร เมื่อคุณทำงานสำเร็จ ข้อมูลว่าคุณมีส่วนร่วมอะไร ระดับคุณภาพที่ได้ ผลงานเมื่อเทียบกับฉันทามติของผู้เชี่ยวชาญ จะถูกบันทึกบนบล็อกเชน มันจะแก้ไข ลบ หรือเปลี่ยนชื่อไม่ได้ เมื่อเวลาผ่านไป มันจึงกลายเป็นข้อมูลรับรองวิชาชีพที่ต่อยอดขึ้นเรื่อย ๆ
ลองเทียบกับแรงงานนิรนามเป็นกลุ่ม ซึ่งแต่ละคนแทบจะแทนกันได้ พวกเขาไม่มีส่วนได้ส่วนเสียกับคุณภาพ เพราะไม่มีชื่อเสียงเชื่อมโยง งานแต่ละชิ้นก็แยกจากกันหมด โครงสร้างแรงจูงใจเช่นนี้ ผลลัพธ์ก็จะตามคาด: ความพยายามขั้นต่ำสุดเพื่อให้งานผ่าน
โมเดลของเรากลับด้านนี้ ผู้มีส่วนร่วมจะสร้างประวัติผลงานที่ตรวจสอบได้ แพลตฟอร์มยังรับรองความเชี่ยวชาญเฉพาะด้านอีกด้วย เช่น รังสีแพทย์ที่มีการกำหนดฉลากภาพทางการแพทย์ที่มีคุณภาพสูงอย่างต่อเนื่อง จะมีโปรไฟล์สะท้อนศักยภาพนั้น ชื่อเสียงนี้จะนำไปสู่โอกาสทำงานที่มีมูลค่าสูงขึ้น ได้ค่าตอบแทนมากขึ้น และได้ทำงานที่มีความหมาย เป็นวงจรขับเคลื่อนต่อเนื่อง: คุณภาพเพิ่มขึ้นเพราะแรงจูงใจตอบแทนสิ่งนั้น
ขณะนี้เราได้คะแนนข้อมูลทะลุพันล้านจุดผ่านเครือข่ายผู้กำหนดฉลากของเรา นี่ไม่ใช่แค่ตัวเลขปริมาณ แต่มันคือพันล้านข้อมูลที่สามารถตรวจสอบและสืบย้อนกลับได้จากมนุษย์ที่ผ่านการยืนยันจริง ๆ นี่แหละคือรากฐานของข้อมูลฝึก AI ที่เชื่อถือได้ และมันเป็นไปไม่ได้เลยจะเลียนแบบด้วยแรงงานนิรนามเป็นกลุ่ม
BeInCrypto: เรื่อง Model collapse มักถูกพูดถึงบ่อยในวงการวิจัย แต่แทบไม่ถูกนำเสนอในการสนทนา AI กระแสหลัก คุณคิดว่าเพราะอะไร และควรมีคนกังวลมากขึ้นไหม?
Ahmed Rashad: เหตุผลที่ไม่ได้เป็นประเด็นในกระแสหลัก เพราะมันคือวิกฤติที่ดำเนินช้า ไม่ใช่เรื่องดราม่า Model collapse หรือการที่ระบบ AI ถูกฝึกด้วยข้อมูลที่ AI สร้างเองมากขึ้น จนเริ่มเสื่อมคุณภาพ ขาดความละเอียด และบีบตัวเข้าสู่ค่าเฉลี่ย จะไม่เกิดเหตุการณ์ให้เป็นพาดหัวข่าว แต่มันคือการเสื่อมคุณภาพอย่างต่อเนื่องซึ่งง่ายต่อการมองข้ามจนกว่าปัญหาจะรุนแรง
กลไกนี้มีความตรงไปตรงมา: อินเทอร์เน็ตถูกเติมด้วยคอนเทนต์ที่ AI ผลิตขึ้น โมเดลที่ถูกฝึกด้วยข้อมูลเหล่านั้นจึงเรียนรู้จากผลงานของตัวเองแทนที่จะเป็นความรู้และประสบการณ์ของมนุษย์ในความเป็นจริง การฝึกแต่ละเจเนอเรชันจะขยายความผิดเพี้ยนของรอบก่อนหน้า เป็นวงจรป้อนกลับที่ไม่มีการแก้ไขตามธรรมชาติ
ควรมีคนกังวลมากขึ้นไหม? แน่นอน โดยเฉพาะในกลุ่มงานที่มีความเสี่ยงสูง เมื่อ model collapse เกิดกับอัลกอริทึมแนะนำเนื้อหา คุณก็จะแค่ได้สิ่งแนะนำที่แย่ลง แต่ถ้ามันเกิดกับโมเดลวินิจฉัยทางการแพทย์ ระบบเหตุผลทางกฎหมาย หรือเครื่องมือวิเคราะห์ข่าวกรองทางทหาร ผลที่ตามมาจะต่างกันโดยสิ้นเชิง พื้นที่สำหรับความเสื่อมโทรมแทบจะไม่มีเหลือ
นี่คือเหตุผลที่เลเยอร์ข้อมูลที่ผ่านการยืนยันโดยมนุษย์ไม่ใช่ทางเลือก เมื่อ AI เคลื่อนย้ายเข้าสู่โครงสร้างพื้นฐานที่สำคัญ คุณจำเป็นต้องมีแหล่งข้อมูลจากมนุษย์ที่แท้จริงและหลากหลายตลอดเวลาเพื่อใช้ในการฝึก ไม่ใช่ผลลัพธ์ของ AI ที่ถูกกลั่นกรองผ่านโมเดลอื่น เรามีผู้ช่วยมากกว่าหนึ่งล้านคนที่มีความเชี่ยวชาญเฉพาะทางจริงในหลายสิบสาขา ความหลากหลายนั้นคือทางออกต่อปัญหาการล่มสลายของโมเดล คุณไม่สามารถแก้ไขได้ด้วยข้อมูลสังเคราะห์หรือการประมวลผลที่มากขึ้น
BeInCrypto: เมื่อ AI ขยายจากสิ่งแวดล้อมดิจิทัลมาสู่ระบบทางกายภาพ อะไรเปลี่ยนแปลงไปโดยพื้นฐานเกี่ยวกับความเสี่ยง ความรับผิดชอบ และมาตรฐานที่ใช้พัฒนาระบบ?
Ahmed Rashad: สิ่งที่เปลี่ยนคือความไม่สามารถย้อนกลับได้ นั่นคือแก่นของเรื่อง แบบจำลองภาษาที่ละเมอลงมือผลิตคำตอบผิด คุณสามารถแก้ไข แจ้งเตือน และเดินหน้าต่อได้ แต่ระบบหุ่นยนต์ผ่าตัดที่ปฏิบัติการบนการตีความผิด รถยนต์ไร้คนขับที่จำแนกผิด โดรนที่ดำเนินการกับเป้าหมายที่ผิดพลาด ความผิดพลาดเหล่านั้นไม่มีปุ่มกลับหลัง ความล้มเหลวส่งผลเสียจากน่าอับอายเป็นหายนะ
สิ่งนี้เปลี่ยนแปลงทุกอย่างเกี่ยวกับมาตรฐานที่ควรนำมาใช้ ในสภาพแวดล้อมดิจิทัล การพัฒนา AI ส่วนใหญ่ได้รับอนุญาตให้เดินหน้าอย่างรวดเร็วและแก้ไขตัวเองได้ แต่สำหรับระบบทางกายภาพ โมเดลนั้นใช้ไม่ได้ คุณต้องยืนยันข้อมูลฝึกของระบบเหล่านี้ก่อนการนำไปใช้จริง ไม่ใช่ตรวจสอบย้อนหลังหลังเกิดเหตุการณ์
และสิ่งนี้ยังเปลี่ยนแปลงความรับผิดชอบอีกด้วย ในบริบทดิจิทัล ความรับผิดชอบกระจายตัวได้ง่ายอย่างมาก เกิดจากโมเดล หรือข้อมูล หรือการใช้งานหรือไม่? แต่สำหรับระบบทางกายภาพ โดยเฉพาะเมื่อมีคนได้รับอันตราย หน่วยงานกำกับดูแลและศาลจะต้องการคำตอบที่ชัดเจน ใครฝึกระบบนี้? ใช้ข้อมูลอะไร? ใครตรวจสอบข้อมูลและมาตรฐานที่ใช้คืออะไร? บริษัทและรัฐบาลที่ตอบคำถามเหล่านี้ได้จะเป็นผู้ที่ได้รับอนุญาตให้ดำเนินการ ส่วนผู้ที่ตอบไม่ได้จะเผชิญกับความรับผิดที่ไม่คาดคิด
เราสร้าง Perle สำหรับการเปลี่ยนผ่านนี้โดยเฉพาะ ข้อมูลที่ผ่านการยืนยันโดยมนุษย์ ผู้เชี่ยวชาญ และตรวจสอบบนบล็อกเชนได้ เมื่อ AI เริ่มเข้าไปดำเนินงานในคลังสินค้า ห้องผ่าตัด และในสนามรบ เลเยอร์ของความฉลาดที่อยู่เบื้องหลังมันต้องมีมาตรฐานที่แตกต่าง และมาตรฐานนั้นคือสิ่งที่เรากำลังสร้าง
BeInCrypto: ภัยคุกคามจากการปนเปื้อนข้อมูลหรือการโจมตีแบบปรปักษ์ในระบบ AI ในวันนี้มีความจริงจังแค่ไหน โดยเฉพาะในระดับประเทศ?
Ahmed Rashad: ภัยคุกคามนี้เป็นเรื่องจริง มีหลักฐานชัดเจน และตอนนี้ถูกจัดให้เป็นลำดับความสำคัญด้านความมั่นคงระดับชาติ โดยผู้ที่เข้าถึงข้อมูลลับที่เกี่ยวข้อง
โครงการ GARD ของ DARPA (Guaranteeing AI Robustness Against Deception) ใช้เวลาหลายปีในการพัฒนามาตรการป้องกันการโจมตีระบบ AI โดยเฉพาะอย่างยิ่งการปนเปื้อนข้อมูล NSA และ CISA ออกแนวทางร่วมกันในปี 2025 เตือนอย่างชัดเจนว่าจุดอ่อนในซัพพลายเชนข้อมูลและการแก้ไขข้อมูลฝึกอย่างเป็นอันตรายเป็นภัยคุกคามที่มีโอกาสเกิดขึ้นต่อความสมบูรณ์ของระบบ AI นี่ไม่ใช่แค่บทความวิชาการแต่เป็นคำแนะนำเชิงปฏิบัติการจากหน่วยงานที่ไม่เคยออกคำเตือนเกี่ยวกับความเสี่ยงเชิงสมมติฐาน
จุดเสี่ยงในการโจมตีมีขนาดใหญ่ หากคุณสามารถเจาะข้อมูลฝึกของระบบ AI ที่ใช้สำหรับตรวจจับภัยคุกคาม วินิจฉัยทางการแพทย์ หรือเพิ่มประสิทธิภาพโลจิสติกส์ คุณไม่จำเป็นต้องแฮกระบบโดยตรง คุณได้กำหนดการรับรู้ของมันแล้ว และนั่นเป็นวิธีการโจมตีที่ซับซ้อนและตรวจจับได้ยากกว่าการบุกรุกทางไซเบอร์แบบดั้งเดิมมาก
สัญญามูลค่า 300 ล้าน USD ที่ Scale AI มีร่วมกับ CDAO ของกระทรวงกลาโหมสหรัฐฯ เพื่อปรับใช้ AI ในเครือข่ายลับ มีขึ้นบางส่วนเพราะรัฐบาลเข้าใจว่าไม่สามารถใช้ AI ที่ฝึกด้วยข้อมูลสาธารณะที่ไม่ผ่านการยืนยันในสภาพแวดล้อมที่อ่อนไหวได้ ดังนั้นคำถามเรื่องแหล่งที่มาของข้อมูลในระดับนั้นจึงเป็นปฏิบัติการ ไม่ใช่แค่ทางวิชาการ
สิ่งที่การสนทนาในสังคมโดยทั่วไปขาดหายไปคือ เรื่องนี้ไม่ใช่ปัญหาเฉพาะของภาครัฐ แต่ทุกองค์กรที่นำ AI ไปใช้ในสภาพแวดล้อมการแข่งขัน บริการทางการเงิน อุตสาหกรรมยา หรือโครงสร้างพื้นฐานที่มีความสำคัญ ต่างก็เผชิญกับความเสี่ยงด้านข้อมูลปรปักษ์ที่อาจยังไม่เข้าใจอย่างครบถ้วน ภัยคุกคามนี้เป็นเรื่องจริง และมาตรการป้องกันยังอยู่ในระหว่างการพัฒนา
BeInCrypto: ทำไมรัฐบาลหรือองค์กรขนาดใหญ่ถึงไม่สามารถสร้างเลเยอร์การยืนยันตัวเองนี้ได้เอง? คำตอบที่แท้จริงควรพูดอย่างไรเมื่อมีคนตั้งคำถามแบบนี้?
Ahmed Rashad: “บางแห่งก็พยายามทำค่ะ และผู้ที่พยายามก็จะเรียนรู้อย่างรวดเร็วว่าปัญหาที่แท้จริงคืออะไร
การสร้างเทคโนโลยีนั้นเป็นส่วนที่ง่าย แต่ส่วนที่ยากก็คือเครือข่าย ผู้เชี่ยวชาญที่ผ่านการตรวจสอบแล้ว ไม่ว่าจะเป็นนักรังสีวิทยา นักภาษาศาสตร์ ผู้เชี่ยวชาญด้านกฎหมาย วิศวกร นักวิทยาศาสตร์ พวกเขาจะไม่ปรากฏขึ้นมาเพียงเพราะคุณสร้างแพลตฟอร์มสำหรับพวกเขา คุณต้องสรรหา รับรองคุณสมบัติ สร้างโครงสร้างแรงจูงใจเพื่อให้แต่ละคนมีส่วนร่วมอย่างต่อเนื่อง และพัฒนากลไกฉันทามติด้านคุณภาพให้การมีส่วนร่วมเหล่านั้นมีความหมายในระดับที่ใหญ่ขึ้น ซึ่งต้องใช้เวลาหลายปีและต้องอาศัยความเชี่ยวชาญที่หน่วยงานของรัฐหรือองค์กรส่วนใหญ่มักไม่มีอยู่ภายในองค์กร
ปัญหาที่สองคือความหลากหลาย หน่วยงานภาครัฐที่สร้างเลเยอร์การยืนยันตัวเองนี้จะต้องดึงบุคลากรจากกลุ่มที่มีความเหมือนกันและมีขีดจำกัด คุณค่าสำคัญของเครือข่ายผู้เชี่ยวชาญระดับโลกไม่ได้อยู่แค่เรื่องการรับรองคุณสมบัติ แต่เป็นความหลากหลายด้านมุมมอง ภาษา บริบททางวัฒนธรรม และความเชี่ยวชาญเฉพาะทางที่คุณเข้าถึงได้ก็ต่อเมื่อทำงานในระดับใหญ่และในหลากหลายพื้นที่เท่านั้น เรามีผู้ทำการกำกับดูแลข้อมูลมากกว่าหนึ่งล้านคน นั่นไม่ใช่สิ่งที่คุณจะสร้างขึ้นเองภายในองค์กรได้ง่ายๆ
ปัญหาที่สามคือการออกแบบแรงจูงใจ การให้ผู้ที่มีคุณภาพสูงเหล่านั้นคงอยู่กับเครือข่ายในระยะยาวต้องอาศัยการชดเชยที่โปร่งใส เป็นธรรม และตั้งโปรแกรมได้ และเพราะโครงสร้างพื้นฐานบล็อกเชนช่วยทำให้สิ่งนี้เป็นไปได้ในแบบที่ระบบภายในองค์กรส่วนใหญ่ไม่สามารถทำได้ ทั้งการบันทึกผลงานอย่างเปลี่ยนแปลงไม่ได้ การให้เครดิตโดยตรง และการชำระเงินที่ตรวจสอบได้ ระบบการจัดซื้อจัดจ้างของภาครัฐไม่ได้ถูกออกแบบมาเพื่อทำสิ่งนี้อย่างมีประสิทธิภาพ
หากตอบแบบตรงไปตรงมากับข้อกังวลนี้ คำตอบก็คือ คุณไม่ได้ซื้อแค่เครื่องมือ แต่คุณเข้าถึงเครือข่ายและระบบรับรองคุณสมบัติที่ใช้เวลาสร้างมาหลายปี ตัวเลือกที่แท้จริงไม่ได้มีแค่ ‘สร้างเอง’ แต่คือ ‘ใช้สิ่งที่มีอยู่แล้ว หรือยอมรับความเสี่ยงด้านคุณภาพข้อมูลที่จะตามมาหากไม่มีมัน’
BeInCrypto: หาก AI กลายเป็นโครงสร้างพื้นฐานหลักของชาติ เลเยอร์อัจฉริยะอธิปไตยจะอยู่ตรงไหนของระบบนี้ในอีก 5 ปีข้างหน้า?
Ahmed Rashad: “อีก 5 ปีข้างหน้า ดิฉันคิดว่ามันจะเหมือนกับหน้าที่การตรวจสอบทางการเงินในปัจจุบัน คือเป็นเลเยอร์ยืนยันที่จำเป็นที่อยู่ระหว่างข้อมูลกับการนำไปใช้งาน พร้อมการรองรับจากภาครัฐและมาตรฐานวิชาชีพ
ทุกวันนี้ การพัฒนา AI ดำเนินไปโดยไม่มีอะไรที่เทียบได้กับการตรวจสอบทางการเงิน บริษัทต่างๆ รายงานข้อมูลฝึกสอนของตนเอง ไม่มีการตรวจสอบอิสระ ไม่มีการรับรองขั้นตอนการสร้างโมเดล และไม่มีการยืนยันจากบุคคลที่สามว่าอัจฉริยะเบื้องหลังโมเดลเหล่านั้นเป็นไปตามมาตรฐานที่กำหนด เราอยู่ในยุคเริ่มต้นที่เปรียบเสมือนการเงินก่อนมี Sarbanes-Oxley ซึ่งดำเนินไปด้วยความเชื่อใจและการรับรองตนเองเป็นหลัก
เมื่อ AI กลายเป็นโครงสร้างพื้นฐานสำคัญ ที่ควบคุมระบบไฟฟ้า การดูแลสุขภาพ ตลาดการเงิน เครือข่ายกลาโหม โมเดลนี้ก็จะยากที่จะใช้ได้ต่อไป รัฐบาลจะต้องออกกฎบังคับให้สามารถตรวจสอบย้อนหลังได้ กระบวนการจัดซื้อจัดจ้างจะกำหนดให้ต้องมีที่มาของข้อมูลที่ได้รับการยืนยันเป็นเงื่อนไขของสัญญา กรอบความรับผิดจะผูกโยงกับความล้มเหลวที่อาจป้องกันได้โดยการตรวจสอบที่ถูกต้อง
ตำแหน่งของ Perle ในระบบนี้คือเป็นเลเยอร์ยืนยันและรับรองคุณสมบัติ เป็นองค์กรที่สามารถสร้างบันทึกการฝึกสอนโมเดลที่ตรวจสอบได้ เปลี่ยนแปลงไม่ได้ ว่าใครเป็นผู้ดำเนินการ ภายใต้มาตรฐานแบบใด นี่ไม่ใช่แค่ฟีเจอร์ของการพัฒนา AI ในอีก 5 ปีข้างหน้า แต่กลายเป็นข้อกำหนดพื้นฐาน
สิ่งสำคัญกว่านั้นคือ อัจฉริยะอธิปไตยไม่ได้เป็นแค่ประเด็นเฉพาะของผู้รับเหมาด้านกลาโหม แต่เป็นรากฐานที่ทำให้สามารถใช้งาน AI ได้ในทุกบริบทที่ความล้มเหลวสร้างผลกระทบที่แท้จริง และเมื่อ AI ขยายไปสู่บริบทเหล่านั้นมากขึ้น รากฐานนี้จะยิ่งกลายเป็นส่วนสำคัญที่สุดของระบบ”