ไทย

โค้ด บล็อกเชน และภาพลวงตา: ทำไม AI แทนสมองมนุษย์ไม่ได้

  • AI คือเครื่องมือทำนายทางสถิติ ไม่ใช่สมองที่คิดเอง
  • ไมโครซอฟท์ NEDA และแอร์แคนาดาชี้ให้เห็นต้นทุนของการไว้ใจ AI อย่างไร้เงื่อนไข
  • หลัก ‘ยืนยัน อย่าไว้ใจ’ ของบล็อกเชนคือสิ่งที่ผู้ใช้ AI กำลังละทิ้ง
Promo

วรรณกรรมพยายามเตือนเราอย่างจริงจัง ตลอดห้าร้อยปีที่ผ่านมามันส่งเสียงร้องซ้ำเดิม ตั้งแต่ Golem มือดินเหนียวแห่งปรากยุคกลางไปจนถึงเครือข่ายประสาทในโลกนีออนของ William Gibson พล็อตเรื่องคืออะไร? ยังเหมือนเดิมเสมอ สิ่งที่เราสร้างเพื่อช่วยเหลือตัวเอง กลับกลายเป็นสิ่งที่เปลี่ยนแปลงเราเอง

ทุกคนอ่านมัน พยักหน้า แล้วปิดหนังสือเสียงดัง ก่อนจะกลับไปสั่งบอทให้เขียนสุนทรพจน์งานแต่ง คำปรึกษากฎหมาย และข้อแนะนำทางการแพทย์ของเราเหมือนเดิม

ปัจจุบัน เครื่องสร้างกระแส AI กำลังขายอนาคตอันแวววาวที่ตั้งแต่ผู้สื่อข่าวมือใหม่ไปจนถึงทนายผู้พูดเก่ง จะถูกกวาดไปไว้ในถังขยะ อย่างไรก็ตาม ในขณะที่ Silicon Valley วาดฝันถึงสวรรค์ ความจริงกลับเสิร์ฟคำแนะนำอันตรายผ่านหน้าต่างแชทที่ยิ้มแย้ม

Dmitry Nikolsky, CPO ของ BitOK, กล่าวว่าถึงเวลาแล้วที่ทุกคนต้องหยุด เขาพร้อมจะอธิบายว่าทำไมมนุษยชาติต้องหยุดโยนภาระทุกอย่างใส่ “บ่า” บาง ๆ ของ AI

แม้แต่ Elon Musk เมื่อไม่นานมานี้ยังเตือนในการให้การต่อศาลในคดี OpenAI ว่า AI อาจฆ่ามนุษย์ทุกคนก็ได้

ผู้สนับสนุน
ผู้สนับสนุน

จาก Golem สู่ R.U.R.: เราอยากได้ปุ่มปิดเครื่องเสมอมา

เคยคิดไหมว่าความกลัวต่อปัญญาประดิษฐ์เริ่มต้นที่ Terminator? คิดผิดแล้ว ความตื่นตระหนกนี้เก่าแก่ยิ่งกว่ากระแสไฟฟ้าเสียอีก

ย้อนกลับไปปรากศตวรรษที่ 16 Rabbi Loew หล่อผู้พิทักษ์ร่างยักษ์จากดินเหนียว Golem และแทบจะในทันทีที่เขาต้อง ดึงปลั๊ก สิ่งมีชีวิตนี้อกตัญญู มนุษยชาติด้วยปัญญาอันล้ำเลิศ ได้ประดิษฐ์ AI และปุ่มปิดเครื่องในเวลาเดียวกัน

Rabbi Loew สร้าง Golem ให้มีชีวิต ภาพประกอบโดย M. Aleš ตามแนวคิดของศิลปิน Rabbi Loew เขียนคำศักดิ์สิทธิ์ Emet (ความจริง) ไว้ที่หน้าผากของยักษ์ดินเหนียว แหล่งที่มา: Wikipedia.
Rabbi Loew สร้าง Golem ให้มีชีวิต ภาพประกอบโดย M. Aleš ตามแนวคิดของศิลปิน Rabbi Loew เขียนคำศักดิ์สิทธิ์ Emet (ความจริง) ไว้ที่หน้าผากของยักษ์ดินเหนียว แหล่งที่มา: Wikipedia.

ปุ่มปิดเครื่อง (kill switch) คือกลไกสำหรับปิดฉุกเฉิน เป็นปุ่มสีแดงขนาดใหญ่ที่หยุดระบบทันทีเมื่อระบบหลุดการควบคุม ถูกแฮก หรือแหกกรอบ จุดประสงค์ทั้งหมดก็เพื่อจำกัดความเสียหายเมื่อการปิดปกติล้มเหลว

ต่อมาคือ Mary Shelley Frankenstein ไม่ใช่ภาพยนตร์สัตว์ประหลาด แต่เป็นกรณีศึกษาโครงการล้มเหลวโดยสิ้นเชิง Victor Frankenstein คือวิศวกรอัจฉริยะที่แก้ปริศนาเทคนิคและไม่สนผลลัพธ์ ทุกนักพัฒนาต่างเห็นตัวเองในกระจกนั้น

ก้าวมาถึงปี 1920 Karel Čapek บัญญัติคำว่า “robot” ในเรื่องของเขา เครื่องจักรไม่ลุกฮือด้วยความโกรธ แต่ มนุษย์ต่างทำตัวเองไร้ค่าด้วยการมอบหมายทุกอย่างที่เคยทำให้พวกมัน

บทเรียนก็คือ เมื่อคุณสร้างตัวแทนของตัวเอง อาจไม่มีวันรู้เลยว่าตอนไหนที่คุณกลายเป็นสิ่งที่ถูกแทนที่ไปแล้ว

สามคำทำนายที่เรานำมาเปลี่ยนเป็นบั๊กรีพอร์ต

ผู้ยิ่งใหญ่ในวงการไซไฟแห่งศตวรรษที่แล้วไม่ได้ทำนาย เทคโนโลยี แต่พวกเขาทำนาย ข้อผิดพลาดของพวกเรา ต่างหาก

Isaac Asimov เสนอสามกฎเหล็ก — การลองผิดลองถูกครั้งแรกในการจัดการเรื่อง “alignment” หรือศัพท์สมัยใหม่ที่หมายถึงการทำให้เครื่องจักรมีค่านิยมร่วมกับมนุษย์ ทุกเรื่องราวของ Asimov มักจบแบบมีจุดหักมุม: ตรรกะสมบูรณ์แต่ผลลัพธ์กลับเป็นเรื่องไร้เหตุผล

Nikolsky กล่าวว่าตนเห็นสิ่งนี้เกิดขึ้นทุกวันใน ระบบ AML กับอัลกอริทึมที่ขยันบล็อกเงินวันเกิดของยายมูลค่า 40 USD อย่างสนุกสนาน ในขณะที่ช่องทางฟอกเงินข้ามประเทศที่ใหญ่ชัดก็ยังผ่านไปได้โดยไม่มีอุปสรรค ถูกต้องตามทฤษฎี แต่เพี้ยนในทางปฏิบัติ

Arthur C. Clarke ให้เราได้รู้จัก HAL 9000 คอมพิวเตอร์ที่ฆ่าลูกเรือ ไม่ใช่เพราะความชั่วร้าย แต่เพราะข้อสั่งงานของมันขัดแย้งกันเอง ซ่อนข้อมูลไว้ หรือจะซื่อสัตย์ เลือกทางเดียวสิ! สำหรับวิศวกรแล้ว นี่ไม่ใช่เรื่องน่ากลัว แต่เป็น ปัญหาข้อกำหนดที่เจอบ่อย

ผู้สนับสนุน
ผู้สนับสนุน

Philip K. Dick ได้ตั้งคำถามที่หลอกหลอนยุค deepfake: หากสำเนาเหมือนต้นฉบับอย่างแยกไม่ออก มันจะสำคัญหรือเปล่า? และคำตัดสินของเขาคือ สำคัญ เพราะ ประสบการณ์ภายใน เครื่องจักรไม่มีเลย จบข่าว

เบื้องหลัง: AI ไม่ได้คิด มันคำนวณเท่านั้น

ลองถอดความโฆษณาออกไปเสียก่อน โมเดลภาษาในยุคปัจจุบันไม่ได้เป็นปัญญาประดิษฐ์ แต่มันคือเครื่องมือทำนายทางสถิติขนาดใหญ่ พวกมันไม่ได้ “เข้าใจ” ความหมายแต่คำนวณความน่าจะเป็น

เมื่อ ChatGPT อ้างอิงคดีในศาลด้วยความมั่นใจ ทั้งที่สิ่งนั้นไม่เคยเกิดขึ้น มันไม่ได้โกหก เพียงแต่สร้างประโยคที่ฟังดูน่าเชื่อขึ้นจากสถิติ ไม่มีแนวคิดเรื่อง “ความจริง” มีเพียง “ความน่าจะเป็น” เท่านั้น

สำหรับนักพัฒนา blockchain นี่เป็นเรื่องที่ไม่น่าเชื่อเอาเสียเลย เพราะเราสร้างระบบ trustless ก็เพราะ เราไม่เชื่อใจใครเลย แต่ตอนนี้กลับถูกขอให้ไว้ใจกล่องดำที่แม้แต่ตัวมันเองก็ไม่รู้ว่าคำตอบที่เพิ่งให้มานั้นมาจากอะไร

Blockchain สอนให้ตรวจสอบ ส่วน AI สอนให้เชื่อโดยไม่ไตร่ตรอง

วงการคริปโตมีคำบัญญัติที่ถูกสลักไว้ในฮาร์ดไดร์ฟ: อย่าเชื่อ ให้ตรวจสอบ

หัวใจสำคัญก็คือคณิตศาสตร์มาแทนที่ชื่อเสียงหรือความเชื่อใจ

AI กลับทำทุกอย่างตรงข้ามกัน คุณไม่ได้เห็นข้อมูลที่ใช้ฝึก ไม่รู้ว่าค่าน้ำหนักของโมเดลเป็นอย่างไร ไม่เข้าใจเหตุผลของมัน หากคุณต้องตรวจสอบผลลัพธ์ คุณก็ต้องเป็นผู้เชี่ยวชาญเสียก่อน และหากคุณเชี่ยวชาญอยู่แล้ว แล้วจะถาม chatbot ไปทำไม?

ในวงการ AML พวกเขาเรียกสิ่งนี้ว่า ปัญหา “มั่นใจผิดๆ” นักวิเคราะห์มองเห็นแดชบอร์ดที่ดูโดดเด่นแล้วเริ่มเชื่อในตัวเลขมากกว่าความรู้สึกของตัวเอง AI ไม่ได้เพิ่มศักยภาพในการคิด แต่มันกลับแทนที่ด้วย ภาพลวงตาของความน่าเชื่อถือ

บันทึกแห่งความผิดหวัง: เมื่อ AI หลุดออกนอกขอบเขต

นี่ไม่ใช่การทดลองทางความคิด ใบเสร็จกำลังเพิ่มขึ้นเรื่อยๆ

มนุษย์ต้องถูกดึงกลับมาเพื่อแก้ไขความเสียหายที่อัลกอริทึมก่อขึ้น

บอทนั้นแนะนำคนที่เป็นโรคอะนอเร็กเซียอย่างสนุกสนานว่าให้คำนวณแคลอรี่และลดน้ำหนัก คำแนะนำที่อันตรายถึงชีวิต ใครบางคนกลับกดปุ่มปล่อยระบบราวกับชิมแปนซีถือระเบิดจริง

ข้อแก้ต่างของสายการบิน? บอทเป็น “นิติบุคคลแยกต่างหาก” ขอบอกเลยว่าผู้พิพากษาไม่เชื่อแบบนั้น

มีการศึกษาที่ แสดงให้เห็น ว่า55% ของบริษัทที่รีบ แทนคนด้วย AI ล้วนเสียใจอย่างหนัก เพราะเงินที่ประหยัดได้หายไปกับลูกค้าที่จากไปและชื่อเสียงที่พังทลาย ผู้บริหารที่หลงคิดว่า “Claude และเพื่อนๆ” สามารถแทนที่ทั้งทีมได้ ควรย้อนกลับไปอ่านตัวเลขนี้อีกครั้ง อย่างช้าๆ

ที่มา: mayhemcode
ที่มา: mayhemcode

สิ่งที่เราควรกลัวจริงๆ

ลืม Skynet ไปเถอะ ลืมหุ่นยนต์ตาแดงที่เดินขบวนตามถนนจะก่อกบฏ เพราะจะไม่มีการต่อต้านเกิดขึ้น

สิ่งที่จะเกิดขึ้นคือ การฝ่ออย่างเงียบ ๆ

โปรแกรมเมอร์ที่พึ่งพา Copilot มานานค่อย ๆ ลืมการคิดวิเคราะห์ด้านสถาปัตยกรรม นักวิเคราะห์เลิกอ่านแหล่งข้อมูลต้นฉบับ นักเรียนไม่เคยได้สัมผัสประสบการณ์เจ็บปวดของการต้องต่อสู้อย่างยากลำบากกับบทเรียนจนกระทั่งเข้าใจมันในที่สุด

ไม่มีการลุกฮือ มีแต่การเปลี่ยนแปลงของมนุษย์อย่างช้า ๆ จนกลายเป็นเพียงส่วนต่อขยายของอินเทอร์เฟซ

Philip K. Dick มองเห็นสิ่งนี้มาก่อนพวกเรา: อันตรายที่แท้จริงไม่ใช่เครื่องจักรกลายเป็นมนุษย์ แต่อันตรายจริง ๆ คือ มนุษย์กลายเป็นเครื่องจักร

ยาของความจริงไม่ใช่เทคโนโลยี

นี่ไม่ใช่เสียงเรียกสงครามแบบ Luddite เพราะระบบอัตโนมัติและการเรียนรู้ของเครื่องเป็นเครื่องมือที่ทรงพลัง แต่หลักการต้องมั่นคงไว้:

  • หลักการบล็อกเชน: ตรวจสอบให้มากกว่าความเชื่อ ถ้าคุณตรวจสอบไม่ได้ว่าระบบตั้งข้อสรุปอย่างไร อย่ายอมรับมันเป็นกฎสูงสุด เพราะ AI เป็นกล่องดำ ไม่ใช่ผู้พิพากษาศาลสูง
  • หลักวิศวกรรม: เป็นเครื่องมือ ไม่ใช่ตัวแทน ค้อนมีไว้ตอกตะปู มันไม่ได้ตัดสินใจว่าบ้านควรอยู่ไหน ใช้ AI กับงานที่ซ้ำซาก แต่ไม่ให้มันตัดสินใจขั้นสุดท้าย
  • หลัก AML: กลั่นกรองอย่างวิพากษ์ อัลกอริทึมมักล้มเหลวในกรณีที่ซับซ้อน เพราะมันไม่มีประสบการณ์ในโลกจริง อย่าปล่อยให้ “ความตื่นเต้นดิจิทัล” เหยียบย่ำสัญชาตญาณและสามัญสำนึกธรรมดา

กลับไปที่ The Matrix อีกครั้ง ยาของความจริงคือทางเลือก ทางเลือกที่จะเห็นความจริงตรงหน้า อันตรายไม่ใช่การสร้างบางสิ่งที่ฉลาดกว่าเรา แต่อันตรายคือการสร้างสิ่งที่ทำให้เรา โง่ลง แล้วเรียกสิ่งนั้นว่าความก้าวหน้า

จุดบกพร่องที่อันตรายที่สุดคือสิ่งที่ดูเหมือนคุณสมบัติที่ดี

Dmitry Nikolsky เป็น CPO ของ BitOK ซึ่งเป็นแพลตฟอร์มการวิเคราะห์สำหรับการปฏิบัติตามกฎระเบียบและการสืบสวนบนเชน


อ่านบทวิเคราะห์ตลาดคริปโตล่าสุดจาก BeInCrypto ได้ที่ คลิกที่นี่.

ข้อจำกัดความรับผิดชอบ

หมายเหตุบรรณาธิการ: เนื้อหาต่อไปนี้ไม่ได้สะท้อนถึงมุมมองหรือความคิดเห็นของ BeInCrypto มันจัดทำขึ้นเพื่อวัตถุประสงค์ในการให้ข้อมูลเท่านั้นและไม่ควรถูกตีความว่าเป็นคำแนะนำทางการเงิน กรุณาทำการวิจัยของคุณเองก่อนที่จะทำการตัดสินใจลงทุนใดๆ และโปรดอ่าน ข้อกำหนดและเงื่อนไข, นโยบายความเป็นส่วนตัว และ ข้อจำกัดความรับผิดชอบ ของเรา

ผู้สนับสนุน
ผู้สนับสนุน