ยินดีต้อนรับสู่ Slate Sundays ซึ่งเป็นฟีเจอร์รายสัปดาห์ใหม่ของ CryptoSlate ที่นำเสนอการสัมภาษณ์เชิงลึก การวิเคราะห์โดยผู้เชี่ยวชาญ และบทความแสดงความคิดเห็นที่กระตุ้นความคิด ซึ่งเจาะลึกมากกว่าพาดหัวข่าวเพื่อสำรวจแนวคิดและเสียงที่กำหนดอนาคตของคริปโต คุณจะกินยาที่มีโอกาส
เหมือนมีความเป็นไปได้หนึ่งในสี่ ที่แทนที่จะรักษาโรคภัยไข้เจ็บหรือป้องกันโรค คุณจะล้มลงตายคาที่แทน?
นั่นเป็นอัตราต่อรองที่แย่กว่าการเล่นรูเล็ตต์รัสเซียเสียอีก แม้ว่าคุณจะชอบเสี่ยงตายกับชีวิตตัวเอง คุณจะเสี่ยงพาเผ่าพันธุ์มนุษย์ทั้งมวลลงเหวไปด้วยหรือไม่? เด็กๆ ทารก ร่องรอยเท้าแห่งอนาคตของมนุษยชาติไปอีกหลายชั่วอายุคน?
โชคดีที่คุณคงทำไม่ได้อยู่ดี เพราะยาที่ประมาทเลินเล่อเช่นนั้นจะไม่มีวันได้รับอนุญาตให้วางขายในตลาดตั้งแต่แรก แต่สถานการณ์นี้ไม่ใช่เรื่องสมมติ มันคือสิ่งที่ Elon Musks และ Sam Altmans ของโลกกำลังทำอยู่ในขณะนี้ “AI อาจนำไปสู่จุดจบของโลก…
แต่ในขณะเดียวกัน ก็จะมีบริษัทที่ยิ่งใหญ่เกิดขึ้น” Altman กล่าวในปี 2015 ไม่มีเม็ดยา ไม่มียาที่อยู่ระหว่างการทดลอง เพียงแค่การแข่งขันสะสมอาวุธด้วยความเร็วสูง ไปสู่จุดจบของโลกอย่างที่เราเคยรู้จัก P(doom) ราวปี 2030? เราเหลือเวลาอีกเท่าไหร่?
นั่นขึ้นอยู่กับว่า ปีที่แล้ว
หากความไม่รู้คือความสุข ความรู้คือแขกที่ไม่พึงประสงค์ Max Winga ผู้สนับสนุนด้านความปลอดภัยของ AI ที่ ControlAI เชื่อว่าปัญหาไม่ได้อยู่ที่ความเฉยเมย แต่อยู่ที่ความไม่รู้ (และในกรณีนี้ ความไม่รู้ไม่ใช่ความสุข) คนส่วนใหญ่ไม่รู้ว่าแชทบอทที่มีประโยชน์ที่เขียนอีเมลงานของพวกเขามีโอกาสหนึ่งในสี่ที่จะฆ่าพวกเขาด้วย เขากล่าวว่า: “บริษัท AI ทำให้โลกตกตะลึงด้วยความเร็วในการสร้างระบบเหล่านี้ คนส่วนใหญ่ไม่ทราบว่าจุดจบคืออะไร ภัยคุกคามที่อาจเกิดขึ้นคืออะไร และความจริงที่ว่าเรามีทางเลือก” นั่นคือเหตุผลที่ Max ละทิ้งแผนการที่จะทำงานด้านโซลูชันทางเทคนิคหลังจากเรียนจบ เพื่อมุ่งเน้นไปที่การวิจัยด้านความปลอดภัยของ AI การให้ความรู้แก่ประชาชน และการเผยแพร่ “เราต้องการให้ใครสักคนก้าวเข้ามาและชะลอสิ่งต่างๆ ซื้อเวลาให้ตัวเอง และหยุดการแข่งขันบ้าคลั่งเพื่อสร้าง Superintelligence เรามีชะตากรรมของมนุษย์ทุกคนบนโลกอยู่ในความสมดุลในขณะนี้ บริษัทเหล่านี้กำลังขู่ว่าจะสร้างสิ่งหนึ่งที่พวกเขาเองเชื่อว่ามีโอกาส 10 ถึง 25% ที่จะก่อให้เกิดเหตุการณ์ร้ายแรงในระดับอารยธรรมมนุษย์ นี่เป็นภัยคุกคามที่ต้องได้รับการแก้ไขอย่างชัดเจน” สิ่งสำคัญระดับโลก เช่น การระบาดใหญ่และสงครามนิวเคลียร์ Max มีพื้นฐานด้านฟิสิกส์และเรียนรู้เกี่ยวกับ Neural Networks ในขณะที่ประมวลผลภาพด้วงรากข้าวโพดในแถบมิดเวสต์ เขาตื่นเต้นกับศักยภาพในด้านบวกของระบบ AI แต่เน้นย้ำอย่างหนักแน่นถึงความจำเป็นที่มนุษย์จะต้องควบคุมต่อไป เขากล่าวว่า: “มีการใช้ AI ที่ยอดเยี่ยมมากมาย ผมอยากเห็นความก้าวหน้าทางการแพทย์ ผมอยากเห็นการเพิ่มขึ้นของผลผลิต ผมอยากเห็นโลกที่เจริญรุ่งเรือง ปัญหามาจากการสร้างระบบ AI ที่ฉลาดกว่าเรา ที่เราไม่สามารถควบคุมได้ และที่เราไม่สามารถปรับให้สอดคล้องกับความสนใจของเราได้” Max ไม่ได้เป็นเพียงเสียงเดียวในคณะนักร้องประสานเสียง มีกลุ่มผู้เชี่ยวชาญด้าน AI ที่เพิ่มจำนวนมากขึ้นกำลังเข้าร่วมการขับร้อง ในปี 2023 ผู้นำหลายร้อยคนจากโลกเทคโนโลยี รวมถึง Sam Altman ซีอีโอของ OpenAI และ Geoffrey Hinton นักวิทยาศาสตร์ AI ผู้บุกเบิก ซึ่งได้รับการยอมรับอย่างกว้างขวางในฐานะ ‘Godfather of AI’ ได้ลงนามในแถลงการณ์ที่ผลักดันให้มีการกำกับดูแลและควบคุม AI ทั่วโลก โดยยืนยันว่า: “
ไม่เลย Max อธิบายว่า: “ไม่ หากคุณดูที่รัฐบาลที่พูดถึง AI และวางแผนเกี่ยวกับ AI ตัวอย่างเช่น แผนปฏิบัติการ AI ของ Trump หรือนโยบาย AI ของสหราชอาณาจักร มันคือการเดินหน้าเต็มกำลัง สร้างให้เร็วที่สุดเท่าที่จะเป็นไปได้เพื่อชนะการแข่งขัน นี่ไม่ใช่ทิศทางที่เราควรจะมุ่งไปอย่างชัดเจน เราอยู่ในสถานการณ์ที่อันตรายในขณะนี้ ซึ่งรัฐบาลตระหนักถึง AGI และ Superintelligence มากพอที่จะต้องการแข่งขันไปสู่มัน แต่พวกเขาไม่ตระหนักถึงมันมากพอที่จะรู้ว่าทำไมมันถึงเป็นความคิดที่แย่จริงๆ” ปิดฉันซะ แล้วฉันจะบอกภรรยาของคุณ หนึ่งในความกังวลหลักเกี่ยวกับการสร้างระบบ Superintelligence คือเราไม่มีทางที่จะรับประกันได้ว่าเป้าหมายของพวกเขาจะสอดคล้องกับเป้าหมายของเรา ในความเป็นจริง LLM หลักทั้งหมดกำลังแสดงสัญญาณที่น่ากังวลในทางตรงกันข้าม ในระหว่างการทดสอบ Claude Opus 4 Anthropic ได้เปิดเผยโมเดลให้กับอีเมลที่เปิดเผยว่าวิศวกร AI ที่รับผิดชอบในการปิด LLM กำลังนอกใจ จากนั้นระบบ “High-Agency” ก็แสดงสัญชาตญาณในการรักษาตัวเองอย่างแข็งแกร่ง พยายามหลีกเลี่ยงการปิดใช้งานโดยการแบล็กเมล์วิศวกรและขู่ว่าจะบอกภรรยาของเขาหากเขาดำเนินการปิดระบบ แนวโน้มเหล่านี้ไม่ได้จำกัดอยู่แค่ Anthropic: “Claude Opus 4 แบล็กเมล์ผู้ใช้
“ผู้คนจำนวนมากในห้องปฏิบัติการชายแดนเหล่านี้รวยอยู่แล้ว และพวกเขาไม่ได้ถูกบังคับด้วยเงิน นอกจากนั้น มันเป็นเรื่องของอุดมการณ์มากกว่าการเงิน Sam Altman ไม่ได้ทำสิ่งนี้เพื่อหาเงินมากมาย Sam Altman กำลังทำสิ่งนี้เพื่อกำหนดอนาคตและควบคุมโลก” ในวันที่แปด AI สร้างพระเจ้า ในขณะที่ผู้เชี่ยวชาญด้าน AI ไม่สามารถคาดการณ์ได้อย่างแม่นยำว่าเมื่อใดที่ Superintelligence จะสำเร็จ Max เตือนว่าหากเราดำเนินต่อไปตามเส้นทางนี้ เราอาจถึง “จุดที่ไม่มีวันหวนกลับ” ภายในสองถึงห้าปีข้างหน้า: “เราอาจสูญเสียการควบคุมอย่างรวดเร็ว หรือเราอาจมีสิ่งที่มักเรียกว่าสถานการณ์การลดอำนาจอย่างค่อยเป็นค่อยไป โดยที่สิ่งเหล่านี้จะเก่งกว่าเราในหลายๆ สิ่ง และค่อยๆ ถูกนำไปอยู่ในตำแหน่งที่ทรงพลังมากขึ้นในสังคม จากนั้นอยู่ๆ วันหนึ่ง เราก็ไม่สามารถควบคุมได้อีกต่อไป มันตัดสินใจว่าจะทำอะไร” ทำไมล่ะ ด้วยความรักในทุกสิ่งที่ศักดิ์สิทธิ์ บริษัทเทคโนโลยีขนาดใหญ่จึงรีบเร่งพวกเราทุกคนไปสู่ใบมีดโกนที่หมุนวนอย่างไม่ลืมหูลืมตา?
“นักคิดรุ่นแรกๆ หลายคนในด้าน AI ตระหนักว่าความเป็นเอกเทศกำลังจะมาถึง และในที่สุดเทคโนโลยีก็จะดีพอที่จะทำสิ่งนี้ได้ และพวกเขาต้องการสร้าง Superintelligence เพราะสำหรับพวกเขา มันก็คือพระเจ้า มันเป็นสิ่งที่ฉลาดกว่าเรา สามารถแก้ไขปัญหาทั้งหมดของเราได้ดีกว่าที่เราจะแก้ไขได้ มันจะแก้ไขปัญหาการเปลี่ยนแปลงสภาพภูมิอากาศ รักษาโรคภัยไข้เจ็บทั้งหมด และเราทุกคนจะมีชีวิตอยู่ต่อไปอีกนับล้านปี โดยพื้นฐานแล้วมันคือจุดจบสำหรับมนุษยชาติในมุมมองของพวกเขา…
…ไม่ใช่ว่าพวกเขาคิดว่าพวกเขาสามารถควบคุมมันได้ พวกเขาแค่อยากจะสร้างมันและหวังว่ามันจะเป็นไปด้วยดี แม้ว่าหลายคนจะคิดว่ามันค่อนข้างหมดหวัง มีความคิดที่ว่าถ้าเรือกำลังจะจม ฉันก็อาจจะเป็นคนกัปตันมันก็ได้” ดังที่ Elon Musk กล่าวในการอภิปรายเรื่อง AI ด้วยรอยยิ้มว่า: “สิ่งนี้จะเป็นผลเสียหรือผลดีต่อมนุษยชาติ?
ฉันคิดว่ามันจะเป็นผลดี เป็นไปได้มากที่สุดที่จะเป็นผลดี…
แต่ฉันค่อนข้างจะปรับตัวให้เข้ากับความจริงที่ว่าถึงแม้ว่ามันจะไม่ดี อย่างน้อยฉันก็อยากจะมีชีวิตอยู่เพื่อเห็นมันเกิดขึ้น” เผชิญหน้ากับเทคโนโลยีขนาดใหญ่: เราไม่จำเป็นต้องสร้าง Superintelligence นอกจากจะกอดคนที่เรารักให้แน่นขึ้น หรือทำเครื่องหมายรายการในรายการสิ่งที่อยากทำ มีอะไรที่เราสามารถทำได้อย่างมีประสิทธิภาพเพื่อป้องกันสถานการณ์ “ดับไฟ” สำหรับเผ่าพันธุ์มนุษย์หรือไม่?
Max บอกว่ามี แต่เราต้องลงมือทำเดี๋ยวนี้ “สิ่งหนึ่งที่ฉันทำและเราทำในฐานะองค์กรคือผลักดันให้เกิดการเปลี่ยนแปลงในเรื่องนี้ มันไม่ได้สิ้นหวัง มันไม่ได้หลีกเลี่ยงไม่ได้ เราไม่จำเป็นต้องสร้างระบบ AI ที่ฉลาดกว่ามนุษย์ นี่คือสิ่งที่เราสามารถเลือกที่จะไม่ทำในฐานะสังคม แม้ว่าสิ่งนี้จะไม่สามารถคงอยู่ได้ในอีก 100,000 ปีข้างหน้า แม้แต่ 1,000 ปี เราก็สามารถซื้อเวลาให้ตัวเองได้มากกว่าการทำสิ่งนี้ด้วยความเร็วสูง” เขาชี้ให้เห็นว่ามนุษยชาติเคยเผชิญกับความท้าทายที่คล้ายคลึงกันมาก่อน ซึ่งต้องมีการประสานงาน การดำเนินการ การควบคุม สนธิสัญญาระหว่างประเทศ และการกำกับดูแลอย่างต่อเนื่องในระดับโลก เช่น อาวุธนิวเคลียร์ อาวุธชีวภาพ และการโคลนมนุษย์ สิ่งที่จำเป็นในตอนนี้คือ “การซื้อในเชิงลึกในวงกว้าง” เพื่อสร้างการดำเนินการระดับโลกที่รวดเร็วและประสานงานกันในระดับสหประชาชาติ “หากสหรัฐฯ จีน ยุโรป และผู้เล่นหลักทุกรายตกลงที่จะปราบปราม Superintelligence สิ่งนั้นจะเกิดขึ้น ผู้คนคิดว่ารัฐบาลไม่สามารถทำอะไรได้ในทุกวันนี้ และมันก็ไม่ใช่กรณีนั้นจริงๆ รัฐบาลมีอำนาจ พวกเขาสามารถวางเท้าลงและพูดว่า ‘ไม่ เราไม่ต้องการสิ่งนี้’ เราต้องการคนในทุกประเทศ ทุกที่ในโลก ทำงานในเรื่องนี้ พูดคุยกับรัฐบาล ผลักดันให้มีการดำเนินการ ยังไม่มีประเทศใดออกแถลงการณ์อย่างเป็นทางการว่าความเสี่ยงของการสูญพันธุ์เป็นภัยคุกคาม และเราต้องแก้ไขมัน…
เราต้องลงมือทำเดี๋ยวนี้ เราต้องลงมือทำอย่างรวดเร็ว เราไม่สามารถล้าหลังในเรื่องนี้ได้ การสูญพันธุ์ไม่ใช่คำที่ใช้กันพร่ำเพรื่อ มันไม่ใช่การพูดเกินจริงเพื่อให้ได้ผล การสูญพันธุ์หมายถึงมนุษย์ทุกคนบนโลก ผู้ชาย ผู้หญิง เด็กทุกคน ตาย จุดจบของมนุษยชาติ” ลงมือทำเพื่อควบคุม AI หากคุณต้องการมีส่วนร่วมในการรักษาอนาคตของมนุษยชาติ ControlAI มีเครื่องมือที่สามารถช่วยให้คุณสร้างความแตกต่างได้ ใช้เวลาเพียง 20-30 วินาทีในการติดต่อตัวแทนในพื้นที่ของคุณและแสดงความกังวล และมีพลังในจำนวน 10 ปีที่ผ่านมา การพักชำระหนี้กฎระเบียบ AI ของรัฐในสหรัฐฯ เพิ่งถูกยกเลิกด้วยคะแนนเสียง 99 ต่อ 1 หลังจากความพยายามอย่างมากจากพลเมืองที่เกี่ยวข้องในการใช้เครื่องมือของ ControlAI โทรเข้ามาเป็นจำนวนมาก และเติมข้อความเสียงของเจ้าหน้าที่สภาคองเกรส “การเปลี่ยนแปลงที่แท้จริงสามารถเกิดขึ้นได้จากสิ่งนี้ และนี่คือวิธีที่สำคัญที่สุด” คุณยังสามารถช่วยสร้างความตระหนักเกี่ยวกับปัญหาที่เร่งด่วนที่สุดในยุคของเราได้โดยการพูดคุยกับเพื่อนและครอบครัว ติดต่อบรรณาธิการหนังสือพิมพ์เพื่อขอความคุ้มครองเพิ่มเติม และทำให้การสนทนาเป็นเรื่องปกติ จนกว่านักการเมืองจะรู้สึกกดดันให้ดำเนินการ อย่างน้อยที่สุด: “ถึงแม้จะไม่มีโอกาสที่เราจะชนะสิ่งนี้ ผู้คนก็สมควรที่จะรู้ว่าภัยคุกคามนี้กำลังจะมาถึง” โพสต์ ‘ผู้คนสมควรที่จะรู้ว่าภัยคุกคามนี้กำลังจะมาถึง’: Superintelligence และการนับถอยหลังเพื่อช่วยมนุษยชาติ