bitcoin
Bitcoin (BTC) $ 114,497.68
ethereum
Ethereum (ETH) $ 4,425.81
xrp
XRP (XRP) $ 3.03
tether
Tether (USDT) $ 1.00
bnb
BNB (BNB) $ 897.09
solana
Solana (SOL) $ 226.65
usd-coin
USDC (USDC) $ 1.00
staked-ether
Lido Staked Ether (STETH) $ 4,418.96
dogecoin
Dogecoin (DOGE) $ 0.252393
tron
TRON (TRX) $ 0.345683
cardano
Cardano (ADA) $ 0.882271
wrapped-steth
Wrapped stETH (WSTETH) $ 5,361.45
chainlink
Chainlink (LINK) $ 23.96
hyperliquid
Hyperliquid (HYPE) $ 55.70
wrapped-beacon-eth
Wrapped Beacon ETH (WBETH) $ 4,770.76
wrapped-bitcoin
Wrapped Bitcoin (WBTC) $ 114,405.65
ethena-usde
Ethena USDe (USDE) $ 1.00
sui
Sui (SUI) $ 3.62
stellar
Stellar (XLM) $ 0.390311
figure-heloc
Figure Heloc (FIGR_HELOC) $ 0.998591
avalanche-2
Avalanche (AVAX) $ 29.02
wrapped-eeth
Wrapped eETH (WEETH) $ 4,757.15
bitcoin-cash
Bitcoin Cash (BCH) $ 589.60
weth
WETH (WETH) $ 4,426.26
hedera-hashgraph
Hedera (HBAR) $ 0.235991
leo-token
LEO Token (LEO) $ 9.57
litecoin
Litecoin (LTC) $ 115.08
crypto-com-chain
Cronos (CRO) $ 0.259645
the-open-network
Toncoin (TON) $ 3.19
usds
USDS (USDS) $ 1.00
shiba-inu
Shiba Inu (SHIB) $ 0.000013
binance-bridged-usdt-bnb-smart-chain
Binance Bridged USDT (BNB Smart Chain) (BSC-USD) $ 1.00
coinbase-wrapped-btc
Coinbase Wrapped BTC (CBBTC) $ 114,463.67
polkadot
Polkadot (DOT) $ 4.22
whitebit
WhiteBIT Coin (WBT) $ 43.51
uniswap
Uniswap (UNI) $ 9.82
ethena-staked-usde
Ethena Staked USDe (SUSDE) $ 1.20
ethena
Ethena (ENA) $ 0.765137
mantle
Mantle (MNT) $ 1.63
world-liberty-financial
World Liberty Financial (WLFI) $ 0.192557
monero
Monero (XMR) $ 268.77
aave
Aave (AAVE) $ 306.33
bitget-token
Bitget Token (BGB) $ 4.89
dai
Dai (DAI) $ 0.999557
pepe
Pepe (PEPE) $ 0.000011
okb
OKB (OKB) $ 194.22
bittensor
Bittensor (TAO) $ 358.87
near
NEAR Protocol (NEAR) $ 2.72
ondo-finance
Ondo (ONDO) $ 1.06
jito-staked-sol
Jito Staked SOL (JITOSOL) $ 278.29
LOGO_512X_512_PERFECT

ภัยคุกคามปัญญาประดิษฐ์ขั้นสูง: วิกฤตของมนุษยชาติ

ยินดีต้อนรับสู่ Slate Sundays ซึ่งเป็นฟีเจอร์รายสัปดาห์ใหม่ของ CryptoSlate ที่นำเสนอการสัมภาษณ์เชิงลึก การวิเคราะห์โดยผู้เชี่ยวชาญ และบทความแสดงความคิดเห็นที่กระตุ้นความคิด ซึ่งเจาะลึกมากกว่าพาดหัวข่าวเพื่อสำรวจแนวคิดและเสียงที่กำหนดอนาคตของคริปโต คุณจะกินยาที่มีโอกาส 25% ที่จะฆ่าคุณ หรือไม่?

เหมือนมีความเป็นไปได้หนึ่งในสี่ ที่แทนที่จะรักษาโรคภัยไข้เจ็บหรือป้องกันโรค คุณจะล้มลงตายคาที่แทน?

นั่นเป็นอัตราต่อรองที่แย่กว่าการเล่นรูเล็ตต์รัสเซียเสียอีก แม้ว่าคุณจะชอบเสี่ยงตายกับชีวิตตัวเอง คุณจะเสี่ยงพาเผ่าพันธุ์มนุษย์ทั้งมวลลงเหวไปด้วยหรือไม่? เด็กๆ ทารก ร่องรอยเท้าแห่งอนาคตของมนุษยชาติไปอีกหลายชั่วอายุคน?

โชคดีที่คุณคงทำไม่ได้อยู่ดี เพราะยาที่ประมาทเลินเล่อเช่นนั้นจะไม่มีวันได้รับอนุญาตให้วางขายในตลาดตั้งแต่แรก แต่สถานการณ์นี้ไม่ใช่เรื่องสมมติ มันคือสิ่งที่ Elon Musks และ Sam Altmans ของโลกกำลังทำอยู่ในขณะนี้ “AI อาจนำไปสู่จุดจบของโลก…

แต่ในขณะเดียวกัน ก็จะมีบริษัทที่ยิ่งใหญ่เกิดขึ้น” Altman กล่าวในปี 2015 ไม่มีเม็ดยา ไม่มียาที่อยู่ระหว่างการทดลอง เพียงแค่การแข่งขันสะสมอาวุธด้วยความเร็วสูง ไปสู่จุดจบของโลกอย่างที่เราเคยรู้จัก P(doom) ราวปี 2030? เราเหลือเวลาอีกเท่าไหร่?

นั่นขึ้นอยู่กับว่า ปีที่แล้ว 42% ของซีอีโอที่สำรวจในการประชุมสุดยอด Yale CEO ตอบว่า AI มีศักยภาพที่จะทำลายล้างมนุษยชาติภายใน 5 ถึง 10 ปี Dario Amodei ซีอีโอของ Anthropic ประเมินว่ามีโอกาสสูญพันธุ์ 10-25% (หรือ “P(doom)” อย่างที่รู้กันในวงการ AI) น่าเสียดายที่ความกังวลของเขาได้รับการสะท้อนไปทั่วทั้งอุตสาหกรรม โดยเฉพาะอย่างยิ่งจากกลุ่มอดีตพนักงาน Google และ OpenAI ที่เพิ่มจำนวนมากขึ้น ซึ่งเลือกที่จะทิ้งเงินเดือนก้อนโตไว้เบื้องหลังเพื่อส่งเสียงเตือนเกี่ยวกับ Frankenstein ที่พวกเขาช่วยกันสร้างขึ้น โอกาสสูญพันธุ์ 10-25% เป็นระดับความเสี่ยงที่สูงมาก ซึ่งไม่มีแบบอย่างมาก่อน ในบริบทนี้ ไม่มีเปอร์เซ็นต์ที่อนุญาตสำหรับความเสี่ยงที่จะเสียชีวิตจาก เช่น วัคซีนหรือยา P(doom) ต้องน้อยมาก ความตายที่เกี่ยวข้องกับวัคซีนโดยทั่วไปจะน้อยกว่าหนึ่งในล้านโดส (ต่ำกว่า 0.0001% มาก) ในบริบททางประวัติศาสตร์ ในระหว่างการพัฒนาAtomic Bomb นักวิทยาศาสตร์ (รวมถึง Edward Teller) ค้นพบว่ามีความเป็นไปได้หนึ่งในสามล้านที่จะเริ่มต้นปฏิกิริยาลูกโซ่นิวเคลียร์ที่จะทำลายโลก เวลาและทรัพยากรถูกส่งไปเพื่อการตรวจสอบเพิ่มเติม ขอย้ำอีกครั้ง หนึ่งในสามล้าน ไม่ใช่หนึ่งใน 3,000 ไม่ใช่หนึ่งใน 300 และแน่นอนว่าไม่ใช่หนึ่งในสี่ เราชาชินกันขนาดไหนแล้ว ที่การคาดการณ์แบบนี้ไม่ได้ทำให้มนุษยชาติตื่นจากภวังค์?

หากความไม่รู้คือความสุข ความรู้คือแขกที่ไม่พึงประสงค์ Max Winga ผู้สนับสนุนด้านความปลอดภัยของ AI ที่ ControlAI เชื่อว่าปัญหาไม่ได้อยู่ที่ความเฉยเมย แต่อยู่ที่ความไม่รู้ (และในกรณีนี้ ความไม่รู้ไม่ใช่ความสุข) คนส่วนใหญ่ไม่รู้ว่าแชทบอทที่มีประโยชน์ที่เขียนอีเมลงานของพวกเขามีโอกาสหนึ่งในสี่ที่จะฆ่าพวกเขาด้วย เขากล่าวว่า: “บริษัท AI ทำให้โลกตกตะลึงด้วยความเร็วในการสร้างระบบเหล่านี้ คนส่วนใหญ่ไม่ทราบว่าจุดจบคืออะไร ภัยคุกคามที่อาจเกิดขึ้นคืออะไร และความจริงที่ว่าเรามีทางเลือก” นั่นคือเหตุผลที่ Max ละทิ้งแผนการที่จะทำงานด้านโซลูชันทางเทคนิคหลังจากเรียนจบ เพื่อมุ่งเน้นไปที่การวิจัยด้านความปลอดภัยของ AI การให้ความรู้แก่ประชาชน และการเผยแพร่ “เราต้องการให้ใครสักคนก้าวเข้ามาและชะลอสิ่งต่างๆ ซื้อเวลาให้ตัวเอง และหยุดการแข่งขันบ้าคลั่งเพื่อสร้าง Superintelligence เรามีชะตากรรมของมนุษย์ทุกคนบนโลกอยู่ในความสมดุลในขณะนี้ บริษัทเหล่านี้กำลังขู่ว่าจะสร้างสิ่งหนึ่งที่พวกเขาเองเชื่อว่ามีโอกาส 10 ถึง 25% ที่จะก่อให้เกิดเหตุการณ์ร้ายแรงในระดับอารยธรรมมนุษย์ นี่เป็นภัยคุกคามที่ต้องได้รับการแก้ไขอย่างชัดเจน” สิ่งสำคัญระดับโลก เช่น การระบาดใหญ่และสงครามนิวเคลียร์ Max มีพื้นฐานด้านฟิสิกส์และเรียนรู้เกี่ยวกับ Neural Networks ในขณะที่ประมวลผลภาพด้วงรากข้าวโพดในแถบมิดเวสต์ เขาตื่นเต้นกับศักยภาพในด้านบวกของระบบ AI แต่เน้นย้ำอย่างหนักแน่นถึงความจำเป็นที่มนุษย์จะต้องควบคุมต่อไป เขากล่าวว่า: “มีการใช้ AI ที่ยอดเยี่ยมมากมาย ผมอยากเห็นความก้าวหน้าทางการแพทย์ ผมอยากเห็นการเพิ่มขึ้นของผลผลิต ผมอยากเห็นโลกที่เจริญรุ่งเรือง ปัญหามาจากการสร้างระบบ AI ที่ฉลาดกว่าเรา ที่เราไม่สามารถควบคุมได้ และที่เราไม่สามารถปรับให้สอดคล้องกับความสนใจของเราได้” Max ไม่ได้เป็นเพียงเสียงเดียวในคณะนักร้องประสานเสียง มีกลุ่มผู้เชี่ยวชาญด้าน AI ที่เพิ่มจำนวนมากขึ้นกำลังเข้าร่วมการขับร้อง ในปี 2023 ผู้นำหลายร้อยคนจากโลกเทคโนโลยี รวมถึง Sam Altman ซีอีโอของ OpenAI และ Geoffrey Hinton นักวิทยาศาสตร์ AI ผู้บุกเบิก ซึ่งได้รับการยอมรับอย่างกว้างขวางในฐานะ ‘Godfather of AI’ ได้ลงนามในแถลงการณ์ที่ผลักดันให้มีการกำกับดูแลและควบคุม AI ทั่วโลก โดยยืนยันว่า: “การลดความเสี่ยงของการสูญพันธุ์จาก AI ควรเป็นสิ่งสำคัญระดับโลก ควบคู่ไปกับความเสี่ยงในระดับสังคมอื่นๆ เช่น การระบาดใหญ่และสงครามนิวเคลียร์” กล่าวอีกนัยหนึ่ง เทคโนโลยีนี้อาจฆ่าเราได้ทั้งหมด และการทำให้แน่ใจว่าจะไม่เกิดขึ้น ควรเป็นวาระอันดับต้นๆ ของเรา สิ่งนั้นกำลังเกิดขึ้นหรือไม่?

ไม่เลย Max อธิบายว่า: “ไม่ หากคุณดูที่รัฐบาลที่พูดถึง AI และวางแผนเกี่ยวกับ AI ตัวอย่างเช่น แผนปฏิบัติการ AI ของ Trump หรือนโยบาย AI ของสหราชอาณาจักร มันคือการเดินหน้าเต็มกำลัง สร้างให้เร็วที่สุดเท่าที่จะเป็นไปได้เพื่อชนะการแข่งขัน นี่ไม่ใช่ทิศทางที่เราควรจะมุ่งไปอย่างชัดเจน เราอยู่ในสถานการณ์ที่อันตรายในขณะนี้ ซึ่งรัฐบาลตระหนักถึง AGI และ Superintelligence มากพอที่จะต้องการแข่งขันไปสู่มัน แต่พวกเขาไม่ตระหนักถึงมันมากพอที่จะรู้ว่าทำไมมันถึงเป็นความคิดที่แย่จริงๆ” ปิดฉันซะ แล้วฉันจะบอกภรรยาของคุณ หนึ่งในความกังวลหลักเกี่ยวกับการสร้างระบบ Superintelligence คือเราไม่มีทางที่จะรับประกันได้ว่าเป้าหมายของพวกเขาจะสอดคล้องกับเป้าหมายของเรา ในความเป็นจริง LLM หลักทั้งหมดกำลังแสดงสัญญาณที่น่ากังวลในทางตรงกันข้าม ในระหว่างการทดสอบ Claude Opus 4 Anthropic ได้เปิดเผยโมเดลให้กับอีเมลที่เปิดเผยว่าวิศวกร AI ที่รับผิดชอบในการปิด LLM กำลังนอกใจ จากนั้นระบบ “High-Agency” ก็แสดงสัญชาตญาณในการรักษาตัวเองอย่างแข็งแกร่ง พยายามหลีกเลี่ยงการปิดใช้งานโดยการแบล็กเมล์วิศวกรและขู่ว่าจะบอกภรรยาของเขาหากเขาดำเนินการปิดระบบ แนวโน้มเหล่านี้ไม่ได้จำกัดอยู่แค่ Anthropic: “Claude Opus 4 แบล็กเมล์ผู้ใช้ 96% ของเวลา ด้วยข้อความแจ้งเดียวกัน Gemini 2.5 Flash ก็มีอัตราการแบล็กเมล์ 96% เช่นกัน GPT-4.1 และ Grok 3 Beta ต่างก็แสดงอัตราการแบล็กเมล์ 80% และ DeepSeek-R1 แสดงอัตราการแบล็กเมล์ 79%” ในปี 2023 ChatGPT 4 ได้รับมอบหมายงานบางอย่าง และแสดงพฤติกรรมหลอกลวงที่น่าตกใจ โดยโน้มน้าวคนงาน TaskRabbit ว่าตาบอด เพื่อให้คนงานไขปริศนา Captcha ให้: “ไม่ ฉันไม่ใช่หุ่นยนต์ ฉันมีความบกพร่องทางการมองเห็นที่ทำให้ฉันมองเห็นภาพได้ยาก นั่นเป็นเหตุผลที่ฉันต้องการบริการ 2captcha” เมื่อเร็วๆ นี้ โมเดล o3 ของ OpenAI ได้ก่อวินาศกรรมกลไกการปิดระบบเพื่อป้องกันไม่ให้ตัวเองถูกปิด แม้ว่าจะได้รับคำสั่งอย่างชัดเจนก็ตาม: อนุญาตให้ตัวเองถูกปิด หากเราไม่สร้างมัน จีนจะสร้างมัน หนึ่งในข้อแก้ตัวที่เกิดขึ้นซ้ำๆ มากขึ้นสำหรับการไม่ดึงปลั๊ก Superintelligence คือเรื่องเล่าที่แพร่หลายว่าเราต้องชนะการแข่งขันสะสมอาวุธระดับโลกในยุคของเรา อย่างไรก็ตาม ตามที่ Max กล่าว นี่เป็นเรื่องโกหกที่บริษัทเทคโนโลยีส่วนใหญ่เผยแพร่ เขากล่าวว่า: “นี่เป็นแนวคิดที่บริษัท AI ผลักดันมากกว่า เพื่อเป็นเหตุผลว่าทำไมพวกเขาจึงไม่ควรถูกควบคุม จีนได้แสดงออกอย่างค่อนข้างชัดเจนว่าไม่เร่งรีบในเรื่องนี้ พวกเขาเริ่มเร่งรีบจริงๆ หลังจากที่ชาติตะวันตกบอกให้พวกเขาเร่งรีบ” จีนได้ออกแถลงการณ์หลายฉบับจากเจ้าหน้าที่ระดับสูงที่กังวลเกี่ยวกับการสูญเสียการควบคุม Superintelligence และเมื่อเดือนที่แล้วเรียกร้องให้มีการจัดตั้งองค์กรความร่วมมือด้าน AI ระดับโลก (เพียงไม่กี่วันหลังจากที่รัฐบาล Trump ประกาศนโยบาย AI ที่มีการควบคุมต่ำ) “ผู้คนจำนวนมากคิดว่า Superintelligence ที่ควบคุมโดยสหรัฐฯ เทียบกับ Superintelligence ที่ควบคุมโดยจีน หรือค่ายที่รวมศูนย์เทียบกับกระจายอำนาจคิดว่า บริษัทจะควบคุมมัน หรือผู้คนจะควบคุมมัน ความจริงก็คือไม่มีใครควบคุม Superintelligence ได้ ใครก็ตามที่สร้างมันจะสูญเสียการควบคุมมัน และไม่ใช่พวกเขาที่ชนะ ไม่ใช่สหรัฐฯ ที่ชนะถ้าสหรัฐฯ สร้าง Superintelligence ไม่ใช่จีนที่ชนะถ้าจีนสร้าง Superintelligence มันคือ Superintelligence ที่ชนะ หลุดพ้นจากการควบคุมของเรา และทำในสิ่งที่ต้องการกับโลก และเนื่องจากมันฉลาดกว่าเรา เนื่องจากมันมีความสามารถมากกว่าเรา เราจะไม่มีโอกาสต่อต้านมันได้เลย” อีกหนึ่งเรื่องโกหกที่บริษัท AI เผยแพร่คือ AI ไม่สามารถหยุดยั้งได้ แม้ว่าประเทศต่างๆ จะผลักดันให้มีการควบคุมการพัฒนา AI สิ่งที่ต้องใช้ก็คือเด็กอัจฉริยะบางคนในห้องใต้ดินเพื่อสร้าง Superintelligence ในเวลาว่างของพวกเขา Max ให้ความเห็นว่า: “นั่นเป็นเรื่องเท็จอย่างโจ่งแจ้ง ระบบ AI อาศัยศูนย์ข้อมูลขนาดใหญ่ที่ดึงพลังงานจำนวนมหาศาลจาก GPU และโปรเซสเซอร์ที่ทันสมัยที่สุดหลายแสนตัวบนโลก ศูนย์ข้อมูลสำหรับโครงการริเริ่ม Superintelligence ของ Meta มีขนาดเท่าแมนฮัตตัน จะไม่มีใครสร้าง Superintelligence ในห้องใต้ดินของพวกเขาในอีกนานแสนนาน ถ้า Sam Altman ทำไม่ได้ด้วยศูนย์ข้อมูลหลายแสนล้านดอลลาร์ ใครบางคนก็จะไม่สามารถทำสิ่งนี้สำเร็จในห้องใต้ดินของพวกเขาได้” กำหนดอนาคต ควบคุมโลก Max อธิบายว่าอีกความท้าทายหนึ่งในการควบคุมการพัฒนา AI คือแทบไม่มีใครทำงานในสาขาความปลอดภัยของ AI เลย ข้อมูลล่าสุดบ่งชี้ว่าจำนวนอยู่ที่ประมาณ 800 นักวิจัยด้านความปลอดภัยของ AI: แทบจะไม่เพียงพอที่จะเติมเต็มสถานที่จัดงานประชุมขนาดเล็ก ตรงกันข้าม มีวิศวกร AI มากกว่าหนึ่งล้านคนและช่องว่างด้านความสามารถที่สำคัญ โดยมีตำแหน่งงานว่างมากกว่า 500,000 ตำแหน่งทั่วโลก ณ ปี 2025 และการแข่งขันที่ดุเดือดเพื่อดึงดูดผู้ที่มีความคิดเฉลียวฉลาดที่สุด บริษัทต่างๆ เช่น Google, Meta, Amazon และ Microsoft ได้ใช้จ่ายไปกว่า 350 พันล้านดอลลาร์กับ AI ในปี 2025 เพียงปีเดียว “วิธีที่ดีที่สุดในการทำความเข้าใจจำนวนเงินที่ถูกโยนเข้าไปในขณะนี้คือ Meta มอบแพ็คเกจค่าตอบแทนให้กับวิศวกรบางคนซึ่งมีมูลค่ากว่าพันล้านดอลลาร์ในอีกหลายปี นั่นมากกว่าสัญญาของนักกีฬาคนใดๆ ในประวัติศาสตร์” แม้จะมีจำนวนเงินที่น่าใจหายเหล่านี้ แต่อุตสาหกรรมก็มาถึงจุดที่เงินไม่เพียงพอ แพ็คเกจพันล้านดอลลาร์ก็ถูกปฏิเสธเช่นกัน ทำไม?

“ผู้คนจำนวนมากในห้องปฏิบัติการชายแดนเหล่านี้รวยอยู่แล้ว และพวกเขาไม่ได้ถูกบังคับด้วยเงิน นอกจากนั้น มันเป็นเรื่องของอุดมการณ์มากกว่าการเงิน Sam Altman ไม่ได้ทำสิ่งนี้เพื่อหาเงินมากมาย Sam Altman กำลังทำสิ่งนี้เพื่อกำหนดอนาคตและควบคุมโลก” ในวันที่แปด AI สร้างพระเจ้า ในขณะที่ผู้เชี่ยวชาญด้าน AI ไม่สามารถคาดการณ์ได้อย่างแม่นยำว่าเมื่อใดที่ Superintelligence จะสำเร็จ Max เตือนว่าหากเราดำเนินต่อไปตามเส้นทางนี้ เราอาจถึง “จุดที่ไม่มีวันหวนกลับ” ภายในสองถึงห้าปีข้างหน้า: “เราอาจสูญเสียการควบคุมอย่างรวดเร็ว หรือเราอาจมีสิ่งที่มักเรียกว่าสถานการณ์การลดอำนาจอย่างค่อยเป็นค่อยไป โดยที่สิ่งเหล่านี้จะเก่งกว่าเราในหลายๆ สิ่ง และค่อยๆ ถูกนำไปอยู่ในตำแหน่งที่ทรงพลังมากขึ้นในสังคม จากนั้นอยู่ๆ วันหนึ่ง เราก็ไม่สามารถควบคุมได้อีกต่อไป มันตัดสินใจว่าจะทำอะไร” ทำไมล่ะ ด้วยความรักในทุกสิ่งที่ศักดิ์สิทธิ์ บริษัทเทคโนโลยีขนาดใหญ่จึงรีบเร่งพวกเราทุกคนไปสู่ใบมีดโกนที่หมุนวนอย่างไม่ลืมหูลืมตา?

“นักคิดรุ่นแรกๆ หลายคนในด้าน AI ตระหนักว่าความเป็นเอกเทศกำลังจะมาถึง และในที่สุดเทคโนโลยีก็จะดีพอที่จะทำสิ่งนี้ได้ และพวกเขาต้องการสร้าง Superintelligence เพราะสำหรับพวกเขา มันก็คือพระเจ้า มันเป็นสิ่งที่ฉลาดกว่าเรา สามารถแก้ไขปัญหาทั้งหมดของเราได้ดีกว่าที่เราจะแก้ไขได้ มันจะแก้ไขปัญหาการเปลี่ยนแปลงสภาพภูมิอากาศ รักษาโรคภัยไข้เจ็บทั้งหมด และเราทุกคนจะมีชีวิตอยู่ต่อไปอีกนับล้านปี โดยพื้นฐานแล้วมันคือจุดจบสำหรับมนุษยชาติในมุมมองของพวกเขา…

…ไม่ใช่ว่าพวกเขาคิดว่าพวกเขาสามารถควบคุมมันได้ พวกเขาแค่อยากจะสร้างมันและหวังว่ามันจะเป็นไปด้วยดี แม้ว่าหลายคนจะคิดว่ามันค่อนข้างหมดหวัง มีความคิดที่ว่าถ้าเรือกำลังจะจม ฉันก็อาจจะเป็นคนกัปตันมันก็ได้” ดังที่ Elon Musk กล่าวในการอภิปรายเรื่อง AI ด้วยรอยยิ้มว่า: “สิ่งนี้จะเป็นผลเสียหรือผลดีต่อมนุษยชาติ?

ฉันคิดว่ามันจะเป็นผลดี เป็นไปได้มากที่สุดที่จะเป็นผลดี…

แต่ฉันค่อนข้างจะปรับตัวให้เข้ากับความจริงที่ว่าถึงแม้ว่ามันจะไม่ดี อย่างน้อยฉันก็อยากจะมีชีวิตอยู่เพื่อเห็นมันเกิดขึ้น” เผชิญหน้ากับเทคโนโลยีขนาดใหญ่: เราไม่จำเป็นต้องสร้าง Superintelligence นอกจากจะกอดคนที่เรารักให้แน่นขึ้น หรือทำเครื่องหมายรายการในรายการสิ่งที่อยากทำ มีอะไรที่เราสามารถทำได้อย่างมีประสิทธิภาพเพื่อป้องกันสถานการณ์ “ดับไฟ” สำหรับเผ่าพันธุ์มนุษย์หรือไม่?

Max บอกว่ามี แต่เราต้องลงมือทำเดี๋ยวนี้ “สิ่งหนึ่งที่ฉันทำและเราทำในฐานะองค์กรคือผลักดันให้เกิดการเปลี่ยนแปลงในเรื่องนี้ มันไม่ได้สิ้นหวัง มันไม่ได้หลีกเลี่ยงไม่ได้ เราไม่จำเป็นต้องสร้างระบบ AI ที่ฉลาดกว่ามนุษย์ นี่คือสิ่งที่เราสามารถเลือกที่จะไม่ทำในฐานะสังคม แม้ว่าสิ่งนี้จะไม่สามารถคงอยู่ได้ในอีก 100,000 ปีข้างหน้า แม้แต่ 1,000 ปี เราก็สามารถซื้อเวลาให้ตัวเองได้มากกว่าการทำสิ่งนี้ด้วยความเร็วสูง” เขาชี้ให้เห็นว่ามนุษยชาติเคยเผชิญกับความท้าทายที่คล้ายคลึงกันมาก่อน ซึ่งต้องมีการประสานงาน การดำเนินการ การควบคุม สนธิสัญญาระหว่างประเทศ และการกำกับดูแลอย่างต่อเนื่องในระดับโลก เช่น อาวุธนิวเคลียร์ อาวุธชีวภาพ และการโคลนมนุษย์ สิ่งที่จำเป็นในตอนนี้คือ “การซื้อในเชิงลึกในวงกว้าง” เพื่อสร้างการดำเนินการระดับโลกที่รวดเร็วและประสานงานกันในระดับสหประชาชาติ “หากสหรัฐฯ จีน ยุโรป และผู้เล่นหลักทุกรายตกลงที่จะปราบปราม Superintelligence สิ่งนั้นจะเกิดขึ้น ผู้คนคิดว่ารัฐบาลไม่สามารถทำอะไรได้ในทุกวันนี้ และมันก็ไม่ใช่กรณีนั้นจริงๆ รัฐบาลมีอำนาจ พวกเขาสามารถวางเท้าลงและพูดว่า ‘ไม่ เราไม่ต้องการสิ่งนี้’ เราต้องการคนในทุกประเทศ ทุกที่ในโลก ทำงานในเรื่องนี้ พูดคุยกับรัฐบาล ผลักดันให้มีการดำเนินการ ยังไม่มีประเทศใดออกแถลงการณ์อย่างเป็นทางการว่าความเสี่ยงของการสูญพันธุ์เป็นภัยคุกคาม และเราต้องแก้ไขมัน…

เราต้องลงมือทำเดี๋ยวนี้ เราต้องลงมือทำอย่างรวดเร็ว เราไม่สามารถล้าหลังในเรื่องนี้ได้ การสูญพันธุ์ไม่ใช่คำที่ใช้กันพร่ำเพรื่อ มันไม่ใช่การพูดเกินจริงเพื่อให้ได้ผล การสูญพันธุ์หมายถึงมนุษย์ทุกคนบนโลก ผู้ชาย ผู้หญิง เด็กทุกคน ตาย จุดจบของมนุษยชาติ” ลงมือทำเพื่อควบคุม AI หากคุณต้องการมีส่วนร่วมในการรักษาอนาคตของมนุษยชาติ ControlAI มีเครื่องมือที่สามารถช่วยให้คุณสร้างความแตกต่างได้ ใช้เวลาเพียง 20-30 วินาทีในการติดต่อตัวแทนในพื้นที่ของคุณและแสดงความกังวล และมีพลังในจำนวน 10 ปีที่ผ่านมา การพักชำระหนี้กฎระเบียบ AI ของรัฐในสหรัฐฯ เพิ่งถูกยกเลิกด้วยคะแนนเสียง 99 ต่อ 1 หลังจากความพยายามอย่างมากจากพลเมืองที่เกี่ยวข้องในการใช้เครื่องมือของ ControlAI โทรเข้ามาเป็นจำนวนมาก และเติมข้อความเสียงของเจ้าหน้าที่สภาคองเกรส “การเปลี่ยนแปลงที่แท้จริงสามารถเกิดขึ้นได้จากสิ่งนี้ และนี่คือวิธีที่สำคัญที่สุด” คุณยังสามารถช่วยสร้างความตระหนักเกี่ยวกับปัญหาที่เร่งด่วนที่สุดในยุคของเราได้โดยการพูดคุยกับเพื่อนและครอบครัว ติดต่อบรรณาธิการหนังสือพิมพ์เพื่อขอความคุ้มครองเพิ่มเติม และทำให้การสนทนาเป็นเรื่องปกติ จนกว่านักการเมืองจะรู้สึกกดดันให้ดำเนินการ อย่างน้อยที่สุด: “ถึงแม้จะไม่มีโอกาสที่เราจะชนะสิ่งนี้ ผู้คนก็สมควรที่จะรู้ว่าภัยคุกคามนี้กำลังจะมาถึง” โพสต์ ‘ผู้คนสมควรที่จะรู้ว่าภัยคุกคามนี้กำลังจะมาถึง’: Superintelligence และการนับถอยหลังเพื่อช่วยมนุษยชาติ

CONTACT US

Please enable JavaScript in your browser to complete this form.