เปิด 5 ภัยคุกคามจาก ‘AI’ ที่ (อาจ) เกิดขึ้นจนนำไปสู่การสิ้นสุดของ ‘มนุษยชาติ’!

25 ก.พ. 2567 - 00:00

  • จะเกิดอะไรขึ้นบ้าง? เมื่อ ‘AI’ ที่เราสร้างสูญเสียการควบคุมและไม่ฟังคำสั่งเราอีกต่อไป

  • ผู้เชี่ยวชาญด้าน ‘AI’ คาดการณ์ 5 ภัยคุกคามจาก ‘AI’ ที่อาจบ่อนทำลาย ‘มนุษยชาติ’ ได้

5-easy-ways-artificial-intelligence-could-kill-off-human-race-mankind-extinct-SPACEBAR-Hero.jpg

โลกเราทุกวันนี้ก้าวหน้าไปมากโดยเฉพาะ ‘เทคโนโลยี’ ที่พัฒนาขึ้นมาเพื่ออำนวยความสะดวกสบาย ความรวดเร็ว ทั้งในการทำงาน ตลอดจนในชีวิตประจำวันจนสร้างความเคยชินให้เรา และแน่นอนว่าเทคโนโลยีปัญญาประดิษฐ์ ‘AI’ เข้ามามีอิทธิพลอย่างมาก กำเนิดหุ่นยนต์ทำนู่นทำนี่ตรวจสุขภาพ ทำงานบ้านให้เรา เป็นเพื่อนกับหมาได้ด้วย แต่เคยคิดไหมว่าความล้ำหน้าของมัน (อาจ) กลายเป็นภัยคุกคามที่ย้อนกลับมาทำร้ายเราหรือรุนแรงที่สุดถึงขึ้นทำลายล้างมนุษยชาติเลยก็ว่าได้ 

แม้ในปัจจุบัน ‘AI’ ยังคงเป็นสิ่งที่เราควบคุมได้อยู่ แต่ใครจะไปรู้ล่ะว่าวันหนึ่งมัน (อาจ) จะอยู่เหนือการควบคุมของเราก็ได้ หากเป็นเช่นนั้นมันจะทำให้โลกน่ากลัวมากขึ้นกว่าการเจอมนุษย์ต่างดาวบนโลกเสียอีกนะ!!! ลองคิดดูสิว่าในตอนนี้มันยังแย่งงานเราไปตั้ง 300 ล้านตำแหน่งได้ แถมยังถูกนำไปพัฒนาทำเป็นอาวุธสงครามอีกด้วย

“ขณะนี้ความเสี่ยงที่เป็นหายนะจาก AI ทั้งหมดถูกประเมินต่ำเกินไป”

เบน ไอเซนเพรส ผู้อำนวยการฝ่ายปฏิบัติการขององค์กร ‘Future of Life Institute’ เตือน

และนี่คือ 5 ภัยคุกคามจาก ‘AI’ ที่ผู้เชี่ยวชาญบอกว่า (อาจ) เกิดขึ้นจนนำไปสู่การสิ้นสุดของ ‘มนุษยชาติ’! 

1. อาจเกิด ‘หุ่นยนต์อันธพาล AI’ ขึ้นมา!

5-easy-ways-artificial-intelligence-could-kill-off-human-race-mankind-extinct-SPACEBAR-Photo01.jpg

ความกังวลอย่างหนึ่งในการสร้าง ‘AI’ ที่ทรงพลังก็คือ ‘การสร้างมันจนอาจทำให้มนุษยชาติสูญเสียความสามารถในการควบคุมมัน ซึ่งนำไปสู่ผลลัพธ์ที่ไม่ได้ตั้งใจ’ 

หุ่นยนต์อันธพาล (Rogue AI) ที่หนีการควบคุมของมนุษย์และก่อให้เกิดอันตรายในวงกว้างถือเป็นความเสี่ยงที่แท้จริง เราต้องดูว่า AI จะไปในทิศทางไหน ไม่ใช่แค่ในปัจจุบันเท่านั้น ไม่กี่ปีที่ผ่านมา เราได้เห็นความก้าวหน้าอันน่าประหลาดใจ ขณะที่ผู้เชี่ยวชาญก็คาดการณ์ว่าจะมีมากขึ้นในอนาคต…ในความเป็นจริงมันตรงข้ามกับนิยายวิทยาศาสตร์ เพราะ AI ไม่จำเป็นต้องมีจิตสำนึกหรือมีสติ…” ไอเซนเพรสกล่าว 

ในการทดลองทางความคิด (thought experiment) แบบคลาสสิกครั้งหนึ่งซึ่งคิดค้นโดย ‘นิค บอสตรอม’ นักปรัชญา “เราจินตนาการถึงการขอให้ AI อัจฉริยะขั้นสูงสร้างคลิปหนีบกระดาษให้ได้มากที่สุด…AI อาจให้เหตุผลง่ายๆ ว่ามันสามารถสร้างคลิปหนีบกระดาษได้มากกว่านี้หากไม่มีใครปิดสวิตช์มัน” 

“วิธีที่ดีที่สุดในการหลีกเลี่ยงก็คือ ‘กำจัดมนุษยชาติและเปลี่ยนเราให้กลายเป็นคลิปหนีบกระดาษแทน…แต่สถานการณ์ไม่จำเป็นต้องสุดโต่งขนาดนี้ถึงจะเป็นอันตราย ประเด็นก็คือ AI ออกจากการควบคุมอย่างรวดเร็วแม้ว่าจะได้รับคำสั่งง่ายๆ ก็ตาม”

ดังที่ไอเซนเพรสอธิบายว่า “เป้าหมายปลายเปิดจะผลักดันให้ AI แสวงหาอำนาจ เพราะพลังที่มากขึ้นจะช่วยให้บรรลุเป้าหมายได้”

2. บานปลายกลายเป็น ‘อาวุธชีวภาพ’ 

ในตอนนี้ AI อาจจะไม่ใช่อันตรายที่ใหญ่ที่สุดจริงๆ ทว่าปัญหาที่ใหญ่กว่านั้นคือ ‘สิ่งที่มนุษย์สามารถสร้างขึ้นด้วย AI’ ต่างหาก

“ในระยะสั้น การก่อการร้ายทางชีวภาพที่ใช้ ‘AI’ อาจเป็นหนึ่งในภัยคุกคามร้ายแรงที่สุดจากการพัฒนา ‘AI’ ที่ไม่ได้รับการควบคุม”

ไอเซนเพรสกล่าว

เมื่อเร็วๆ นี้ นายกฯ อังกฤษ ‘ริชี ซูนัค’ เองก็ได้ส่งสัญญาณเตือนเกี่ยวกับอาวุธชีวภาพที่พัฒนาขึ้นจาก AI ในที่ประชุมสุดยอดด้านความปลอดภัยของ AI ณ เบลตช์ลีย์ พาร์ก

ในทำนองเดียวกันนี้ ดาริโอ อโมเด ผู้ก่อตั้งบริษัทสตาร์ทอัพ ‘AI Anthropic’ คู่แข่ง ‘OpenAI’ ก็เตือนรัฐสภาสหรัฐฯ ว่า “AI สามารถช่วยอาชญากรสร้างอาวุธชีวภาพได้ภายใน 2-3 ปี” 

ขณะที่นักวิจัยพบว่าเครื่องมือที่ถูกออกแบบมาเพื่อการค้นพบยาที่เป็นประโยชน์นั้นสามารถแปลงเพื่อค้นหาสารพิษทางชีวเคมีใหม่ได้อย่างง่ายดาย โดยภายในเวลาไม่ถึง 6 ชั่วโมงก็พบว่า AI สามารถคาดการณ์โมเลกุลพิษใหม่มากกว่า 40,000 โมเลกุล ซึ่งอันตรายมากกว่าอาวุธเคมีที่มีอยู่มากมาย 

ไอเซนเพรสบอกว่า ‘ข้อกังวลของเขาคือ ‘ผู้ไม่ประสงค์ดี’ เช่น กลุ่มก่อการร้าย จะสามารถนำเครื่องมือเหล่านี้ไปใช้ใหม่เพื่อปลดปล่อยโรคระบาดร้ายแรงหรือการโจมตีทางเคมี “AI มีความสามารถในการออกแบบโมเลกุลที่เป็นพิษและสร้างมัลแวร์ขั้นสูงอยู่แล้ว และยังสามารถช่วยวางแผนการโจมตีทางชีวภาพได้อีกด้วย…โมเดลขั้นสูงยิ่งขึ้นจะมีพลังมากยิ่งขึ้น ดังนั้นจึงมีอันตรายมากยิ่งขึ้นหากมันไปอยู่ในมือของกลุ่มคนอันตราย” เขากล่าว 

ครั้งหนึ่งในปี 1995 ลัทธิวันโลกาวินาศ (doomsday cult) หรือที่เรียกว่า ‘โอมชินริเกียว’ (Aum Shinrikyo) ได้ปล่อยก๊าซซารินพิษร้ายแรงลงบนรถไฟใต้ดินในโตเกียวโดยมีเป้าหมายที่จะนำไปสู่การสิ้นสุดของโลก เป็นเหตุให้มีผู้เสียชีวิต 13 รายและบาดเจ็บเกือบ 6,000 ราย

ในปัจจุบัน ด้วยความที่เครื่องมือ AI นั้นมีความสามารถในการค้นพบและผลิตอาวุธที่อันตรายยิ่งกว่านั้นได้ จึงเกิดความกลัวที่ว่ากลุ่มลัทธิที่อุดมการณ์เหมือน ‘โอมชินริเกียว’ อาจปล่อยสิ่งที่อันตรายยิ่งกว่านั้นออกมา 

ในขณะที่นักวิจัย AI จำนวนมากก็กำลังผลักดันให้โมเดลของตัวเองเป็น ‘open source’ (ซอฟต์แวร์ที่เผยแพร่โดยใช้ใบอนุญาตที่ผู้ถือครองลิขสิทธ์อนุญาตให้ผู้ใช้มีสิทธิในการใช้ ศึกษา แก้ไข และแจกจ่าย) แต่ไอเซนเพรสเตือนว่า ‘จำเป็นต้องมีความระมัดระวังอย่างมาก’  

ในด้านหนึ่ง การสร้างโมเดลสำหรับทุกคนอาจเพิ่มผลเชิงบวกของ AI เช่น การค้นพบยาใหม่ๆ หรือการเพิ่มประสิทธิภาพระบบการเกษตรเพื่อต่อสู้กับความอดอยาก แต่ในทางกลับกัน โมเดลเหล่านี้ก็ยังสามารถนำมาใช้สร้างอาวุธที่อันตรายยิ่งกว่าสิ่งใดๆ ที่มนุษยชาติเคยเผชิญมา 

3. ระบบ ‘ไวรัสตัวร้าย’ รั่วไหลทั่วโลก!

5-easy-ways-artificial-intelligence-could-kill-off-human-race-mankind-extinct-SPACEBAR-Photo02.jpg

ในปี 2017 ระบบคอมพิวเตอร์ทั่วโลกประสบปัญหาที่ไม่สามารถอธิบายได้ หรือแม้แต่เหตุท่าเรือตู้คอนเทนเนอร์ที่ใหญ่ที่สุดของอินเดียต้องหยุดนิ่ง ไปตลอดจนระบบตรวจสอบรังสีที่โรงไฟฟ้านิวเคลียร์เชอร์โนบิลปิดทำงาน ขณะที่ธนาคาร บริษัทยา และโรงพยาบาลก็สูญเสียการควบคุมระบบอย่างกะทันหัน 

ในเวลาต่อมาก็พบว่า ผู้ร้ายก็คือ ‘ไวรัสคอมพิวเตอร์น็อตเพทยา’ (NotPetya) ซึ่งเป็นอาวุธไซเบอร์ที่น่าจะถูกสร้างขึ้นโดยกองทัพรัสเซียเพื่อโจมตียูเครน ซึ่งในเวลานั้นทำให้ระบบคอมพิวเตอร์หยุดทำงาน และรบกวนการขนส่งสินค้าราว 60 ประเทศ ทว่าเมื่อไวรัสมันรั่วไหลออกมา มันก็แพร่กระจายไปไกลกว่าที่ผู้สร้างคาดการณ์ไว้ ทำให้เกิดความเสียหายประมาณ 1 หมื่นล้านดอลลาร์สหรัฐ (ราว 3.59 แสนล้านบาท) 

กระทรวงการต่างประเทศสหรัฐฯ เตือนว่า “เราได้สังเกตเห็นชาวเกาหลีเหนือ รัฐชาติอื่นๆ และอาชญากรพยายามใช้โมเดล AI เพื่อช่วยเร่งการเขียนซอฟต์แวร์ที่เป็นอันตรายและค้นหาระบบที่จะแสวงหาประโยชน์” 

เมื่อปีที่แล้ว นักวิจัยจากศูนย์ความปลอดภัย AI เขียนว่า “การปล่อย AI ที่ทรงพลังและปล่อยให้พวกมันดำเนินการโดยอิสระจากมนุษย์อาจนำไปสู่หายนะได้” 

4. สงครามนิวเคลียร์จาก ‘AI’

5-easy-ways-artificial-intelligence-could-kill-off-human-race-mankind-extinct-SPACEBAR-Photo03.jpg

บางทีสงครามโลกครั้งที่ 3 อาจจะมาในรูปแบบ ‘อาวุธ AI’ หรือ ‘หุ่นยนต์สู้กัน’ ก็ได้ ซึ่งในความเป็นจริงแล้ว มันอันตรายมากนะ เพราะหากเราพัฒนาป้อนคำสั่งให้มันทำร้ายกันได้ แล้วในภายหน้าหากเป้าหมายของมันคือ ‘เรา’ ล่ะ มันจะกลายเป็นสงครามระหว่าง ‘มนุษย์’ กับ ‘หุ่นยนต์’ หรอ? 

ความกลัวที่น่าหนักใจที่สุดประการหนึ่งของ ‘AI’ ก็คือ ‘ระบบที่เราสร้างขึ้นเพื่อปกป้องตัวเราเองนั้นอาจกลายเป็น ‘ความหายนะของเรา’ ’ 

สนามรบในสงครามสมัยใหม่กำลังกลายเป็นเครือข่ายเซ็นเซอร์ขนาดมหึมา และการโจมตีทำลายล้างสามารถเกิดขึ้นได้เร็วกว่าที่เคย ด้วยเหตุนี้ กองทัพทั่วโลกจึงเริ่มพิจารณานำ AI ไปใช้ในระบบการตัดสินใจของตัวเอง ขณะที่ฝ่ายแผนกลยุทธ์ปัญญาประดิษฐ์ด้านกลาโหมปี 2022 ของกระทรวงกลาโหมอังกฤษเตือนว่า “การดำเนินการนี้อาจ ‘จำกัดขอบเขตความเข้าใจของมนุษย์’ และมักต้องการการตอบสนองที่ความเร็วของเครื่องจักร”

แต่ไอเซนเพรสกล่าวว่า

“การรวม AI เข้ากับระบบทางทหารสามารถนำไปสู่อันตรายที่มากยิ่งขึ้น โดยเฉพาะอย่างยิ่งในกรณีของอาวุธนิวเคลียร์…ระบบ AI ในปัจจุบันนั้นไม่น่าเชื่อถือโดยธรรมชาติ มันมีความสามารถในการตัดสินใจแบบที่อธิบายไม่ได้…การบูรณาการ AI เข้ากับระบบสั่งการและควบคุมนิวเคลียร์กำลังทำให้เกิดความไม่มั่นคง”

ความกังวลอีกประการหนึ่งก็คือ ‘การตัดสินใจอย่างรวดเร็วของ AI อาจนำไปสู่ข้อผิดพลาดเล็กๆ น้อยๆ เช่น การระบุเครื่องบินผิดพลาด จนอาจลุกลามไปสู่สงครามเต็มรูปแบบอย่างรวดเร็ว’ เมื่อ AI ทำข้อผิดพลาดเบื้องต้น AI จากประเทศต่างๆ จะสามารถโต้ตอบกันได้ ‘เร็วกว่า’ ที่มนุษย์คนใดจะสามารถควบคุมได้ ซึ่งนำไปสู่ ‘สงครามโดยอัตโนมัติ’ 

5. เข้ามามีบทบาทในชีวิตประจำวันทีละเล็กทีละน้อย…

5-easy-ways-artificial-intelligence-could-kill-off-human-race-mankind-extinct-SPACEBAR-Photo04.jpg

นอกจากภัยคุกคามที่อาจนำไปสู่สงครามนิวเคลียร์แล้ว ไอเซนเพรสยังบอกอีกว่ามีอีกวิธีหนึ่งที่อาจทำให้เราสะดุดล้มจนนำไปสู่การสิ้นสุดของมนุษยชาติได้ และเรารู้ดีว่ามันจะเกิดจากการยึดครองอย่างค่อยเป็นค่อยไปและเงียบงัน ตั้งแต่ธุรกรรมทางการเงินไปจนถึงการดำเนินคดี อีกทั้งงานหลายล้านตำแหน่งก็ถูก AI แย่งทำไปเสียเกือบหมด

ไอเซนเพรสกล่าวว่า

“เมื่อเวลาผ่านไป AI จะถูกบูรณาการเข้ากับระบบต่างๆ มากขึ้นเรื่อยๆ รวมถึงระบบที่มีความสำคัญต่อวิถีชีวิตของเราด้วย…บริษัทหรือพรรคการเมืองที่ปฏิเสธที่จะควบคุม AI จะแพ้ให้กับผู้ที่ทำเช่นนั้น ทำให้เกิดการแข่งขันไปสู่จุดต่ำสุดทีละเล็กทีละน้อย ในท้ายที่สุด มนุษย์ก็จะมีอำนาจควบคุมโลกน้อยลง…”

เรื่องเด่นประจำสัปดาห์