โลกเราทุกวันนี้ก้าวหน้าไปมากโดยเฉพาะ ‘เทคโนโลยี’ ที่พัฒนาขึ้นมาเพื่ออำนวยความสะดวกสบาย ความรวดเร็ว ทั้งในการทำงาน ตลอดจนในชีวิตประจำวันจนสร้างความเคยชินให้เรา และแน่นอนว่าเทคโนโลยีปัญญาประดิษฐ์ ‘AI’ เข้ามามีอิทธิพลอย่างมาก กำเนิดหุ่นยนต์ทำนู่นทำนี่ตรวจสุขภาพ ทำงานบ้านให้เรา เป็นเพื่อนกับหมาได้ด้วย แต่เคยคิดไหมว่าความล้ำหน้าของมัน (อาจ) กลายเป็นภัยคุกคามที่ย้อนกลับมาทำร้ายเราหรือรุนแรงที่สุดถึงขึ้นทำลายล้างมนุษยชาติเลยก็ว่าได้
แม้ในปัจจุบัน ‘AI’ ยังคงเป็นสิ่งที่เราควบคุมได้อยู่ แต่ใครจะไปรู้ล่ะว่าวันหนึ่งมัน (อาจ) จะอยู่เหนือการควบคุมของเราก็ได้ หากเป็นเช่นนั้นมันจะทำให้โลกน่ากลัวมากขึ้นกว่าการเจอมนุษย์ต่างดาวบนโลกเสียอีกนะ!!! ลองคิดดูสิว่าในตอนนี้มันยังแย่งงานเราไปตั้ง 300 ล้านตำแหน่งได้ แถมยังถูกนำไปพัฒนาทำเป็นอาวุธสงครามอีกด้วย
“ขณะนี้ความเสี่ยงที่เป็นหายนะจาก AI ทั้งหมดถูกประเมินต่ำเกินไป”
— เบน ไอเซนเพรส ผู้อำนวยการฝ่ายปฏิบัติการขององค์กร ‘Future of Life Institute’ เตือน
และนี่คือ 5 ภัยคุกคามจาก ‘AI’ ที่ผู้เชี่ยวชาญบอกว่า (อาจ) เกิดขึ้นจนนำไปสู่การสิ้นสุดของ ‘มนุษยชาติ’!
1\. อาจเกิด ‘หุ่นยนต์อันธพาล AI’ ขึ้นมา!

ความกังวลอย่างหนึ่งในการสร้าง ‘AI’ ที่ทรงพลังก็คือ ‘การสร้างมันจนอาจทำให้มนุษยชาติสูญเสียความสามารถในการควบคุมมัน ซึ่งนำไปสู่ผลลัพธ์ที่ไม่ได้ตั้งใจ’
“หุ่นยนต์อันธพาล (Rogue AI) ที่หนีการควบคุมของมนุษย์และก่อให้เกิดอันตรายในวงกว้างถือเป็นความเสี่ยงที่แท้จริง เราต้องดูว่า AI จะไปในทิศทางไหน ไม่ใช่แค่ในปัจจุบันเท่านั้น ไม่กี่ปีที่ผ่านมา เราได้เห็นความก้าวหน้าอันน่าประหลาดใจ ขณะที่ผู้เชี่ยวชาญก็คาดการณ์ว่าจะมีมากขึ้นในอนาคต…ในความเป็นจริงมันตรงข้ามกับนิยายวิทยาศาสตร์ เพราะ AI ไม่จำเป็นต้องมีจิตสำนึกหรือมีสติ…” ไอเซนเพรสกล่าว
ในการทดลองทางความคิด (thought experiment) แบบคลาสสิกครั้งหนึ่งซึ่งคิดค้นโดย ‘นิค บอสตรอม’ นักปรัชญา “เราจินตนาการถึงการขอให้ AI อัจฉริยะขั้นสูงสร้างคลิปหนีบกระดาษให้ได้มากที่สุด…AI อาจให้เหตุผลง่ายๆ ว่ามันสามารถสร้างคลิปหนีบกระดาษได้มากกว่านี้หากไม่มีใครปิดสวิตช์มัน”
“วิธีที่ดีที่สุดในการหลีกเลี่ยงก็คือ ‘กำจัดมนุษยชาติและเปลี่ยนเราให้กลายเป็นคลิปหนีบกระดาษแทน…แต่สถานการณ์ไม่จำเป็นต้องสุดโต่งขนาดนี้ถึงจะเป็นอันตราย ประเด็นก็คือ AI ออกจากการควบคุมอย่างรวดเร็วแม้ว่าจะได้รับคำสั่งง่ายๆ ก็ตาม”
ดังที่ไอเซนเพรสอธิบายว่า “เป้าหมายปลายเปิดจะผลักดันให้ AI แสวงหาอำนาจ เพราะพลังที่มากขึ้นจะช่วยให้บรรลุเป้าหมายได้”
2\. บานปลายกลายเป็น ‘อาวุธชีวภาพ’
ในตอนนี้ AI อาจจะไม่ใช่อันตรายที่ใหญ่ที่สุดจริงๆ ทว่าปัญหาที่ใหญ่กว่านั้นคือ ‘สิ่งที่มนุษย์สามารถสร้างขึ้นด้วย AI’ ต่างหาก
“ในระยะสั้น การก่อการร้ายทางชีวภาพที่ใช้ ‘AI’ อาจเป็นหนึ่งในภัยคุกคามร้ายแรงที่สุดจากการพัฒนา ‘AI’ ที่ไม่ได้รับการควบคุม”
— ไอเซนเพรสกล่าว
เมื่อเร็วๆ นี้ นายกฯ อังกฤษ ‘ริชี ซูนัค’ เองก็ได้ส่งสัญญาณเตือนเกี่ยวกับอาวุธชีวภาพที่พัฒนาขึ้นจาก AI ในที่ประชุมสุดยอดด้านความปลอดภัยของ AI ณ เบลตช์ลีย์ พาร์ก
ในทำนองเดียวกันนี้ ดาริโอ อโมเด ผู้ก่อตั้งบริษัทสตาร์ทอัพ ‘AI Anthropic’ คู่แข่ง ‘OpenAI’ ก็เตือนรัฐสภาสหรัฐฯ ว่า “AI สามารถช่วยอาชญากรสร้างอาวุธชีวภาพได้ภายใน 2-3 ปี”
ขณะที่นักวิจัยพบว่าเครื่องมือที่ถูกออกแบบมาเพื่อการค้นพบยาที่เป็นประโยชน์นั้นสามารถแปลงเพื่อค้นหาสารพิษทางชีวเคมีใหม่ได้อย่างง่ายดาย โดยภายในเวลาไม่ถึง 6 ชั่วโมงก็พบว่า AI สามารถคาดการณ์โมเลกุลพิษใหม่มากกว่า 40,000 โมเลกุล ซึ่งอันตรายมากกว่าอาวุธเคมีที่มีอยู่มากมาย
ไอเซนเพรสบอกว่า ‘ข้อกังวลของเขาคือ ‘ผู้ไม่ประสงค์ดี’ เช่น กลุ่มก่อการร้าย จะสามารถนำเครื่องมือเหล่านี้ไปใช้ใหม่เพื่อปลดปล่อยโรคระบาดร้ายแรงหรือการโจมตีทางเคมี “AI มีความสามารถในการออกแบบโมเลกุลที่เป็นพิษและสร้างมัลแวร์ขั้นสูงอยู่แล้ว และยังสามารถช่วยวางแผนการโจมตีทางชีวภาพได้อีกด้วย…โมเดลขั้นสูงยิ่งขึ้นจะมีพลังมากยิ่งขึ้น ดังนั้นจึงมีอันตรายมากยิ่งขึ้นหากมันไปอยู่ในมือของกลุ่มคนอันตราย” เขากล่าว
ครั้งหนึ่งในปี 1995 ลัทธิวันโลกาวินาศ (doomsday cult) หรือที่เรียกว่า ‘โอมชินริเกียว’ (Aum Shinrikyo) ได้ปล่อยก๊าซซารินพิษร้ายแรงลงบนรถไฟใต้ดินในโตเกียวโดยมีเป้าหมายที่จะนำไปสู่การสิ้นสุดของโลก เป็นเหตุให้มีผู้เสียชีวิต 13 รายและบาดเจ็บเกือบ 6,000 ราย
ในปัจจุบัน ด้วยความที่เครื่องมือ AI นั้นมีความสามารถในการค้นพบและผลิตอาวุธที่อันตรายยิ่งกว่านั้นได้ จึงเกิดความกลัวที่ว่ากลุ่มลัทธิที่อุดมการณ์เหมือน ‘โอมชินริเกียว’ อาจปล่อยสิ่งที่อันตรายยิ่งกว่านั้นออกมา
ในขณะที่นักวิจัย AI จำนวนมากก็กำลังผลักดันให้โมเดลของตัวเองเป็น ‘open source’ (ซอฟต์แวร์ที่เผยแพร่โดยใช้ใบอนุญาตที่ผู้ถือครองลิขสิทธ์อนุญาตให้ผู้ใช้มีสิทธิในการใช้ ศึกษา แก้ไข และแจกจ่าย) แต่ไอเซนเพรสเตือนว่า ‘จำเป็นต้องมีความระมัดระวังอย่างมาก’
ในด้านหนึ่ง การสร้างโมเดลสำหรับทุกคนอาจเพิ่มผลเชิงบวกของ AI เช่น การค้นพบยาใหม่ๆ หรือการเพิ่มประสิทธิภาพระบบการเกษตรเพื่อต่อสู้กับความอดอยาก แต่ในทางกลับกัน โมเดลเหล่านี้ก็ยังสามารถนำมาใช้สร้างอาวุธที่อันตรายยิ่งกว่าสิ่งใดๆ ที่มนุษยชาติเคยเผชิญมา
3\. ระบบ ‘ไวรัสตัวร้าย’ รั่วไหลทั่วโลก!

ในปี 2017 ระบบคอมพิวเตอร์ทั่วโลกประสบปัญหาที่ไม่สามารถอธิบายได้ หรือแม้แต่เหตุท่าเรือตู้คอนเทนเนอร์ที่ใหญ่ที่สุดของอินเดียต้องหยุดนิ่ง ไปตลอดจนระบบตรวจสอบรังสีที่โรงไฟฟ้านิวเคลียร์เชอร์โนบิลปิดทำงาน ขณะที่ธนาคาร บริษัทยา และโรงพยาบาลก็สูญเสียการควบคุมระบบอย่างกะทันหัน
ในเวลาต่อมาก็พบว่า ผู้ร้ายก็คือ ‘ไวรัสคอมพิวเตอร์น็อตเพทยา’ (NotPetya) ซึ่งเป็นอาวุธไซเบอร์ที่น่าจะถูกสร้างขึ้นโดยกองทัพรัสเซียเพื่อโจมตียูเครน ซึ่งในเวลานั้นทำให้ระบบคอมพิวเตอร์หยุดทำงาน และรบกวนการขนส่งสินค้าราว 60 ประเทศ ทว่าเมื่อไวรัสมันรั่วไหลออกมา มันก็แพร่กระจายไปไกลกว่าที่ผู้สร้างคาดการณ์ไว้ ทำให้เกิดความเสียหายประมาณ 1 หมื่นล้านดอลลาร์สหรัฐ (ราว 3.59 แสนล้านบาท)
กระทรวงการต่างประเทศสหรัฐฯ เตือนว่า “เราได้สังเกตเห็นชาวเกาหลีเหนือ รัฐชาติอื่นๆ และอาชญากรพยายามใช้โมเดล AI เพื่อช่วยเร่งการเขียนซอฟต์แวร์ที่เป็นอันตรายและค้นหาระบบที่จะแสวงหาประโยชน์”
เมื่อปีที่แล้ว นักวิจัยจากศูนย์ความปลอดภัย AI เขียนว่า “การปล่อย AI ที่ทรงพลังและปล่อยให้พวกมันดำเนินการโดยอิสระจากมนุษย์อาจนำไปสู่หายนะได้”
4\. สงครามนิวเคลียร์จาก ‘AI’

บางทีสงครามโลกครั้งที่ 3 อาจจะมาในรูปแบบ ‘อาวุธ AI’ หรือ ‘หุ่นยนต์สู้กัน’ ก็ได้ ซึ่งในความเป็นจริงแล้ว มันอันตรายมากนะ เพราะหากเราพัฒนาป้อนคำสั่งให้มันทำร้ายกันได้ แล้วในภายหน้าหากเป้าหมายของมันคือ ‘เรา’ ล่ะ มันจะกลายเป็นสงครามระหว่าง ‘มนุษย์’ กับ ‘หุ่นยนต์’ หรอ?
ความกลัวที่น่าหนักใจที่สุดประการหนึ่งของ ‘AI’ ก็คือ ‘ระบบที่เราสร้างขึ้นเพื่อปกป้องตัวเราเองนั้นอาจกลายเป็น ‘ความหายนะของเรา’ ’
สนามรบในสงครามสมัยใหม่กำลังกลายเป็นเครือข่ายเซ็นเซอร์ขนาดมหึมา และการโจมตีทำลายล้างสามารถเกิดขึ้นได้เร็วกว่าที่เคย ด้วยเหตุนี้ กองทัพทั่วโลกจึงเริ่มพิจารณานำ AI ไปใช้ในระบบการตัดสินใจของตัวเอง ขณะที่ฝ่ายแผนกลยุทธ์ปัญญาประดิษฐ์ด้านกลาโหมปี 2022 ของกระทรวงกลาโหมอังกฤษเตือนว่า “การดำเนินการนี้อาจ ‘จำกัดขอบเขตความเข้าใจของมนุษย์’ และมักต้องการการตอบสนองที่ความเร็วของเครื่องจักร”
แต่ไอเซนเพรสกล่าวว่า
“การรวม AI เข้ากับระบบทางทหารสามารถนำไปสู่อันตรายที่มากยิ่งขึ้น โดยเฉพาะอย่างยิ่งในกรณีของอาวุธนิวเคลียร์…ระบบ AI ในปัจจุบันนั้นไม่น่าเชื่อถือโดยธรรมชาติ มันมีความสามารถในการตัดสินใจแบบที่อธิบายไม่ได้…การบูรณาการ AI เข้ากับระบบสั่งการและควบคุมนิวเคลียร์กำลังทำให้เกิดความไม่มั่นคง”
ความกังวลอีกประการหนึ่งก็คือ ‘การตัดสินใจอย่างรวดเร็วของ AI อาจนำไปสู่ข้อผิดพลาดเล็กๆ น้อยๆ เช่น การระบุเครื่องบินผิดพลาด จนอาจลุกลามไปสู่สงครามเต็มรูปแบบอย่างรวดเร็ว’ เมื่อ AI ทำข้อผิดพลาดเบื้องต้น AI จากประเทศต่างๆ จะสามารถโต้ตอบกันได้ ‘เร็วกว่า’ ที่มนุษย์คนใดจะสามารถควบคุมได้ ซึ่งนำไปสู่ ‘สงครามโดยอัตโนมัติ’
5\. เข้ามามีบทบาทในชีวิตประจำวันทีละเล็กทีละน้อย…

นอกจากภัยคุกคามที่อาจนำไปสู่สงครามนิวเคลียร์แล้ว ไอเซนเพรสยังบอกอีกว่ามีอีกวิธีหนึ่งที่อาจทำให้เราสะดุดล้มจนนำไปสู่การสิ้นสุดของมนุษยชาติได้ และเรารู้ดีว่ามันจะเกิดจากการยึดครองอย่างค่อยเป็นค่อยไปและเงียบงัน ตั้งแต่ธุรกรรมทางการเงินไปจนถึงการดำเนินคดี อีกทั้งงานหลายล้านตำแหน่งก็ถูก AI แย่งทำไปเสียเกือบหมด
ไอเซนเพรสกล่าวว่า
“เมื่อเวลาผ่านไป AI จะถูกบูรณาการเข้ากับระบบต่างๆ มากขึ้นเรื่อยๆ รวมถึงระบบที่มีความสำคัญต่อวิถีชีวิตของเราด้วย…บริษัทหรือพรรคการเมืองที่ปฏิเสธที่จะควบคุม AI จะแพ้ให้กับผู้ที่ทำเช่นนั้น ทำให้เกิดการแข่งขันไปสู่จุดต่ำสุดทีละเล็กทีละน้อย ในท้ายที่สุด มนุษย์ก็จะมีอำนาจควบคุมโลกน้อยลง…”