บรรดาผู้เชี่ยวชาญซึ่งรวมถึงหัวหน้าของ OpenAI และ Google Deepmind เตือน ปัญญาประดิษฐ์ (AI) อาจนำไปสู่การสูญพันธุ์ของมนุษยชาติ
รายงานระบุว่า การลดความเสี่ยงที่จะสูญพันธ์ุจาก AI ควรมีความสำคัญระดับโลก ควบคู่ไปกับการบริหารความเสี่ยงอื่นๆ ในระดับสังคม เช่น โรคระบาด และสงครามนิวเคลียร์ ขณะที่คนอื่นๆ บอกว่า กลัวการถูก ‘ครอบงำ’
แซม อัลแมน หัวหน้าผู้บริหารของ OpenAI ผู้ผลิต ChatGPT, Demis Hassabis รวมถึงหัวหน้าผู้บริหารของ Google DeepMind และ Dario Amodei จาก Anthropic ต่างก็สนับสนุนคำกล่าวนี้
รายงานระบุว่า การลดความเสี่ยงที่จะสูญพันธ์ุจาก AI ควรมีความสำคัญระดับโลก ควบคู่ไปกับการบริหารความเสี่ยงอื่นๆ ในระดับสังคม เช่น โรคระบาด และสงครามนิวเคลียร์ ขณะที่คนอื่นๆ บอกว่า กลัวการถูก ‘ครอบงำ’
แซม อัลแมน หัวหน้าผู้บริหารของ OpenAI ผู้ผลิต ChatGPT, Demis Hassabis รวมถึงหัวหน้าผู้บริหารของ Google DeepMind และ Dario Amodei จาก Anthropic ต่างก็สนับสนุนคำกล่าวนี้
เว็บไซต์ Center for AI Safety แนะนำฉากทัศน์ที่อาจเกิดขึ้น:
- AI สามารถใช้เป็นอาวุธได้ เช่น เครื่องมือในการสร้างยา สามารถนำมาใช้สร้างอาวุธเคมีได้
- ข้อมูลผิดๆ หรือเฟคนิวส์ที่สร้างขึ้นโดย AI อาจทำให้สังคมสั่นคลอน และบั่นทอนการตัดสินใจร่วมกัน
- เมื่อ AI มีประสิทธิภาพมากขึ้น รัฐบาลอาจใช้สิ่งนี้เป็นเครื่องมือในการสอดแนม และปิดปากคนเห็นต่าง
- เกิดความอ่อนแอ เนื่องจากมนุษย์หันมาพึ่งพา AI ซึ่งสถานการณ์นี้คล้ายกับภาพยนตร์ Wall-E (ภาพยนตร์เกี่ยวกับหุ่นยนต์โลกอนาคต)

เพิ่มคำบรรยาย: หุ่นยนต์จากภาพยนตร์เรื่อง ‘วอลล์-อี’ (Wall-E)
เจฟฟรีย์ ฮินตัน ซึ่งออกคำเตือนก่อนหน้านี้เกี่ยวกับความเสี่ยงจาก AI ได้สนับสนุนการเรียกร้องของศูนย์เพื่อความปลอดภัยของ AI ด้วย ขณะที่ โยชัวร์ เบนจีโอ เจ้าพ่อ AI ศาสตราจารย์ด้านวิทยาการคอมพิวเตอร์แห่งมหาวิทยาลัยมอนทรีออลก็ลงนามเช่นกัน
ผู้เชี่ยวชาญหลายคนเชื่อในทำนองเดียวกันว่า ความสามารถของ AI ที่จะกำจัดมนุษยชาตินั้นไม่สมจริง และเป็นการหันเหความสนใจจากปัญหาต่างๆ เช่น อคติในระบบที่เป็นปัญหาอยู่แล้ว
ขณะที่นักวิทยาศาสตร์คอมพิวเตอร์แห่งมหาวิทยาลัย Princeton บอกกับ BBC ก่อนหน้านี้ว่า สถานการณ์ภัยพิบัติที่เหมือนไซไฟนั้นไม่สมจริง AI ในปัจจุบันไม่มีความสามารถเพียงพอที่จะให้ความเสี่ยงเหล่านี้เกิดขึ้นจริง ผลก็คือ มันหันเหความสนใจไปจาก อันตรายระยะใกล้ของ AI
เจฟฟรีย์ ฮินตัน ซึ่งออกคำเตือนก่อนหน้านี้เกี่ยวกับความเสี่ยงจาก AI ได้สนับสนุนการเรียกร้องของศูนย์เพื่อความปลอดภัยของ AI ด้วย ขณะที่ โยชัวร์ เบนจีโอ เจ้าพ่อ AI ศาสตราจารย์ด้านวิทยาการคอมพิวเตอร์แห่งมหาวิทยาลัยมอนทรีออลก็ลงนามเช่นกัน
ผู้เชี่ยวชาญหลายคนเชื่อในทำนองเดียวกันว่า ความสามารถของ AI ที่จะกำจัดมนุษยชาตินั้นไม่สมจริง และเป็นการหันเหความสนใจจากปัญหาต่างๆ เช่น อคติในระบบที่เป็นปัญหาอยู่แล้ว
ขณะที่นักวิทยาศาสตร์คอมพิวเตอร์แห่งมหาวิทยาลัย Princeton บอกกับ BBC ก่อนหน้านี้ว่า สถานการณ์ภัยพิบัติที่เหมือนไซไฟนั้นไม่สมจริง AI ในปัจจุบันไม่มีความสามารถเพียงพอที่จะให้ความเสี่ยงเหล่านี้เกิดขึ้นจริง ผลก็คือ มันหันเหความสนใจไปจาก อันตรายระยะใกล้ของ AI
