เป็นเวลานานเกือบ 1 เดือนแล้วสำหรับสงครามอิสราเอล-ฮามาสที่ไม่มีทีท่าว่าจะจบลงและมีแต่จะรุนแรงขึ้นเรื่อยๆ เมื่อกองกำลังอิสราเอลยังคงเดินหน้าโจมตีทั้งทางอากาศ ทั้งปฏิบัติการภาคพื้นดิน และล่าสุดกับการปิดล้อมกาซาซิตี้ โดยมีแผนเตรียมบุกอุโมงค์ลับของฮามาสอีกไม่นาน
ขณะเดียวกันกองกำลังอิสราเอล (IDF) เผยว่า ทางกองทัพกำลังใช้เทคโนโลยีปัญญาประดิษฐ์ AI เข้ามาใช้ในการระบุเป้าหมายและโจมตีฮามาสด้วย
แล้วระบบ AI ที่ว่านี้เอามาใช้ทำอะไร?
IDF ได้นำระบบ AI มาใช้ในสงครามเพื่อเลือกเป้าหมายสำหรับการทิ้งระเบิดทางอากาศ โดยตามข้อมูลของ Bloomberg ระบุว่า “IDF ใช้ข้อมูลเกี่ยวกับเป้าหมายที่ได้รับการอนุมัติจากกองทัพเพื่อ
- คำนวณปริมาณอาวุธยุทโธปกรณ์
- จัดลำดับความสำคัญ
- กำหนดเป้าหมายกว่าหลายพันเป้าหมายให้กับเครื่องบินและโดรน”
และจนถึงตอนนี้ IDF ได้ระบุเป้าหมายใหม่ของฮามาสได้แล้วประมาณ 1,200 เป้าหมายทั่วทั้งฉนวนกาซา ขณะเดียวกันทางกองทัพก็ยังคงใช้ AI เพื่อเป้าหมายใหม่ในวงกว้างอีกด้วย
อย่างไรก็ดี นี่ไม่ใช่ครั้งแรกที่ IDF นำ AI มาใช้ เนื่องจากพวกเขาเคยนำมาใช้สู้กับฮามาสในฉนวนกาซาเมื่อปี 2021 แล้ว ซึ่งนับเป็น ‘สงครามปัญญาประดิษฐ์ครั้งแรก’ โดยผู้นำ IDF กล่าวถึงข้อได้เปรียบว่า “นับเป็นครั้งแรกที่ปัญญาประดิษฐ์เป็นองค์ประกอบสำคัญและทวีคูณพลังในการต่อสู้กับศัตรู” ขณะที่สำนักข่าว The Jerusalem Post รายงานว่า “ระบบ AI ได้ช่วยกำหนดเป้าหมายทางทหารและกำจัดผู้นำฮามาสได้ 2 คนในปี 2021
IDF เผยว่า “ระบบ AI ถูกฝังอย่างเป็นทางการในปฏิบัติการที่อันตรายถึงชีวิตตั้งแต่ต้นปีนี้ โดยระบบดังกล่าวช่วยให้กองทัพประมวลผลข้อมูล รวมถึงค้นหาเป้าหมายได้เร็วขึ้น และแม่นยำยิ่งขึ้น ซึ่งทุกเป้าหมายได้รับการตรวจสอบโดยผู้ปฏิบัติงานที่เป็นมนุษย์”
ทว่ามันอาจเป็นอันตรายร้ายแรง! หาก AI ถูกนำมาใช้ในสนามรบมากขึ้น

นักวิชาการด้านกฎหมายระหว่างประเทศในอิสราเอลได้หยิบยกข้อกังวลเกี่ยวกับความถูกต้องตามกฎหมายของการใช้เครื่องมือดังกล่าวมาพูดถึง ขณะที่นักวิเคราะห์กังวลว่าเครื่องมือดังกล่าวแสดงถึงความคืบคลานไปสู่ ‘อาวุธสังหารอัตโนมัติร้ายแรง’ (autonomous weapons / ระบบสั่งฆ่ามนุษย์ที่โปรแกรมเป็นคนสั่งการไม่ใช่มนุษย์) มากขึ้น และเตือนว่าอาจมีความเสี่ยงในการเปลี่ยนระบบกำหนดเป้าหมายเป็น AI ด้วย
ตัล มิมราน และ ลิออร์ ไวน์สไตน์ นักวิชาการด้านกฎหมายแห่งมหาวิทยาลัยฮิบรูได้เน้นย้ำถึงความเสี่ยงของการพึ่งพาระบบอัตโนมัติซึ่งอาจส่งผลให้เกิดการสูญเสียชีวิตมากขึ้น “ตราบใดที่เครื่องมือ AI ไม่สามารถอธิบายได้ เราจะเชื่อถือการตัดสินใจของ AI ได้อย่างไร?...หากการโจมตีที่เกิดจากเครื่องมือ AI นำไปสู่ความเสียหายอย่างมีนัยสำคัญต่อพลเรือนที่ไม่เกี่ยวข้อง ใครควรเป็นผู้รับผิดชอบต่อการตัดสินใจดังกล่าวล่ะ?” มิมราน และไวน์สไตน์กล่าว
ทั้งนี้ IDF ไม่ได้ให้รายละเอียดการใช้ AI อย่างแน่ชัด แต่เจ้าหน้าที่บอกกับ Bloomberg ว่ามีคนตรวจสอบผลลัพธ์ของระบบ ซึ่งใช้เวลาเพียงไม่กี่นาทีเท่านั้นในการดำเนินการดังกล่าว “สิ่งที่เคยใช้เวลาหลายชั่วโมงตอนนี้ใช้เวลาเพียงไม่กี่นาที และอีกเพียงไม่กี่นาทีสำหรับการตรวจสอบโดยมนุษย์” เจ้าหน้าที่กองทัพบกกล่าว
แต่มันมีข้อกังวลหลายประการ เมื่อพิจารณาจากสิ่งที่เรารู้เกี่ยวกับความทันสมัยของระบบ AI ในปัจจุบัน
- แม้ว่าระบบเหล่านี้จะแยกแยะข้อมูลจำนวนมากได้ดี แต่ระบบจะสร้างผลลัพธ์ ซึ่งมีแนวโน้มว่าจะเกิดข้อผิดพลาดเป็นประจำเมื่อถูกขอให้คาดการณ์จากข้อมูลนั้น
- หรือแม้แต่เทคโนโลยีการจดจำใบหน้าที่ล้ำสมัยแบบที่กรมตำรวจอเมริกันใช้ ยังพบว่ามีความแม่นยำน้อยลงในการระบุตัวบุคคลผิวสี ส่งผลให้ระบบจับประชาชนผู้บริสุทธิ์จนนำไปสู่การจับกุมโดยมิชอบ
- การเลือกเป้าหมายอาจเพิ่มโอกาสในการผิดพลาดซึ่งแยกแยะได้ยากขึ้น และหากกองทัพเก็บการทำงานของระบบ AI ไว้เป็นความลับ ก็จะไม่มีทางประเมินข้อผิดพลาดที่พวกเขากำลังทำอยู่ได้
อย่างไรก็ดี อาจยกตัวอย่างการทำงานที่ (อาจ) ผิดพลาดของ AI ได้จากระบบเฝ้าระวังของอิสราเอลที่มีระบบ AI เสริมด้วย ดังที่ ปีเตอร์ แอปส์ ของ Reuters ตั้งข้อสังเกตว่า “ในวันที่ 27 กันยายน เพียงหนึ่งสัปดาห์ก่อนที่ฮามาสจะเปิดฉากโจมตีอิสราเอลครั้งใหญ่ที่สุดนับตั้งแต่สงครามยมคิปปูร์ในปี 1973 เจ้าหน้าที่อิสราเอลได้สาธิตการใช้งานของระบบ AI และการเฝ้าระวังเทคโนโลยีขั้นสูงตั้งแต่โดรนเหนือศีรษะที่ใช้ซอฟต์แวร์จดจำใบหน้าไปจนถึงจุดตรวจชายแดน และการดักฟังการสื่อสารทางอิเล็กทรอนิกส์” แต่สุดท้ายก็พลาดท่าถูกฮามาสโจมตีอย่างหนักแบบไม่ทันตั้งตัวใน 1 สัปดาห์ต่อมาเมื่อวันที่ 7 ตุลาคม
แต่ระบบ AI (อาจ) ไม่ช่วยหยุดยั้งกลุ่มฮามาสได้
“ความผิดพลาดในช่วง 2 สัปดาห์ที่ผ่านมาบ่งบอกว่า ‘นี่เป็นความล้มเหลวด้านสติปัญญา ไม่ใช่ความล้มเหลวทางการเมือง’…อิสราเอลมุ่งความสนใจไปที่เวสต์แบงก์มากกว่า พวกเขาเชื่อผิดๆ ว่าเทคโนโลยีที่ซับซ้อนที่สุดเพียงอย่างเดียวจะประสบความสำเร็จในการควบคุมและยึดครองพลเมืองปาเลสไตน์ได้” แอนโทนี โลเวนสไตน์ นักข่าวผู้ก่อตั้งองค์กรสนับสนุนชาวยิว ‘Independent Australian Jewish Voices’
โลเวนสไตน์กล่าวอีกว่า “ข้อกล่าวอ้างเกี่ยวกับ AI ส่วนใหญ่บอกว่าสามารถโจมตีเป้าหมายที่เป็นคนได้สำเร็จมากขึ้น แต่มันไม่ได้มีการกำหนดเป้าหมายที่ชัดเจนเลย มีพลเรือนเสียชีวิตจำนวนมาก บ้านเรือน 1 ใน 3 ในฉนวนกาซาถูกทำลาย นั่นไม่ใช่การกำหนดเป้าหมายที่แม่นยำ”
และนั่นเป็นความกลัวที่ว่าเมื่อ AI ถูกนำมาใช้ในสงครามมากๆ มันอาจไม่เพียงแต่ทำลายล้างกลุ่มเป้าหมายเท่านั้น แต่อาจพลาดทำลายพลเมืองบริสุทธิ์ด้วย ซึ่งถ้าหากระบบ AI เป็นตัวกำหนดเป้าหมายเองโดยปราศจากการควบคุมโดยมนุษย์แล้วละก็ ลองคิดดูสิว่าจะเกิดอะไรขึ้น?