در هفتههای پس از حمله غافلگیرکننده ۷ اکتبر حماس به اسرائیل، گفته میشود نیروهای دفاعی اسرائیل خانههای غیرنظامیان را بهعمد هدف قرار دادهاند و ادعا میشود از یک برنامه مبتنی بر هوش مصنوعی موسوم به لوندر (Lavender) استفاده کردهاند تا اهداف ترور را ترسیم کند، و بر اساس تصمیمهایی که تحت بررسی و نظارت مختصر انسان گرفته میشود، فهرست بمبارانهای متعدد را تولید کند.
بر اساس گزارشی، این سامانه در یک مورد، از نظارت گسترده در غزه استفاده کرد و فهرستی شامل ۳۷ هزار هدف بمباران تولید کرد، از جمله چند هدف که گفته میشد از عوامل ردهپایین حماساند که معمولا هدف عملیات بمباران قرار نمیگیرند.
این ادعاها، که مجله ۹۷۲+ ( 972+ Magazine) و لوکال کال (Local Call) افشا کردهاند، بر مبنای مصاحبه با شش مامور اطلاعاتی اسرائیل مطرح شده است که در جریان درگیری با حماس در غزه خدمت کردهاند و در استفاده از هوش مصنوعی برای بررسی اهداف مشارکت داشتهاند.
یک مامور گفت نقش او در این سامانه صرفا «مهر [تایید]» تصمیمهای هدفگیری برنامه لوندر بود، و بهشخصه فقط چند ثانیه وقت صرف میکرد تا توصیههای سامانه را بررسی کند.
این ماموران همچنین شرح دادند تصمیم گرفته شد زمانی سراغ شمار زیادی از اهداف حماس بروند که در خانههایشان و کنار شهروندان غیرنظامی بودند، زیرا این موقعیت مکانی تایید موقعیت با استفاده از ابزارهای اطلاعاتی را راحتتر میکرد. گفته میشود برنامهریزهایی که حملات را بررسی میکردند حاضر بودند تا احتمال کشته شدن ۱۵ یا ۲۰ غیرنظامی را در روند تعقیب یک عامل ردهپایین حماس منظور کنند.
Read More
This section contains relevant reference points, placed in (Inner related node field)
یکی از ماموران که نامش فاش نشده است به این نشریات گفت: «توجه ما فقط به کشتن عوامل [حماس] در یک ساختمان نظامی یا هنگام فعالیت نظامی معطوف نبود. برعکس، نیروهای دفاعی اسرائیل در همان گزینه اول، آنها را بدون تامل توی خانهها بمباران میکردند. بمباران خانه خانوادگی راحتتر است. سامانه طوری ساخته شده است که در چنین موقعیتهایی دنبال آنها بگردد.»
نیروهای دفاعی اسرائیل در واکنش به این تحقیق، به خبرگزاریها گفتند: «طبق شرایطی که در دستورالعملهای نیروهای دفاعی و قوانین بینالمللی مطرح شده است، بررسی مستقل یک تحلیلگر [اطلاعاتی] ضروری است، که تایید میکند اهداف شناساییشده اهدافی موجه و مشروع برای حملهاند.»
ناظران با انتقاد از این تاکتیکها، آنها را غیرانسانی خواندند.
طارق کینی الشوا، عضو الشبکه، اندیشکده شبکه سیاستگذاری فلسطینیان، این گزارشها را «تهوعآور» خواند.
در همین حال، الکس حنا، از موسسه پژوهشی توزیع هوش مصنوعی، در ایکس (توییتر سابق) نوشت: «این تهوعآور و آینده جنگ هوش مصنوعی برای امپراتوری آمریکا است.»
یک مامور اطلاعاتی که از لوندر استفاده کرده است، سامانهای که واحد نخبه ۸۲۰۰ اسرائیل طراحی و تولید کرد، به نشریه گاردین گفت پس از ۷ اکتبر، سربازان اغلب به این سامانه بیش از تشخیص و قضاوت همقطاران سوگوار خودشان اعتماد میکردند.
این مامور گفت: «تا جایی که حافظهام یاری میکند، این مورد بیسابقه است.» و در ادامه افزود: «آنجا همه، از جمله خود من، کسانی را در ۷ اکتبر از دست داده بودیم. دستگاه در کمال خونسردی این کار را میکرد. و همین کار را راحتتر میکرد.»
نیروهای دفاعی اسرائیل در بیانیهای که به نشریه گاردین ارسال شد، استفاده از هوش مصنوعی برای ایجاد هدفهای نظامی تاییدشده را تکذیب کردند و گفتند از لوندر برای «ارجاع متقابل منابع اطلاعاتی استفاده شد، تا لایههای اطلاعاتی بهروز در مورد عوامل نظامی سازمانهای تروریستی تولید شود».
در ادامه این بیانیه آمده است: «نیروهای دفاعی اسرائیل از سامانه هوش مصنوعیای استفاده نمیکنند که عوامل تروریستی را شناسایی میکند یا سعی میکند پیشبینی کند آیا فردی تروریست است یا خیر. سامانههای اطلاعاتی فقط ابزارهاییاند که تحلیلگران در روند شناسایی اهداف در اختیار دارند.»
بنا بر اعلام وزارت بهداشت غزه، حدود ۳۳ هزار فلسطینی در عملیات نظامی اسرائیل در این منطقه کشته شدهاند، که اکثر آنها غیرنظامی بودهاند.
اسرائیل بهدلیل آمار بالای مرگومیر غیرنظامیان در عملیاتهای نظامیاش که مناطق مسکونی، بیمارستانها، و اردوگاهها آوارگان را هدف قرار داده، زیر ذرهبین مداوم بوده است. نیروهای دفاعی اسرائیل میگویند حماس بهکرات محل فعالیتهای نظامی را در مناطق غیرنظامی مستقر کرده است تا به این طریق از سپر انسانی استفاده کند.
پس از آنکه هفت امدادگر ورلد سنترال کیچن (World Central Kitchen) روز دوشنبه در حمله هوایی در غزه کشته شدند، تاکتیکهای هدفگیری نیروهای دفاعی اسرائیل آماج دور جدید از انتقادهای بینالمللی قرار گرفته است.
© The Independent