به گزارش بولتن نیوز به نقل از جهت پرس، فارنپالیسی در گزارشی به قلم سیمون فرانکلین پرات، مدرس مدرسه علوم سیاسی دانشگاه ملبورن، گزارش تحقیقی رسانه اسرائیلی «لوکال کال» (Local Call) را زیر ذرهبین برده و برنامه ترور دستهجمعی با ابعاد پیشبینیناپذیر که مبتنی بر هوش مصنوعی است، تحلیل میکند. از نظر او به رغم آنکه اسرائیلیها ادعا میکنند به قوانین و استانداردهای بشردوستانه بینالمللی پایبند هستند، با این برنامه بسیاری از فلسطینیها را هدف میگیرند.
نویسنده معتقد است از آغاز درگیری اسرائیل و حماس، رژیم صهیونیستی مکانیابی تجمعات انسانی را به جای ترور فرماندهان نظامی را در دستور کار قرار داده و براساس پردازش دادههای خامی که در برنامهای با نام «اسطوخودوس» (Lavender) صورت میگیرد، کشتار یا خودداری از آن را تجویز میکند.
الگوریتم کار این برنامه کشتار به این شکل است که پس از ثبت نام همه جمعیت نوار غزه و ترکیب اطلاعاتی مانند پیامهای سرویسهای پیامرسان فلسطینیها و ویدئوهایی که پیش از آن در این سامانه ذخیره شده، اهداف کشتار اولویتبندی میشوند. متغیرهایی همچون مشابه بودن نام افراد با افراد مدنظر اسرائیل، قرار داشتن آنها در خانه به واسطه آنکه هدفگیری آنها آسانتر است تا در میدان نبرد، ارتباطات احتمالی آنها با حماس، جنسیت آنها، اهمیت یا اولویت هدفگیری آنها را تعیین میکند.
نویسنده در ادامه در مورد این بحث کرده است که آیا این شکل از استفاده از هوش مصنوعی در هدفگیری انسانها، نسلکشی به حساب میآید یا خیر و آیا آسیبهای استفاده از چنین سامانههایی قابل پیشبینی است یا خیر. اما مهمتر این است که بدانیم آیا این شکل از تعامل انسان و ماشین، پیشرفت خواهد داشت؟ نویسنده تصریح میکند سیاستهای اسرائیل، هنجارهای نوظهور استفاده مسئولانه از هوش مصنوعی را نقض میکند. از نظر او، این ماشین با رباتهای قاتل تفاوتهای بنیادی دارد و به ویژه به یک ماشین غیرپاسخگوی مهاجم تبدیل شده است.
نکته قابل توجه دیگری که نویسنده بدان توجه دارد، این است که تصمیم در مورد عملیاتیسازی این تجزیه و تحلیلها به مرور زمان و با آشکار شدن ناتوانی اسرائیل در تصرف نوار غزه روی میز فرماندهان نظامی اسرائیل آمده. جایی که آنها کشتن صدها نفر از فلسطینیها را برای حذف یک نفر از فرماندهان حماس مجاز میدانند. رقمی که برای نیروهای جوان حماس، ۱۵ است. این خطای ماشین کشتاری که اسرائیل به راه انداخته، همه هنجارها و استانداردهای معمول نظامی را نقض کرده است. تا جایی که یک منبع نظامی ارتش اسرائیل گفته است به سربازی که دو روز پیش دوستش را در میدان نبرد از دست داده و میل به انتقام دارد، اعتماد بیشتری دارد تا اسطوخودوس.
تهدید این ماشین کشتار مبتنی بر هوش مصنوعی نویسنده را به این نکته میرساند که نظارت قانونی، اخلاقی و انضباطی را نمیتوان به رایانهها واگذار کرد، و الگوریتمها سوگیریها، محدودیتها و خطاهای ورودی دادههای آنها را در پشت یک روکش فریبنده از عینیت فرضی پنهان میکنند. بر اساس گزارشها، تحت فشار بسیار زیاد، تحلیلگران اطلاعاتی ارتش اسرائیل تقریباً هیچ منبعی را برای بازرسی دوباره اهدافی که اسطوخودوس پیشنهاد میکند، در اختیار ندارند.
source