متسا | مرجع ترویج سواد امنیتی
🌐استفادهی اسرائیل از هوش مصنوعی در حمله به حماس
💠گاردین به نقل از منابع آگاه خبر داد که ارتش اسرائیل از سیستم #هوش_مصنوعی «لاوندر» برای تعیین ۳۷۰۰۰ هدف مرتبط با جنبش فلسطینی #حماس در جریان حملات به #نوار_غزه استفاده کرده و در عین حال میزان تلفات غیرنظامی قابل قبول در این حملات را تعیین کرده است.
💠این سیستم، با هدف شخم زدن #اطلاعات شخصی دو میلیون شهروند غزه به منظور تهیهی فهرستی از افراد مظنون به همکاری با شاخههای نظامی حماس و جهاد اسلامی فلسطین طراحی شده است.
💠لوندر با #جاسوسی از #تاریخچهی_مکالمات، #فعالیت در فضای مجازی، #مرور تصاویر و تحرکات فرد، مشخصات مشترک را شناسایی کرده و سپس در جامعهی آماری گستردهتری بهدنبال آن مشخصات مشترک میگردد و به افراد شناسایی شده بین صفر تا ۱۰۰ نمره میدهد. هر چه نمره بالاتر باشد، سوژه بدون هیچ بررسی به #هدف بلامنازع این هوش مصنوعی بدل میشود!
💠این نشریه نوشته است که به محض شناسایی، اهداف با نمره پایین با یک هوش مصنوعی دیگر به نام «گاسپل» در خانهشان #شناسایی شده و با #بمبهای غیرهدایتشونده یا «بمب کودن» هدف قرار میگیرند ولی برای #اعضای ارشد حماس #مهمات دقیقتر استفاده میشود.
💠به اذعان یکی دیگر از منابع، زمانی که یک هدف شناسایی و دستور ترور صادر میشود، فرماندهان ارتش اسراییل تصمیم میگیرند که چه تعداد #قربانی غیرنظامی برای از بین بردن هدف اصلی، قابل قبول است. به گفتهی او، این عدد نوسان دارد، اما به طور کلی در ابتدای جنگ، ۲۰ قربانی غیرنظامی مجاز بود و حالا این رقم به ۱۰۰ قربانی غیر نظامی افزایش یافته است.
💠ارتش رژیم صهیونیستی به طور علنی به وجود چنین سامانهای اذعان نکرده، اما به استفاده از نرمافزارهای مشابه در جریان عملیاتهای قبلی در غزه شهرت دارد.
#شگردهای_جاسوسی
#هوش_مصنوعی
#متسا
#مرجع_ترویج_سواد_امنیتی
@matsa_ir