نظام “Lavender”.. سلاح الذكاء الاصطناعي الجديد بيد الاحتلال يثير مخاوف واسعة

في خطوة تثير الكثير من الجدل والقلق، كشفت تقارير عن استخدام الاحتلال الإسرائيلي لنظام ذكاء اصطناعي متطور يدعى “Lavender – لافندر”، تم تطويره من قبل وحدة 8200 التابعة للاستخبارات العسكرية. ويعمل النظام بشكل متكامل مع نظام آخر يُعرف بـ”Gospel“، ضمن إطار ما يُعرف بعمليات الاستهداف الذكي للأفراد خلال العدوانات العسكرية، لا سيما في قطاع غزة.
نظام “Lavender” يعتمد على تقنيات التعلم الآلي (Machine Learning) ويحلل كميات ضخمة من البيانات الشخصية مثل سجلات الاتصالات والحسابات الإلكترونية ونمط الحركة اليومية للأشخاص. الهدف الرئيسي للنظام هو تصنيف الأفراد حسب درجة “التهديد” التي يشكلونها، بناءً على خوارزميات معقدة، تمهيدًا لاتخاذ قرار محتمل بتصفيتهم.
من الناحية التقنية، يستخدم النظام نماذج لغوية ضخمة تشبه ما تعتمده تطبيقات الذكاء الاصطناعي التجارية مثل ChatGPT، لكنه موجه خصيصًا لفهم اللغة العامية الفلسطينية والتقاط الإشارات الأمنية عبر المراقبة والتنصت. كما يعتمد على تقنيات استخباراتية دقيقة مثل تحليل الإحداثيات الجغرافية (GEOINT) ورصد الإشارات (SIGINT)، وقد يتكامل مع أنظمة قصف مثل “مصنع النار – Fire Factory“، ما يمنحه قدرة تنفيذية شبه فورية.
ما يميّز “لافندر” عن غيره من الأنظمة هو سرعة اتخاذ القرار؛ حيث يستطيع تقليص المدة الزمنية بين رصد الهدف وتنفيذ الضربة من ساعات إلى دقائق. الأخطر من ذلك أنه يصدر توصيات آلية قد تُنفذ دون مراجعة بشرية كافية، ما يعني أن شخصًا قد يُدرج في “بنك الأهداف” فقط لأنه زار مكانًا مصنفًا كمشبوه عدة مرات أو أجرى مكالمة عابرة مع شخص تحت المراقبة.
المخاطر الناتجة عن هذا النظام عديدة، وأبرزها تحوّل الإنسان إلى هدف بناءً على سلوك رقمي فقط، دون أي تحقيق أو دليل جنائي واضح. فكل من يستخدم هاتفًا أو يتنقل في مناطق معينة، قد يصبح ضحية محتملة، إذ لا مكان لـ”الحديث البريء” عندما تحكم الخوارزميات وتتحكم في مصير البشر.
ويحذّر خبراء حقوق الإنسان من أن هذا النوع من الأنظمة يعيد تعريف الحرب والقانون الدولي، إذ أن تحميل الآلة مسؤولية اتخاذ قرارات القتل قد يفتح الباب لانتهاكات واسعة دون محاسبة حقيقية، ويُحوّل مناطق النزاع إلى مختبرات لتجريب تقنيات مميتة على المدنيين.