المقدمة.
في العقود الأخيرة، شهدت الحروب تحولات جذرية في أدواتها واستراتيجياتها، خصوصًا مع دخول الذكاء الاصطناعي كمحرك رئيسي في العمليات العسكرية الحديثة. من بين أبرز هذه التقنيات، برز نظام يُعرف باسم “The Gospel” (وتعني بالعبرية: “هَبْسُوراه” – البشارة أو الإنجيل)، وهو أحد أبرز أنظمة الذكاء الاصطناعي التي يستخدمها جيش الاحتلال الإسرائيلي في صراعاته، خاصة في غزة ولبنان. هذا النظام يُمثل نقلة نوعية في إدارة العمليات الحربية، لكنّه في الوقت نفسه أثار موجة من الانتقادات الأخلاقية والقانونية.
بينما يسوّق لهذا النظام كأداة لتعزيز الكفاءة وتقليل الأخطاء البشرية، تشير تقارير دولية وإعلامية موثوقة إلى استخدامه في تنفيذ ضربات سريعة وقاتلة استنادًا إلى توصيات آلية، ما أدى إلى خسائر بشرية كبيرة، خصوصًا بين المدنيين. فما هو نظام “The Gospel”؟ وكيف يعمل؟ وما التحديات الأخلاقية المرتبطة به؟
ما هو نظام “The Gospel”؟
“The Gospel” هو نظام ذكاء اصطناعي طورته وحدات تابعة لجيش الاحتلال الإسرائيلي، مثل وحدة 8200 ووحدة أمان، ويُستخدم لتحليل كميات ضخمة من البيانات في الوقت الفعلي بغرض تحديد الأهداف العسكرية بسرعة وفعالية. يعتمد النظام على تقنيات تعلم الآلة (machine learning) والمنطق الاحتمالي، ويقوم بإنتاج توصيات شبه تلقائية لتحديد الأهداف المحتملة مثل الأفراد، البنى التحتية، أو المواقع العسكرية.
يعمل النظام من خلال دمج وتحليل بيانات من مصادر متعددة تشمل:
- الاستطلاع الجوي: صور أقمار صناعية، وطائرات بدون طيار مزودة بكاميرات حرارية وبصرية.
- الاعتراض الإلكتروني: تنصت على المكالمات والرسائل الهاتفية.
- تحليل الأنماط السلوكية: تتبع نشاطات الأفراد وحركتهم اليومية باستخدام الذكاء السلوكي.
- المصادر البشرية: المعلومات الواردة من المخبرين أو التحقيقات الميدانية.
تُشير بعض التقارير إلى أن هذا النظام قادر على اقتراح ما يصل إلى 100 هدف يوميًا، مقارنة بعشرات الأهداف التي كانت تُحدد سابقًا خلال شهور. ومع أن القرار النهائي يظل بيد محلل أو ضابط بشري، فإن السرعة التي يقدم بها النظام توصياته تُحدث تغييرًا كبيرًا في ديناميكيات القتال.
مصادر البيانات المستخدمة:
- المراقبة الجوية: من خلال الطائرات بدون طيار والصور الحرارية.
- اعتراض الاتصالات: التنصت على المكالمات والرسائل. الصادرة والواردة من الهواتف الخليوية.
- تحليل الأنماط السلوكية: لتحديد أفراد معينين بناءً على حركتهم وأنشطتهم اليومية.
- بيانات الذكاء البشري: التي يتم دمجها مع تحليل النظام لتحسين دقة الأهداف.
نظام “Lavender” الموازي:
إلى جانب “The Gospel”، استخدم الجيش الإسرائيلي نظامًا آخر يُدعى “Lavender”، وهو قاعدة بيانات ذكية تحتوي على أسماء وتصنيفات عشرات آلاف الفلسطينيين الذين يُشتبه بانتمائهم لحماس أو الجهاد الإسلامي. يُقال إن هذا النظام صنّف أكثر من 37,000 شخص، واعتمدت عليه القوات الجوية في استهداف أفراد يُزعم انتماؤهم لمجموعات مقاومة. التقارير تشير إلى أن كثيرًا من الأهداف أُدرجوا بناءً على خصائص نمطية دون مراجعة يدوية متعمقة.
الاستخدامات في غزة ولبنان:
في غزة:
تحديد مواقع القيادات والمقاتلين:
يستخدم الذكاء الاصطناعي والطائرات بدون طيار في غزة لرصد وتحديد مواقع قادة حركة حماس والمقاتلين في مناطق معينة. يتم استخدام تقنيات الاستشعار عن بُعد والذكاء الاصطناعي لتحليل البيانات المجمعة من الطائرات المسيرة والمراقبة عبر الأقمار الصناعية. هذه التقنيات تسمح بتحديد الأهداف بدقة عالية بناءً على حركات الأفراد والأنماط المشبوهة.
استهداف المنازل والمنشآت:
هناك تقارير تفيد بأن النظام العسكري للكيان الغاصب، مثلًا، يستخدم الذكاء الاصطناعي لتحديد المنازل والمنشآت التي يُعتقد أنها تحتوي على أفراد مرتبطين بالمقاومة. يُستخدم الذكاء الاصطناعي لتحليل الصور الملتقطة من الطائرات المسيرة، والتي تساعد في استهداف الأهداف في المناطق السكنية بشكل دقيق، رغم وجود تحديات تتعلق بالمدنيين.
تُشن الضربات في بعض الأحيان دون مراجعة بشرية كافية، مما يزيد من احتمالية سقوط مدنيين.
في لبنان:
رصد تحركات رجال الله الأبطال:
في لبنان، تُستخدم تقنيات المراقبة الحديثة، مثل الطائرات بدون طيار والتكنولوجيا المتقدمة لرصد تحركات رجال الحزب من خلال الطائرات المسيرة، التي يتم تزويدها بنظم متقدمة للذكاء الاصطناعي، تُستخدم في جمع المعلومات الاستخباراتية لرصد مواقع ومخابئ الحزب وتحركات مقاتليه. هذا يسمح للقوات العسكرية بالتخطيط لعمليات استباقية استنادًا إلى هذه المعلومات الدقيقة.
العمليات الاستباقية:
الذكاء الاصطناعي يساهم في تحسين التخطيط العسكري في لبنان عبر توفير تحليل سريع للمعلومات الاستخباراتية المتاحة، مما يسهل اتخاذ القرارات المتعلقة بالعمليات العسكرية. تُستخدم تقنيات الذكاء الاصطناعي لتحليل البيانات التي يتم جمعها من المراقبة المستمرة، مثل تحليل حركة المركبات أو الأشخاص في مناطق معينة.
توظيف الذكاء الاصطناعي في الصراعات:
الاستهداف الدقيق كما يدعون:
في كل من غزة ولبنان، يُستخدم الذكاء الاصطناعي لتحسين دقة الهجمات العسكرية، مما يقلل من الأضرار الجانبية المحتملة ويوفر القدرة على استهداف الأفراد أو المنشآت ذات الأهمية الإستراتيجية بدقة أكبر.
التحليل السريع للبيانات:
يُمكن استخدام الذكاء الاصطناعي لتحليل البيانات الناتجة عن الأجهزة الاستخباراتية والطائرات المسيرة بشكل أسرع وأكثر دقة، مما يساعد في تنفيذ عمليات عسكرية معقدة في وقت قصير.
الانتقادات الدولية:
أضرار مقصودة رغم أدعائهم الدقة:
هناك انتقادات تدور حول استخدام هذه التقنيات في الصراعات، خصوصًا عندما يتعلق الأمر بالاستهداف في المناطق السكنية المكتظة، حيث يمكن أن تؤدي الهجمات الدقيقة إلى سقوط ضحايا مدنيين بشكل مقصود.
تُظهر هذه التطبيقات كيف يمكن أن تلعب التقنيات العسكرية المتقدمة دورًا حاسمًا في الصراعات الإقليمية مثل تلك التي تحدث في غزة ولبنان، لكن في الوقت نفسه تثير قضايا أخلاقية وإنسانية حول تأثيرها على المدنيين والأضرار الجانبية.
- التجريد من الإنسانية: اعتبرت تقارير أممية وتقارير منظمات حقوقية مثل هيومن رايتس ووتش أن هذا النوع من التكنولوجيا يُجرد القرار العسكري من السياق الإنساني.
- الافتقار للتدقيق البشري: تنفيذ عمليات قتل بناءً على توصيات نظام خوارزمي قد يؤدي إلى أخطاء قاتلة.
- تسارع وتيرة الحرب: الذكاء الاصطناعي يختصر حلقات اتخاذ القرار التقليدية، ما يعقد إمكانية التدخل الأخلاقي.
- إفراط في الاستهداف الكمي: التركيز على الكم أدى إلى قصف مئات الأهداف دون تحقيق وافٍ في قانونية أو مشروعية الضربة..
ويمكن وصف هذه التقنية أنها.
- مصنع للاغتيالات: يعتمد على الكمية وليس الجودة كما يدعون، ما يؤدي إلى استهداف مدنيين بشكل مقصود وبدون أكتراث.
- أستهداف متعمد للمدنيين حيث: تسبب في دمار واسع النطاق لمنازل ومناطق مكتظة بالسكان، ما يُعد انتهاكًا للقوانين الدولية.
الجانب الأخلاقي:
تثير هذه الأنظمة تساؤلات أخلاقية عميقة حول دور البشر في اتخاذ قرارات القتل، وإلى أي مدى يمكن الوثوق بخوارزميات -حتى وإن كانت متقدمة- في تقييم من يجب أن يعيش ومن يُقتل. إن أتمتة قرارات القتل تُعد مسألة حساسة تتطلب رقابة دولية، وتشريعات صارمة، ومساءلة قانونية.
خاتمة:
يُظهر نظام “The Gospel” إلى أي مدى وصلت التكنولوجيا العسكرية في تسريع الحرب ورفع كفاءتها من منظور عسكري، لكنه يعكس أيضًا تآكل القيم الإنسانية وتراجع الرقابة الأخلاقية في ساحات القتال. في ظل تسارع الاعتماد على الذكاء الاصطناعي، يبقى السؤال مفتوحًا: هل يمكن تحقيق توازن بين الابتكار العسكري وحماية حقوق الإنسان؟ أم أن هذه الأنظمة تفتح بابًا خطيرًا أمام مستقبل تُحسم فيه الحروب بضغط زر، دون مساءلة أو رحمة؟
قائمة المراجع التقنية:
- The Guardian. “The Gospel: how Israel uses AI to select bombing targets.”
تم النشر في 1 كانون الأول 2023.
https://www.theguardian.com/world/2023/dec/01/the-gospel-how-israel-uses-ai-to-select-bombing-targets - The Guardian. “Israel used AI to identify 37,000 targets in Gaza, say reports.”
تم النشر في 3 نيسان 2024.
https://www.theguardian.com/world/2024/apr/03/israel-gaza-ai-database-hamas-airstrikes - +972 Magazine. “Lavender: The AI machine directing Israel’s bombing spree in Gaza.”
تم النشر في 3 نيسان 2024.
https://www.972mag.com/lavender-ai-israeli-army-gaza - Lieber Institute – West Point. “The Gospel and Lavender: AI and the Law of Armed Conflict.”
تم النشر في 5 نيسان 2024.
https://lieber.westpoint.edu/gospel-lavender-law-armed-conflict - Wikipedia. “AI-assisted targeting in the Gaza Strip.”
https://en.wikipedia.org/wiki/AI-assisted_targeting_in_the_Gaza_Strip
المهندس مصطفى كامل الشريف
مستشار في أمن المعلومات والشبكات