
اتهامات لعمالقة الذكاء الاصطناعي بالتورط مع إسرائيل بإبادة غزة
2025-04-04
مُؤَلِّف: محمد
في تطور مثير للجدل، اتهمت خبييرة الذكاء الاصطناعي، هايدي خلاف، الجيش الإسرائيلي باستخدام تطبيقات ذكاء اصطناعي خلال هجماته على قطاع غزة. وقد جاء هذا الاتهام بالتعاون مع شركات تقنية كبرى مثل جوجل ومايكروسوفت وأمازون. وأكدت أن هذا التعاون قد يجعل هذه الشركات شركاء في جرائم الحرب، ويعزز من خطر تطبيع القتل الجماعي للمدنيين وتوجيه اللوم نحو الخوارزميات.
وحذرت الخبيرة خلاف، وهي مهندسة أمن نظم سابقة في شركة "أوبن إيه آي"، من مخاطر استخدام الذكاء الاصطناعي الذي قد يتسم بعدم الدقة. وقالت في حديث لوكالة الأنباء الدولية: "إذا ثبت أن الجيش الإسرائيلي ارتكب جرائم حرب محددة، وكانت شركات التقنية قد ساعدته في تنفيذها، فإن ذلك يجعلها شريكة في الجريمة".
أضافت خلاف أن الجيش الإسرائيلي اعتمد في الهجمات على غزة على أنظمة ذكاء اصطناعي مثل "حبسورا" (البشارة) و"لافنيدر" لأغراض تشمل المراقبة الجماعية، وتحديد الأهداف، وتنفيذ هجمات استهدفت عشرات الآلاف من المدنيين. في حين تقول منظمات حقوق الإنسان والخبراء إن هذه الأنظمة ساهمت في تنفيذ هجمات واسعة أدت إلى مقتل الآلاف دون تمييز.
وحذرت الخبيرة من أن استخدام نماذج الذكاء الاصطناعي المعروفة بعدم دقتها، سيؤدي إلى تطبيع لحالات القتل الجماعي للمدنيين، كما حدث في غزة، مؤكدة "إنها معادلة خطيرة، وقد تلجأ الجيوش إلى تبرئة نفسها بالقول إن الخوارزمية هي من قررت، ونحن لم نفعل شيئاً".
وتشير الأبحاث الأخيرة إلى أن إسرائيل استخدمت الذكاء الاصطناعي في جميع مراحل الهجمات، من جمع المعلومات الاستخباراتية، وصولاً إلى اختيار الأهداف النهائية، اعتماداً على بيانات متنوعة تشمل صوراً فضائية ومعلومات اتصالات تم اعتراضها.
شركات مثل "جيميني" من جوجل و"شات جي بي تي" من أوبن إيه آي تُستخدم للوصول إلى أنظمة الاتصالات الفلسطينية وترجمة المحادثات، مشيرة إلى أن الأشخاص يُدرجون مواطنين في قوائم الأهداف فقط بناء على كلمات مفتاحية، مما يثير المخاوف حول دقة هذه العمليات.
وتؤكد الخبيرة أن الجيش الإسرائيلي لا يتحقق من صحة الأهداف التي يحددها الذكاء الاصطناعي الذي يستخدمه، مشيرةً إلى أن التقييمات يُظهر أنها قد تكون دقتها منخفضة بنسبة تصل إلى 25% فقط.
كما حذرت من أن استهداف شخص واحد عبر الذكاء الاصطناعي دون الاكتراث بسقوط مدنيين آخرين يمثل خطاً أحمر، مشددةً على أن هذا النوع من "الأتمتة الخاطئة" يحمل أخطاراً جسيمة.
ودعت الخبيرة إلى مزيد من الرقابة والشفافية في استخدام تكنولوجيا الذكاء الاصطناعي من قبل الجيوش، مؤكدة أن هناك توجه متزايد نحو أنظمة استهداف آلية بالكامل دون رقابة قانونية أو محاسبة، وتقول "هذا الاتجاه يحصل على دعم من إسرائيل ووزارة الدفاع الأمريكية والاتحاد الأوروبي".
وأشارت الخبيرة إلى أن غياب الحظر القانوني الواضح على تقنيات الذكاء الاصطناعي العسكرية يشكل ثغرة خطيرة لم تُعالج حتى الآن، مما يضمن أن القوانين التقنية غير جاهزة لدخول حروب قائمة تعتمد على الذكاء الاصطناعي.
هذا وتتابع الخبيرة أن استخدام الذكاء الاصطناعي في الحروب الحديثة يشكل عبئاً إضافياً على الضحايا المدنيين الذين يعتبرون أقل الأعداد التي تمثل الأولويات في هذه الصراعات.