أسلحة المستقبل..هل تفلت ربوتات القتل من قبضة القانون ؟
وسط مخاوف من الاستخدام المفرط للربوتات في قتل المدنيين في غزة وصعوبة الإدانة
كتبت بسنت السيد
حرب إبادة ممنهجة استخدمت فيها إسرائيل أحدث التقنيات الحديثة ،لابادة كل ماهو فلسطيني.مستهدفة محو العرب الفلسطينيين واقتلاعهم بأفتك الأسلحة
حرب شنتها إسرائيل ليس بدعوى القضاء على حماس وانما لتغيير خريطة العالم ومحو فلسطين بشعبها واهلها من على وجه الأرض وفي ظل غياب سلاح رادع ومضاد كيف استخدمت الربوتات كآلة للقتل في حرب إسرائيل ضد المدنيين في غزة ؟
كشفت صحيفة نيويورك تايمز أن تقنيات الذكاء الاصطناعي التي استخدمهتا إسرائيل في حرب الإبادة على غزة تتضمن برامج لتحديد المواقع، والتعرف على الوجوه، وتحليل المحتوى العربي، وذلك خلال الحرب التي اندلعت في اكتوبر 2023.
وبحسب الصحيفة إن هذه الاختبارات شملت استخدام أدوات لم تجرب سابقا في ساحات القتال، ما أثار جدلا أخلاقيا واسعا في العالم حول ضوابط تجارب استخدام تقنيات الذكاء الاصطناعي في الحرب ضد المدنيين واستهدافهم.
كيف استخدمت اسرائيل الذكاء الاصطناعي في حربها على غزة ؟
وفقا لمصادر مطلعة إسرائيلية ذكرت ، أن البداية كانت بمحاولة اغتيال القيادي في حركة حماس إبراهيم بياري، عندما فشلت الاستخبارات الإسرائيلية في تعقبه داخل شبكة أنفاق غزة. لذا لجأت إسرائيل إلى أداة صوتية مدعومة بالذكاء الاصطناعي طورها مهندسو الوحدة 8200، سمحت بتحديد موقعه التقريبي استنادا إلى تحليلات صوتية لمكالماته.
مقتل 125مدنيا من الأبرياء
واكدت المصادر أنه تم تنفيذ غارة جوية أدت إلى مقتله، لكن الهجوم أسفر أيضا عن مقتل أكثر من 125 مدنيا، بحسب منظمة “إيروورز” البريطانية المتخصصة برصد ضحايا الصراعات.
روبوتات الدرشة والتعرف على الوجوه
استمرت إسرائيل في تسريع دمج الذكاء الاصطناعي في عملياتها العسكرية. من بين التقنيات التي طورتها بمساعدة من شركات كبرى مثل جوجل وميتا ومايكروسوفت بجهود مشتركة مع مركز الاستوديو التابع لخبراء من الجنود الاحتياطى في الجيش الاسرائيلي وذلك بهدف تطوير برامج التعرف على الوجوه المتضررة أو غير الواضحة، وأداة لاختيار أهداف الغارات الجوية تلقائيا،
كما ابتكرت نموذجا لغويا ضخم باللغة العربية يُشغّل روبوت دردشة قادرًا على تحليل المنشورات والمراسلات الإلكترونية بمختلف اللهجات. كما طورت نظام مراقبة بصري متطور يستخدم على الحواجز بين شمال وجنوب غزة لمسح وجوه الفلسطينيين.وفقا لما ذكرته نيويورك تايمز
أخطاء الذكاء الاصطناعي يدفع ثمنها المدنيين الأبرياء
رغم النجاح التقني، أثارت التجارب مخاوف أخلاقية جدية. وقال ضباط إسرائيليون إن أدوات الذكاء الاصطناعي أخطأت أحيانا في تحديد الأهداف، ما أدى إلى اعتقالات خاطئة وضحايا مدنيين. فيما حذرت هاداس لوربر، الخبيرة في الذكاء الاصطناعي والمديرة السابقة في مجلس الأمن القومي الإسرائيلي، من مخاطر هذه التقنيات قائلة: “لقد غيرت الذكاء الاصطناعي قواعد اللعبة في الميدان، لكن دون ضوابط صارمة قد يؤدي إلى عواقب وخيمة”
وفي نفس السياق، أكد أفيف شابيرا، مؤسس شركة XTEND المتخصصة بالطائرات المسيرة، أن خوارزميات الذكاء الاصطناعي باتت قادرة على تتبع الأشخاص والأهداف المتحركة بدقة عالية، قائلا إن “قدرات التوجيه تطورت من الاعتماد على صورة الهدف إلى التعرف على الكيان نفسه”. لكنه شدد على ضرورة الموازنة بين الفاعلية والاعتبارات الأخلاقية.
تطوير نموذج لغوى يحلل ردود الأفعال
يذكر أنه من أبرز المشاريع كان تطوير نموذج لغوي ضخم يحلل اللهجات العربية المختلفة لفهم المزاج العام في العالم العربي. وبحسب ضباط في المخابرات الإسرائيلية، ساعدت هذه التقنية في تحليل ردود الأفعال الشعبية بعد اغتيال زعيم حزب الله حسن نصر الله في سبتمبر 2024، من خلال تمييز التعابير المحلية في لبنان وتقييم احتمالات الرد.
موقف الشركات العالمية من الاتهامات
والتزمت كل من ميتا ومايكروسوفت الصمت رافضين التعليق على التقارير. أما غوغل فأوضحت أن موظفيها الذين يخدمون كجنود احتياط في بلدانهم “لا يؤدون مهام مرتبطة بالشركة خلال خدمتهم العسكرية”.
صمت إسرائيلى
من جهتها، امتنعت الناطقة باسم الجيش الإسرائيلي عن التعليق على تفاصيل البرامج “نظرا لطبيعتها السرية”، مشيرة إلى أن الجيش يلتزم بالاستخدام “القانوني والمسؤول” لتكنولوجيا البيانات، وأنه يجري تحقيقا في غارة اغتيال البياري دون الكشف عن موعد انتهاءه.
الحرب ليست ساحة اختبار
وتقول صحيفة “نيويورك تايمز” أن هذه ليست المرة الأولى التي تستخدم فيها إسرائيل الصراع كحقل تجارب لتقنياتها؛ إذ سبق أن طورت أنظمة مثل القبة الحديدية وطائرات مسيرة هجومية خلال الحروب السابقة في غزة ولبنان. لكن مسؤولين غربيين شددوا على أن حجم الاستخدام المتسارع للذكاء الاصطناعي في حرب 2023-2024 لا سابق له.
وحذر مسؤولون أمريكيون وأوروبيون من أن ما يجري في غزة قد يشكل نموذجا أوليا لحروب المستقبل، التي تعتمد على خوارزميات يمكن أن تخطئ أو تساء إدارتها، ما يضع حياة المدنيين وشرعية العمليات العسكرية على المحك.
ماهو موقف القانون الدولي من الاستخدام المفرط في أسلحة الذكاء الاصطناعي ؟
يقول الدكتور أيمن سلامة أستاذ القانون الدولي في حديثه لموقع نافذة الشرق عن استخدام إسرائيل للروبوتات القاتلة في قطاع غزة إن هذا يثير مخاوف قانونية وأخلاقية عميقة بموجب القانون الدولي الإنساني.
وتابع هذه الأسلحة ذاتية التشغيل، القادرة على تحديد الأهداف والانخراط فيها دون تدخل بشري مباشر، تهدد بتقويض المبادئ الأساسية التي يقوم عليها قانون النزاعات المسلحة.
كيف تقوض أسلحة التقنيات الحديثة مبادىء قانون النزاعات المسلحة ؟
يقول استاذ القانون الدولي أن نشر الروبوتات القاتلة يثير تساؤلات جدية حول مبدأ التمييز، الذي يلزم أطراف النزاع بالتمييز في جميع الأوقات بين المدنيين والأهداف العسكرية. كيف يمكن لآلة أن تقوم بتقييم دقيق للوضع واتخاذ قرارات تمييز معقدة تتطلب فهماً للسياق الإنساني والنوايا؟
ويؤكد أن إسناد قرارات الحياة والموت إلى الآلات يزيد بشكل كبير من خطر الهجمات العشوائية التي قد تسفر عن خسائر فادحة في صفوف المدنيين، وهو ما يشكل انتهاكاً واضحاً للقانون الدولي الإنساني.
هل يمكن للربوتات أخذ القرار بناء على التقييم المتوازن؟
ويتابع سلامة يواجه مبدأ التناسب تحديات مماثلة. فماا من شك يتطلب هذا المبدأ أن يكون الضرر العرضي المتوقع على المدنيين والممتلكات المدنية غير مفرط مقارنة بالميزة العسكرية الملموسة والمباشرة المتوقعة من الهجوم. هل يمكن للروبوتات القاتلة إجراء مثل هذا التقييم المعقد والمتوازن؟ في بيئة النزاع المسلح الحامي الوطيس، و في بيئة حصرية كثيفة السكان مثل الحالة في غزة؟ هناك خطر حقيقي من أن تؤدي الخوارزميات غير المرنة إلى تقديرات خاطئة للضرر المحتمل، مما يؤدي إلى انتهاكات لمبدأ التناسب.
تجاوز الاعتبارات الأخلاقية
وأشار يتأثر مبدأ الإنسانية بشكل كبير. يحظر هذا المبدأ إلحاق معاناة غير ضرورية أو إصابات مفرطة بالعدو. إن تجريد الإنسان من عملية اتخاذ قرار القتل وإسنادها إلى آلة يثير تساؤلات حول الكرامة الإنسانية والقيمة الجوهرية للحياة. إن السماح للآلات باتخاذ قرارات بشأن حياة أو موت البشر يتجاوز الخطوط الأخلاقية والقانونية المقبولة.
وشدد استاذ القانون الدولي على أن القانون الدولي الإنساني التزاماً باتخاذ الاحتياطات قبل الهجوم لتقليل الضرر اللاحق بالمدنيين. ويشمل ذلك جمع المعلومات الاستخباراتية الدقيقة، وتقييم الأهداف المحتملة، واختيار الأسلحة ووسائل الهجوم التي تقلل من المخاطر على المدنيين.
عنصرية الآلة وصعوبة الإدانة
وأشار أيضا إلى أن السياق الأوسع للنزاع في غزة، بما في ذلك الاتهامات المتزايدة بالعنصرية الإسرائيلية الممنهجة تجاه الفلسطينيين، يزيد من حدة هذه المخاوف. إذا كانت القرارات المتعلقة بالاستهداف تتأثر بتحيزات عنصرية، سواء كانت واعية أو غير واعية، فإن إسناد هذه القرارات إلى الآلات قد يؤدي إلى تفاقم هذه التحيزات وتوسيع نطاقها بطرق يصعب تتبعها أو مساءلتها.ومن هذا المنطلق، فإن استخدام الروبوتات القاتلة في غزة يمثل تحدياً خطيراً للقانون الدولي الإنساني ومبادئه الأساسية.
الحاجة لنقاش دولى موسع حول الآثار القانونية والأخلاقية
واختتم حديثه لموقع نافذة الشرق قائلا : “هناك حاجة ملحة لإجراء نقاش دولي جاد حول الآثار القانونية والأخلاقية لهذه التكنولوجيا، وضمان بقاء السيطرة البشرية على قرارات استخدام القوة المميتة لحماية المدنيين ومنع وقوع انتهاكات جسيمة للقانون الإنساني. إن السماح للآلات باتخاذ قرارات الحياة والموت في سياق يتسم بالعنصرية المزعومة يهدد بتقويض أسس العدالة والإنسانية في النزاعات المسلحة”.
الدكتور أيمن سلامة أستاذ القانون الدولي

Comments are closed, but trackbacks and pingbacks are open.