مع تطور الذكاء الاصطناعي، تتزايد الضغوط لضبط “الروبوتات القاتلة”

في كل يوم، نسلم طواعية معلومات عن أنفسنا للآلات. ويحدث هذا عندما نقبل ملف تعريف ارتباط عبر الإنترنت أو نستخدم محركات البحث. قد لا نفكر في كيفية بيع بياناتنا واستخدامها قبل أن نضغط على زر “الموافقة” للوصول إلى الصفحة التي نريدها، أو ندرك تماما أنها ستستخدم لاستهدافنا كمستهلكين وإقناعنا بشراء شيء لم نكن نعلم أننا بحاجة إليه.
ولكن ماذا لو كانت هذه الآلات تستخدم البيانات لتحديد من الذي يجب استهدافهم بالقتل بصفتهم أعداء؟ الأمم المتحدة ومجموعة من المنظمات غير الحكومية قلقة للغاية من أن هذا السيناريو بات على وشك أن يصبح واقعا. لذا فإنها تطالب بتنظيم دولي للأسلحة الفتاكة ذاتية التشغيل لتجنب مستقبل قريب تملي فيه الآلات خيارات الحياة والموت.
حرب واسعة بالمسيرات تتكشف في أوكرانيا
لعدة أشهر، تعرضت منطقة خيرسون في أوكرانيا لهجوم متواصل من الطائرات المسيرة الروسية، والتي تستهدف بشكل رئيسي الأشخاص غير المقاتلين. قتل أكثر من 150 مدنيا وجرح المئات، وفقا لمصادر رسمية. وخلص تحقيق أممي مستقل في مجال حقوق الإنسان، إلى أن هذه الهجمات تشكل “جرائم ضد الإنسانية”.

من الأرشيف: تعرض مدنيون في خاركيف لمئات الهجمات بطائرات مسيرة روسية.
الجيش الأوكراني يعتمد بشكل كبير أيضا على الطائرات المسيرة، فيما تفيد التقارير بأنه يطور “جدارا” من الطائرات المسلحة بدون طيار لحماية المناطق المعرضة للخطر على حدود البلاد.
بعد أن كانت في السابق حكرا على أغنى الدول القادرة على تحمل تكلفة الطائرات المسيرة الأكثر تطورا وتكلفة، أثبتت أوكرانيا أنه بقليل من الإبداع، يُمكن تعديل المسيرات منخفضة التكلفة لتكون ذات تأثير فتاك. مع انعكاس هذا التحول في الصراعات حول العالم، تعاد صياغة طبيعة القتال الحديث.
تنامي “التجريد الرقمي من الإنسانية”
ولكن، على الرغم من الدمار الذي قد يسببه هذا الشكل الحديث من الحرب، فإن تصاعد شبح المسيرات أو غيرها من الأسلحة ذاتية التشغيل يزيد من المخاوف المستمرة بشأن “روبوتات قاتلة” تمطر الموت من السماء، وتقرر بنفسها من يجب أن تهاجمه.
وقالت إيزومي ناكاميتسو، ممثلة الأمم المتحدة السامية لشؤون نزع السلاح، إن موقف المنظمة حول هذه الأسلحة واضح، وأضافت: “لطالما قال الأمين العام إن استخدام الآلات ذات السلطة المفوضة بالكامل والتي تتخذ قرارات تتعلق بقتل البشر، أمر منفر أخلاقيا. لا ينبغي السماح به. بل يجب حظره بموجب القانون الدولي”.
وقالت منظمة هيومن رايتس ووتش، وهي منظمة دولية غير حكومية في مجال حقوق الإنسان، إن استخدام الأسلحة ذاتية التشغيل سيكون أحدث وأخطر مثال على “التجريد الرقمي من الإنسانية”، حيث يتخذ الذكاء الاصطناعي مجموعة من القرارات التي تؤثر على حياة البشر، مثل أعمال الشرطة وتنفيذ القانون ومراقبة الحدود.
وحذرت ماري ويرهام، مديرة قسم الأسلحة في هيومن رايتس ووتش، قائلة: “تستثمر العديد من الدول ذات الموارد الهائلة بكثافة في الذكاء الاصطناعي والتقنيات ذات الصلة لتطوير أنظمة أسلحة ذاتية التشغيل برية وبحرية. هذه حقيقة واقعة. تقود الولايات المتحدة هذا التوجه، لكن دولا كبرى أخرى، مثل روسيا والصين وإسرائيل وكوريا الجنوبية، تستثمر بكثافة في أنظمة الأسلحة ذاتية التشغيل”.
غالبا ما يشير مؤيدو استخدام الذكاء الاصطناعي في الحروب إلى محدودية القدرات البشرية لتبرير توسعه. فالجنود قد يخطئون في تقديراتهم، ويتصرفون بناء على انفعالاتهم، ويحتاجون إلى الراحة، وبالطبع، يطالبون بأجور – بينما يزعمون أن الآلات تتحسن يوما بعد يوم في تحديد التهديدات بناء على أنماط السلوك والحركة. ويقترح بعض المُؤيدين أن الخطوة التالية هي السماح للأنظمة المستقلة بتحديد توقيت إطلاق النار.

طائرة بدون طيار تحلق في سماء أفغانستان.
هناك اعتراضان رئيسيان على السماح للآلات بالسيطرة على ساحات المعركة: أولا، هذه التكنولوجيا بعيدة كل البعد عن كونها مضمونة. ثانيا، ترى الأمم المتحدة والعديد من المنظمات الأخرى أن استخدام الأسلحة الفتاكة ذاتية التشغيل غير أخلاقي.
وقالت السيدة ويرهام من هيومن رايتس ووتش: “من السهل جدا على الآلات أن تخطئ في تحديد الأهداف البشرية. الأشخاص ذوو الإعاقة معرضون للخطر بشكل خاص بسبب طريقة حركتهم. يمكن الخلط بين كراسيهم المتحركة والأسلحة. كما أن هناك مخاوف من أن تقنية التعرف على الوجه وغيرها من القياسات الحيوية لا تستطيع تحديد الأشخاص ذوي ألوان البشرة المختلفة بشكل صحيح. لا تزال العيوب تشوب الذكاء الاصطناعي، وهو يتضمن تحيزات الأشخاص الذين برمجوا هذه الأنظمة”.
فيما يتعلق بالاعتراضات الأخلاقية والمعنوية، قالت نيكول فان رويجين، المديرة التنفيذية لتحالف “أوقفوا الروبوتات القاتلة”، وهو تحالف يناضل من أجل قانون دولي جديد بشأن الاستقلالية في أنظمة الأسلحة، إن هذه الأسلحة ستجعل من الصعب للغاية تحديد المسؤولية عن جرائم الحرب وغيرها من الفظائع.
وتساءلت: “من المسؤول؟ هل هي الشركة المصنعة؟ أم الشخص الذي برمج الخوارزمية؟ إنها تثير مجموعة واسعة من القضايا والمخاوف، وسيكون استخدامها على نطاق واسع بمثابة فشل أخلاقي”.
حظر بحلول عام 2026؟
إن السرعة التي تتقدم بها التكنولوجيا، والأدلة على استخدام أنظمة الاستهداف المدعومة بالذكاء الاصطناعي بالفعل في ساحة المعركة، تزيد من إلحاح الدعوات إلى وضع قواعد دولية لهذه التكنولوجيا.
في أيار/مايو، عقدت مناقشات غير رسمية في مقر الأمم المتحدة، دعا فيها السيد غوتيريش الدول الأعضاء إلى الموافقة على اتفاقية ملزمة قانونا لتنظيم وحظر استخدام تلك الأسلحة بحلول عام 2026.
محاولات تنظيم وحظر أنظمة الأسلحة الفتاكة المستقلة ليست جديدة. في الواقع، عقدت الأمم المتحدة أول اجتماع للدبلوماسيين عام 2014، في قصر الأمم في جنيف، حيث ترأس السفير الفرنسي جان هيوز سيمون ميشيل محادثات بين خبراء استمرت أربعة أيام.
ووصف آنذاك أنظمة الأسلحة الفتاكة المستقلة بأنها “قضية ناشئة صعبة على أجندة نزع السلاح”، على الرغم من عدم استخدام أي من هذه الأنظمة في النزاعات. وكان الرأي السائد في حينها هو ضرورة اتخاذ إجراء استباقي لوضع القواعد في حال جعلت التكنولوجيا أنظمة الأسلحة الفتاكة المستقلة حقيقة واقعة.
بعد 11 عاما، لا تزال المحادثات جارية، ولكن لا يوجد حتى الآن توافق في الآراء بشأن تعريف الأسلحة ذاتية التشغيل، ناهيك عن وجود ضوابط متفق عليها بشأن استخدامها. ومع ذلك، فإن المنظمات غير الحكومية والأمم المتحدة متفائلة بأن المجتمع الدولي يتقدم ببطء نحو فهم مشترك للقضايا الرئيسية.
وقالت السيدة روجين من منظمة “أوقفوا الروبوتات القاتلة”: “لسنا قريبين بأي حال من الأحوال من التفاوض على نص”.
إلا أنها أشارت إلى نص “متجدد وواعد للغاية ويمكن أن يشكل أساسا للمفاوضات إذا توفرت الإرادة والشجاعة السياسيتين” مطروح من قبل الرئيس الحالي لاتفاقية حظر أو تقييد استخدام أسلحة تقليدية معينة – وهي أداة قانونية إنسانية أممية تهدف إلى حظر أو تقييد استخدام أنواع محددة من الأسلحة “تعتبر مسببة لمعاناة غير ضرورية أو غير مبررة للمقاتلين أو تؤثر على المدنيين دون تمييز”.
كما ترى السيدة ويرهام من هيومن رايتس ووتش أن المحادثات التي جرت في أيار/مايو في الأمم المتحدة تمثل خطوة مهمة إلى الأمام، حيث قالت: “هناك ما لا يقل عن 120 دولة تؤيد تماما الدعوة إلى التفاوض على قانون دولي جديد بشأن أنظمة الأسلحة ذاتية التشغيل. ونرى اهتماما ودعما كبيرين، بما في ذلك من حائزين على جوائز نوبل للسلام، وخبراء الذكاء الاصطناعي، والعاملين في مجال التكنولوجيا، والزعماء الدينيين”.
وقالت السيدة ناكاميتسو، وكيلة الأمين العام لشؤون نزع السلاح: “هناك اتفاق ناشئ على ضرورة حظر أنظمة الأسلحة ذاتية التشغيل بالكامل. عندما يتعلق الأمر بالحرب، يجب أن تقع المسؤولية على طرف ما”.
مع تطور الذكاء الاصطناعي، تتزايد الضغوط لضبط “الروبوتات القاتلة” المصدر: