القائمة الرئيسية

الصفحات

القانون الدولي الانساني والاسلحة ذاتية التشغيل بقلم د ايناس عبد الهادي الربيعي

 

 

القانون الدولي الانساني والاسلحة ذاتية التشغيل

بقلم د ايناس عبد الهادي الربيعي

 


 

القانون الدولي الانساني والاسلحة ذاتية التشغيل

بقلم/ د. ايناس عبد الهادي الربيعي

 

    اثارت الاسلحة ذاتية التشغيل جدلا واسعا بين المختصين لما لها من قدرة على الاستجابة للظروف المتغيرة في البيئة التي تستخدم فيها فهي قادرة على تحديد الاهداف من خلال اجهزة الاستشعار التي تساعدها على ادراك المحيط بها من ظروف الا ان المؤمل ان تكون قادرة على تحديد السكان المدنيين وتجنب ما قد يلحق بهم من اضرار تقع عرضا جراء الهجوم المستخدمة فيه وهو ما يتطلب جهدا اضافيا عبر اضافة اجهزة للمعالجة تعتمد تقنيات الذكاء الاصطناعي لتقرر كيفية الاستجابة والتوجيه خلال تنفيذ قرارات الهجوم التي تستخدم خلالها تلك الاسلحة ، ففي الظروف المثالية تتولى تلك الاسلحة اختيار الاهداف والاشتباك دون الحاجة لاستمرار التدخل عبر الجهد البشري ولا سيما بوجود بيئة مفتوحة او ظروف غير منتظمة، الا ان الواقع يثبت عدم وجود اسلحة بتلك الامكانيات حاليا فعلى الرغم من استقلال تلك المنظومات بالتشغيل وامكانية تفعيلها بشكل آلي الا انه لا مناص من تدخل النشاط البشري في المتابعة او البرمجة ، الا انه من المؤمل ان توجد هكذا تقنيات خلال العشرين عام القادمة الا ان الاصوات تتعالى للمطالبة بحظرها كون وجودها يتعارض مع مبادئ القانون الدولي الانساني ،فالأسلحة التي من المؤمل ان تتمتع بذكاء اصطناعي لا يمكن ان تستخدمه بذات الطريقة التي يستخدم بها البشر ذكائهم البشري عبر الالتفاف على القواعد او اتخاذ قرار من خلال تبني وجهة نظر نفعية لتحقيق الهدف الرئيسي لألحاق الخسارة والهزيمة بالعدو او منع العدو من التلاعب بتلك المنظومات وتوجيهها ضد السكان المدنيين ولا سيما في ظل ظروف قد لا تكون متوقعة لمبرمجها ولا سيما في النزاعات المسلحة او ان يتوقع لبرنامج الكومبيوتر التمييز بين المقاتلين والمدنيين ولا سيما اننا في ظرفنا الراهن نجد ان المدنيين يشاركون بشكل مباشر في العمليات العدائية ليكون من الصعوبة على جندي عادي ان يميزهم فما بالك بسلاح ذاتي التشغيل ؟

    لذا اجد من الخطأ ان يستهدف شخص بناء على مفهوم خاطئ باتخاذ قرار عبر حكم تقديري والذي من غير الممكن ان يكون قرارا تتخذه آلة ، ولا سيما ان أبدى ذلك الشخص استعداده للاستسلام  فهل سيميز الروبوت  ذلك ؟ أم ان ذلك سيعد دافعا لاستهداف ارواح اكثر لان الدولة لم تعد مجبرة على تعريض ارواح جنودها للخطر حارج حدودها بل يقتصر الامر على ارواح المدنيين للطرف المعادي وبهذا يكون دافع الدولة للامتثال لقانون حق اللجوء للحرب يمكن ان يتقلص لأنها تتوقع ان الاضرار ستقتصر على الطرف الاخر الذي سيتعرض للهجوم لذا لن يكون هناك ما يعيق الطرف المهاجم من مهاجمة البشر مقاتلين كانوا ام مدنيين وهو ما نجد انه تصرف غير عادل لجملة من الاسباب اهمها ان استخدام اسلحة لا يملكها العدو وان كان يمثل امتيازا يصب في صالحه الا ان الطرف الاخر سيعمد للقتال باستخدام القوة البشرية الذين سيكون امر تعرضهم للقتل امر مفروغ منه ولن يقتصر الامر على المقاتلين بل سيمتد للمدنيين كضحايا عرضيين لهجوم كذلك ليتمثل انعدام العدالة في عدم التكافؤ بين الطرفين في الامكانيات التكنلوجية وان كان التطبيق على ارض الواقع يظهر بان الطرف الاضعف تكنلوجيا قد يعمد لتجاهل بعض قواعد القانون الدولي الانساني ليتفوق على خصمه ، او ان اسلحة كتلك قد تقع في ايدي من لا يحسن استخدامها الامر الذي قد يحقق انتهاكا فعليا لقواعد القانون الدولي الانساني .

    فعند استخدام اسلحة كهذا في النزاعات تبرز اهمية تحديد فيما اذا كان استخدامها سيقتصر على النزاعات المسلحة الدولية ام انه سيتجاوز ذلك الغرض ؟ وما هو مستوى العنف الذي يمكن ان يمثل نزاعا مسلحا يتطلب اللجوء لأسلحة كتلك ؟ فالواقع الذي يفرض نفسه انه لا يمكن اللجوء لاستخدام أسلحة ذاتية التشغيل الا في نطاق النزاعات المسلحة وان كان استخدامها أمر غير محبذ لصعوبة برمجة أسلحة كتلك لمراعاة القانون الدولي لحقوق الانسان لذا من المهم تقييم امر بدائل اخرى للقوة المميتة وما تمثله من تهديد للحياة البشرية مع مراعاة التقيد بقواعد القانون الدولي الانساني ، فاستخدام الطائرات بدون طيار او القذائف او الاسلحة ذاتية التشغيل فمن الافضل ان نجد اجابات لتساؤلات عدة تطرح نفسها بالإضافة لما تقدم منها فمن المهم معرفة كيفية مقارنة اداء تلك الاسلحة بأداء البشر ، وما هي التدابير التي يمكن مراعاتها او اللجوء اليها للحد من اخطائها وتجنب الحياد عن هدفها الفعلي ، وما هي الضرورة العسكرية لاستعمالها او اللجوء اليها ، ليكون استعمالها بموجب ذلك امر غير مشروع بحد ذاته فمن غير المتوقع ان تمتلك ذات الكفاءة التي يمتلكها البشر في اتخاذ الاحتياطات اللازمة للحد من مخاطرها على المدنيين ، فلا يكفي ان يكون السلاح المستخدم يقلل الخسائر العرضية بين المدنيين عند مقارنته بالظروف العادية بل يتعين ان يمتلك تلك القدرة خلال ظروف خاصة تتعلق بكل هجوم على حدة وهو امر مستبعد لان ذلك امر ينفرد به الانسان ، لذا يجب ان يخضع امر كهذا للمراجعة والتقييم قبل ان يكون محل اعتماد واستخدام تلك الاسلحة وهو ما نجد انه أمر مستبعد حاليا فمجرد التوصل تكنلوجيا لتطوير تقنية ما والتي من المؤكد انها ستكون ذات تكلفة باهضة سيكون من المستبعد التوصل لنتيجة ان استخدامها غير قانوني ، لتكون امام مفردة قانونية تفترض بأن المسؤولية لا تسند سوى للبشر فهم وحدهم محل المسألة القانونية وبما ان عملية تطويرها واعتمادها تأخذ ردحا من الزمن عادة فسيكون من المتوقع تلافي العديد من السلبيات خلال تلك المراحل عبر اعادة التقييم والتعديل على مواصفاتها لذا يكون البشر هم المسؤولون الرئيسيين عن النتائج المتولدة عن استخدام تلك الاسلحة وفي الختام نذكر مقولة لمنظمة (  هيومن رايتس وتش ) تبين فيها المنظمة انه من غير الواضح من سيتحمل مسؤولية الافعال غير القانونية التي سيرتكبها الروبوت بخيارات تتضمن ( القائد العسكري الذي وضعه في الميدان والمبرمج والمصنع ام الروبوت ذاته ) وكلها خيارات غير مرضية فمن غير العادل ان يتحمل ثلاثة اطراف تبعة الفعل في حين عدم عقاب الفاعل الفعلي للجريمة .

 

 

هل اعجبك الموضوع :

تعليقات

التنقل السريع