عُقد في مدينة “جنيف” السويسرية قبل عدة أيام مؤتمر دولي حضره عدد غفير من الخبراء الحكوميين لجميع الدول الأعضاء في منظمة الأمم المتحدة، حيث تباحث أولئك الخبراء حول نظم الأسلحة الآلية والفتاكة وخلال هذا المؤتمر دعا عدد من النشطاء الحقوقيين والمنظمات المدنية، دول العالم للمضي قدماً والإسراع للتوصل إلى اتفاقية تحظر استخدام الروبوتات القاتلة كأسلحة آلية تعمل بالذكاء الاصطناعي لقتل البشر وأعرب النشطاء الحقوقيون عن مدى قلقهم من اعتماد بعض من الدول العظمى على مثل هذه الأسلحة الفتاكة وانتقد هؤلاء النشطاء التحرك البطيء للأمم المتحدة في هذا المجال وفي سياق متصل أعربت منظمة العفو الدولية “أمنستي” وهي منظمة غير ربحيّة وغير حكومية، عن مدى قلقها من أن الروبوتات القاتلة ستخلق كابوساً مرعباً إذا ما سمح لها بالقتل كما تشاء وناشد المسؤولون في “أمنستي”، الأمم المتحدة بحظر استخدام هذه الروبوتات قبل أن يفوت الأوان، والعمل على وضع قيود صارمة جديدة على تطوير مثل هذه الأنظمة العسكرية ولقد جاءت كل هذه المناشدات عقب انتشار تطوير الأسلحة الآلية على مدى العقد الماضي من قبل عدد من الدول، مثل بريطانيا وفرنسا وأمريكا لاستخدامها ضمن العمليات العسكرية، بحيث يمكن لهذه الأسلحة انتقاء الأهداف والقضاء عليها دون تدخل بشري.
وفي هذا المؤتمر الدولي ذكر “أمانديب جيل” السفير الهندي لدى الأمم المتحدة، بأن الخبراء المشاركين في هذا المؤتمر، قد اختلفوا في كيفية التعامل مع الروبوتات القاتلة، حيث طالب البعض منهم بحظر رسمي وقانوني لمثل تلك الأسلحة، في حين دعا البعض إلى إبرام اتفاق سياسي بشأن استخدام تلك الأسلحة ومن جهتها أعربت الخبيرة في مجال الذكاء الاصطناعي وحقوق الإنسان في منظمة العفو الدولية، “رشا عبد الرحيم”، قائلة: “إن الروبوتات القاتلة لم تعد مادة خيال علمي، حيث إن التقدم التكنولوجي في مجال الأسلحة يفوق بكثير القانون الدولي، بما في ذلك الطائرات من دون طيار المعتمدة على الذكاء الاصطناعي والمدافع الآلية التي يمكن أن تختار أهدافها الخاصة” وأضافت إن حظر أنظمة الأسلحة المستقلة بالكامل، يمكن أن يمنع بعض السيناريوهات المرعبة، مثل سباق التسلح الجديد عالي التقنية بين القوى العظمى في العالم.
وتذكر العديد من التقارير الإخبارية بأن الخبراء الحكوميين ناقشوا في هذا المؤتمر الذي عقد في مدينة “جنيف” الخيارات المتوافرة لمعالجة التحديات الإنسانية والأخلاقية والأمنية التي تطرحها الروبوتات القاتلة وفي هذا المؤتمر الدولي شدد أغلبية الدول الأعضاء على أهمية الاحتفاظ بسيطرة البشر على أنظمة الأسلحة ودعت 26 دولة من الدول الأعضاء إلى فرض حظر شامل ووضع بروتوكول جديد لاتفاقية الأسلحة التقليدية يحظر استخدام أنظمة الأسلحة ذاتية التشغيل بالكامل، لكن للأسف الشديد عارض عدد من الدول الكبرى فرض حظر قانوني ملزم على ذلك النوع من الأسلحة كفرنسا وروسيا وكوريا الجنوبية وأمريكا وبريطانيا و”إسرائيل”.
إن كل هذه الانتقادات والدعوات تفتح الكثير من التساؤلات، لماذا يجب حظر استخدام الروبوتات القاتلة التي تعمل بآلية الذكاء الاصطناعي، وما هي الأضرار التي سوف تصيب البشرية إزاء استخدام مثل هذا النوع من الأسلحة؟
حول هذا السياق أعرب عالم الفيزياء البريطاني الشهير “ستيفن هوكينغ” في مقابلة له مع إحدى الصحف البريطانية، أن الروبوتات ستقضي على البشرية، وإنه يخشى أن يحل الذكاء الاصطناعي تماماً محل البشر في المستقبل، ما سيؤدي إلى ولادة شكل جديد من الحياة سيتفوق على الإنسان، وبحسب “هوكينغ” فإن الروبوتات سترغب يوماً ما في التخلص من البشر، وإن الأرض ستضيق بنا، وسيزداد عدد السكان بشكل هائل وسنجد أنفسنا عاجزين عن منع إبادة البشرية ومن جهته قال “ستيوارت راسل”، وهو عالم في علم الذكاء الاصطناعي في “جامعة كاليفورنيا،” إن تصنيع واستخدام الأسلحة ذاتية التحكم، مثل الروبوتات القاتلة والرشاشات الآلية، سيكون مدمراً للأمن الإنساني وستكون له تداعيات خطيرة على سلامة البشرية.
وفي السياق ذاته صرح “توبي والش”، الأستاذ بجامعة “نيو ساوث ويلز” في أستراليا، قائلاً: “هناك العديد من الأشياء العظيمة التي يمكن أن يستخدم فيها الذكاء الاصطناعي لإنقاذ الأرواح، بما في ذلك المجال العسكري، لكن أن تعلن بأريحية أن الهدف تطوير أسلحة قتل ذاتية مع شريك مثل هذا فإن هناك مخاوف كبيرة”.
وبالنظر لكل ما قاله العلماء والخبراء أعلاه، يبدو بأن الذكاء الاصطناعي والروبوتات القاتلة، ستكون لها أضرار على البشرية في المستقبل القريب وأن ما تعتقده بعض الشركات المصنعة لهذا النوع من الروبوتات والتي صرحت مراراً وتكراراً بأن هذه الروبوتات سوف تخدم البشرية، ما هي إلا أضغاث أحلام، خاصة بعد وقوع العديد من الحوادث المأساوية التي تسببت بها تلك الروبوتات في عدد من مصانع السلاح الأمريكية والبريطانية حسب ما ذكرته بعض وسائل الإعلام الغربية.  ml 

اترك تعليق

Please enter your comment!
Please enter your name here