حرب الذكاء الاصطناعى هنا: كيف كانت الطائرات بدون طيار ذكية هاروب ورفع هيرون عملية الهند Sindoor
كتب: هاني كمال الدين
تمكنت أوكرانيا من البقاء في المباراة ضد القوات الروسية التقليدية القوية من خلال الطائرات بدون طيار ذاتية الحكم الذاتي و AI ، مع الطائرات بدون طيار الصغيرة ، أول شخص (FPV) ، تسترشد بالخوارزميات ، وتدمير درعًا روسيًا أكثر من أي فئة سلاح أخرى.
وفي الوقت نفسه ، في غزة ، استخدم الإسرائيليون الخوارزميات المتقدمة ، التي تحمل اسم الإنجيل والخزامى ، لبحور الذكاء واقتراح أهداف في الوقت الحقيقي. في عام 2020 ، ربما تكون طائرة بدون طيار من KARGU-2 من صنع التركية قد هبطت بشكل مستقل للمقاتلين في ليبيا دون أوامر بشرية-ربما أول ضربة قاتلة من قبل سلاح مستقل حقًا.
في خيالنا ، تدور حرب الذكاء الاصطناعى حول روبوتات المنهي المستقبلية التي تسير جنبا إلى جنب مع ذهابها إلى الحرب ؛ في الواقع ، بدأ عصر حرب الذكاء الاصطناعي بالفعل. كما هو الحال مع كل شيء مع الحرب و AI ، فإن هذا النوع من الحرب باستخدام الأسلحة المستقلة المميتة (القوانين) يطرح أسئلة مقلقة. القوانين هي آلات يمكنها تحديد الأهداف واختيارها وقتلها دون تدخل بشري. على عكس الأسلحة النووية ، تكون هذه الأنظمة رخيصة نسبيًا وقابلة للتطوير وصعبة للتحكم بمجرد إطلاق العنان.
يمكن أن يختلف مستوى السيطرة البشرية ، من أنظمة “الإنسان في الحلقة” التي تتطلب ترخيصًا للمشاركة ، إلى “الإنسان على الحلقة” حيث يمكن للإنسان أن يتجاوز الإجراءات المستقلة ، وأخيراً أنظمة “Humanout-the-loop” التي تعمل دون أي مشاركة بشرية بعد التنشيط. هذا الاحتمال لنوع جديد من الحرب ، حيث تتخذ الآلة قرارات LifeAnd Death ، قد حفز المزيد من المكالمات في الأمم المتحدة لحظر هذه الأسلحة.
هناك مخاوف بين علماء الأخلاقيات وهيئات حقوق الإنسان من التصعيد العرضي ، أو فقدان المساءلة ، أو “حروب الطائرات بدون طيار” على نطاق واسع دون ضبط بشري. من الواضح أن الدول ليست على نفس الصفحة ، حيث يستمر التنمية الغاضبة بين القوى الرئيسية التي ترى المكاسب العسكرية في ترك الذكاء الاصطناعي تأخذ زمام الأمور. تجاوزت AI Warfare المزايا التكتيكية للسياسة القائمة ، حيث ذكرت المذهب العسكري الصيني صراحة “الحرب الذكية” كمستقبلها. في حين أن فكرة القوانين وحرب الذكاء الاصطناعى أمر مروع ، فإن هذا المقال يتخطى عمدا خطاب “الحظر أو التنظيم” المألوف لاستكشاف بعض الآراء المتناقضة والمناسبة التي يجادلون بأن الذكاء الاصطناعي قد يجعل الحرب أكثر إنسانية.
هل يمكن أن ينقذ حياة البشر؟
إحدى الحجة غير البديلة هي أن الاستعانة بمصادر خارجية للحرب إلى الآلات يمكن أن تنقذ حياة البشر. إذا كان بإمكان الروبوتات تحمل أخطر المهام ، فإن الجنود البشريين يبقون بعيدة عن الأذى. ربما من الأفضل إرسال آلة يمكن التخلص منها إلى منطقة قتل لمحاربة آلة أخرى ، من جندي شاب يحاول قتل آخر؟
تشير النزاعات الأخيرة إلى إمكانية إنقاذ الحياة: على سبيل المثال ، تم تحقيق فوز أذربيجان على أرمينيا في حرب ناغورنو كاراباخ عام 2020 ، إلى حد كبير من خلال طائرات بدون طيار متفوقة ، مما يقلل إلى حد كبير من ضحاياها.
قد يؤدي ذلك إلى دخول عصر “حروب البوتيك” أو النزاعات المستمرة ذات الكثافة المنخفضة التي تشنها أنظمة الذكاء الاصطناعى في المقام الأول ، والتي تحلق تحت العتبة التي عادة ما تؤدي إلى تدخل دولي كبير.
هذا يبدو مغريًا ولكن لديه الجانب السلبي لجعل الحرب “خالية من المخاطر” للجانب الذي يحتوي على المزيد من هذه الآلات القاتلة ، مما يجعل القادة ينموون أكثر استعدادًا لإطلاق مغامرات عسكرية.
هل يمكن أن تجعل الحرب أكثر أخلاقية ودقيقة؟
الفكرة الثانية المتناقضة هي أن الذكاء الاصطناعى قد يجعل الحرب أكثر أخلاقية من خلال تحسين الدقة. تحاول معظم الجيوش بالفعل تقليل الأضرار الجانبية ، حيث تحاول الهند القيام بها في عملية Sindoor. يمكن أن تجعل أدوات الذكاء الاصطناعي ضربات “جراحية” أكثر وضوحًا. الجنود البشريون ، على الرغم من شجاعةهم ، عرضة للخطأ والتعب والعاطفة.
من الناحية النظرية ، يمكن تدريب أنظمة الذكاء الاصطناعي على تجنب المناطق المدنية ، وتقييم التهديدات بشكل أكثر دقة وتوقف العمليات عند انتهاك قواعد الاشتباك.
من الناحية النظرية ، يمكن برمجة نظام الذكاء الاصطناعي المستقل لعدم إطلاق النار على مدرسة أو مستشفى ، وسيطيع هذا كل مرة. تخيل طائرة بدون طيار من الذكاء الاصطناعي التي تجهض في منتصف الرحلة لأن سيارة الإسعاف تدخل الإطار ، وهو ما قد يفوته الطيار البشري في ضباب الحرب. حتى الصليب الأحمر أقر بأن أنظمة دعم القرار التي تدعم الذكاء الاصطناعي “قد تتيح قرارات أفضل من قبل البشر … تقليل المخاطر للمدنيين”.
يمكن أن تكون فكرة “الحرب النظيفة” التي تمكّنها AI Precision سيفًا مضاعفًا. نفس نظام الذكاء الاصطناعى الإسرائيلي الذي حدد المسلحين في غزة ، قاموا أيضًا بإخراج قوائم القتل الخوارزمية بأقل مراجعة بشرية. إذا أخطأت البيانات المعيبة أو الخوارزميات المتحيزة في تسمية مدنية كتهديد ، فإن الذكاء الاصطناعى يمكن أن يقتل الأبرياء بكفاءة لا يرحم. يمكن لمنظمة العفو الدولية تعزيز الامتثال لقوانين الحرب ، لكنها لا يمكن أن تحل محل الحكم الإنساني.
هل يمكن أن تجعل الحرب شفافة؟
سلطت عملية Sindoor الضوء على خطر التضليل والمعمق الذي يتم تجميعه بواسطة وسائل الإعلام الرئيسية. منظمة العفو الدولية يمكن أن تغير هذا.
تقوم الأنظمة المستقلة بتسجيل كل شيء – بيانات تحديد الموقع ، أو لقطات الفيديو ، أو القرارات المستهدفة – التي تفتح إمكانية “المساءلة الخوارزمية” ، مع كل الإضراب المدقق ، وكل إجراء يبرره أو إدانته.
هل يمكن أن يكون رادعًا جديدًا؟
ربما يتم التعبير عن وجهة نظر متناقضة أكثر رواية في ورقة حديثة “استراتيجية الإلغاء: نسخة خبراء” من تأليف إريك شميدت وآخرون ، حيث استعاروا من رادع الحرب النووي المتمثل في التدمير المجنون أو المتبادل ، لاقتراح مفهوم التشويه أو العطل المتبادل من الذكاء الاصطناعي.
والفكرة هي أنه عندما يصبح الذكاء الاصطناعى أساسيًا للأنظمة العسكرية ، قد تتردد الأمم في ضرب بعضها البعض ، لأن مهاجمة نظام الذكاء الاصطناعى قد يسبب تأثيرات تموج غير متوقعة عبر كلا الجانبين.
إن الضعف المتأصل لأنظمة الذكاء الاصطناعى المعقدة للتخريب – من خلال الهجمات الإلكترونية ، أو تدهور بيانات التدريب ، أو حتى الإضرابات الحركية على البنية التحتية الحرجة مثل مركبات البيانات – تنشئ حالة من التقييد المتبادل بين القوى العظمى من الذكاء الاصطناعي.
يقلب Maim البرنامج النصي على dystopia: بدلاً من منظمة العفو الدولية التي تقودنا ، يمكن أن يكون الخوف المتبادل من الذكاء الاصطناعى الهارب الحفاظ على غرائز القوى المنافسة العدوانية. يبدو أن مناقشة كيف يمكن لمنظمة العفو الدولية أن تجعل الحرب أكثر إنسانية ، إذا كان هناك شيء من هذا القبيل ، بدلاً من جعلها أكثر رعباً من أي وقت مضى.
إن وجهات النظر المتناقضة أعلاه تتحدى غرائزنا ، والكثيرون سوف يتراجعون إلى فكرة الروبوتات القاتلة التي تسير فيها. ومع ذلك ، مع أن يصبح الكثير منها حقيقة واقعة ، لم يعد بإمكاننا تجنب هذه الأسئلة.
يمكننا أن نختار أن ننظر إلى هذا مع تشاؤم مروع أو اتباع نهج نصف كامل من الزجاج قد تجعل التكنولوجيا التي تسترشدها القيم الإنسانية حروبًا مستقبلية أقل إنسانية. يقولون إن كل شيء عادل في الحب والحرب ، وأن كل شيء قد يشمل قريبًا الذكاء الاصطناعي.
للمزيد : تابعنا هنا ، وللتواصل الاجتماعي تابعنا علي فيسبوك وتويتر .
اكتشاف المزيد من رأي الأمة
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.