تقنية

الحرب في عصر الـ Ai .. إسرائيل تستخدم الذكاء الاصطناعى فى عدوانها على غزة

القاهرة: «رأي الأمة»

يلعب الذكاء الاصطناعي دورًا رئيسيًا، ومثيرًا للقلق للغاية في بعض الحسابات، في حرب إسرائيل في غزة، حيث تشير تقارير التحقيق الأخيرة إلى أن الجيش الإسرائيلي سمح لبرنامج ذكاء اصطناعي بأخذ زمام المبادرة في استهداف الآلاف من نشطاء حماس في الأيام الأولى من الحرب. قتال. وربما لعب دوراً في عمليات القتل المتهورة وغير الدقيقة، والتدمير المتفشي، وسقوط آلاف الضحايا من المدنيين.

ويرفض جيش الاحتلال الإسرائيلي بشكل قاطع هذا التأكيد، في حين يقدم تقرير لموقع Businessinsider الأمريكي لمحة مرعبة عن الوجهة التي يمكن أن تتجه إليها الحرب.

مستقبل مرعب

وقال ميك رايان، وهو لواء أسترالي متقاعد وخبير استراتيجي يركز على التطورات في الحرب، لـ BI: “إن قرار قتل إنسان هو قرار كبير للغاية”.

في وقت سابق من هذا الشهر، كشف تحقيق مشترك أجرته مجلة +972 و Local Call أن قوات الاحتلال الإسرائيلي كانت تستخدم برنامج ذكاء اصطناعي يسمى “لافندر” لإنشاء أهداف مشبوهة لحماس في قطاع غزة، نقلا عن مقابلات مع ستة ضباط استخبارات إسرائيليين مجهولين.

ويزعم التقرير أن الجيش الإسرائيلي اعتمد بشكل كبير على لافندر وتعامل بشكل أساسي مع معلوماته حول من يجب قتله “كما لو كان قرارا إنسانيا”، قالت المصادر. وقالت المصادر إنه بمجرد ربط فلسطيني بحماس وتحديد موقع منزله، وافق الجيش الإسرائيلي فعليا على قرار الجهاز. ولم يستغرق الأمر سوى بضع ثوان لمراجعته بنفسه.
وخلص التحقيق المشترك إلى أن سرعة الاستهداف الإسرائيلي لم تفعل الكثير لمحاولة تقليل الضرر الذي يلحق بالمدنيين القريبين. في الخريف الماضي، ظهرت تفاصيل برنامج الإنجيل الإسرائيلي إلى النور، وكشفت أن النظام قد رفع قدرة التوليد المستهدفة في إسرائيل من حوالي 50 سنوياً إلى أكثر من 100 يومياً.

وعندما سُئل عن التقرير بشأن لافندر، أحال الجيش الإسرائيلي مكتب التحقيقات الدولي إلى بيان نُشر في … وأي ادعاء آخر يظهر عدم وجود معرفة كافية بعمليات جيش الاحتلال الإسرائيلي.

ووصف شوشاني النظام بأنه قاعدة بيانات تدقيقية “مصممة لمساعدة التحليل البشري، وليس استبداله”، ولكن هناك مخاطر محتملة رغم ذلك.

لقد توسع انتشار الذكاء الاصطناعي في الحرب

إسرائيل ليست الدولة الوحيدة التي تستكشف إمكانات الذكاء الاصطناعي في الحرب. ويقترن هذا البحث بزيادة التركيز على استخدام الأنظمة غير المأهولة، كما يشهد العالم في كثير من الأحيان في أوكرانيا وأماكن أخرى. في هذا المجال، لم تعد المخاوف بشأن الروبوتات القاتلة مجرد خيال علمي.

قال بيتر سينجر، خبير حروب المستقبل في مركز أبحاث New America، لـ BI: “تمامًا كما أصبح الذكاء الاصطناعي أكثر شيوعًا في عملنا وحياتنا الشخصية، فهو كذلك في حروبنا”، موضحًا أننا “نعيش في عصر جديد”. ثورة صناعية.” وكما هو الحال مع الميكنة الأخيرة، فإن عالمنا يتغير، للأفضل وللأسوأ.

يتطور الذكاء الاصطناعي بشكل أسرع من الأدوات اللازمة لإبقائه تحت السيطرة، وقال الخبراء إن التقارير عن استخدام إسرائيل للخزامى تثير مجموعة من المخاوف التي كانت منذ فترة طويلة في قلب الجدل حول الذكاء الاصطناعي في حروب المستقبل.

أعطت العديد من الدول، بما في ذلك الولايات المتحدة وروسيا والصين، الأولوية لتنفيذ برامج الذكاء الاصطناعي في جيوشها، ومشروع مافن الأمريكي، الذي خطى منذ عام 2017 خطوات كبيرة لمساعدة القوات على الأرض من خلال غربلة كميات هائلة من القوات الواردة. البيانات، هي مجرد مثال واحد. ومع ذلك، فقد تطورت التكنولوجيا في كثير من الأحيان بشكل أسرع مما تستطيع الحكومات مواكبته.

وفقًا لريان، فإن الاتجاه العام “هو أن التكنولوجيا ومتطلبات ساحة المعركة تتجه إلى ما هو أبعد من النظر في القضايا القانونية والأخلاقية حول تطبيق الذكاء الاصطناعي في الحرب”. وبعبارة أخرى، فإن الأمور تتحرك بسرعة كبيرة جدا. وقال: “لا توجد طريقة يمكن للحكومة الحالية والأنظمة البيروقراطية أن تجعل السياسات المتعلقة بهذه الأمور غير قادرة على مواكبتها”، مضيفًا أنها “قد لا تلحق بالركب أبدًا”.

وفي نوفمبر/تشرين الثاني الماضي، أثارت عدة حكومات مخاوف في مؤتمر للأمم المتحدة بشأن الحاجة إلى قوانين جديدة لتنظيم استخدام البرامج القاتلة المستقلة، وهي آلات يقودها الذكاء الاصطناعي وتشارك في اتخاذ القرارات لقتل البشر.

لكن بعض البلدان، وخاصة تلك التي تقود حاليا الطريق في تطوير ونشر هذه التكنولوجيات، كانت مترددة في فرض قيود جديدة، وعلى وجه الخصوص، بدت الولايات المتحدة وروسيا وإسرائيل مترددة بشكل خاص في دعم القوانين الدولية الجديدة في هذا الشأن.

وقال بول شار، خبير الأسلحة المستقلة في مركز الأمن الأمريكي الجديد، لـ BI: “قال العديد من الجيوش: ثقوا بنا، سنكون مسؤولين عن هذه التكنولوجيا”. ولكن في غياب الرقابة، فمن غير المرجح أن يثق الكثير من الناس في استخدام الذكاء الاصطناعي من قبل بعض الدول، مثل إسرائيل، التي لا تثق في أن الجيوش ستستخدم دائمًا التكنولوجيا الجديدة بشكل مسؤول.

وقال شاري إن برنامجًا مثل Lavender لا يبدو مثل الخيال العلمي، ويتوافق تمامًا مع الكيفية التي تهدف بها الجيوش العالمية إلى استخدام الذكاء الاصطناعي. وسيقوم الجيش “بعملية جمع المعلومات وتحليلها وفهمها واتخاذ القرارات بشأن الأهداف التي سيتم مهاجمتها”. وقال لـ BI: “أهداف مثل الدبابات أو قطع المدفعية”.

والخطوة التالية هي نقل كل هذه المعلومات إلى خطة استهداف، وربطها بأسلحة أو منصات محددة، ومن ثم العمل فعليًا على الخطة.

وقال شاري إن الأمر يستغرق وقتا طويلا، وفي حالة إسرائيل، من المحتمل أن تكون هناك رغبة في تطوير الكثير من الأهداف بسرعة كبيرة. وقد أعرب الخبراء عن مخاوفهم بشأن دقة برامج استهداف الذكاء الاصطناعي هذه. ويقال إن برنامج لافندر الإسرائيلي يقوم بسحب البيانات من مجموعة تستخدم مجموعة متنوعة من قنوات المعلومات، مثل وسائل التواصل الاجتماعي واستخدام الهاتف، لتحديد الأهداف.

وفي تقرير مجلة +972 والمكالمات المحلية تقول المصادر إن نسبة دقة البرنامج البالغة 90% تعتبر مقبولة. والقضية الصارخة هناك هي نسبة الـ 10% المتبقية، وهي أخطاء كثيرة بالنظر إلى حجم الحرب الجوية الإسرائيلية والزيادة الكبيرة في الأهداف المتاحة التي يوفرها الذكاء الاصطناعي. .

يتعلم الذكاء الاصطناعي دائمًا، للأفضل أو للأسوأ، ومع كل استخدام، تكتسب هذه البرامج المعرفة والخبرة التي تستخدمها بعد ذلك لاتخاذ القرارات المستقبلية. ويشير التقرير إلى أنه بمعدل دقة يبلغ 90%، يمكن للتعلم الآلي في Lavender أن يعزز عمليات القتل الصحيحة وغير الصحيحة. “، قال رايان لـ BI. وقال “لا نعرف”.

السماح للذكاء الاصطناعي باتخاذ القرارات في الحرب

يمكن أن تشهد الحروب المستقبلية عمل الذكاء الاصطناعي جنبًا إلى جنب مع البشر لمعالجة كميات هائلة من البيانات واقتراح مسارات العمل المحتملة في خضم المعركة، ولكن هناك العديد من الاحتمالات التي يمكن أن تفسد مثل هذه الشراكة.
قد تكون البيانات التي تم جمعها أكثر من أن يتمكن البشر من معالجتها أو فهمها. إذا قام برنامج الذكاء الاصطناعي بمعالجة كميات هائلة من المعلومات لإعداد قائمة بالأهداف المحتملة، فقد يصل إلى نقطة حيث سرعان ما يصبح البشر مرهقين وغير قادرين على المساهمة بشكل هادف في عملية صنع القرار.

هناك أيضًا إمكانية التحرك بسرعة كبيرة ووضع افتراضات بناءً على البيانات، مما يزيد من احتمالية حدوث أخطاء، كما كتب مستشار اللجنة الدولية للصليب الأحمر والمجموعة المسلحة، روبن ستيوارت، والمستشارة القانونية جورجيا هيندز، عن مثل هذه القضية في أكتوبر 2023.

إعلان
“إحدى المزايا العسكرية المعلنة للذكاء الاصطناعي هي زيادة وتيرة اتخاذ القرار التي يمنحها المستخدم على خصمه. وقالوا إن زيادة الوتيرة غالبا ما تؤدي إلى مخاطر إضافية على المدنيين، ولهذا السبب يتم استخدام تقنيات تقلل الوتيرة، مثل “الصبر التكتيكي”، للحد من الخسائر البشرية. بين المدنيين.
في سعيهم للتحرك بسرعة، يمكن للبشر أن يرفعوا أيديهم عن عجلة القيادة ويثقوا في الذكاء الاصطناعي مع القليل من الإشراف، وفقًا لتقرير مجلة +972 والمكالمات المحلية. تمت مراجعة الأهداف المحددة بواسطة الذكاء الاصطناعي لمدة 20 ثانية فقط، عادةً فقط للتأكد من أن القتل المحتمل كان ذكرًا، قبل إعلان الضربة.

تثير التقارير الأخيرة تساؤلات جدية حول مدى “تواجد” الأشخاص في عملية صنع القرار. ووفقا لسينغر، فهو أيضا “مثال توضيحي محتمل لما يعرف أحيانا باسم “تحيز الآلة”، وهو الموقف الذي “يخدع فيه الإنسان نفسه ليعتقد أنه نظرا لأن الآلة قدمت الإجابة، فلا بد أن تكون الإجابة صحيحة”.
وأضاف سينغر: “لذا، فبينما يكون الإنسان “في الحلقة”، فإنهم لا يقومون بالمهمة التي من المفترض أن يقوموا بها”.

في أكتوبر/تشرين الأول، وجه الأمين العام للأمم المتحدة أنطونيو غوتيريس ورئيسة اللجنة الدولية للصليب الأحمر، ميريانا سبولجاريك، دعوة مشتركة مفادها أن الجيوش “يجب أن تتحرك الآن للحفاظ على السيطرة البشرية على استخدام القوة” في القتال.
“يجب الحفاظ على سيطرة الإنسان على قرارات الحياة والموت. وقالوا إن الاستهداف الذاتي للبشر بواسطة الآلات هو خط أخلاقي يجب ألا نتجاوزه. “يجب أن يحظر القانون الدولي الآلات التي تتمتع بالقدرة والتقدير على إزهاق الأرواح دون تدخل بشري.”

الوجه الآخر للذكاء الاصطناعي

ولكن على الرغم من وجود مخاطر، فإن الذكاء الاصطناعي قد يكون له العديد من الفوائد العسكرية، مثل مساعدة البشر على معالجة مجموعة واسعة من البيانات والمصادر من أجل السماح لهم باتخاذ قرارات مستنيرة، فضلا عن مسح مجموعة متنوعة من الخيارات لكيفية التعامل مع المواقف.

يمكن أن يكون التعاون الهادف بين “الإنسان في الحلقة” مفيدًا، ولكن في النهاية، يعود الأمر إلى الإنسان الذي يعرقل نهاية تلك العلاقة – وبعبارة أخرى، يحتفظ بالسلطة والسيطرة على الذكاء الاصطناعي. وقال: “على مدى الوجود البشري برمته، كنا مستخدمين لـ “نحن أسياد الآلات، سواء كنت تقود طائرة أو تقود سفينة أو دبابة، ولكن مع العديد من هذه الأنظمة المستقلة والخوارزميات الجديدة، سوف تتمكن الجيوش من لا ينبغي استخدام الآلات، بل “الشراكة معها”.

العديد من الجيوش ليست مستعدة لمثل هذا التحول. وكما كتب ريان وكلينت هينوت في تعليق لـ War on the Rocks في وقت سابق من هذا العام، “في العقد المقبل، قد تدرك المؤسسات العسكرية وضعا حيث يفوق عدد الأنظمة غير المأهولة عدد البشر”.

وكتبوا: “في الوقت الحاضر، تم تصميم التكتيكات والتدريب ونماذج القيادة للمنظمات العسكرية للمؤسسات العسكرية التي هي في المقام الأول بشرية، ويمارس هؤلاء البشر سيطرة وثيقة على الآلات”.

وقالوا: “إن تغيير التعليم والتدريب لإعداد البشر للتعامل مع الآلات – وليس مجرد استخدامها – يعد تطورًا ثقافيًا ضروريًا ولكنه صعب”. لكن هذا لا يزال عملاً قيد التقدم بالنسبة للعديد من الجيوش.

للمزيد : تابعنا هنا ، وللتواصل الاجتماعي تابعنا علي فيسبوك وتويتر .

مصدر المعلومات والصور: youm7

 

زر الذهاب إلى الأعلى

اكتشاف المزيد من رأي الأمة

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading