تقنية

أبرزها تجنب تحيز الخوارزميات.. البيت الأبيض يضع مبادئ توجيهية للذكاء الاصطناعى

القاهرة: «رأي الأمة»

اتخذ البيت الأبيض اليوم خطوة إلى الأمام في تنفيذ قانون العمل من خلال سياسة تهدف إلى تنظيم استخدام الحكومة الفيدرالية للذكاء الاصطناعي. وتشمل الضمانات التي يجب أن تطبقها الوكالات، من بين أمور أخرى، طرقًا للتخفيف من مخاطر التحيز الخوارزمي.

وبحسب موقع Engadget، قالت نائبة الرئيس الأمريكي كامالا هاريس: “أعتقد أن جميع القادة من الحكومة والمجتمع المدني والقطاع الخاص لديهم واجب أخلاقي وأخلاقي ومجتمعي لضمان اعتماد الذكاء الاصطناعي وتطويره بطريقة تحمي العالم”. العامة من الأذى المحتمل مع ضمان قدرة الجميع على الاستمتاع.” مع فوائده.”

أعلن هاريس عن ثلاثة متطلبات ملزمة بموجب سياسة مكتب الإدارة والميزانية الجديدة (OMB)، والتي بموجبها ستحتاج الوكالات إلى التأكد من أن أي أدوات للذكاء الاصطناعي تستخدمها “لا تعرض حقوق الشعب الأمريكي وسلامته للخطر”، وأمامها حتى ديسمبر/كانون الأول. 1 للتأكد من أن لديهم “ضمانات ملموسة”. “للتأكد من أن أنظمة الذكاء الاصطناعي التي يستخدمونها لا تؤثر على سلامة أو حقوق الأمريكيين. وبخلاف ذلك، سيتعين على الوكالة التوقف عن استخدام منتج الذكاء الاصطناعي ما لم يتمكن قادتها من تبرير أن إزالة النظام سيكون له تأثير غير مقبول على العمليات الحيوية.

وفقًا لهذه السياسة، يعتبر نظام الذكاء الاصطناعي له تأثير على السلامة إذا تم استخدامه أو من المتوقع استخدامه، في ظروف العالم الحقيقي، للتحكم أو التأثير بشكل كبير على نتائج بعض الأنشطة والقرارات.

وتشمل هذه الحفاظ على نزاهة الانتخابات والبنية التحتية للتصويت؛ التحكم في وظائف السلامة الحيوية للبنية التحتية مثل أنظمة المياه وخدمات الطوارئ والشبكات الكهربائية؛ المركبات ذاتية القيادة؛ وتشغيل الحركات الجسدية للروبوتات في “مكان العمل أو المدرسة أو السكن أو وسائل النقل أو المجال الطبي أو مكان إنفاذ القانون”.

وما لم يكن لديها ضمانات كافية أو يمكنها تبرير استخدامها بطريقة أخرى، فسيتعين على الوكالات أيضًا التخلص من أنظمة الذكاء الاصطناعي التي تنتهك حقوق الأمريكيين.

تشمل الأغراض التي تهدف السياسة إلى التأثير على الحقوق فيها ضبط الأمن التنبؤي؛ ومراقبة وسائل التواصل الاجتماعي لأغراض إنفاذ القانون؛ حظر أو تقييد الكلام المحمي؛ كشف أو قياس المشاعر والأفكار الإنسانية؛ الفحص قبل التوظيف؛ وتقليد شكل الشخص أو صوته دون موافقة صريحة.

عندما يتعلق الأمر بالذكاء الاصطناعي التوليدي، تنص السياسة على أنه يجب على الوكالات تقييم الفوائد المحتملة، ويجب عليها جميعًا أيضًا إنشاء ضمانات كافية وآليات مراقبة تسمح باستخدام الذكاء الاصطناعي التوليدي في الوكالة دون فرض مخاطر لا داعي لها.

متطلبات الشفافية

أما المطلب الثاني فسوف يجبر الوكالات على التحلي بالشفافية بشأن أنظمة الذكاء الاصطناعي التي تستخدمها. وقالت هاريس: “اليوم، نطلب أنا والرئيس بايدن من الوكالات الحكومية الأمريكية أن تنشر كل عام على الإنترنت قائمة بأنظمة الذكاء الاصطناعي لديها، وتقييمًا للمخاطر التي قد تشكلها تلك الأنظمة وكيفية إدارتها”. تلك المخاطر.”

وكجزء من هذا الجهد، ستحتاج الوكالات إلى نشر رموز الذكاء الاصطناعي ونماذجه وبياناته المملوكة للحكومة، طالما أن القيام بذلك لا يضر بالعمليات العامة أو الحكومية.

إذا لم تتمكن الوكالة من الكشف عن حالات استخدام محددة للذكاء الاصطناعي لأسباب تتعلق بالحساسية، فلا يزال يتعين عليها الإبلاغ عن المقاييس.

ستحتاج الوكالات الفيدرالية إلى إشراف داخلي على استخدامها للذكاء الاصطناعي، والذي يتضمن قيام كل إدارة بتعيين مسؤول رئيسي للذكاء الاصطناعي للإشراف على جميع استخدامات الوكالة للذكاء الاصطناعي.

وأشار هاريس إلى أن “هذا لضمان استخدام الذكاء الاصطناعي بشكل مسؤول، مع إدراك أنه يجب أن يكون لدينا قادة كبار في حكومتنا مكلفين على وجه التحديد بالإشراف على اعتماد واستخدام الذكاء الاصطناعي”.

ستحتاج العديد من الوكالات أيضًا إلى إنشاء مجالس إدارة للذكاء الاصطناعي بحلول 27 مايو.

وأضاف نائب الرئيس أن شخصيات بارزة من القطاعين العام والخاص، بما في ذلك قادة الحقوق المدنية وعلماء الكمبيوتر، ساعدت في تشكيل السياسة جنبًا إلى جنب مع قادة الأعمال وعلماء القانون.

للمزيد : تابعنا هنا ، وللتواصل الاجتماعي تابعنا علي فيسبوك وتويتر .

مصدر المعلومات والصور: youm7

 

شاهد أيضاً
إغلاق
زر الذهاب إلى الأعلى

اكتشاف المزيد من رأي الأمة

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading