تصدر وزارة الدفاع إرشادات أخلاقيات الذكاء الاصطناعي لمقاولي التكنولوجيا

[ad_1]

الغرض من الإرشادات هو التأكد من أن مقاولي التكنولوجيا يلتزمون بوزارة الدفاع الموجودة المبادئ الأخلاقية للذكاء الاصطناعي، كما يقول جودمان. أعلنت وزارة الدفاع عن هذه المبادئ العام الماضي ، بعد دراسة استمرت عامين بتكليف من مجلس ابتكار الدفاع ، وهي لجنة استشارية من كبار الباحثين في مجال التكنولوجيا ورجال الأعمال والتي تم إنشاؤها في عام 2016 لجلب شرارة وادي السيليكون إلى الجيش الأمريكي. ترأس مجلس الإدارة إريك شميدت الرئيس التنفيذي السابق لشركة Google حتى سبتمبر 2020 ، ومن بين أعضائه الحاليين دانييلا روس ، مديرة مختبر علوم الكمبيوتر والذكاء الاصطناعي في معهد ماساتشوستس للتكنولوجيا.

ومع ذلك ، يتساءل بعض النقاد عما إذا كان العمل يعد بإصلاح ذي مغزى.

خلال الدراسة ، استشار المجلس مجموعة من الخبراء ، بما في ذلك النقاد الصريحين لاستخدام الجيش للذكاء الاصطناعي ، مثل أعضاء حملة Killer Robots و Meredith Whittaker ، باحثة Google السابقة التي ساعدت في تنظيم احتجاجات Project Maven.

ولم يكن ويتاكر ، الذي يشغل الآن منصب مدير هيئة التدريس في معهد AI Now التابع لجامعة نيويورك ، متاحًا للتعليق. لكن وفقًا لما ذكرته كورتني هولسوورث ، المتحدثة باسم المعهد ، فقد حضرت اجتماعًا واحدًا ، حيث جادلت مع كبار أعضاء مجلس الإدارة ، بمن فيهم شميت ، حول الاتجاه الذي يسير فيه المعهد. يقول هولسوورث: “لم يتم استشارتها بشكل هادف أبدًا”. “الادعاء بأنه يمكن قراءتها كشكل من أشكال غسل الأخلاق ، حيث يتم استخدام وجود أصوات معارضة خلال جزء صغير من عملية طويلة للادعاء بأن نتيجة معينة تحظى بتأييد واسع من أصحاب المصلحة المعنيين”.

إذا لم يكن لدى وزارة الدفاع تأييد واسع ، فهل يمكن أن تساعد إرشاداتها في بناء الثقة؟ يقول غودمان: “سيكون هناك أشخاص لن يرضوا أبدًا بأي مجموعة من المبادئ التوجيهية الأخلاقية التي تصدرها وزارة الدفاع لأنهم يجدون الفكرة متناقضة”. “من المهم أن تكون واقعيًا بشأن ما يمكن وما لا يمكن أن تفعله الإرشادات.”

على سبيل المثال ، لا تذكر المبادئ التوجيهية شيئًا عن استخدام الأسلحة الفتاكة ذاتية التشغيل ، وهي تقنية يجادل بعض النشطاء بضرورة حظرها. لكن جودمان يشير إلى أن اللوائح التي تحكم هذه التكنولوجيا يتم تحديدها في أعلى السلسلة. الهدف من المبادئ التوجيهية هو تسهيل بناء ذكاء اصطناعي يفي بهذه اللوائح. وجزء من هذه العملية هو توضيح أي مخاوف لدى مطوري الطرف الثالث. يقول Jared Dunnmon من DIU ، الذي شارك في تأليفها: “إن التطبيق الصحيح لهذه الإرشادات هو أن تقرر عدم متابعة نظام معين”. “يمكنك أن تقرر أنها ليست فكرة جيدة.”

[ad_2]