خبراء يحذرون من مخاطر الذكاء الاصطناعي عسكريًا!

أرشيفية أرشيفية

أصدر مجلس الابتكار الدفاعي سلسلة من التوصيات إلى وزارة الدفاع الأميركية حول مخاطر استخدام الذكاء الاصطناعي في الصراعات العسكرية المستقبلية، واحتمالات التسبب في أضرار غير متعمدة للمدنيين، وفقاً لما نشرته صحيفة "ديلي ميل" البريطانية.

وأكد تقرير مجلس الابتكار على ضرورة "اتخاذ كل الاحتياطات الممكنة لتقليل مخاطر بإلحاق الضرر بالمدنيين"، عند استخدام الذكاء الاصطناعي في أي عمليات عسكرية أو حتى في عمليات اتخاذ القرار ذات الصلة.

تم تشكيل مجلس الابتكار الدفاعي لأول مرة في عام 2016 لضمان أفضل سبل للتعاون المحتمل بين الجيش الأميركي وشركات التكنولوجيا والذكاء الاصطناعي في وادي السيليكون. ويتألف المجلس حالياً من 16 عضواً، ينتمون إلى طيف واسع من التخصصات، من بينهم الرئيس التنفيذي السابق لغوغل، إريك شميدت، والمدير التنفيذي لفيسبوك مارن ليفين، والمدير الرقمي لشركة مايكروسوفت كورت ديلبين، وعالم الفيزياء الفلكية نيل ديغراس تايسون، ووالتر آيزاكسون، كاتب السيرة الذاتية لستيف جوبز، بالإضافة إلى ريد هوفمان المؤسس المشارك للينكد-إن.

حدد تقرير مجلس الابتكار 5 مبادئ أخلاقية يجب أن تتوافر في صميم كل قرار رئيسي يتعلق باستخدام الذكاء الاصطناعي في الأعمال العسكرية. وتشمل تلك المبادئ بأن يتوخى الجيش الأميركي، قبل البدء في استخدام تطبيقات الذكاء الاصطناعي، استيفاء عناصر أساسية مثل المسؤولية والعدل وإمكانية التتبع والموثوقية والقابلية للحوكمة.


وانطلاقاً من هذه المبادئ، يقدم التقرير 12 توصية ملموسة حول كيفية المضي قدماً في دمج الذكاء الاصطناعي في الحرب المعاصرة، من بينها وضع استراتيجية لإدارة المخاطر وتصنيف أي نتائج سلبية لاستخدامات الذكاء الاصطناعي. وسيكون الغرض من هذا التصنيف هو "اقتصار تشجيع وتحفيز تبني التكنولوجيات على تلك التي تم التثبت من انخفاض المخاطر المحتملة منها، بموجب دراسات مستوفاة وتجارب عملية، والتأكيد على ضرورة وجود ضمانات كافية من خلال اتخاذ مزيد من الإجراءات الاحتياطية وعمليات التدقيق وتحديد الأولويات قبيل اعتماد تطبيق أي استخدامات للذكاء الاصطناعي لتجنب أي عواقب سلبية".


ويشدد تقرير مجلس الابتكار أيضاً على أهمية وضع معايير محددة لتقييم موثوقية استخدام الذكاء الاصطناعي ومقارنته بأداء تطبيقات الذكاء الاصطناعي والعناصر البشرية في المواقع العسكرية، وعدم اعتماد التحول إلى استخدام الذكاء الاصطناعي كبديل للعنصر البشري قبل التثبت من كفاءته التامة وتقليل نسب المخاطر أو الحوادث التي ربما تقع بالخطأ.