تسجيل الخروج

هل تريد حقاً تسجيل الخروج؟

الصفحة الرئيسية > قائمة الأخبار > سبوت : أخطاء الذكاء الاصطناعي في الحروب.. عواقب لا تُحتمل
source icon

سبوت

.

أخطاء الذكاء الاصطناعي في الحروب.. عواقب لا تُحتمل

كتب:د. نسرين مصطفى

في ظل التطور المتسارع لتقنيات الذكاء الاصطناعي، أصبحت أنظمة الحرب المعتمدة على الذكاء الاصطناعي تكتسب دوراً متزايداً في الصراعات المسلحة، حيث تُستخدم في تحليل البيانات، وتحديد الأهداف، وحتى اتخاذ قرارات القتال دون تدخل بشري مباشر، لكن هذا التوجه يطرح تحديات خطيرة، إذ أن أي خطأ تقني أو خلل في الخوارزميات قد يؤدي إلى كوارث إنسانية غير مسبوقة، مثل استهداف المدنيين، أو التصعيد العسكري غير المقصود، أو اندلاع حرب نووية بالخطأ، كما أن الاعتماد المفرط على هذه الأنظمة قد يفقد البشر السيطرة على مسار الحروب، ويُضعف الضوابط الأخلاقية والقانونية التي تحكم النزاعات. لذا، فإن إدارة مخاطر الذكاء الاصطناعي في المجال العسكري أصبحت قضية ملحة تتطلب حلولاً عاجلة لضمان ألا تتحول هذه التقنيات من أدوات لحماية الأمن إلى وسائل تهدد وجود البشرية نفسها.

كوارث معقدة
وتوضح الدكتورة غادة عامر، خبيرة الذكاء الاصطناعي بمركز دعم واتخاذ القرار بمجلس الوزراء أن الدراسات أظهرت أن استخدام الذكاء الاصطناعي في الحروب قد يؤدي إلى كوارث لا رجعة فيها، نظرًا لقدرته على اتخاذ قرارات أسرع من البشر، وغالبًا دون تدخلٍ بشري. ومن أبرز المخاطر:

- استهداف المدنيين عن طريق الخطأ: قد يخطئ في التمييز بين الأهداف العسكرية والمدنية، مما يؤدي إلى قصف مستشفيات أو مدارس.
- التصعيد غير المقصود للنزاعات: قد يُطلق هجومًا مضادًا يؤدي إلى حرب نووية دون نية مسبقة.
- الاختراق والاستغلال: قد تتحول الأنظمة الذكية إلى أسلحة بأيدي الأعداء.

كما أن الاعتماد المفرط على الذكاء الاصطناعي في القرارات المعقدة قد يفقد البشر السيطرة على العمليات العسكرية، خاصة في البيئات سريعة التغير، مما يفتح الباب أمام كوارث نووية أو بيولوجية.

تهديدات حقيقية.. وتحذيرات الخبراء
وتحذر د. غادة من أن التكنولوجيا لم تعد مجرد أداة في الحرب، بل أصبحت لاعبًا رئيسيًا، يجب على الجيوش الاستثمار في البحث والتطوير لضمان التفوق التكنولوجي، مع الاستعداد لمواجهة تهديدات الذكاء الاصطناعي التي قد تعطّل الأنظمة العسكرية والمدنية على حد سواء.

وأضافت أن استخدام الأنظمة الذكية في الحروب ينطوي على مخاطر أخلاقية وقانونية جسيمة، منها:
- التحيز الخوارزمي الذي قد يؤدي إلى قرارات غير عادلة.
- انتهاك الخصوصية عبر جمع البيانات الشخصية دون علم الأفراد.
- صعوبة تحديد المسؤولية عند حدوث أخطاء قاتلة.
- اختراق الأنظمة وتسريب البيانات الحساسة.

الصندوق الأسود.. لغز القرارات القاتلة
وأشارت د. غادة إلى أن العديد من أنظمة الذكاء الاصطناعي تعمل كـ "صناديق سوداء"، مما يجعل فهم آلية اتخاذ قرارات الحياة والموت أمرًا مستحيلًا، كما يتجلى في الحرب الإسرائيلية على غزة، وللحد من مخاطر الذكاء الاصطناعي يمكننا اتباع بعض الأساليب العلمية منها:

- وضع سياسات واضحة لحماية البيانات وضمان الشفافية.
- تدريب المطورين والمستخدمين على التعامل مع المخاطر المحتملة.
- تطوير تشريعات صارمة لتنظيم استخدام الذكاء الاصطناعي.
- إخضاع الأنظمة لمراجعات أخلاقية دورية قبل نشرها.

فوائد ومخاطر
من جانبه، يقول المهندس مؤمن موسى، استشاري هندسة النظم وتكنولوجيا المعلومات أن الذكاء الاصطناعي أصبح جزءًا أساسيًا من حياتنا اليومية، لكن سوء استخدامه قد يؤدي إلى انتهاكات خطيرة، مثل تزييف الصور والفيديوهات أو الاختراقات السيبرانية.

وأضاف أن التحيز الخوارزمي يظل أحد أخطر التحديات، مستشهدًا بحالة شركة "أمازون" التي تخلت عن نظام توظيفي متحيز ضد النساء عام 2018، كذلك ازدادت مخاطر عمليات القرصنة والاختراقات السيبرانية وربما أكبر مثال على ذلك استغلال نظام ذكاء اصطناعي لاختراق بيانات ملايين المستخدمين في الولايات المتحدة عام 2021م.

الرؤية المصرية لتنظيم الذكاء الاصطناعي
أوضح موسى أن مصر أطلقت الاستراتيجية الوطنية للذكاء الاصطناعي عام 2021، بالتعاون مع وزارة الاتصالات، لتعزيز استخدامه في الصحة والتعليم، مع ضمان تنظيم فعال، كما سنّت قانون حماية البيانات الشخصية في 2020، والذي يفرض غرامات تصل إلى 5 ملايين جنيه على انتهاكات الخصوصية.

وعلى الصعيد الدولي، وقعت مصر اتفاقيات مع دول مثل فرنسا وألمانيا لتبادل الخبرات في مجال تنظيم الذكاء الاصطناعي.
 

هل تريد تفعيل الإشعارات ؟

حتي لا يفوتك أخر الأخبار المصرية والعالمية