تسجيل الخروج

هل تريد حقاً تسجيل الخروج؟

الصفحة الرئيسية > قائمة الأخبار > سبوت : التزييف العميق أبرز مخاطره.. 700 مليون مستخدم متوقع للذكاء الاصطناعي في 2030
source icon

سبوت

.

التزييف العميق أبرز مخاطره.. 700 مليون مستخدم متوقع للذكاء الاصطناعي في 2030

كتب:علا عبد الرشيد

على الرغم من أهمية استخدام التكنولوجيا والفوائد المترتبة عليها، فإنها يقابلها العديد من التحديات التي تتعلق بحفظ الخصوصية، والبيانات المزيفة، ومن بين هذه التحديات استخدام تقنيات التزييف العميق؛ إذ  فرضت هذه التقنيات تحديات جديدة تتعلق بالأمان والخصوصية والمصداقية.

وتعكس زيادة اعتماد المستخدمين على تقنيات الذكاء الاصطناعي التطور السريع في مجال التكنولوجيا وتأثيره العميق في حياتنا اليومية، بحسب تحليل حديث أصدره مركز المعلومات ودعم اتخاذ القرار بمجلس الوزراء بشأن تقنية التزييف العميق، هذه الزيادة تعكس الثقة المتزايدة في القدرات التي يمكن أن يوفرها الذكاء الاصطناعي في تحسين الكفاءة وتبسيط العمليات في مختلف المجالات.

نمو كبير
وفي هذا الإطار، بلغ عدد الأشخاص الذين يستخدمون أدوات الذكاء الاصطناعي عالميًّا نحو 254.8 مليون مستخدم عام 2023، أي أكثر من الضعف مقارنة بعام 2020، ومن المتوقع أن يستمر هذا النمو في عدد مستخدمي أدوات الذكاء الاصطناعي، ليتجاوز 700 مليون بحلول 2030.

وتقوم تقنية التزييف العميق، على صنع صور أو مقاطع فيديو مزيفة باستخدام البرامج الرقمية والتعلم الآلي وتبديل الوجه، من خلال دمج الصور لإنشاء لقطات جديدة تصور أحداثًا أو تصريحات أو أفعالًا لم تحدث في الواقع، بحسب تحليل مركز معلومات مجلس الوزراء، ومع ذلك هناك صعوبة في معرفة وتحديد مدى صحة أو واقعية هذه الصور والفيديوهات.

مصداقية محل شك
وبناءً على ذلك، أصبح الاعتقاد بتوثيق الصوت والفيديو للواقع بأنه دليل على مصداقية البيانات والمعلومات، اعتقاد يشوبه الشك، فقد استغل مجرمو الإنترنت هذه التقنيات في زيادة القدرات الاحتيالية، والتي أصبحت تمثل تهديدات جديدة على مستوى الأفراد والمؤسسات والمجتمعات، سواء من خلال تصنيع المواد الإباحية للتشهير بشخص معين بغرض الانتقام أو الابتزاز، أو من خلال تصنيع ونشر البيانات والتصريحات والمعلومات المضللة لأغراض إثارة الفوضى والاحتيال المالي وإفساد الانتخابات وخلق الأزمات الدبلوماسية.

وأشار التحليل إلى اختلاف أنواع تقنيات التزييف العميق، والتي يمكن أن تقع في إحدى الفئات الآتية:

 المحتوى المرئي
حيث يتم استخدام تقنيات التزييف العميق في إنشاء الصور ومقاطع الفيديو، ويمكن أن يتم ذلك من خلال الآتي

تبديل الوجه
يتم تركيب الوجه غير الحقيقي على الرأس المستهدف في الصور أو مقاطع الفيديو التي يتم تبديل الوجه بها.

صور يتم إنشاؤها بالكامل
يتم إنشاء الوجه الجديد بالكامل من البداية ليبدو واقعيًّا بدلًا من تبديل الوجه.

مقاطع فيديو مزامنة الشفاه
هي مقاطع تظهر شخصًا يؤدي كلمات أو نصًا معينًا بالتزامن مع حركات الشفاه لجعل الأمر يبدو واقعيًّا، وذلك على الرغم من عدم وجود هذا النص في الفيديو الرئيس.

المحتوى الصوتي
ويتم تحريف الصوت وتعديله إما من خلال استخدام ملف صوتي يتضمن حديثًا مزيفًا بنفس صوت الشخص، لكنه لم يقله في الواقع، أو من خلال تعديل نبرة صوت الشخص لإظهار مشاعر أو سلوك غير حقيقي.

وأشار التحليل إلى أن إنشاء فيديوهات التزييف العميق يتم باستخدام نظامين من أنظمة الذكاء الاصطناعي؛ المولد "Generator" والمميز "Discriminator".

عندما ينتج نظام المولد فيديو جديدًا، يُرسل إلى نظام المميز لتحديد ما إذا كان الفيديو حقيقيًّا أم مزيفًا. إذا تأكد المميز من أن الفيديو حقيقي، يبدأ المولد في تعلم كيفية إنشاء فيديوهات تبدو أكثر قابلية للتصديق، وهكذا يستمر التطور في العملية.

واستعرض التحليل الاستخدامات الإيجابية التي تمتلكها تقنية التزييف العميق، ومن أهمها:

الاستخدامات الطبية والتعليمية
يمكن استخدام تقنية التزييف العميق لإنشاء عمليات محاكاة تفاعلية للعمليات الجراحية أو غيرها من الإجراءات، مما يوفر لطلاب الطب والمهنيين فرص تدريب قيمة.

صناعة الترفيه
يمكن استخدام تقنيات التزييف العميق في صناعة الأفلام والإعلانات وتقديم الأخبار. كما يمكن إنشاء تأثيرات خاصة أكثر واقعية والسماح للممثلين بإعادة تمثيل أدوارهم حتى بعد وفاتهم.

الصحافة
يمكن أن تساعد تقنية التزييف العميق في إعادة إنشاء الأحداث التاريخية وجذب الانتباه إلى القضايا المهمة.

خدمة العملاء
من خلال خدمة المساعد الافتراضي، الذي يستخدم لتقديم خدمة العملاء في مراكز الاتصال.

كما أبرز التحليل أهم مخاطر تطبيق تقنيات التزييف العميق ومنها:

 التسبب في أزمات سياسية
يمكن أن تُستخدم تقنيات التزييف العميق في التضليل السياسي

تهديدات أمنية
تعد تكنولوجيا التزييف العميق بمثابة سلاح جديد قادر على التأثير في كل الأشياء، من أسعار البورصة حتى الانتخابات. فقد أصبحت هذه التقنية قادرة على استخراج الكلمات والتصريحات المثيرة من رجال الأعمال والسياسيين. ومن أشكال هذه التهديدات الأمنية: فبركة تصريحات مسيئة لسياسيين، أو خلق مشاهد كاذبة لأحداث عنف أو اعتداء، أو التأثير في أسهم الشركات والأعمال من خلال خلق صور وتصريحات مفبركة لمديري هذه الشركات.

الابتزاز الإلكتروني
يمكن فبركة مقاطع فيديو من خلال عرض شخصيات في الفيديو غير موجودة في الأصل، ويمكن استخدامها للتسبب في مشكلات للضحايا.

توافر برامج وتقنيات التزييف العميق
يتم ذلك من خلال انتشار البرامج المستخدمة لتقنية التزييف العميق أو المواقع المنشأة حديثًا لهذا الغرض، وهو ما سهل من استخدام هذه التقنيات وانتشارها.

صعوبة اكتشاف التزييف العميق
على الرغم من أنه يمكن لأي شخص استخدام تقنيات التزييف العميق، فإنه من الصعوبة اكتشاف التزييف العميق، إلا في حالة توافر برامج خاصة للكشف عنه.

تسهيل عمليات الاحتيال
يتم التلاعب بالأفراد للقيام بأشياء ضارة، على سبيل المثال مشاركة المعلومات السرية.

فقدان الثقة والتشكيك في المصداقية:
في حالة نشر أي مقطع فيديو أو صور على شبكة الإنترنت، سيتساءل الأفراد عن مدى مصداقية هذه الصور والفيديوهات، وبالتالي التشكيك في صحة كل الصور والفيديوهات حتى الحقيقي منها.

التأثير في الانتخابات
حيث تستخدم تقنية التزييف العميق لتشويه صورة بعض السياسيين للتأثير في سير العملية الانتخابية لصالح طرف معين أو أيدولوجية محددة، وذلك من خلال خلق فيديوهات يتم بث إشاعات من خلالها عن أحد المرشحين، وتزييف الوعي أثناء الانتخابات.

وأضاف التحليل إنه مع تطور تقنيات التزييف العميق يقابلها أيضًا تطور في طرق الكشف عن التزييف العميق.

وأوضح التحليل في ختامه أن التزييف العميق يظهر بوصفه تقنية مثيرة للجدل تجمع بين الإبداع الفني والتحديات الأخلاقية والأمنية. رغم فوائد استخدامه في العديد من المجالات مثل الفن والتسلية والتعلم والطب، فإن القلق الأساسي يبقى حول استخدامه في التلاعب بالمعلومات والتأثير في الرأي العام. لذا، يتطلب الأمر تحديد وتطوير استراتيجيات مبتكرة لمواجهة هذه التحديات بشكل فعّال، سواء عبر تطوير تقنيات الكشف عن التزييف أو تعزيز الوعي الجماهيري بمخاطره.

في نهاية المطاف، يبقى التوازن بين التقدم التكنولوجي والحفاظ على الأمان والنزاهة واحدًا من أهم التحديات التي تواجهنا في عصر التزييف العميق

 

هل تريد تفعيل الإشعارات ؟

حتي لا يفوتك أخر الأخبار المصرية والعالمية