تحذير: التزييف العميق يمكنه التلاعب بالأشخاص.. و3 طرق يمكنك من خلالها البقاء آمنًا

الثلاثاء، 05 ديسمبر 2023 02:00 ص
تحذير: التزييف العميق يمكنه التلاعب بالأشخاص.. و3 طرق يمكنك من خلالها البقاء آمنًا ذكاء اصطناعى - تعبيرية
كتب مؤنس حواس

مشاركة

اضف تعليقاً واقرأ تعليقات القراء
حذر أحد خبراء التكنولوجيا من أن التزييف العميق يمكن أن يخدع الضحايا ويأخذ منهم أموالهم، فيما يستخدم المحتالون تكنولوجيا الذكاء الاصطناعي لنسخ أصوات ووجوه الضحايا المطمئنين، ويُعرف هذا باسم التزييف العميق وعادةً ما يستخدمه ممثلون سيئون لابتزاز الأموال من الضحايا.
 
وعلى وجه التحديد، تُستخدم تقنية التزييف العميق في عمليات التصيد الاحتيالي وسرقة الهوية والاحتيال المالي، ويقدر المنتدى الاقتصادي العالمي (WEF) أن مقاطع الفيديو المزيفة العميقة تتزايد بمعدل سنوي قدره 900٪، وأوضح أميت جوبتا، نائب رئيس إدارة المنتجات والأبحاث والهندسة في شركة Pindrop للأمن السيبراني، لصحيفة The Sun الأمريكية أن التزييف العميق يشكل مصدر قلق متزايد لخبراء التكنولوجيا.
 
وقد وجدت دراسة أجريت في Pindrop أن الأشخاص كانوا قادرين فقط على التعرف على التزييف العميق بدقة تبلغ 57%، أي أفضل بنسبة 7% فقط من رمي العملة المعدنية، ومع ذلك، أوضح غوبتا أن فرص الوقوع ضحية لجريمة التزييف العميق تعتمد على عوامل متعددة.
 
وقال: "الأفراد الذين هم أقل وعيًا بوجود تكنولوجيا التزييف العميق وقدراتها الهائلة قد يكونون أكثر عرضة للوقوع في جريمة التزييف العميق"، ووجد بيندروب أن الوعي يمكن أن يكون مدفوعًا بالدخل والعمر - 56.5% من البالغين في الولايات المتحدة الذين يقل دخلهم عن 50 ألف دولار سنويًا يعرفون عن استنساخ الصوت، و43.6% يعرفون عن التزييف العميق.
 
وأضاف جوبتا: "عند النظر إلى الأفراد الذين يزيد دخلهم السنوي عن 125 ألف دولار، ترتفع مستويات الوعي إلى 75% وأكثر من الثلثين على التوالي"، وهناك عامل آخر يلعب في احتمالية الوقوع ضحية للتزييف العميق وهو خطر التعرض.
 
 وأضاف غوبتا أنه على سبيل المثال، يميل الأفراد الذين يشغلون مناصب رفيعة المستوى، مثل السياسيين أو المشاهير، إلى "مواجهة مخاطر أكبر بسبب التأثير الأكبر لصورتهم العامة التي تم التلاعب بها"، ومع ذلك، مع زيادة إمكانية الوصول إلى تكنولوجيا التزييف العميق، فمن المرجح أن نشهد المزيد من الجرائم المرتبطة بالتزييف العميق، كما يقول الخبراء.
 
وكشف غوبتا أن مصدر قلقه الأكبر فيما يتعلق بالتكنولوجيا هو احتمال قيام تقنية التزييف العميق "بالتلاعب بالناس ونشر المعلومات المضللة على نطاق واسع" - وهذا هو الحال بشكل خاص مع اقتراب الولايات المتحدة من عام الانتخابات.
 
"من المرجح أن نشهد تدفقًا لمقاطع الفيديو والتسجيلات الصوتية والصور الواقعية للغاية للسياسيين والمرشحين الرئاسيين في الأشهر الـ 12 المقبلة، مما يثير مخاوف بشأن إمكانية التأثير على الرأي العام وجعله يصدق الأحداث أو التصريحات أو أفعال لم تحدث قط في الواقع".
 
هناك شاغل رئيسي آخر يشاركه خبراء التكنولوجيا وهو تهديدات الأمن السيبراني، فعلى سبيل المثال، يمكن استخدام التزييف العميق لإنشاء هجمات تصيد مقنعة أو حتى للالتفاف حول الإجراءات الأمنية، ولمكافحة هذه المخاوف، يعمل Pindrop على تطوير أدوات لتحديد التزييف العميق منذ عام 2015.
 
وقال جوبتا: "يوفر اكتشاف الحيوية الحماية ليس فقط للكلام المولد صناعيًا (تحويل النص إلى كلام، والروبوت الصوتي، وتعديل الصوت، وتحويل الصوت) ولكن أيضًا لهجمات إعادة تشغيل الصوت المسجلة والأصوات المعدلة"، وتوفر هذه الأدوات أيضًا تحليلاً بدرجة حيوية في الوقت الفعلي وقرارًا مناسبًا بشأن ما إذا كان الصوت حقيقيًا أم مزيفًا.
 

كيف تبقى آمنا

ولمساعدة الفرد في المنزل على البقاء في مأمن من التزييف العميق، شارك غوبتا بعض النصائح مع صحيفة U.S. Sun.

 
وقال: "إن البقاء في مأمن من الجرائم الإلكترونية يتطلب مزيجًا من الوعي والإجراءات الاستباقية والسلوك المسؤول عبر الإنترنت".
 
وأضاف: "فهم المخاطر والأنواع الشائعة من الهجمات، واستخدام المصادقة القوية مع المصادقة متعددة العوامل".
 
تعمل المصادقة متعددة العوامل (MFA) على حماية حساباتك من خلال طلب مستوى إضافي من التحقق قبل تسجيل الدخول - مثل التأكيد النصي.
 
من المهم أيضًا أن تظل حذرًا من الاتصالات من مصادر غير معروفة.
 









مشاركة

لا توجد تعليقات على الخبر
اضف تعليق

تم أضافة تعليقك سوف يظهر بعد المراجعة





الرجوع الى أعلى الصفحة