تكنولوجيا وإتصالات

أشد خطورة وأكثر نجاحًا.. الذكاء الاصطناعي يوسع عمليات «الاحتيال الصوتي»

كتب في : الخميس 11 يوليو 2024 - 6:15 مساءً بقلم : المصرية للأخبار

 

استعرضت شبكة "CNBC" الأمريكية فى تقرير موسع لها تزايد المخاطر بسبب عمليات الاحتيال الصوتي التي تستخدم تكنولوجيا الذكاء الاصطناعي، مشيرة إلى أن تلك العمليات بات من الصعب اكتشافها مما مثل خطورة كبيرة، خاصة بعد تحقيقها نجاحًا واسعًا.

يأتى ذلك، فى الوقت الذي اقتحمت فيها تقنيات الذكاء الاصطناعي، مجال المكالمات الصوتية، بقوة، واستخدمها خبيثو النوايا فى عمليات احتيال، ونجحوا فى الاستفادة منها فى عملياتهم الخطيرة، مما بات يشكل تهديدًا متزايدًا للبشر حول العالم، وبالتالي تُهدد مصالح الناس وحساباتهم.

عمليات احتيال الأجداد

وقال التقرير إن ما كنا نشاهده من قبل كخيال علمي، وما يحدث فى الدراما والأفلام العالمية، أصبح واقعًا ملموسًا بعد انتشار الذكاء الاصطناعي، مستشهدًا بالفيلم الشهير "ثيلما"، عندما تتلقى ثيلما بوست (93 عاماً) مكالمة هاتفية من حفيدها، يخبرها فيها أنه فى السجن وأنه تعرض لحادث فأصيب بكسر في الأنف، ويحتاج عشرة آلاف دولار، فما كان من الجدة إلا الاستجابة، ظنًا منها أنه حفيدها حقًا، على غير الحقيقة، فجمعت النقود المخفية حول منزلها وأرسلتها إلى صندوق بريد، وهو عنوان الشخص المحتال، والذي ادعى أنه حفيدها.

وكشف التقرير أن هذه العمليات الاحتيالية تسمى عمليات احتيال الأجداد أو عمليات احتيال الطوارئ العائلية.

وبحسب التقرير، بلغ إجمالي الخسائر الناجمة عن هذا النوع من الاحتيال العام الماضي، في الولايات المتحدة وحدها، ما يقرب من 2.7 مليار دولار، وفقاً للجنة التجارة الفيدرالية الأمريكية.

إجراءات تجنبك هذا النوع من الاحتيال

أوضح خبراء ماليون عن إجراءين يمكن من خلالهما تجنب الوقوع فى هذا النوع من العمليات الاحتيالية، منها:

1 ـ تجميد الائتمان الخاص بالشخص.

2 ـ  الحصول على توكيل رسمي لأحد الوالدين الضعفاء.

وذكر الخبراء أن عمليات الاحتيال الصوتي تلقى رواجًا واسعًا حاليًا، حيث إنها الأكثر شيوعاً من بين عمليات الاحتيال التي تم الإبلاغ عنها إلى لجنة التجارة الفيدرالية الأمريكية (FTC) في عام 2023، وشهدت الوكالة زيادة في التقارير عن منتحلي الشخصيات التجارية والحكومية.

وتعد وسائل التواصل الاجتماعي أرضاً خصبة لجمع المحتوى الخاص بعمليات الاحتيال هذه.

التزييف العميق

ووفقاً لشركة أمن الكمبيوتر "مكافي"، يمكن للمحتال، مع التقدم في الذكاء الاصطناعي، إنتاج صوت يقول ما يريد،عن طريق استخدام مقطع فيديو منشور على شبكات التواصل، وتشغيله بعض ثوان.

وأكثر ما تنتشر تلك العمليات ـ وفقًا للتقرير ـ فى مكالمات الاستغاثة، حيث إن الفريسة فى تلك الحالة يكون اصطيادها سهلا خاصة إذا كان الشخص المحتال يدعى أنه ابنك أو حفيدك أو أي يدعى أي صلة مباشرة وأنه يستغيث بك لإنقاذه، حيث يمكن أن يكون شخصاً عالقاً على جانب الطريق بعد تعطل سيارته أو شخصاً يتصل من السجن في بلد أجنبي مدعياً أنه يحتاج إلى أموال الكفالة بسرعة.

وكشف استطلاع أجرته شركة (McAfee) عام 2023 أن نحو 25% من البالغين تعرضوا لعملية احتيال صوتية مماثلة تعمل بالذكاء الاصطناعي، وتقول الشركة إن 77% من الضحايا فقدوا أموالاً نتيجة لذلك، كما استطلعت الشركة آراء 7054 شخصاً بالغاً في سبع دول، بما في ذلك 1009 في الولايات المتحدة.

بداية الصفحة