الصفحة الرئيسية

الجانب المظلم للذكاء الاصطناعي: كيف تُستخدَم تقنية تقليد الأصوات في عمليات الاحتيال

 


أدت التطورات في مجال الذكاء الاصطناعي إلى ظهور شكل جديد من الاحتيال والاحتيال ، حيث يلجأ المجرمون ، وفقًا لتقرير نشرته صحيفة واشنطن بوست ، إلى خدمات محاكاة الصوت القائمة على الذكاء الاصطناعي لتضليل الناس من خلال تقليد الآخرين. أصوات الناس. ويرسلون لهم رسائل صوتية يشكون فيها من أنهم في أزمة وبحاجة إلى المال.

وفي عام 2022، شهدت الولايات المتحدة زيادة كبيرة في انتشار جرائم الاحتيال باستخدام اسماء مزورة وغير حقيقية، وفقًا للجنة التجارية الفيدرالية. وذكرت اللجنة أنها تلقت أكثر من 36,000 تقرير عن هذه الجرائم، تؤكد من بينها 5,000 عملية احتيال هاتفية أسفرت عن خسائر مادية قُدِّرَتْ بأكثر من 11 مليون دولار.

تحدثت الصحيفة عن شخص تعرض للنصب حيث تلقى اتصالًا من إبن حفيده المزعوم بأنه محتجز في السجن ولا يملك هاتفًا أو محفظة، ويطلب نقودًا لكفالة إطلاق سراحه. قام الضحية وزوجها باخذ 3000 دولار، وعلى وشك سحب المزيد من المال، ولكن المدير المصرف أخبرهم بأن زبيلًا آخر أبلغ عن الأمر. تم القيام بمكالمة شبيهة، ولكن لديهم الآن الإدراك بأن الصوت المشابه لحفيدهم كان مزوراً، وإدراكهم حينها أنهم تعرضوا للنصب والاحتيال.

التلاعب بالصوت وجعل أصوات الضحايا تبدو كأنها قادمة من شخص آخر، مما يؤدي إلى إقناع الضحية بأنه يجب عليها تقديم المال أو المعلومات التي يطلبها المتحيل. هذه التقنية لها تأثير سلبي وسط الأفراد والشركات، فقد يؤدي استخدام الذكاء الاصطناعي في هذا الإطار إلى خسارة كبرى، سواءً من جانب المسافرين أو من جانب شخصٍ مُسْتَفِدٍّ من خدمةٍ معيَّنة. يتمّ تحليل الشرائط الصوتية القصيرة من مختلف المنابع مثل يوتيوب، إنستجرام، وفيسبوك. تستطيع هذه الأدوات إعادة إنشاء صوت دقيق بالنسبة لكُل شخصٍ على حده، باستخدام العديد من المُتغيرات مثل الجنس، والسَّن، والأسلــــــوب التحدّث، مما يؤدي إلى قولٍ صوتي يشبه قدر المستطاع الأصل.

قالت الصحيفة أن غالبية الضحايا هم كبار السن والأفراد الذين يعيشون بمفردهم ويشعرون بالقلق والخوف على قرابتهم، ويشعرون بالهلع إذا سمعوا صوتًا يشبه صوت أحد أفراد عائلاتهم يدعي أنه في حالة خطرة.

لا تُقدّم تلك الأدوات أيًا من الأدلة التي يمكن استخدامها لتحديد المسؤولين عن هذه الجرائم. وأوضح خبراء أن الجهات الرسمية المسؤولة عن التحقيق في هذه الجرائم غير مجهزة بشكل جيد للتعامل مع هذا الأمر، بالإضافة إلى صعوبة تتبُّع المكالمات والأموال التي يتلاعب بها المُخادِعون في مناطق مختلفة حول العالَم.

ذكرت الصحيفة بأنه من الصعب تطبيق العقوبات القانونية على الشركات التي تستخدم برامج توليد الصوت باستخدام الذكاء الاصطناعي، نظرًا لعدم وجود سابقة قانونية لتلك المسائل، وهذا يعني أن المتضررين لا يملكون خيارًا كثيرًا لكشف المسؤول والتحرك قانونًا ضده.

يعتقد المتخصصون أن المشكلة سوف تتوسع ويزداد صعوبتها فيما يتعلق بالتكنولوجيا والذكاء الاصطناعي، ولا يمكن التأكد من قدرة الحكومات في مواجهة هذه التحديات المستمرة.

تنصح الجهات المسؤولة الأفراد بضرورة توخي الحذر وعدم التجاوب مع أي طلب يتلقونه من أحد أفراد عائلتهم، بالإضافة إلى ضرورة اتصالهم بهم عبر وسائل التواصل الأخرى للتثبت من صحة الطلب. كما يجب تجنب إجراء المدفوعات بطرق غير آمنة مثل بطاقات الهدايا، كما ينبغي توخي الحذر من أية طلبات نقدية دون تبرير مشروع لذلك.

في الوقت نفسه، أكد الخبراء على أهمية وضع المسؤولية على شركات التصنيع لهذه المعدات في جرائم الاحتيال وحثوا على تغيير النظام القانوني الحالي لتحديد الالتزامات وتنظيم هذا المجال بشكل فعال.

author-img

Almoktachif Computer Technologie

تعليقات
ليست هناك تعليقات
إرسال تعليق
    الاسمبريد إلكترونيرسالة