يتسبب الانتشار المتزايد لعمليات الاحتيال المعقدة التي تعمل على استنساخ الصوت والتزييف العميق، في إثارة قلق واسع النطاق، حيث تغيرت الطريقة التي يعمل بها الذكاء الاصطناعي.
ومن كتابة المقالات والقصائد إلى تبسيط التعليمات البرمجية وتأليف الموسيقى يستطيع الذكاء الاصطناعي تنفيذ العديد من المهام التي كان يُعتقد سابقًا أنها تقتصر على البشر.
ومع ذلك، وإلى جانب فوائده العديدة، ظهرت مخاوف بشأن احتمال إساءة استخدام تكنولوجيا الذكاء الاصطناعي، ففي العام الماضي، تم الإبلاغ عن العديد من عمليات الاحتيال عبر الإنترنت.
وبينما طلب المحتالون في بعض الحالات من الضحايا النقر على روابط معينة، كانت حالات أخرى عبارة عن عمليات احتيال معقدة تتضمن استنساخ الصوت والتزييف العميق.
إلا أن القلق الأكبر عالميًا يتمثل بصعوبة اكتشاف عمليات الاحتيال عبر الإنترنت بسبب التطور السريع الذي شهده الذكاء الاصطناعي، وسط تخوف العديد من المستخدمين من أن يتم استنساخ أصواتهم واستخدامها لمحاولة خداع شخص يعرفونه لتقديم معلومات شخصية أو أموال.
ففي العديد من بلدان العالم على سبيل المثال، تم الإبلاغ عن حالات تقشعر لها الأبدان، مثل تزييف عمليات اختطاف، بحيث يتلقى الأهل مكالمة يسمعون فيها توسل وبكاء أولادهم، ليتبين في وقت لاحق أنه لم تتم عملية الاختطاف مطلقًا، بل كان المحتالون يستخدمون الاستنساخ الصوتي لابتزاز الأشخاص ومحاولتهم جني الأموال منهم.
وليست هذه الأنواع من الحوادث سوى واحدة من السيناريوهات العديدة التي تم الإبلاغ عنها حول العالم بشأن العديد من عمليات الاحتيال التي ارتكزت في الأغلب على تقنية التزييف العميق للصوت، وهو مصطلح آخر في عالم التكنولوجيا ظهر مع تطور مولدات الصور والصوت التي تعمل بتقنية الذكاء الاصطناعي.
ورفع ظهور عمليات الاحتيال باستخدام تزييف الصوت والصورة والفيديوهات منسوب القلق، خاصة مع الارتفاع الكبير في الحالات التي تنطوي على انتحال هوية كل من الأشخاص العاديين والشخصيات العامة البارزة في مجالات الأعمال والسياسة والترفيه والرياضة.
هل ترغب بالتعليق على الموضوع؟
لا تتردد في إعطاء تعليقك ومشاركة رأيك