کلاهبرداری مدرن با صدای جعلی از هوش مصنوعی
به گزارش وبلاگ رویال درام، تصور کنید تماسی تلفنی از یکی از اعضای خانواده دریافت می کنید که صدایش ناراحت به نظر می رسد و از شما درخواست پول می نماید اما کمی بعد، می فهمید که این تماس و صدایی که شنیده اید جعلی بوده و از شما کلاهبرداری شده است. به بیان دیگر، متوجه می شوید این تماس هرگز از طرف آن ها نبوده، بلکه صدایی جعلی ساخته هوش مصنوعی بوده است.
این طرح یک رمان علمی تخیلی نیست؛ همین حالا هم چنین چیزی برای هزاران نفر به واقعیت تبدیل شده است. سوفیا خاتسنکوا در گزارشی که اخیرا برای یورونیوز نوشت، نمونه هایی از فراوریات این فناوری تازه شبیه سازی صوتی را که آمیزه ای از یادگیری عمیق و جعل است، توضیح داد.
او می نویسد: شما با پرداخت چند یورو بیشتر، می توانید از این شرکت ها بخواهید یک صدا را با چنان کیفیتی جعل نمایند که بتوان با آن، دیگران را متقاعد کرد و فریب داد.
یکی از نمونه های اخیر که در فضای مجازی بسیار بازنشر شد، این بود که کاربران انجمن آنلاین 4chan صدای اما واتسون، بازیگر بریتانیایی را در حال خواندن کتاب نبرد من آدولف هیتلر جعل و شبیه سازی کردند.
آن ها برای این جعل صدا از ابزاری به نام پرایم ویس استفاده کردند که شرکت نو آفرین ایلون لبز (ElevenLabs) آن را ساخته بود. مثال دیگری از بی نقص و دقیق بودن این فناوری نمونه شبیه سازی صوتی است که صدای لئوناردو دی کاپریو در حال سخنرانی در سازمان ملل متحد را تقلید می کرد.
اینک کارشناسان بسیاری از این موضوع ابراز نگرانی نموده اند. نخست اینکه از این فناوری ممکن است برای پخش اطلاعات نادرست استفاده گردد. به عنوان مثال، این فناوری ممکن است کاری کند مردم باور نمایند یک سیاستمدار اظهارات تکان دهنده ای بیان نموده است. خطر دیگر این فناوری هم این است که می تواند در کلاهبرداری از افراد، به خصوص افراد مسن، به کار گرفته گردد.
متخصصان علوم رایانه ای بر این باورند که شبیه سازی جعلی صدا عملا کار چندان دشواری نیست. متیو رایت، مدیر بخش علوم رایانه ای موسسه فناوری روچستر، به یورونیوز گفت که این نرم افزارها برای یک جعل تمیز و بی نقص، به در اختیار داشتن صداهای بسیاری از افراد احتیاج ندارند. به گفته او، برای مثال شما می توانید فقط با افراد تماس بگیرید و وانمود کنید فروشنده اید و با همین مکالمه، به مقدار کافی صدای فرد مقابل را ضبط کنید. متیو رایت اشاره می نماید که شاید این تنها چیزی باشد که آن ها برای کلاهبرداری از دیگران به آن احتیاج دارند.
اخیرا یک روزنامه نگار وب سایت وایس، با استفاده از شبیه سازی صدای خود با هوش مصنوعی پیروز شد به حساب بانکی اش نفوذ کند. در واقع این روزنامه نگار بانک را فریب داد تا بانک او را با صاحب حساب اشتباه بگیرد و به تراکنش های او دسترسی پیدا کند؛ موضوعی که امنیت سامانه های تایید صوتی را زیر سوال می برد.
شرکتی که فایل صوتی شبیه سازی شده اما واتسون را فراوری نموده بود، گفت که هزینه خدمات و عضویتش را افزایش می دهد و تایید هویت کاربران به صورت غیرماشینی انجام می گردد. با این حال، کارشناسان هشدار می دهند که برای جلوگیری از چنین کلاهبرداری هایی در آینده باید قوانینی وضع شوند.
کارشناسان پیش از هرچیز پیشنهاد می نمایند افراد باید مراقب تماس های غیرمنتظره و فوری برای درخواست پول از طرف عزیزان یا محل کارشان باشند.
به گفته رایت، شما باید از آن ها تعدادی سوال شخصی بپرسید تا بتوانید هویتشان را تایید کنید: سعی کنید از منابع و کانال های متفاوتی بهره ببرید؛ مثلا بهانه ای بیاورید و بگویید که خودتان با آن ها تماس خواهید گرفت. بعد با شماره تلفنی که از آن ها دارید، با این افراد تماس بگیرید. اگر آن ها شماره تلفن موردنظر را جعل نموده باشند، طبیعی است که از شما تماسی دریافت نخواهند کرد.
به طور کلی به این فکر کنید که برای مثال، آیا واقعا منطقی است که رئیستان از شما بخواهد 10 کارت هدیه 250 دلاری خریداری کنید؟ احتمالا نه!
منبع: فوت و فن / independentpersian.com