تحقیقات McAfee نشان داد که ابزارهای شبیه سازی صدا تا 95 درصد دقت را ارائه می دهند.
از آنجایی که ابزارهای شبیه سازی صوتی هوش مصنوعی بسیار ارزان و در دسترس هستند، ایجاد کلون های صوتی برای طرف های مخرب سریع و آسان است. و روشی که آنها برای انجام این کار نمونه های صوتی دریافت می کنند از طریق افرادی است که صدای خود را در رسانه های اجتماعی به اشتراک می گذارند. و هرچه بیشتر صدای خود را به صورت آنلاین به اشتراک بگذارید، هکرها راحت تر می توانند صدای شما را پیدا کرده و شبیه سازی کنند.
کلاهبرداری های صوتی با هوش مصنوعی چقدر رایج هستند؟
در اینجا توصیه های کامل McAfee آمده است:
- قبل از کلیک کردن و اشتراک گذاری فکر کنید– چه کسی در شبکه های اجتماعی شما حضور دارد؟ آیا واقعاً روابط خود را می شناسید و به یکدیگر اعتماد دارید؟ به آنچه در فیس بوک، یوتیوب، اینستاگرام و تیک تاک به اشتراک می گذارید توجه کنید. از طریق تنظیمات حریم خصوصی، پست های خود را فقط به دوستان و خانواده محدود کنید. هرچه ارتباطات شما گسترده تر باشد، بیشتر در معرض خطر قرار گرفتن خود در هنگام اشتراک گذاری مطالب در مورد خودتان هستید.
- خدمات مانیتورینگ هویت اگر اطلاعات شناسایی شخصی شما در دارک وب در دسترس است، می تواند به شما کمک کند. سرقت هویت اغلب نقطه شروع کلاهبرداری های صوتی مبتنی بر هوش مصنوعی و سایر کلاهبرداری های هدفمند است. کنترل اطلاعات شخصی خود را به دست بگیرید تا از جعل هویت یک مجرم سایبری جلوگیری کنید. خدمات نظارت بر هویت لایه ای از حفاظت را ارائه می دهد که می تواند از هویت شما محافظت کند.
- و چهار راه برای جلوگیری از افتادن مستقیم به کلاهبرداری صوتی هوش مصنوعی، شامل:
- 1. برای فرزندان، اعضای خانواده یا دوستان نزدیک مورد اعتماد خود یک «گذرواژه» تنظیم کنید که فقط آنها می توانند آن را بدانند. برنامهریزی کنید که همیشه از او بپرسید که آیا او تماس میگیرد، پیامک میفرستد یا ایمیل برای کمک ارسال میکند، بهخصوص اگر مسنتر یا آسیبپذیرتر باشد.
- 2. همیشه منبع را زیر سوال ببرید. اگر تماس، پیامک یا ایمیل از طرف یک فرستنده ناشناس یا حتی شماره ای است که می شناسید، توقف کنید، مکث کنید و فکر کنید. پرسیدن سوالات اصلی می تواند یک کلاهبردار را دلسرد کند. به عنوان مثال، “می توانید نام پسرم را تایید کنید؟” یا “تولد پدرت کی است؟” این نه تنها می تواند کلاهبردار را غافلگیر کند، بلکه ممکن است نیاز به ایجاد یک پاسخ جدید داشته باشد، که می تواند مکث های غیرطبیعی در مکالمه ایجاد کند و شک ایجاد کند.
- 3. اجازه ندهید احساسات شما را تحت الشعاع قرار دهند. مجرمان سایبری به ارتباط عاطفی شما با شخصی که خود را جعل می کنند متکی هستند تا شما را وادار به عمل کنند. قبل از پاسخ دادن یک قدم به عقب بردارید. آیا واقعا شبیه آنهاست؟ آیا چیزی است که از شما می پرسند؟ تلفن را قطع کنید و مستقیماً با شخص تماس بگیرید یا قبل از پاسخ دادن سعی کنید اطلاعات را تأیید کنید.
- 4. در نظر بگیرید که آیا به تماس های غیرمنتظره از شماره تلفن های ناشناس پاسخ دهید یا خیر. به طور کلی توصیه می شود به تماس های افراد غریبه پاسخ ندهید. اگر او یک پیام صوتی بگذارد، این به شما فرصت می دهد تا در مورد آن فکر کنید و به طور مستقل با عزیزان خود تماس بگیرید تا امنیت آنها را تأیید کنید.
در مواردی که به صورت عمومی از کلاهبرداریهای شبیهسازی صدای هوش مصنوعی گزارش شده است، قربانیان گزارش دادهاند که صدا دقیقاً شبیه صدای فرد شبیهسازی شده است. در یک مورد به خصوص فاحش، که در آن یک مجرم سایبری برای یک آدم ربایی ساختگی تقاضای باج کرده بود، مادر گفت که این “صدای او” بود و “این صدای او بود.” اکنون تشخیص درست از نادرست دشوارتر از همیشه است، بنابراین مردم باید تصور کنند که همیشه نمی توانند آنچه را که می بینند و می شنوند باور کنند.
قربانیان چند وقت یکبار و چقدر ضرر می کنند؟
- متأسفانه، تحقیقات McAfee نشان می دهد که 77٪ از قربانیان کلاهبرداری های صوتی با هوش مصنوعی ضرر می کنند
- بیش از یک سوم بیش از 1000 دلار از دست داد
- 7 درصد بین آنها فریب خوردند 5000 و 15000 دلار
- در ایالات متحده، این رقم با 11 درصد بازنده، بالاترین رقم است بین 5000 تا 15000 دلار
میانگین جهانی نشان داد که 25 درصد از پاسخ دهندگان یا قربانی کلاهبرداری با هوش مصنوعی شده اند یا فردی که می شناسند.
مک آفی خاطرنشان می کند که کلاهبرداری های صوتی مبتنی بر هوش مصنوعی ترکیبی از “کلاهبرداری های فریبنده” هستند که برای مدت طولانی وجود داشته اند، اما می توانند بسیار قانع کننده تر باشند. اغلب این شامل استفاده کلاهبردار از صدای یکی از عزیزان و مطالبه پول برای مواقع اضطراری یا در برخی موارد تظاهر به نگه داشتن یکی از عزیزان برای باج است.
تصویر بالا از طریق McAfee
همانطور که در مقاله بالا اشاره کردم، احتمالاً مهاجمان هر دو جعل تماس را با شبیهسازیهای صوتی هوش مصنوعی ترکیب میکنند، مسئله زمان است.
اکنون مکآفی گزارش مفصلی درباره کلاهبرداریهای صوتی مبتنی بر هوش مصنوعی منتشر کرده است تا به افزایش آگاهی در مورد تهدید و برخی راههای ساده برای پیشگیری و محافظت در برابر آن کمک کند.
شبیه سازی صدای هوش مصنوعی چگونه کار می کند؟
این رقم در ایالات متحده با 32 درصد بالاتر بود و هند بیشترین مشکلات را در مورد کلاهبرداری صوتی با هوش مصنوعی داشت و 47 درصد از پاسخ دهندگان گفتند که آنها یا افرادی که می شناسند تحت تأثیر قرار گرفته است.
دقتش چقدره؟
برای جزئیات بیشتر به گزارش کامل مراجعه کنید. همچنین میتوانید درباره کلاهبرداریهای صوتی هوش مصنوعی در وبسایت FTC بیشتر بخوانید.
FTC: ما از لینک های وابسته خودکار درآمدزا استفاده می کنیم. بیشتر.