کلاهبرداری صوتی هوش مصنوعی: نحوه جلوگیری و محافظت

تحقیقات McAfee نشان داد که ابزارهای شبیه سازی صدا تا 95 درصد دقت را ارائه می دهند.

از آنجایی که ابزارهای شبیه سازی صوتی هوش مصنوعی بسیار ارزان و در دسترس هستند، ایجاد کلون های صوتی برای طرف های مخرب سریع و آسان است. و روشی که آنها برای انجام این کار نمونه های صوتی دریافت می کنند از طریق افرادی است که صدای خود را در رسانه های اجتماعی به اشتراک می گذارند. و هرچه بیشتر صدای خود را به صورت آنلاین به اشتراک بگذارید، هکرها راحت تر می توانند صدای شما را پیدا کرده و شبیه سازی کنند.

کلاهبرداری های صوتی با هوش مصنوعی جلوگیری می کند

کلاهبرداری های صوتی با هوش مصنوعی چقدر رایج هستند؟

در اینجا توصیه های کامل McAfee آمده است:

  • قبل از کلیک کردن و اشتراک گذاری فکر کنید– چه کسی در شبکه های اجتماعی شما حضور دارد؟ آیا واقعاً روابط خود را می شناسید و به یکدیگر اعتماد دارید؟ به آنچه در فیس بوک، یوتیوب، اینستاگرام و تیک تاک به اشتراک می گذارید توجه کنید. از طریق تنظیمات حریم خصوصی، پست های خود را فقط به دوستان و خانواده محدود کنید. هرچه ارتباطات شما گسترده تر باشد، بیشتر در معرض خطر قرار گرفتن خود در هنگام اشتراک گذاری مطالب در مورد خودتان هستید.
  • خدمات مانیتورینگ هویت اگر اطلاعات شناسایی شخصی شما در دارک وب در دسترس است، می تواند به شما کمک کند. سرقت هویت اغلب نقطه شروع کلاهبرداری های صوتی مبتنی بر هوش مصنوعی و سایر کلاهبرداری های هدفمند است. کنترل اطلاعات شخصی خود را به دست بگیرید تا از جعل هویت یک مجرم سایبری جلوگیری کنید. خدمات نظارت بر هویت لایه ای از حفاظت را ارائه می دهد که می تواند از هویت شما محافظت کند.
  • و چهار راه برای جلوگیری از افتادن مستقیم به کلاهبرداری صوتی هوش مصنوعی، شامل:
    • 1. برای فرزندان، اعضای خانواده یا دوستان نزدیک مورد اعتماد خود یک «گذرواژه» تنظیم کنید که فقط آنها می توانند آن را بدانند. برنامه‌ریزی کنید که همیشه از او بپرسید که آیا او تماس می‌گیرد، پیامک می‌فرستد یا ایمیل برای کمک ارسال می‌کند، به‌خصوص اگر مسن‌تر یا آسیب‌پذیرتر باشد.
    • 2. همیشه منبع را زیر سوال ببرید. اگر تماس، پیامک یا ایمیل از طرف یک فرستنده ناشناس یا حتی شماره ای است که می شناسید، توقف کنید، مکث کنید و فکر کنید. پرسیدن سوالات اصلی می تواند یک کلاهبردار را دلسرد کند. به عنوان مثال، “می توانید نام پسرم را تایید کنید؟” یا “تولد پدرت کی است؟” این نه تنها می تواند کلاهبردار را غافلگیر کند، بلکه ممکن است نیاز به ایجاد یک پاسخ جدید داشته باشد، که می تواند مکث های غیرطبیعی در مکالمه ایجاد کند و شک ایجاد کند.
    • 3. اجازه ندهید احساسات شما را تحت الشعاع قرار دهند. مجرمان سایبری به ارتباط عاطفی شما با شخصی که خود را جعل می کنند متکی هستند تا شما را وادار به عمل کنند. قبل از پاسخ دادن یک قدم به عقب بردارید. آیا واقعا شبیه آنهاست؟ آیا چیزی است که از شما می پرسند؟ تلفن را قطع کنید و مستقیماً با شخص تماس بگیرید یا قبل از پاسخ دادن سعی کنید اطلاعات را تأیید کنید.
    • 4. در نظر بگیرید که آیا به تماس های غیرمنتظره از شماره تلفن های ناشناس پاسخ دهید یا خیر. به طور کلی توصیه می شود به تماس های افراد غریبه پاسخ ندهید. اگر او یک پیام صوتی بگذارد، این به شما فرصت می دهد تا در مورد آن فکر کنید و به طور مستقل با عزیزان خود تماس بگیرید تا امنیت آنها را تأیید کنید.

در مواردی که به صورت عمومی از کلاهبرداری‌های شبیه‌سازی صدای هوش مصنوعی گزارش شده است، قربانیان گزارش داده‌اند که صدا دقیقاً شبیه صدای فرد شبیه‌سازی شده است. در یک مورد به خصوص فاحش، که در آن یک مجرم سایبری برای یک آدم ربایی ساختگی تقاضای باج کرده بود، مادر گفت که این “صدای او” بود و “این صدای او بود.” اکنون تشخیص درست از نادرست دشوارتر از همیشه است، بنابراین مردم باید تصور کنند که همیشه نمی توانند آنچه را که می بینند و می شنوند باور کنند.

قربانیان چند وقت یکبار و چقدر ضرر می کنند؟

  • متأسفانه، تحقیقات McAfee نشان می دهد که 77٪ از قربانیان کلاهبرداری های صوتی با هوش مصنوعی ضرر می کنند
  • بیش از یک سوم بیش از 1000 دلار از دست داد
  • 7 درصد بین آنها فریب خوردند 5000 و 15000 دلار
  • در ایالات متحده، این رقم با 11 درصد بازنده، بالاترین رقم است بین 5000 تا 15000 دلار

میانگین جهانی نشان داد که 25 درصد از پاسخ دهندگان یا قربانی کلاهبرداری با هوش مصنوعی شده اند یا فردی که می شناسند.

مک آفی خاطرنشان می کند که کلاهبرداری های صوتی مبتنی بر هوش مصنوعی ترکیبی از “کلاهبرداری های فریبنده” هستند که برای مدت طولانی وجود داشته اند، اما می توانند بسیار قانع کننده تر باشند. اغلب این شامل استفاده کلاهبردار از صدای یکی از عزیزان و مطالبه پول برای مواقع اضطراری یا در برخی موارد تظاهر به نگه داشتن یکی از عزیزان برای باج است.

تصویر بالا از طریق McAfee

همانطور که در مقاله بالا اشاره کردم، احتمالاً مهاجمان هر دو جعل تماس را با شبیه‌سازی‌های صوتی هوش مصنوعی ترکیب می‌کنند، مسئله زمان است.

اکنون مک‌آفی گزارش مفصلی درباره کلاهبرداری‌های صوتی مبتنی بر هوش مصنوعی منتشر کرده است تا به افزایش آگاهی در مورد تهدید و برخی راه‌های ساده برای پیشگیری و محافظت در برابر آن کمک کند.

شبیه سازی صدای هوش مصنوعی چگونه کار می کند؟

این رقم در ایالات متحده با 32 درصد بالاتر بود و هند بیشترین مشکلات را در مورد کلاهبرداری صوتی با هوش مصنوعی داشت و 47 درصد از پاسخ دهندگان گفتند که آنها یا افرادی که می شناسند تحت تأثیر قرار گرفته است.

کلاهبرداری صوتی با هوش مصنوعی رایج است

دقتش چقدره؟

برای جزئیات بیشتر به گزارش کامل مراجعه کنید. همچنین می‌توانید درباره کلاهبرداری‌های صوتی هوش مصنوعی در وب‌سایت FTC بیشتر بخوانید.

FTC: ما از لینک های وابسته خودکار درآمدزا استفاده می کنیم. بیشتر.

[ad_2]

Source link

بخش چطوری 9to5mac فارسی

به طور کلی، طبق گزارش‌ها، کلاهبرداری‌های کلاهبرداران 2.6 میلیارد دلار در سال 2022 سرقت کردند.

نحوه جلوگیری و محافظت در برابر کلاهبرداری های هوش مصنوعی

در حالی که ما تازه شروع به دیدن داستان های دنیای واقعی در اخبار مربوط به کلاهبرداری های صوتی با هوش مصنوعی کرده ایم، تحقیقات McAfee نشان می دهد که این کلاهبرداری ها بسیار رایج شده اند.

کلاهبرداری‌های صوتی با هوش مصنوعی رایج‌تر می‌شوند و می‌توانند بسیار قانع‌کننده باشند، زیرا به نظر می‌رسد که شما در حال صحبت با یک عزیز هستید. ما اکنون گزارش مفصلی داریم که نحوه عملکرد شبیه سازی صدای هوش مصنوعی، میزان رایج بودن کلاهبرداری، احتمال عاشق شدن، میانگین هزینه و نحوه جلوگیری و محافظت در برابر کلاهبرداری های صوتی با هوش مصنوعی را بررسی می کند.

در ماه آوریل، نمونه‌های واقعی از کلاهبرداری‌های هوش مصنوعی نسل بعدی را دیدیم که بسیار ترسناک هستند. یکی از آنها از جعل تماس استفاده کرد، بنابراین یکی از عزیزان به عنوان تماس گیرنده در تلفن قربانی حاضر شد. یکی دیگر از یک کلون صوتی هوش مصنوعی برای اخاذی از یک مادر برای آزادی دخترش – که ربوده نشده بود – استفاده کرد.

همانطور که قبلاً نوشتم و McAfee نیز به اشتراک می گذارد، سه راه اصلی برای جلوگیری و محافظت در برابر کلاهبرداری های صوتی مبتنی بر هوش مصنوعی عبارتند از:

  • میزان اشتراک‌گذاری صدا و/یا ویدیوی آنلاین و/یا خود را محدود کنید حساب های رسانه های اجتماعی خود را به جای عمومی روی خصوصی تنظیم کنید
  • سوال چالشی بپرسید یا حتی دو تماس در صورت دریافت یک تماس مشکوک – که فقط یکی از عزیزان شما می تواند پاسخ دهد (مثلاً نام حیوان عروسکی دوران کودکی خود و غیره)
    • به یاد داشته باشید، سؤالی نپرسید که می توان به آن در رسانه های اجتماعی، آنلاین و غیره پاسخ داد.
  • به شماره‌های ناشناس اجازه دهید به پست صوتی بروند و اگر در مورد آنها نگران هستید، مستقیماً از تلفن خود با آن شخص تماس بگیرید یا پیامک ارسال کنید