- به گفته کارشناسان امنیتی، کلاهبرداری های شبیه سازی صوتی هوش مصنوعی در حال افزایش است
- از مدلهای هوش مصنوعی با قابلیت صوتی میتوان برای تقلید از عزیزان استفاده کرد
- کارشناسان توصیه می کنند که یک عبارت امن را با دوستان و خانواده خود به توافق برسانید
تماس ناخواسته بعدی ممکن است با یک شخص واقعی نباشد و گوش شما نتواند تفاوت را تشخیص دهد. کلاهبرداران از مدلهای هوش مصنوعی با قابلیت صوتی استفاده میکنند تا طرحهای کلاهبرداری خود را خودکار کنند و با تقلید از تماسگیرندگان واقعی انسان، از جمله اعضای خانواده، افراد را فریب دهند.
کلاهبرداری صوتی هوش مصنوعی چیست؟
تماس های تقلبی جدید نیستند، اما تماس های مبتنی بر هوش مصنوعی نشان دهنده یک نسل جدید خطرناک است. آنها از هوش مصنوعی مولد نه تنها برای تقلید از مقامات یا افراد مشهور، بلکه برای تقلید از دوستان و خانواده استفاده می کنند.
ورود مدلهای هوش مصنوعی آموزشدیده بر روی صدای انسان دنیای جدیدی از خطرات را در مورد کلاهبرداری تلفنی باز کرده است. این ابزارها، مانند OpenAI’s Voice API، از مکالمه بیدرنگ بین یک انسان و یک مدل هوش مصنوعی پشتیبانی میکنند. با استفاده از مقدار کمی کد، می توان این مدل ها را طوری برنامه ریزی کرد که به طور خودکار کلاهبرداری های تلفنی را انجام دهند و قربانیان را تشویق به افشای اطلاعات حساس کنند.
پس چگونه می توانید ایمن بمانید؟ چیزی که این تهدید را تا این حد مشکل ساز می کند نه تنها به کارگیری آن آسان و ارزان است، بلکه میزان متقاعدکننده بودن صداهای هوش مصنوعی است.
OpenAI در اوایل سال جاری با واکنش شدیدی نسبت به گزینه صدای Sky خود مواجه شد، که به طرز وحشتناکی شبیه اسکارلت جوهانسون بود، در حالی که سر دیوید آتنبرو خود را به عنوان “عمیقاً آشفته” از شبیه سازی صدای هوش مصنوعی توصیف کرد که از گفتار واقعی آن قابل تشخیص نبود.
حتی ابزارهایی که برای شکست دادن کلاهبرداران طراحی شده اند نشان می دهند که چقدر خطوط تار هستند. شبکه بریتانیایی O2 اخیراً دیزی را راهاندازی کرده است، یک مادربزرگ هوش مصنوعی که برای دستگیری کلاهبرداران تلفنی در یک مکالمه اتلاف وقت طراحی شده است، که آنها معتقدند با یک شهروند واقعی واقعی است. این یک استفاده هوشمندانه از فناوری است، اما همچنین نشان می دهد که هوش مصنوعی چقدر می تواند تعاملات انسانی را تقلید کند.
به طور نگران کننده ای، کلاهبرداران می توانند صداهای هوش مصنوعی را بر اساس نمونه های صوتی بسیار کوچک آموزش دهند. به گفته F-Secure، یک شرکت امنیت سایبری، تنها چند ثانیه صدا برای تقلید صدای یکی از عزیزان کافی است. این منبع را می توان به راحتی از طریق یک ویدیو به اشتراک گذاشته شده در شبکه های اجتماعی به دست آورد.
کلاهبرداری های شبیه سازی صوتی هوش مصنوعی چگونه کار می کنند
مفهوم اصلی کلاهبرداری شبیه سازی صوتی شبیه به کلاهبرداری های تلفنی استاندارد است: مجرمان سایبری برای جلب اعتماد قربانی جعل هویت شخصی هستند، سپس احساس فوریت ایجاد می کنند که آنها را تشویق می کند اطلاعات حساس را فاش کنند یا پول را به کلاهبردار منتقل کنند.
تفاوت با کلاهبرداری های شبیه سازی صوتی دو برابر است. اول، مجرمان می توانند با استفاده از کد، فرآیند را خودکار کنند و به آنها اجازه می دهد افراد بیشتری را، سریع تر و با پول کمتر هدف قرار دهند. ثانیاً، آنها می توانند نه تنها از مراجع و افراد مشهور، بلکه از افرادی که مستقیماً می شناسند نیز تقلید کنند.
یک شاهد
تنها چیزی که مورد نیاز است یک نمونه صوتی است که معمولاً از یک ویدیوی آنلاین گرفته می شود. سپس توسط یک مدل هوش مصنوعی مورد تجزیه و تحلیل قرار گرفته و تقلید می شود و امکان استفاده از آن در تعاملات فریبنده را فراهم می کند. یکی از رویکردهای محبوب این است که یک مدل هوش مصنوعی تقلید از یکی از اعضای خانواده که در مواقع اضطراری درخواست پول می کند.
این فناوری همچنین می تواند برای تقلید صدای افراد برجسته برای دستکاری قربانیان مورد استفاده قرار گیرد. کلاهبرداران اخیراً از نسخه صوتی هوش مصنوعی استیون مایلز برتر کوئینزلند برای کلاهبرداری سرمایه گذاری استفاده کردند.
چگونه با استفاده از هوش مصنوعی از کلاهبرداری صوتی در امان بمانیم؟
طبق گفته بانک استارلینگ، یک بانک دیجیتال، 28 درصد از بزرگسالان بریتانیا می گویند که در معرض کلاهبرداری های شبیه سازی صوتی با هوش مصنوعی قرار گرفته اند، اما تنها 30 درصد مطمئن هستند که می دانند چگونه آن را تشخیص دهند. به همین دلیل استارلینگ کمپین «عبارات امن» را راهاندازی کرد، که دوستان و خانواده را تشویق میکند در مورد یک عبارت مخفی که میتوانند برای تأیید هویت یکدیگر استفاده کنند به توافق برسند – یک تاکتیک عاقلانه.
TL;DR چگونه ایمن بمانیم
1. در مورد یک عبارت امن با دوستان و خانواده توافق کنید
2. از تماس گیرنده بخواهید تا برخی از اطلاعات خصوصی اخیر را تأیید کند
3. به استرس ناهموار روی کلمات یا گفتار بدون احساس گوش دهید
4. تلفن را قطع کنید و دوباره با آن شخص تماس بگیرید
5. مراقب درخواستهای غیرمعمول، مانند درخواست اطلاعات بانکی باشید
حتی بدون یک عبارت امن از قبل توافق شده، اگر به هویت تماس گیرنده شک دارید، می توانید از تاکتیک مشابهی استفاده کنید. شبیه سازی صدای مبتنی بر هوش مصنوعی می تواند الگوی گفتار یک فرد را تقلید کند، اما لزوماً به اطلاعات خصوصی دسترسی نخواهد داشت. درخواست از تماسگیرنده برای تایید چیزی که فقط خودش میداند، مانند اطلاعاتی که در آخرین مکالمه شما به اشتراک گذاشته شده است، یک قدم به اطمینان نزدیکتر است.
به گوش خود هم اعتماد کنید. اگرچه بازتولید صدای هوش مصنوعی بسیار قانع کننده است، اما 100٪ دقیق نیست. به نشانههای حکایتکننده مانند استرس ناموزون روی کلمات خاص، بیان بیاحساس، یا لکنت گوش دهید.
کلاهبرداران می توانند شماره ای را که با آن تماس می گیرند پنهان کنند و ممکن است به نظر برسد که از شماره دوست شما تماس می گیرند. اگر همیشه شک دارید، مطمئنترین کار این است که تلفن را قطع کنید و با شماره معمولی که برای او در نظر گرفتهاید تماس بگیرید.
کلاهبرداری های شبیه سازی صوتی نیز بر همان روش های کلاهبرداری تلفنی سنتی متکی هستند. هدف از این تاکتیک ها اعمال فشار عاطفی و ایجاد حس فوریت است تا شما را مجبور به انجام کاری کنند که در غیر این صورت انجام نمی دادید. نسبت به این موارد هوشیار باشید و مراقب درخواستهای غیرعادی باشید، مخصوصاً وقتی صحبت از انتقال پول میشود.
همان پرچمهای قرمز برای تماسگیرندگانی که ادعا میکنند از بانک شما یا مرجع دیگری هستند اعمال میشود. آگاهی از رویه هایی که بانکتان هنگام تماس با شما استفاده می کند، مفید است. به عنوان مثال Starling یک نشانگر وضعیت تماس در برنامه خود دارد که می توانید هر زمان که بخواهید آن را بررسی کنید تا ببینید آیا بانک واقعاً با شما تماس می گیرد یا خیر.