فیلتر‌های صوتی هوش مصنوعی می‌توانند امنیت شما را تهدید کنند



توجه فزاینده‌ای که در سال‌های اخیر به فناوری دیپ فیک AI معطوف شده است، در درجه اول بر روی ترفند‌های بصری متمرکز است. به ویدیو‌هایی فکر کنید که می‌توانند به‌طور غیرعادی چهره یک فرد را بر روی بدن یک نسل هنری سورئال دیگر بر اساس پیشنهادات کاربران و اخلاق دردسرساز پیرامون همه این توانایی‌ها قرار دهند. اما یکی دیگر از روش‌های کلیدی برای متقاعد کردن میمیک‌های دیجیتالی اخیرا بار دیگر مورد بررسی و بحث واقع شده است.

فیلتر‌های صوتی، اگرچه لزوما جدید نیستند، اخیرا به لطف کمک هوش مصنوعی جدی‌تر گرفته شده‌اند. متاسفانه این فیلترها پیامد‌های اجتماعی خود را نیز به همراه دارند و مانند صنعت دیپ فیک ویدیو، به نظر می‌رسد که تنظیم‌کننده‌های کمی می‌توانند برای جلوگیری از آن تاثیری داشته باشند.

ابزار‌های نوظهور هوش مصنوعی مانند Koe Recast و Voice.ai به سرعت توانایی خود را برای تبدیل ورودی‌های صوتی به صدایی شبیه به هر کسی که کاربران درخواست می‌کنند، بروز می‌دهند، اگر منبع کافی برای تجزیه و تحلیل ارائه شود. در برخی موارد این برنامه‌ها تنها به یک کلیپ بین ۱۵ تا ۳۰ ثانیه نیاز دارند تا تقلید‌های متقاعد کننده ایجاد کنند. اگرچه Koe Recast فقط در مرحله آزمایش آلفای خصوصی خود است، نمونه‌هایی از قبل موجود است که یک کلیپ کوتاه از مارک زاکربرگ را به تصویر می‌کشد که شبیه یک راوی باس سنگین، یک زن و حتی یک شخصیت انیمه با صدای بلند است.

هدف در اینجا این است که به افراد کمک شود تا به هر طریقی که آن‌ها را شادتر می‌کند، خود را ابراز کنند؛ با این حال، منتقدان همچنان نسبت به اعتماد عمومی به چنین ابزار‌های بالقوه آشفته‌ای شک دارند. اخیرا، برخی از نمایندگی‌های مرکز تماس برون‌سپاری شده نیز شروع به استفاده از نرم‌افزار هوش مصنوعی برای پاک کردن لهجه‌های کشور‌های بومی خود کرده‌اند تا در تلاش برای کاهش تعصبات مصرف‌کنندگان غربی، «آمریکایی‌تر» به نظر برسند. در حالی که سازندگان این ابزار استدلال می‌کنند که اختراع آن‌ها از تعصب جلوگیری می‌کند، بسیاری مخالفت کرده‌اند که این ابزار صرفا وسیله‌ای برای اجتناب از پرداختن به مسائل بزرگ‌تر در دست است: یعنی بیگانه‌هراسی و نژادپرستی.

به همین ترتیب کارمندان برخی از کسب‌وکار‌های بزرگ‌تر طعمه کلاهبردارانی شده‌اند که درخواست انتقال وجه و رمز عبور می‌کنند در حالی که از تقلید صوتی مشابه برای تقلید از رؤسا استفاده می‌کنند.

کایل آلسپاچ، گزارشگر امنیت سایبری Protocol، می‌گوید: این نوع کلاهبرداری‌ها هنوز در مراحل ابتدایی خود هستند، به احتمال زیاد طولی نمی‌کشد که این تاکتیک‌ها رایج‌تر می‌شوند و متاسفانه تشخیص واقعیت از تخیل دشوارتر است؛ بنابراین هیچ مانعی برای افزایش سریع تقلید بصری و صوتی مبتنی بر هوش مصنوعی وجود ندارد.


بیشتر بخوانید 


منبع: popsci



منبع