یکی از ابزارهای سیستمهای هوش مصنوعی جعل شبیهسازی صدای افراد، حتی بر اساس یک فایل کوتاه از صدای اصلی ضبط میشود که میتواند برای مقاصد شرورانه استفاده شود. با این حال، یک نرمافزار جدید به نام ضدجعل(AntiFake) میتواند به جلوگیری از آن کمک کند.
به گزارش ایسنا و به نقل از نیواطلس، در سایر قابلیتهای هوش مصنوعی، از نسخههای جعلی صدای افراد به همراه ویدیوهای جعلی میتوان به گونهای استفاده کرد که به نظر میرسد یک سیاستمدار یا شخصیت مشهور را گفته است که هرگز در واقعیت چیزی گفته نشده است.
علاوه بر این موارد وجود دارد که افراد تماس تلفنی دریافت کردهاند که در آن صدای جعلی یکی از دوستان یا اعضای خانواده را شنیدهاند که از آنها خواستهاند تا در اسرع وقت، به دلیل شرایط اضطراری، پولی برای شخص واریز کنند. علاوه بر این، از صداهای جعلی میتوان برای دور زدن سیستمهای تشخیص امنیتی صدا استفاده کرد.
در حال حاضر فناوریهایی طراحی شدهاند که تشخیصدهندههای صداهای ظاهرا قانونی هستند یا خیر، طبق گزارشها، یکی از اولین سیستمهایی است که از تولید چنین جعلهایی در وهله اول جلوگیری میکند.
به طور خلاصه، این نرمافزار کار را با سختتر کردن ویژگیهای صوتی خاص در فایلهای ضبط شده صدای افراد توسط سیستمهای هوش مصنوعی انجام میدهد.
نینگ ژانگ(Ning Zhang)، مخترع استادیار علوم و مهندسی کامپیوتر، ابزاری در دانشگاه سنت لویی میگوید: این روش از روش هوش مصنوعی مخرب استفاده میکند که در ابتدا از مجرمان سایبری بود، اما اکنون ما از آن برای دفاع در برابر استفاده میکنیم. آنها استفاده می کنند.
ما اطلاعات صوتی ضبط شده را اندکی تخریب میکنیم به اندازهای که همچنان برای شنوندگان انسانی درست به نظر برسد اما برای هوش مصنوعی کاملا متفاوت باشد.
این معنی است که حتی اگر یک جعل از روی یک فایل ضبط شده تغییر یافته با آنتیفیک ایجاد شود، نتیجه شبیه صدای واقعی گوینده بود. آزمایشهای انجامشده نشان میدهد که این فناوری بیش از 95 درصد در جلوگیری از ایجاد جعلهای مخرب بوده است.
ژانگ میگوید: آیا من نمیدانم در آینده در حوزه فناوری تولید صدا با هوش مصنوعی چه اتفاقی رخ میدهد زیرا ابزارها و قابلیتهای جدید همیشه در حال توسعه هستند اما من فکر میکنم استراتژی ما برای استفاده از روشهای رقبا علیه آنها همچنان خواهد بود.
انتهای پیام