هشدار مدیر گوگل در مورد ویدیوهای «جعل عمیق»

به گزارش ایسنا و به نقل از فاکس‌بیزنس، ساندار پیچای(Sundar Pichai)، مدیر عامل گوگل، زنگ خطر را در مورد خطرات استفاده از هوش مصنوعی برای ایجاد ویدیوهای جعلی از چهره‌های شناخته شده به صدا درآورد. کاری که به گفته او به زودی «آسان» خواهد شد.

چه می پرسد آیا برد برای جامعه بیخطر است؟ پیچای پاسخ داد: روشی که برای راه‌اندازی آن به کار گرفته می‌شود، یعنی عنوان یک آزمایش به صورت محدود، بله همینطور است. اما همه ما باید در هر مرحله از این راه مسئولیت پذیری باشیم.

پلی پرسید: شما به طور کامل نمی‌دانید که چگونه کار می‌کند. و با این حال، آن را در جامعه عرضه کرده‌اید؟ پیچای پاسخ داد: بله. اجازه دهید اینطور بیان کنم. فکر نمیکنم ما باید به طور کامل درک کنیم که انسان چگونه کار می کند.

مدل‌های مصنوعی فعلی در حال حاضر قادر به ساخت تصاویر از چهره‌های شناخته‌شده هستند که شناسایی آن‌ها از محتمل نیست. هوش مصنوعی در ساخت ویدیو و صدا مهارت مهارت کمتری داشته است.

پیچار به پلی گفت: با استفاده از هوش مصنوعی می‌توان به راحتی یک ویدئو ایجاد کرد که در آن چیزی می‌گوید، یا من چیزی می‌گویم که هرگز نمی‌توانم بگویم و این نمی‌تواند به نظر برسد. اما می‌دانید، در نتیجه اجتماعی می‌تواند آسیب‌های زیادی به همراه داشته باشد.

انتهای پیام



منبع

پیچای در ادامه گفت که گوگل همیشه پاسخ‌های هوش مصنوعی برد خود را به طور کامل درک نمی‌کند. او به نمونه‌های اشاره کرد که در آن به نظر می‌رسد که مصنوعی به خود بنگالی می‌آموخت با وجود اینکه برای آن آموزش ندیده بود.

بخوان  «ژورانگ» از اقیانوسی بودن مریخ پرده برداشت

مدیر عامل شرکت گوگل در ویدئوهای «دیپ فیک» (جعل ذهن) هوش مصنوعی هشدار داده و گفته است که می‌تواند آسیب‌های زیادی ایجاد کند و گوگل عمدا قابلیت‌های عمومی هوش مصنوعی را محدود کند.

پیچای این گفتگوها را در خلال در برنامه «۶۰ دقیقه» CBS بیان کرد و به اس پلی(Scott Pelley) مصاحبه‌کننده برنامه گفت که گوگل برای جلوگیری از استفاده، محدودیت‌ها برای هوش مصنوعی بارد(Bard) خود قائل شده است.

در کلیپ‌های صوتی ایجاد شده با مصنوعی، صدای مورد نظر فرد شبیه‌سازی می‌شود اما نسخه‌های فعلی کمی رباتیک و غیرطبیعی به نظر می‌رسند.

پلی پرسید: آهسته آهسته آن را پیشنهاد می کند تا جامعه را به آن عادت کند؟ پیچای گفت: این بخشی از آن است. یک بخش نیز به این دلیل است که ما بازخورد کاربران را می‌کنیم و می‌توانیم قبل از ساختن، از استقرار مدل‌های توانمندتر، لایه‌های قوی‌ای ایمنی ایجاد کنیم.