هشدار سازمان ملل در استفاده از مخرب از «جعل موضوع»

ساهوتا با استفاده از ویدئو و صدایی که قطع می‌شود، راه‌حلی را اضافه می‌کند.

نیل ساهوتا(Neil Sahota) کارشناس هوش مصنوعی مستقر در کالیفرنیا که به عنوان مشاور سازمان ملل متحد خدمت می‌کند، گفت: یک دوقلوی دیجیتالی یک نسخه از چیزی از دنیای واقعی است. دیپ فیک‌ها تصویری آینه‌ای از دوقلوی دیجیتال هستند، به این معنی که بدون اجازه شخص و معمول برای مخرب و برای فریب دادن کسی، یک ماکت دیجیتالی از وی ایجاد می‌شود.

مشاور مصنوعی در سازمان ملل متحد در مورد استفاده از مخرب از فناوری جدید جعل علمی(دیپ فیک) که در آن، هوش مصنوعی می‌تواند غیر واقعی باشد، اما بسیار نزدیک به واقعیت تولید کند، هشدار داد و گفت که سیاستگذاران باید از مردم بیشتر محافظت کنند. جستجوگر.

ساهوتا همچنین استدلال کرد که در حال حاضر سیاست‌گذاران در زمینه آموزش مردم در مورد خطرات فراوان جعل و نحوه تشخیص آنها به اندازه کافی تلاش نمی‌کنند. توصیه می‌شود که یک سیستم استفاده از محتوای کاربردی پیاده‌سازی شود که از توکن‌های دیجیتالی برای احراز هویت محتواها و شناسایی جعل‌های درون کند.

وی گفت: حتی افراد مشهور سعی می‌کنند راهی برای ایجاد یک تمبر قابل اعتماد، نوعی نشانه یا سیستم احراز هویت بیابند تا در صورت داشتن هر نوع غیر حضوری، برای احتمال وجود داشته باشد. این چیزی است که در سطح سازمان ملل شروع به اتفاق افتاده است. مثلاً چگونه مکالمات را احراز هویت کنیم یا یک ویدیو را تایید کنیم؟

به گزارش ایسنا و به نقل از سیان‌ان، یکی از مشاوران هوش مصنوعی سازمان ملل متحد در یک گفتگو در خطرات ظهور جعل‌های بسیار مهم هشدار داد.

بخوان  هوش مصنوعی به انسان در ساخت موسیقی موفق نیست

ساهوتا گفت: ما داستان‌های افراد مشهور را می‌شنویم و در واقع می‌توانم آن را روی هر کسی انجام دهم. دیپ فیک در واقع با فیلم مستهجن انتقام جویانه شروع شد. شما واقعا باید مراقب باشید.

تصاویری که به طور جدی اتفاق می افتند، چندین بار خبرساز و فراگیر شده اند، مانند ویدیویی که نشان می دهد ولودیمیر زلنسکی رئیس جمهور به کشور کشورش میگوید تسلیم روسیه می شود یا کلیپی از ایلان ماسک که برای تبلیغ سرمایه گذاری شده و برای کلاهبرداری بود.

وی گفت: شما باید یک چشم هوشیار داشته باشید. اگر با یک ویدئو متوجه هستید، باید به دنبال چیزهای عجیب و غریب مانند زبان بدن، سایه های عجیب و غریب و این نوع چیزها باشید. در مورد صدا نیز باید بپرسید آیا فرد چیزهایی می‌گوید که به طور معمول می‌گوید؟

اما افراد مشهور در معرض خطر. رویدادها نیز می‌توانند تحت تأثیر این فناوری قرار گیرند.

انتهای پیام



منبع