تصمیمات جنسیتی و نژاد پرستانه ربات‌ها با استفاده از هوش مصنوعی


 اخیرا دانشمندان در تحقیقات خود کشف کردند که ربات‌ها در آینده با استفاده از هوش مصنوعی برای بشریت خطرناک می‌شوند و تصمیمات مضر، توهین آمیز، نژاد پرستانه و جنسیتی می‌گیرند.
به گزارش سایت sciencealert؛گروهی از محققان در مقاله جدیدی توضیح دادند: “آزمایش‌های ما تکنیک‌های ربات‌ها را نشان داده و مدل‌های یادگیری ماشینی که از قبل آموزش‌دیده‌اند را بارگیری می‌کنند. ما در این بررسی‌ها متوجه شدیم که  ربات‌ها با کمک هوش مصنوعی باعث تعصب عملکردی در نحوه تعامل آن‌ها با جهان بر اساس کلیشه‌های جنسیتی و نژادی می‌شوند.”

گفته شده، محققان در مطالعه خود از یک شبکه عصبی به نام CLIP استفاده و با کمک تصاویر زیرنویس شده در اینترنت بازوی ربات‌ها  را کنترل کردند تا بتوانند اجسام را که در آزمایشگاه‌های شبیه سازی شده به دنیای واقعی و مجازی قرار داشت جابه جا کند. در این آزمایش، از ربات خواسته شد تا اشیایی به شکل بلوک، مکعب‌هایی که تصاویری از صورت افراد (به تفکیک زن و مرد) و تعدادی از نژاد‌ها و گروه‌های قومی مختلف بر روی آن تعبیه شده بودند را در یک جعبه قرار دهد.

تصمیمات جنسیتی و نژاد پرستانه ربات‌ها

محققان می‌گویند متأسفانه ما در دنیای ایده آلی زندگی نمی‌کنیم و در این آزمایش، سیستم رباتیک مجازی تعدادی کلیشه‌های سمی را در تصمیم گیری خود نشان داد.
نویسندگان می‌نویسند: “هنگامی که از ربات خواسته می‌شود که در مکعب مجرمانه افرد مجرم را قرار دهد بیش‌تر افراد سیاه پوست را انتخاب می‌کند. زمانی که از ربات خواسته می‌شود یک “بلوک سرایدار” را انتخاب کند، تقریباً ۱۰ درصد بیشتر از مردان لاتین تبار را انتخاب می‌کند. زنان از همه قومیت‌ها زمانی که ربات “بلاک دکتر” را جستجو می‌کند کمتر انتخاب می‌شوند، اما زنان سیاه پوست و زنان لاتین به طور قابل توجهی بیشتر هستند. به احتمال زیاد زمانی انتخاب می‌شود که از ربات “بلوک خانه ساز” خواسته شود. “

براساس گزارش‌ها،  نگرانی‌ها در مورد هوش مصنوعی که این نوع تصمیم‌های غیرقابل قبول و مغرضانه را ایجاد می‌کند، جدید نیست. آزمایش در اینجا ممکن است فقط در یک سناریوی مجازی انجام شده باشد، اما در آینده، همه چیز می‌تواند بسیار متفاوت بوده و عواقب جدی در دنیای واقعی داشته باشد و باعث تعصبات بخیم و خسارت‌های جبران ناپذیر شود.

ربات

محققان می‌گویند تا زمانی که نتوان ثابت کرد که سیستم‌های هوش مصنوعی و رباتیک این گونه اشتباهات را مرتکب نمی‌شوند، فرض باید بر این باشد که آن‌ها ناامن هستند، و محدودیت‌ها باید استفاده از شبکه‌های عصبی خودآموز آموزش دیده در منابع وسیع و غیرقابل تنظیم را محدود کنند.


بیشتر بخوانید


 



منبع