- یک مطالعه جدید مدلهای هوش مصنوعی را بر اساس پاسخهای داده شده در یک مصاحبه دو ساعته آموزش داده است
- هوش مصنوعی می تواند پاسخ های شرکت کنندگان را با دقت 85 درصد تکرار کند
- در مطالعات تحقیقاتی آینده می توان از عوامل به جای انسان استفاده کرد
ممکن است فکر کنید شخصیت شما منحصر به فرد است، اما تنها چیزی که نیاز است یک مصاحبه دو ساعته است تا یک مدل هوش مصنوعی یک کپی مجازی از نگرش ها و رفتارهای شما ایجاد کند. این بر اساس مقاله جدیدی است که توسط محققان دانشگاه استنفورد و Google DeepMind منتشر شده است.
عوامل شبیه سازی چیست؟
این مقاله عوامل شبیهسازی را بهعنوان مدلهای مولد هوش مصنوعی توصیف میکند که میتوانند رفتار یک فرد را در طیف وسیعی از زمینههای اجتماعی، سیاسی یا اطلاعاتی شبیهسازی کنند.
در این مطالعه، از 1052 شرکتکننده خواسته شد تا یک مصاحبه دو ساعته را تکمیل کنند که طیف وسیعی از موضوعات را شامل میشود، از داستان زندگی شخصی تا دیدگاههایشان در مورد مسائل اجتماعی معاصر. پاسخهای آنها ثبت شد و متن برای آموزش مدلهای هوش مصنوعی مولد – یا «عاملهای شبیهسازی» – برای هر فرد مورد استفاده قرار گرفت.
برای آزمایش اینکه چگونه این عوامل می توانند از همتایان انسانی خود تقلید کنند، از آنها خواسته شد تا طیف وسیعی از وظایف، از جمله تست های شخصیت و بازی ها را انجام دهند. سپس از شرکت کنندگان خواسته شد که پاسخ های خود را دو هفته بعد تکرار کنند. نکته قابل توجه این است که عوامل هوش مصنوعی قادر به شبیه سازی پاسخ ها با دقت 85 درصد در مقایسه با شرکت کنندگان انسانی بودند.
علاوه بر این، عوامل شبیهسازی زمانی که از آنها خواسته شد ویژگیهای شخصیتی را در پنج آزمایش علوم اجتماعی پیشبینی کنند، به طور مشابه مؤثر بودند.
در حالی که شخصیت شما ممکن است چیزی ناملموس یا غیرقابل اندازه گیری به نظر برسد، این تحقیق نشان می دهد که می توان ساختار ارزش خود را از مقدار نسبتا کمی اطلاعات، با گرفتن پاسخ های کیفی به مجموعه ای ثابت از سوالات استخراج کرد. با تغذیه این داده ها، مدل های هوش مصنوعی می توانند به طور متقاعدکننده ای از شخصیت شما تقلید کنند – حداقل در یک محیط کنترل شده و مبتنی بر آزمایش. این می تواند دیپ فیک ها را خطرناک تر کند.
عامل دوگانه
این تحقیق توسط جون سونگ پارک، دانشجوی دکترا در دانشگاه استنفورد رهبری شد. ایده پشت ایجاد این عوامل شبیه سازی این است که به محققان علوم اجتماعی آزادی بیشتری در هنگام انجام مطالعات بدهد. با ایجاد کپی های دیجیتالی که مانند افراد واقعی که به آنها تکیه می کنند، رفتار می کنند، دانشمندان می توانند بدون هزینه ای که هر بار هزاران شرکت کننده انسانی را وارد می کنند، مطالعاتی را انجام دهند.
آنها همچنین ممکن است بتوانند آزمایشاتی را انجام دهند که انجام آنها با شرکت کنندگان واقعی انسان غیراخلاقی است. جان هورتون، استادیار فناوری اطلاعات در دانشکده مدیریت اسلون MIT، در گفتگو با MIT Technology Review، گفت: این تحقیق روشی را نشان میدهد که در آن شما میتوانید از انسانهای واقعی برای خلق شخصیتهایی استفاده کنید که میتوانند به صورت برنامهریزی/در شبیهسازیها به روشهایی استفاده شوند. نمی توانم با انسان های واقعی کار کنم.»
اینکه شرکت کنندگان در مطالعه از نظر اخلاقی با این موضوع راحت هستند یا نه، یک چیز است. برای بسیاری از مردم نگرانکنندهتر این احتمال است که عوامل شبیهسازی در آینده به چیزی بدتر تبدیل شوند. در همان داستان بررسی فناوری MIT، پارک پیشبینی کرد که یک روز «میتوانی تعداد زیادی از آدمهای کوچک را بیابی که در حال قدم زدن هستند و تصمیماتی را میگیرند که میگرفتی».
برای بسیاری، این زنگ خطر بدی را به صدا در می آورد. ایده کپی های دیجیتال طیفی از نگرانی ها را در مورد امنیت، حریم خصوصی و سرقت هویت باز می کند. پیشبینی دنیایی که در آن کلاهبرداران – که در حال حاضر از هوش مصنوعی برای تقلید صدای عزیزانشان استفاده میکنند – میتوانند آواتارهای جعلی برای تقلید از افراد آنلاین ایجاد کنند، نیازی به تخیل زیادی ندارد.
این امر به ویژه وقتی نگرانکننده است که در نظر بگیرید عوامل شبیهسازی هوش مصنوعی در این مطالعه تنها با استفاده از دو ساعت دادههای مصاحبه ایجاد شدهاند. این مقدار بسیار کمتر از مقدار اطلاعاتی است که در حال حاضر توسط شرکت هایی مانند Tavos که دوقلوهای دیجیتالی را بر اساس حجم زیادی از داده های کاربر ایجاد می کند، مورد نیاز است.