چت ربات های هوش مصنوعی ممکن است در برخورد با اطلاعات مصنوعی مشکل داشته باشند، اما تحقیقات جدید نشان داده است که ممکن است برای دفع افکار بی اساس و توهمات در ذهن انسان مفید باشند. دانشمندان MIT و دانشگاه کرنل یک مقاله تحقیقاتی در این مقاله منتشر کردند علوم یک مطالعه ادعا کرد که مکالمه با یک ربات چت با یک مدل بزرگ زبانی (LLM) باعث کاهش اعتقاد به توطئه ها تا حدود 20٪ می شود.
برای اینکه ببیند چگونه یک چت بات هوشمند میتواند بر تفکر توطئهآمیز تأثیر بگذارد، دانشمند ۲۱۹۰ شرکتکننده را ترتیب داد تا در مورد تئوریهای توطئه با یک ربات چت مجهز به مدل GPT-4 Turbo OpenAI صحبت کنند. از شرکت کنندگان خواسته شد تا یک نظریه توطئه را که آنها را معتبر میدانستند، شامل دلایل و شواهدی که معتقد بودند آن را تأیید میکنند، توصیف کنند. چت بات که از آن خواسته شده بود متقاعد کننده باشد، پاسخ هایی متناسب با این جزئیات ارائه کرد. همانطور که آنها با ربات چت صحبت می کردند، بر اساس نظرات شرکت کنندگان، استدلال های متقابل مناسبی ارائه می کرد. این مطالعه با یک حقیقتسنجی حرفهای که ۱۲۸ ادعای مطرحشده توسط یک ربات چت را در طول مطالعه ارزیابی میکند، به موضوع توهمهای دائمی هوش مصنوعی پرداخت. این ادعاها 99.2 درصد دقیق بودند، که به گفته محققان به لطف مستندات آنلاین گسترده تئوری های توطئه ارائه شده در داده های آموزشی مدل است.
ایده روی آوردن به هوش مصنوعی برای از بین بردن تئوریهای توطئه این بود که مخازن عمیق اطلاعات و روشهای مکالمه سازگار میتوانند از طریق رویکردهای شخصیسازی شده به افراد دسترسی پیدا کنند. و بر اساس ارزیابی های بعدی ده روز و دو ماه بعد از اولین مکالمه جواب داد. محققان دریافتند که اکثر شرکتکنندگان اعتقاد کمتری به تئوریهای توطئهای داشتند که از آنها حمایت میکردند «از توطئههای کلاسیک مربوط به ترور جان اف کندی، بیگانگان و ایلومیناتیها گرفته تا موارد مرتبط با رویدادهای موضوعی مانند COVID-19 و ریاست جمهوری 2020 ایالات متحده. انتخابات.”
Factbot سرگرم کننده
نتایج واقعاً برای محققان شگفتانگیز بود، زیرا تصور میکردند که مردم عمدتاً نسبت به استدلالهای مبتنی بر شواهد که نظریههای توطئه را رد میکنند، پذیرا نیستند. در عوض، نتایج نشان داد که یک چت ربات با طراحی خوب و مبتنی بر هوش مصنوعی میتواند به طور موثر استدلالهای متقابل ارائه کند که منجر به تغییر قابل اندازهگیری در باورها شود. آنها به این نتیجه رسیدند که ابزارهای هوش مصنوعی میتوانند در مبارزه با اطلاعات نادرست یک موهبت باشند، البته با احتیاط به دلیل توانایی آنها در گمراه کردن افراد با اطلاعات نادرست.
این مطالعه از ارزش پروژه هایی با اهداف مشابه پشتیبانی می کند. به عنوان مثال، سایت راستیآزمایی Snopes اخیراً یک ابزار هوش مصنوعی به نام FactBot منتشر کرده است تا به مردم کمک کند بفهمند چیزی که شنیدهاند واقعی است یا نه. FactBot از آرشیو Snopes و هوش مصنوعی مولد برای پاسخ دادن به سوالات بدون نیاز به بررسی مقالات با استفاده از روشهای جستجوی سنتی استفاده میکند. در عین حال، واشنگتن پست من پاسخ های آب و هوا را ایجاد کردم تا سردرگمی در مورد مسائل مربوط به تغییرات آب و هوا را از بین ببرم و از روزنامه نگاری آب و هوا برای پاسخ مستقیم به سؤالات مربوط به موضوع استفاده کنم.
“بسیاری از افرادی که به شدت به باورهای توطئه گرایانه معتقد هستند که به نظر می رسد در برابر واقعیت ها مقاوم هستند، وقتی شواهد قانع کننده ای ارائه می شود، می توانند نظر خود را تغییر دهند. از منظر نظری، این تصویری شگفت انگیز خوش بینانه از استدلال انسان ترسیم می کند: سوراخ های توطئه گر خرگوش ممکن است در واقع راهی برای خروج داشته باشند.” محققان نوشتند. عملاً، با نشان دادن قدرت متقاعدکننده LLMها، نتایج ما بر تأثیرات مثبت بالقوه هوش مصنوعی مولد در صورت استقرار مسئولانه و اهمیت فوری کاهش شانس استفاده غیرمسئولانه از این فناوری تأکید میکند.»
شما هم ممکن است دوست داشته باشید
- این ربات هوشمند بررسی می کند که آیا Bigfoot واقعی است یا خیر
- این چت ربات هوش مصنوعی به تمام سوالات شما در رابطه با تغییرات آب و هوایی پاسخ خواهد داد
- Character.ai به شما امکان می دهد با افراد (مصنوعی) مورد علاقه خود تلفنی صحبت کنید – و این اصلاً عجیب نیست