آیا هوش مصنوعی می تواند شما را کمتر ساده لوح کند یا این یک توطئه است؟

Fake News

چت ربات های هوش مصنوعی ممکن است در برخورد با اطلاعات مصنوعی مشکل داشته باشند، اما تحقیقات جدید نشان داده است که ممکن است برای دفع افکار بی اساس و توهمات در ذهن انسان مفید باشند. دانشمندان MIT و دانشگاه کرنل یک مقاله تحقیقاتی در این مقاله منتشر کردند علوم یک مطالعه ادعا کرد که مکالمه با یک ربات چت با یک مدل بزرگ زبانی (LLM) باعث کاهش اعتقاد به توطئه ها تا حدود 20٪ می شود.

برای اینکه ببیند چگونه یک چت بات هوشمند می‌تواند بر تفکر توطئه‌آمیز تأثیر بگذارد، دانشمند ۲۱۹۰ شرکت‌کننده را ترتیب داد تا در مورد تئوری‌های توطئه با یک ربات چت مجهز به مدل GPT-4 Turbo OpenAI صحبت کنند. از شرکت کنندگان خواسته شد تا یک نظریه توطئه را که آنها را معتبر می‌دانستند، شامل دلایل و شواهدی که معتقد بودند آن را تأیید می‌کنند، توصیف کنند. چت بات که از آن خواسته شده بود متقاعد کننده باشد، پاسخ هایی متناسب با این جزئیات ارائه کرد. همانطور که آنها با ربات چت صحبت می کردند، بر اساس نظرات شرکت کنندگان، استدلال های متقابل مناسبی ارائه می کرد. این مطالعه با یک حقیقت‌سنجی حرفه‌ای که ۱۲۸ ادعای مطرح‌شده توسط یک ربات چت را در طول مطالعه ارزیابی می‌کند، به موضوع توهم‌های دائمی هوش مصنوعی پرداخت. این ادعاها 99.2 درصد دقیق بودند، که به گفته محققان به لطف مستندات آنلاین گسترده تئوری های توطئه ارائه شده در داده های آموزشی مدل است.

ایده روی آوردن به هوش مصنوعی برای از بین بردن تئوری‌های توطئه این بود که مخازن عمیق اطلاعات و روش‌های مکالمه سازگار می‌توانند از طریق رویکردهای شخصی‌سازی شده به افراد دسترسی پیدا کنند. و بر اساس ارزیابی های بعدی ده روز و دو ماه بعد از اولین مکالمه جواب داد. محققان دریافتند که اکثر شرکت‌کنندگان اعتقاد کمتری به تئوری‌های توطئه‌ای داشتند که از آنها حمایت می‌کردند «از توطئه‌های کلاسیک مربوط به ترور جان اف کندی، بیگانگان و ایلومیناتی‌ها گرفته تا موارد مرتبط با رویدادهای موضوعی مانند COVID-19 و ریاست جمهوری 2020 ایالات متحده. انتخابات.”

بخوان  ابهام‌زدایی از انبساط جهان با بزرگترین نقشه کهکشان‌ها

Factbot سرگرم کننده

نتایج واقعاً برای محققان شگفت‌انگیز بود، زیرا تصور می‌کردند که مردم عمدتاً نسبت به استدلال‌های مبتنی بر شواهد که نظریه‌های توطئه را رد می‌کنند، پذیرا نیستند. در عوض، نتایج نشان داد که یک چت ربات با طراحی خوب و مبتنی بر هوش مصنوعی می‌تواند به طور موثر استدلال‌های متقابل ارائه کند که منجر به تغییر قابل اندازه‌گیری در باورها شود. آنها به این نتیجه رسیدند که ابزارهای هوش مصنوعی می‌توانند در مبارزه با اطلاعات نادرست یک موهبت باشند، البته با احتیاط به دلیل توانایی آنها در گمراه کردن افراد با اطلاعات نادرست.

این مطالعه از ارزش پروژه هایی با اهداف مشابه پشتیبانی می کند. به عنوان مثال، سایت راستی‌آزمایی Snopes اخیراً یک ابزار هوش مصنوعی به نام FactBot منتشر کرده است تا به مردم کمک کند بفهمند چیزی که شنیده‌اند واقعی است یا نه. FactBot از آرشیو Snopes و هوش مصنوعی مولد برای پاسخ دادن به سوالات بدون نیاز به بررسی مقالات با استفاده از روش‌های جستجوی سنتی استفاده می‌کند. در عین حال، واشنگتن پست من پاسخ های آب و هوا را ایجاد کردم تا سردرگمی در مورد مسائل مربوط به تغییرات آب و هوا را از بین ببرم و از روزنامه نگاری آب و هوا برای پاسخ مستقیم به سؤالات مربوط به موضوع استفاده کنم.

“بسیاری از افرادی که به شدت به باورهای توطئه گرایانه معتقد هستند که به نظر می رسد در برابر واقعیت ها مقاوم هستند، وقتی شواهد قانع کننده ای ارائه می شود، می توانند نظر خود را تغییر دهند. از منظر نظری، این تصویری شگفت انگیز خوش بینانه از استدلال انسان ترسیم می کند: سوراخ های توطئه گر خرگوش ممکن است در واقع راهی برای خروج داشته باشند.” محققان نوشتند. عملاً، با نشان دادن قدرت متقاعدکننده LLMها، نتایج ما بر تأثیرات مثبت بالقوه هوش مصنوعی مولد در صورت استقرار مسئولانه و اهمیت فوری کاهش شانس استفاده غیرمسئولانه از این فناوری تأکید می‌کند.»

بخوان  از اطلاعات فاش شده در خصوص گوشی‌های خانواده گلکسی S۲۳ چه می‌دانید؟

شما هم ممکن است دوست داشته باشید

  • این ربات هوشمند بررسی می کند که آیا Bigfoot واقعی است یا خیر
  • این چت ربات هوش مصنوعی به تمام سوالات شما در رابطه با تغییرات آب و هوایی پاسخ خواهد داد
  • Character.ai به شما امکان می دهد با افراد (مصنوعی) مورد علاقه خود تلفنی صحبت کنید – و این اصلاً عجیب نیست

منبع