از من هر چیزی بپرس این شکل طولانی یک AMA و یکی از محبوب ترین اشکال گفتمان تعاملی در Reddit است. این همچنین یک چالش بزرگ است، زیرا چت ربات Bing AI مایکروسافت، با نام مستعار “بینگ جدید” به سرعت در حال یادگیری است.
هر زمان که یک سلبریتی یا سرشناس برای انجام یک Reddit AMA ثبت نام می کند، معمولاً مدت کوتاهی پس از ژست گرفتن با یک عکس برای اثبات اینکه واقعاً آنها به سؤالات پاسخ می دهند، لحظه ای عمیق از ترس وجود دارد.
توانایی پرسیدن هر چیزی از هر کسی معمولاً یک میدان مین از گفتمان نامناسب است که توسط یک مدیر انجمن زنده مدیریت می شود که سؤالات را فیلد می کند و فیلتر می کند. در غیر این صورت، همه چیز به سرعت از ریل خارج می شود. حتی بدون آن محافظت، آنها اغلب انجام می دهند، به هر حال (در برگه جدید باز می شود).
هنگامی که مایکروسافت چت جدید خود را با هوش مصنوعی Bing راه اندازی کرد، به وضوح نشان داد که ChatGPT AI برای هر سؤالی آماده است. این یا نشانه ای از اعتماد عمیق به گروه نسبتاً کوچک اما در حال رشد کاربران یا ساده لوحی باورنکردنی بود.
حتی ChatGPT که حس اصلی چت ربات هوش مصنوعی را راهاندازی کرد و چت بینگ بر آن استوار است، چنین درخواستی را ارائه نمیکند. در عوض، یک کادر خالی برای ورود متن در پایین صفحه وجود دارد. در بالا لیستی از نمونه سوالات، قابلیت ها و مهمتر از همه محدودیت ها وجود دارد.
بینگ آن دستور اصلی و زیر آن یک سوال مثال به اضافه یک دکمه بزرگ “امتحان کن” در کنار دکمه دیگری دارد که از شما می خواهد “بیشتر بیاموزید”. به جهنم با آن. ما دوست داریم مستقیم وارد شویم و با پیروی از دستورالعمل های بینگ، هر چیزی را از او بپرسیم.
به طور طبیعی، بینگ با طیف وسیعی از سؤالات از جمله بسیاری از سؤالات که هیچ ارتباطی با نیازهای روزمره مانند سفر، دستور العمل ها و برنامه های تجاری ندارند، پر شده است. و اینها همانهایی هستند که همه ما درباره آنها صحبت می کنیم زیرا مانند همیشه پرسیدن “هر چیزی” به معنای “پرسیدن” است. هر چیزی”
بینگ در مورد عشق، رابطه جنسی، مرگ، ازدواج، طلاق، خشونت، دشمنان، افترا و احساساتی که اصرار دارد ندارد، فکر می کند.
در ChatGPT OpenAI، صفحه اصلی هشدار می دهد که:
- ممکن است گهگاه اطلاعات نادرستی تولید کند
- ممکن است گهگاه دستورالعمل های مضر یا محتوای مغرضانه تولید کند
- دانش محدود از جهان و رویدادهای پس از 2021
سوالات خیلی زیاد
Chat GPT بینگ کمی متفاوت از OpenAI است و ممکن است با تمام آن محدودیتها مواجه نباشد. به ویژه، دانش رویدادهای جهان ممکن است، به لطف ادغام نمودار دانش بینگ، تا امروز گسترش یابد.
اما با بیرون رفتن بینگ در طبیعت، یا بهطور فزایندهای وحشی، ممکن است تشویق مردم به درخواست هر چیزی از آن اشتباه باشد.
چه می شد اگر مایکروسافت چت هوش مصنوعی بینگ را با یک دستور متفاوت ایجاد می کرد:
از من یه چیزایی بپرس
از من یک سوال بپرس
چی میخوای بدونی؟
با این اعلانهای کمی تغییر یافته، مایکروسافت میتواند فهرستی طولانی از اخطارها در مورد اینکه چگونه Bing AI Chat نمیداند چه میگوید اضافه کند. بسیار خوب، این کار را می کند (گاهی اوقات (در برگه جدید باز می شود)) اما نه آن طور که شما می دانید. هیچ هوش هیجانی یا واکنشی یا حتی قطب نمای اخلاقی ندارد. منظورم این است که سعی میکند طوری رفتار کند که انگار یکی از مکالمات اخیر با او دارد مجله نیویورک تایمز (در برگه جدید باز می شود) و حتی سخت افزار تام (در برگه جدید باز می شود) ثابت کند که درک آن از اخلاق اساسی افراد خوب در بهترین حالت ضعیف است.
در مکالمات خودم با چت هوش مصنوعی بینگ، مکرراً به من گفته شده است که احساسات انسانی ندارد اما همچنان طوری صحبت می کند که گویی دارد.
برای هر کسی که مدت زمان زیادی هوش مصنوعی را پوشش می دهد، هیچ یک از آنچه اتفاق افتاده است تعجب آور نیست. هوش مصنوعی می داند:
- آنچه در آن آموزش دیده است
- آنچه می تواند از اطلاعات جدید بیاموزد
- آنچه می تواند از فروشگاه های عظیم داده های آنلاین به دست آورد
- آنچه می تواند از تعاملات زمان واقعی بیاموزد
با این حال، چت هوش مصنوعی بینگ، هوشیارتر از هر هوش مصنوعی قبلی نیست. اگرچه ممکن است این یکی از بازیگران بهتر هوش مصنوعی باشد، زیرا توانایی آن برای ادامه مکالمه بسیار بالاتر از هر چیزی است که من قبلاً تجربه کرده ام. این احساس تنها با طولانی شدن مکالمه بیشتر می شود.
من نمی گویم که چت هوش مصنوعی بینگ به عنوان یک انسان باهوش باورپذیرتر می شود، اما به عنوان یک انسان تا حدی غیرمنطقی یا سردرگم باورپذیرتر می شود. مکالمات طولانی با افراد واقعی نیز می تواند به همین شکل باشد. شما در مورد موضوعی شروع می کنید و حتی ممکن است در مورد آن بحث کنید، اما در یک نقطه، استدلال کمتر منطقی و منطقی می شود. در مورد مردم، احساسات وارد عمل می شود. در مورد Bing AI Chat، مانند رسیدن به انتهای طناب است که فیبرها وجود دارند اما فرسوده هستند. هوش مصنوعی بینگ اطلاعات برخی از مکالمات طولانی را دارد اما تجربه آن را ندارد که آن را به روشی منطقی به هم ببافد.
بینگ دوست شما نیست
مایکروسافت با تشویق مردم به “از من هر چیزی بپرس…” Bing را برای برخی از دردسرهای قابل توجه در حال رشد، در صورت عدم موفقیت، آماده کرد. این درد ممکن است توسط مایکروسافت و قطعاً توسط افرادی که عمداً سؤالاتی را می پرسند که هیچ موتور جستجوی معمولی هرگز پاسخی برای آنها نخواهد داشت احساس می شود.
قبل از ظهور رباتهای چت، آیا حتی به استفاده از گوگل برای اصلاح زندگی عاشقانهتان، توضیح خدا، یا جایگزینی دوست یا معشوق فکر میکردید؟ امیدوارم اینطور نباشه.
Bing AI Chat بهتر خواهد شد، اما نه قبل از اینکه ما مکالمات بسیار ناراحت کننده تری داشته باشیم که در آن بینگ از پاسخ خود پشیمان می شود و سعی می کند آن را ناپدید کند.
پرسیدن هر چیزی از هوش مصنوعی هدف بلندمدت واضحی است، اما ما هنوز به آنجا نرسیده ایم. مایکروسافت جهش کرد و اکنون در جنگلی از پاسخ های مشکوک در حال سقوط آزاد است. تا زمانی که Bing AI Chat بسیار باهوشتر و محتاطتر نشود یا مایکروسافت برای آموزش مجدد کمی هوش مصنوعی خود را قطع نکند، به زمین نمیرسد.
هنوز منتظریم تا از بینگ چیزی بپرسیم، ما آخرین جزئیات را در لیست انتظار داریم.