سپس گروه کنترل باقیمانده (10٪) انتخابگر را در طول روز گذشته به آنها ارائه کرد، بنابراین همه باید تا کنون آن را داشته باشند. این خبر خوبی برای کسانی است که می خواهند گزینه های بیشتری در مورد پاسخ های ربات چت به سؤالات خود داشته باشند.
در اوایل این هفته، شاهد کارهای دیگری بر روی هوش مصنوعی بودیم تا آنچه که “توهمات” نامیده می شود را کاهش دهیم (جایی که چت بات اطلاعات نادرست ارائه می دهد یا به سادگی اشتباه می کند). همچنین برای اطمینان از اینکه مواردی که Bing به سادگی به یک پرس و جو پاسخ نمیدهد، کمتر اتفاق میافتد.
مایکروسافت ممکن است نیاز داشته باشد که به کار بر روی تنظیمات متعادل نگاه کند تا انتخاب قانعکنندهتری باشد، به خصوص اگر ببیند که ترافیک به شدت به سمت گزینه Creative منحرف شده است.
بدون شک آزمایش های زیادی با حالت های چت انجام خواهد شد تا دقیقاً مشخص شود که این سه شخصیت چگونه متفاوت هستند.
تا اینجای کار، به نظر میرسد تنظیمات «Creative» بیشترین بازخورد مثبت را دریافت کرده است، و احتمالاً این همان چیزی است که بسیاری از کاربران Bing به دنبال آن هستند. صرفاً به این دلیل که اینجاست که هوش مصنوعی بیشترین اختیار را دارد، و بنابراین بیشتر شبیه انسان به نظر می رسد – به جای حالت «دقیق» که بیشتر شبیه یک پاسخ مستقیم به یک عبارت جستجو است. (مطمئناً تا حدودی نقطه ضعف داشتن هوش مصنوعی که جستجوهای شما را انجام می دهد، شکست می خورد).
در حالی که همه چیز خوب است، به نظر می رسد در مورد دوم، یک مانع جدید وجود دارد که با آخرین نسخه چت ربات که دارای انتخابگر شخصیت است، معرفی شده است – یعنی یک پیام خطا هنگام جستجوی هوش مصنوعی مبتنی بر ChatGPT. .
«متوازن» یک راه میانی بین این دو است، به طوری که طبیعتاً ممکن است طرفداران سازش را وسوسه کند.
همانطور که می بینید، در زمان توئیت، 90 درصد از کاربران چت بات بینگ دارای انتخابگر چت سه گانه بودند که به شما امکان می دهد بین سه شخصیت مختلف برای هوش مصنوعی (دقیق، متعادل، یا خلاق) جابجا شوید.
با این حال، محبوب بودن دومی احتمالاً تا حدی با جدید بودن هوش مصنوعی مرتبط است و افرادی را جذب می کند که کنجکاو هستند و فقط می خواهند با ربات چت سر و کله بزنند تا ببینند بینگ چه چیزی می تواند بگوید. این دسته از کاربران بدون شک از بازی با هوش مصنوعی زودتر خسته می شوند و وقتی گرد و غبار کمی بیشتر می شود، تصویر متفاوتی از استفاده از شخصیت ارائه می دهد.
ربات چت بینگ مایکروسافت اکنون با تکمیل انتخابگر حالت چت بینگ، انتخابی از شخصیت ها را برای همه کاربران ارائه می دهد.
بازخورد اولیه نشان میدهد که در حالت خلاق، بینگ پاسخهای دقیقتری میدهد، نه تنها لمس شخصیتر را اضافه میکند، بلکه ظاهراً پاسخها را به عمق بیشتری نشان میدهد. این مفید خواهد بود و احتمالاً منجر به محبوبتر شدن این گزینه میشود. به خصوص که این تنظیمات جایی است که میخواهید پاسخهای جالبتر – یا شاید گاهی اوقات عجیب و غریب یا حتی عجیبتر – دریافت کنید.
اکنون تقریباً همه – 90٪ – باید انتخابگر حالت چت Bing (سه تاگل) را ببینند. من قطعاً Creative را ترجیح می دهم، اما Precise نیز جالب است – بسیار واقعی تر است. ببین کدومشو دوست داری 10 درصدی که هنوز در گروه کنترل هستند باید از امروز شروع به دیدن آن کنند.1 مارس 2023
به هر حال، تغییر شخصیت بینگ چیزی است که بدون شک به طور مداوم اتفاق می افتد، و حتی ممکن است در نهایت گزینه های بیشتری به غیر از این سه اولیه داشته باشیم. بیا، مایکروسافت، همه ما می خواهیم بینگ “عصبانی” را در عمل ببینیم، یا شاید یک ربات گفتگوی “ناامید” (یا تنظیمات “بازمانده آخرالزمان” چطور؟). نه؟