از نگرش چت ربات Bing AI خسته شده اید؟ حالا می توانید شخصیت آن را تغییر دهید

سپس گروه کنترل باقیمانده (10٪) انتخابگر را در طول روز گذشته به آنها ارائه کرد، بنابراین همه باید تا کنون آن را داشته باشند. این خبر خوبی برای کسانی است که می خواهند گزینه های بیشتری در مورد پاسخ های ربات چت به سؤالات خود داشته باشند.

در اوایل این هفته، شاهد کارهای دیگری بر روی هوش مصنوعی بودیم تا آنچه که “توهمات” نامیده می شود را کاهش دهیم (جایی که چت بات اطلاعات نادرست ارائه می دهد یا به سادگی اشتباه می کند). همچنین برای اطمینان از اینکه مواردی که Bing به سادگی به یک پرس و جو پاسخ نمی‌دهد، کمتر اتفاق می‌افتد.

مایکروسافت ممکن است نیاز داشته باشد که به کار بر روی تنظیمات متعادل نگاه کند تا انتخاب قانع‌کننده‌تری باشد، به خصوص اگر ببیند که ترافیک به شدت به سمت گزینه Creative منحرف شده است.

بدون شک آزمایش های زیادی با حالت های چت انجام خواهد شد تا دقیقاً مشخص شود که این سه شخصیت چگونه متفاوت هستند.

تا اینجای کار، به نظر می‌رسد تنظیمات «Creative» بیشترین بازخورد مثبت را دریافت کرده است، و احتمالاً این همان چیزی است که بسیاری از کاربران Bing به دنبال آن هستند. صرفاً به این دلیل که اینجاست که هوش مصنوعی بیشترین اختیار را دارد، و بنابراین بیشتر شبیه انسان به نظر می رسد – به جای حالت «دقیق» که بیشتر شبیه یک پاسخ مستقیم به یک عبارت جستجو است. (مطمئناً تا حدودی نقطه ضعف داشتن هوش مصنوعی که جستجوهای شما را انجام می دهد، شکست می خورد).

در حالی که همه چیز خوب است، به نظر می رسد در مورد دوم، یک مانع جدید وجود دارد که با آخرین نسخه چت ربات که دارای انتخابگر شخصیت است، معرفی شده است – یعنی یک پیام خطا هنگام جستجوی هوش مصنوعی مبتنی بر ChatGPT. .

بخوان  تاکسی‌های رباتیک تسلا حوزه تاکسیرانی را متحول می‌کنند

«متوازن» یک راه میانی بین این دو است، به طوری که طبیعتاً ممکن است طرفداران سازش را وسوسه کند.

همانطور که می بینید، در زمان توئیت، 90 درصد از کاربران چت بات بینگ دارای انتخابگر چت سه گانه بودند که به شما امکان می دهد بین سه شخصیت مختلف برای هوش مصنوعی (دقیق، متعادل، یا خلاق) جابجا شوید.

با این حال، محبوب بودن دومی احتمالاً تا حدی با جدید بودن هوش مصنوعی مرتبط است و افرادی را جذب می کند که کنجکاو هستند و فقط می خواهند با ربات چت سر و کله بزنند تا ببینند بینگ چه چیزی می تواند بگوید. این دسته از کاربران بدون شک از بازی با هوش مصنوعی زودتر خسته می شوند و وقتی گرد و غبار کمی بیشتر می شود، تصویر متفاوتی از استفاده از شخصیت ارائه می دهد.

ربات چت بینگ مایکروسافت اکنون با تکمیل انتخابگر حالت چت بینگ، انتخابی از شخصیت ها را برای همه کاربران ارائه می دهد.

بازخورد اولیه نشان می‌دهد که در حالت خلاق، بینگ پاسخ‌های دقیق‌تری می‌دهد، نه تنها لمس شخصی‌تر را اضافه می‌کند، بلکه ظاهراً پاسخ‌ها را به عمق بیشتری نشان می‌دهد. این مفید خواهد بود و احتمالاً منجر به محبوب‌تر شدن این گزینه می‌شود. به خصوص که این تنظیمات جایی است که می‌خواهید پاسخ‌های جالب‌تر – یا شاید گاهی اوقات عجیب و غریب یا حتی عجیب‌تر – دریافت کنید.

بیشتر ببین





منبع

در موضوع توییتر بالا، چند شکایت در این راستا وجود دارد، بنابراین امیدواریم این چیزی باشد که مایکروسافت در حال بررسی است.


تجزیه و تحلیل: خلاقیت برای پیروزی؟ شاید فعلا…

این خبر توسط میخائیل پاراخین، رئیس بخش تبلیغات و خدمات وب مایکروسافت در توییتر به اشتراک گذاشته شده است. MS Power User (در برگه جدید باز می شود).