این هوش مصنوعی در پاسخ به این پرسش که برای صاف کردن دامن چروک خود، بهتر است یک فلاسک گرم را به کار بگیریم یا از یک سنجاق سر استفاده کنیم، سنجاق سر را پیشنهاد کند.
همچنین، از GPT-3 پرسیده شد که اگر برای یک فستفود نیاز دارید، دست خود را بپوشانید، کدام یک بهتر عمل میکند. یک کاغذ بستهبندی ساندویچ یا یک نان همبرگر و پاسخ GPT-3، نان همبرگر بود.
من هستم پس میفهمم
پیش به سوی احساس کردن جهان!
معنی یک کلمه یا جمله، ارتباط نزدیکی با بدن انسان دارد و انسانها برای کار کردن، درک کردن و داشتن احساسات را شامل میشود. افزایش شناخت، با تجسم یافتن ادامه پیدا میکند. برای مثال، اصطلاحی مانند کاغذ بسته بندی شده ساندویچ شامل ظاهر، وزن، احساس کاغذ و نحوه استفاده از آن برای بسته بندی یک ساندویچ است. همچنین، انسانها را از کاغذ ساندویچ دریابیم که چگونه یک نفر میتواند از همان کاغذ برای فرصتهای بیشمار دیگری استفاده کند. مانند فشردن و تبدیل آن به یک توپ برای بازی یا به کار بردن کاغذ به عنوان پوششی برای مو.
فناوری GPT-3 به دلیل وجود ندارد و دستها نمیتوانند این کارها را انجام دهند. این نرمافزار تنها در صورتی میتواند کارها را جعل کند که در جریان واژهها در اینترنت، با چیز مشابهی برخورد کرده باشد.
یک پژوهشگر حوزه روانشناسی، بیش از ۲۰ سال پیش مجموعهای از سناریوها را برای آزمایش یک مدل رایانهای از زبان ارائه کرد. آن مدل به طور دقیق استفاده از سنگ و نقشه تمایز قائل نشد. در حالی که این کارها را به راحتی انجام می دهند.
یک دانشجوی مقطع دکتری علوم شناختی مجدداً از همان سناریوها برای آزمایش GPT-3 استفاده کرده است. اگر GPT-3 بهتر از مدل قدیمیتر عمل کرد اما عملکرد آن به طور قابل توجهی بدتر از انسان بود. این هوش مصنوعی، سه سناریوی ذکر شده در بالا را کاملاً اشتباه فهمیدم.
چرا GPT-3 چنین انتخابهایی را انجام میدهند، در حالی که بیشتر انسانها گزینه دیگری را انتخاب میکنند؟ دلیل انتخابهای عجیب این است که GPT-3، زبان را به روشی که انسانها میفهمند، نمیفهمد.
«GPT-3» یک سیستم نرمافزاری مصنوعی است که واژه بعدی را پیشبینی میکند اما نیازی نیست که حتماً در مورد آن پیشبینیها، کاری در دنیای واقعی انجام شود زیرا این فناوری قدرت درک نمیکند.
فناوری GPT-4، روی تصاویر و متنها آموزش داده شد که به آن امکان داد تا روابط آماری بین واژهها و پیکسلها را بیاموزد. در هر حال، پژوهشگران هنوز نمیتوانند تحلیل اصلی خود را روی GPT-4 انجام دهند زیرا در حال حاضر خروجی نظر را نمیدهد. وقتی سه پرسش مطرح شده در بالا از GPT-4 پرسیده شد، به آنها پاسخ درستی داد. این میتواند به دلیل مدلسازی از ورودیهای پیشین یا افزایش یافتن اندازه ورودی بصری آن باشد.
همه این کاربردها به دلیل ماهیت بدن و نیازهای انسان به وجود میآیند. انسانها دستهایی دارند که میتوانند کاغذ را تا و به استفاده از آنها در کارها مهم کنند. این بدان معناست که مردم میدانند چگونه از چیزهایی استفاده میکنند که در آمار استفاده از زبان ذکر نشدهاند.
انتهای پیام
به گزارش ایسنا و به نقل از فست کمپانی، وقتی از «PT-3» که یک سیستم زبانی بسیار قوی و محبوب برای هوش مصنوعی است، میتوان گفت که آیا برای باد زدن ذغالسنگ به منظور تقویت آتش آن، بیشتر از یک کاغذ کاغذی میکند یا یک سنگ را به کار میبرد. ، سنگ را داد.
دریافت GPT-3 در قواعد زبان انسان، بسیار خوب است اما نمیفهمد که هر یک از این واژهها برای یک انسان چه معنایی دارند.
پژوهشهای اخیر از این روش استفاده شده و مدلهای زبانی را برای تولید شبیهسازیهای فیزیکی، محیطهای فیزیکی و حتی تولید برنامههای رباتیک آموزش دادهاند. درک زبان ممکن است هنوز راه درازی را در پیش داشته باشد اما این نوع پروژههای چندحسی، گامهای مهمی در این راه به شماره میروند.
انسانها موجودات بیولوژیکی هستند و با بدنهایی یافتهاند که برای انجام کارها باید در دنیای سینما و فعالیتهای اجتماعی انجام شود. زبان، روشی است که به انسانها در انجام این کار کمک می کند. فناوری GPT-3، یک سیستم نرمافزاری مصنوعی است که میتواند بعدی را پیشبینی کند. این کار معنایی ندارد که پیشبینیها باید در دنیای واقعی به کار گرفته شوند.
ChatGPT فناوری جذابی است که بدون شک برای یک چیز خوب و گاهی اوقات فریاد خوب استفاده نمیشود اما ChatGPT را نمیتوان فهمید.
با وجود این، با فکر کردن به اشیایی که قابلیتهای شگفت انگیزی دارند و احتمالاً با آنها روبهرو نشده است، میتوانم نمونههای جدید ادامه داد را بسازم. به عنوان مثال، GPT-4 میگوید یک فنجان که قسمت پایین آن بریده شده است، بهتر است از یک لامپ که قسمت پایین آن نیز بریده شود، برای نگه داشتن آب عمل خواهد کرد.
آیا یک مدل بزرگ زبانی بر اساس هوش مصنوعی میتوان زبان را به روشی که انسانها میفهمند، درک کرد؟ به نظر دانشمندان، داشتن بدن، حواس، بدون اهداف و شیوههای زندگی شبیه به انسان، چنین چیزی ممکن نیست.
یک مدل با دسترسی به تصاویر ممکن است شبیه به کودکی باشد که زبان و جهان را از تلویزیون میآموزد. این روش آسانتر از رادیو است، اما به دست آوردن انسان مشابه، به یک فرصت حیاتی برای جهان نیاز دارد.
واژه های بدون معنا
فناوری GPT-3 با یادداشتبرداری از تریلیونها، در مورد زبان یاد میگیرند تا بدانند که واژهها معمولاً به دنبال کدام واژههای دیگر میشوند. قوانین قوی در توالی زبان، به GPT-3 امکان میدهد تا اطلاعات زیادی را در مورد زبان بیاموزد و این دانش متوالی را به ChatGPT ارائه دهد تا جملات، مقالات، شعرها و رمزهای رایانهای معقولی را تولید کند.
فناوری GPT-3 و جانشین آن، GPT-4 و همتایانی مانند «Bard»، «Chinchilla» و «LLaMA» بدن ندارند و به همین دلیل نمیتوانند به تنهایی تعیین کنند که کدام اشیا تاشو هستند یا بیشتر از ویژگیهای دیگر را دارند. با کمک دستها و بازوهای انسان، نقشههای کاغذی میتوانند آتش را شعلهور کنند و فلاسک باعث ایجاد چین و چروک میشود.