چرا «ChatGPT» چیزی را که می‌گوید، نمی‌فهمد؟

این هوش مصنوعی در پاسخ به این پرسش که برای صاف کردن دامن چروک خود، بهتر است یک فلاسک گرم را به کار بگیریم یا از یک سنجاق سر استفاده کنیم، سنجاق سر را پیشنهاد کند.

همچنین، از GPT-3 پرسیده شد که اگر برای یک فست‌فود نیاز دارید، دست خود را بپوشانید، کدام یک بهتر عمل می‌کند. یک کاغذ بسته‌بندی ساندویچ یا یک نان همبرگر و پاسخ GPT-3، نان همبرگر بود.

من هستم پس میفهمم

پیش به سوی احساس کردن جهان!

معنی یک کلمه یا جمله، ارتباط نزدیکی با بدن انسان دارد و انسان‌ها برای کار کردن، درک کردن و داشتن احساسات را شامل می‌شود. افزایش شناخت، با تجسم یافتن ادامه پیدا می‌کند. برای مثال، اصطلاحی مانند کاغذ بسته بندی شده ساندویچ شامل ظاهر، وزن، احساس کاغذ و نحوه استفاده از آن برای بسته بندی یک ساندویچ است. همچنین، انسان‌ها را از کاغذ ساندویچ دریابیم که چگونه یک نفر می‌تواند از همان کاغذ برای فرصت‌های بی‌شمار دیگری استفاده کند. مانند فشردن و تبدیل آن به یک توپ برای بازی یا به کار بردن کاغذ به عنوان پوششی برای مو.

فناوری GPT-3 به دلیل وجود ندارد و دست‌ها نمی‌توانند این کارها را انجام دهند. این نرم‌افزار تنها در صورتی می‌تواند کارها را جعل کند که در جریان واژه‌ها در اینترنت، با چیز مشابهی برخورد کرده باشد.

یک پژوهشگر حوزه روانشناسی، بیش از ۲۰ سال پیش مجموعه‌ای از سناریوها را برای آزمایش یک مدل رایانه‌ای از زبان ارائه کرد. آن مدل به طور دقیق استفاده از سنگ و نقشه تمایز قائل نشد. در حالی که این کارها را به راحتی انجام می دهند.

بخوان  درمان پارکینسون بوسیله سلولهای عصبی آزمایشگاهی

چرا «ChatGPT» چیزی را که می‌گوید، نمی‌فهمد؟

یک دانشجوی مقطع دکتری علوم شناختی مجدداً از همان سناریوها برای آزمایش GPT-3 استفاده کرده است. اگر GPT-3 بهتر از مدل قدیمی‌تر عمل کرد اما عملکرد آن به طور قابل توجهی بدتر از انسان بود. این هوش مصنوعی، سه سناریوی ذکر شده در بالا را کاملاً اشتباه فهمیدم.

چرا GPT-3 چنین انتخاب‌هایی را انجام می‌دهند، در حالی که بیشتر انسان‌ها گزینه دیگری را انتخاب می‌کنند؟ دلیل انتخاب‌های عجیب این است که GPT-3، زبان را به روشی که انسان‌ها می‌فهمند، نمی‌فهمد.

«GPT-3» یک سیستم نرم‌افزاری مصنوعی است که واژه بعدی را پیش‌بینی می‌کند اما نیازی نیست که حتماً در مورد آن پیش‌بینی‌ها، کاری در دنیای واقعی انجام شود زیرا این فناوری قدرت درک نمی‌کند.

فناوری GPT-4، روی تصاویر و متن‌ها آموزش داده شد که به آن امکان داد تا روابط آماری بین واژه‌ها و پیکسل‌ها را بیاموزد. در هر حال، پژوهشگران هنوز نمی‌توانند تحلیل اصلی خود را روی GPT-4 انجام دهند زیرا در حال حاضر خروجی نظر را نمی‌دهد. وقتی سه پرسش مطرح شده در بالا از GPT-4 پرسیده شد، به آنها پاسخ درستی داد. این می‌تواند به دلیل مدل‌سازی از ورودی‌های پیشین یا افزایش یافتن اندازه ورودی بصری آن باشد.

همه این کاربردها به دلیل ماهیت بدن و نیازهای انسان به وجود می‌آیند. انسانها دست‌هایی دارند که می‌توانند کاغذ را تا و به استفاده از آنها در کارها مهم کنند. این بدان معناست که مردم می‌دانند چگونه از چیزهایی استفاده می‌کنند که در آمار استفاده از زبان ذکر نشده‌اند.

انتهای پیام



منبع

به گزارش ایسنا و به نقل از فست کمپانی، وقتی از «PT-3» که یک سیستم زبانی بسیار قوی و محبوب برای هوش مصنوعی است، می‌توان گفت که آیا برای باد زدن ذغال‌سنگ به منظور تقویت آتش آن، بیشتر از یک کاغذ کاغذی می‌کند یا یک سنگ را به کار می‌برد. ، سنگ را ‌داد.

بخوان  صاحب ChatGPT نیز به افزایش طول عمر رفت

دریافت GPT-3 در قواعد زبان انسان، بسیار خوب است اما نمی‌فهمد که هر یک از این واژه‌ها برای یک انسان چه معنایی دارند.

پژوهش‌های اخیر از این روش استفاده شده و مدل‌های زبانی را برای تولید شبیه‌سازی‌های فیزیکی، محیط‌های فیزیکی و حتی تولید برنامه‌های رباتیک آموزش داده‌اند. درک زبان ممکن است هنوز راه درازی را در پیش داشته باشد اما این نوع پروژه‌های چندحسی، گام‌های مهمی در این راه به شماره می‌روند.

انسان‌ها موجودات بیولوژیکی هستند و با بدن‌هایی یافته‌اند که برای انجام کارها باید در دنیای سینما و فعالیت‌های اجتماعی انجام شود. زبان، روشی است که به انسانها در انجام این کار کمک می کند. فناوری GPT-3، یک سیستم نرم‌افزاری مصنوعی است که می‌تواند بعدی را پیش‌بینی کند. این کار معنایی ندارد که پیش‌بینی‌ها باید در دنیای واقعی به کار گرفته شوند.

ChatGPT فناوری جذابی است که بدون شک برای یک چیز خوب و گاهی اوقات فریاد خوب استفاده نمی‌شود اما ChatGPT را نمی‌توان فهمید.

با وجود این، با فکر کردن به اشیایی که قابلیت‌های شگفت انگیزی دارند و احتمالاً با آنها روبه‌رو نشده است، می‌توانم نمونه‌های جدید ادامه داد را بسازم. به عنوان مثال، GPT-4 می‌گوید یک فنجان که قسمت پایین آن بریده شده است، بهتر است از یک لامپ که قسمت پایین آن نیز بریده شود، برای نگه داشتن آب عمل خواهد کرد.

آیا یک مدل بزرگ زبانی بر اساس هوش مصنوعی می‌توان زبان را به روشی که انسان‌ها می‌فهمند، درک کرد؟ به نظر دانشمندان، داشتن بدن، حواس، بدون اهداف و شیوه‌های زندگی شبیه به انسان، چنین چیزی ممکن نیست.

بخوان  عدم محافظت از حریم خصوصی کودکان کار دست تیک تاک داد
یک مدل با دسترسی به تصاویر ممکن است شبیه به کودکی باشد که زبان و جهان را از تلویزیون می‌آموزد. این روش آسان‌تر از رادیو است، اما به دست آوردن انسان مشابه، به یک فرصت حیاتی برای جهان نیاز دارد.

واژه های بدون معنا

فناوری GPT-3 با یادداشت‌برداری از تریلیون‌ها، در مورد زبان یاد می‌گیرند تا بدانند که واژه‌ها معمولاً به دنبال کدام واژه‌های دیگر می‌شوند. قوانین قوی در توالی زبان، به GPT-3 امکان می‌دهد تا اطلاعات زیادی را در مورد زبان بیاموزد و این دانش متوالی را به ChatGPT ارائه دهد تا جملات، مقالات، شعرها و رمزهای رایانه‌ای معقولی را تولید کند.

فناوری GPT-3 و جانشین آن، GPT-4 و همتایانی مانند «Bard»، «Chinchilla» و «LLaMA» بدن ندارند و به همین دلیل نمی‌توانند به تنهایی تعیین کنند که کدام اشیا تاشو هستند یا بیشتر از ویژگی‌های دیگر را دارند. با کمک دست‌ها و بازوهای انسان، نقشه‌های کاغذی می‌توانند آتش را شعله‌ور کنند و فلاسک باعث ایجاد چین و چروک می‌شود.