وقتی پدرخوانده ها مخالفت می کنند از آن متنفر نیستی؟
از یک طرف، دکتر جفری هینتون، دانشمند سابق گوگل، هشدار داده است که ما خیلی سریع پیش می رویم و هوش مصنوعی می تواند همه چیز را از شغل گرفته تا حقیقت را خراب کند. در طرف دیگر، یان لیکان متا را پیدا می کنیم.
هر دو دانشمند زمانی روی پیشرفتهای Deep Learning که دنیای هوش مصنوعی را تغییر میدهد با هم کار میکردند و باعث ایجاد هجوم پیشرفتها در الگوریتمهای هوش مصنوعی و مدلهای زبان بزرگ میشد که ما را به این لحظه پر از دردسر رساند.
هینتون هشدار خود را در اوایل سال جاری به مجله نیویورک تایمز. LeCun برنده جایزه تورینگ تا حد زیادی با هینتون مقابله کرد و از توسعه هوش مصنوعی در آن دفاع کرد مصاحبه ای گسترده با استیو لوی از وایرد.
LeCun به Levy گفت: “مردم از ترس این فناوری سوء استفاده می کنند و ما در معرض خطر ترساندن مردم از آن هستیم.”
استدلال LeCun، که در شکل TLDR آن چیزی است که باعث میشود، «نگران نباشید، هوش مصنوعی را در آغوش بگیرید»، به چند مؤلفه کلیدی تقسیم میشود که ممکن است شما را وادار به تفکر متفاوت کند یا نکند.
باز خوبه
من به ویژه از استدلال منبع باز LeCun لذت بردم. او به لوی گفت که اگر بپذیرید که هوش مصنوعی ممکن است در نهایت بین ما و بیشتر تجربیات دیجیتال ما قرار بگیرد، کنترل آن توسط چند شرکت قدرتمند هوش مصنوعی منطقی نیست. LeCun گفت: “شما نمی خواهید که سیستم هوش مصنوعی توسط تعداد کمی از شرکت ها در ساحل غربی ایالات متحده کنترل شود.”
اکنون، این مردی است که به عنوان دانشمند ارشد هوش مصنوعی متا کار می کند. متا (فیسبوک سابق) یک شرکت بزرگ ساحل غربی است (که اخیراً LLM LLAMA 2 منبع باز خود را راه اندازی کرده است). من مطمئن هستم که این کنایه در LeCun از بین نمی رود، اما فکر می کنم او ممکن است OpenAI را هدف قرار دهد. تامین کننده پیشرو هوش مصنوعی در جهان (سازنده ChatGPT و DALL-E و یکی از مشارکت کنندگان اصلی CoPilot مایکروسافت) به عنوان یک شرکت آزاد و غیرانتفاعی شروع به کار کرد. اکنون بودجه زیادی از مایکروسافت (همچنین یک شرکت بزرگ ساحل غربی) دریافت می کند و LeCun ادعا می کند که OpenAI دیگر تحقیقات خود را به اشتراک نمی گذارد.
احتمالاً مقررات موضوعیت ندارد
LeCun در مورد مقررات AI بسیار پر سر و صدا بوده است، اما شاید آنطور که شما فکر می کنید نباشد. او اساساً علیه آن بحث می کند. هنگامی که لوی در مورد تمام آسیب هایی که یک هوش مصنوعی غیرقابل تنظیم و قدرتمند می تواند وارد کند، لکان اصرار داشت که نه تنها هوش مصنوعی با نرده های محافظ ساخته می شود، بلکه اگر این ابزارها در صنعت استفاده شوند، باید از مقررات از قبل موجود و سفت و سخت پیروی کنند. صنعت داروسازی).
LeCun به Wired گفت: “سوالی که مردم در مورد آن بحث می کنند این است که آیا تنظیم تحقیق و توسعه هوش مصنوعی منطقی است یا خیر. و من فکر نمی کنم که چنین باشد.”
AGI نزدیک نیست
در ماههای اخیر صحبتهای زیادی در مورد پتانسیل هوش عمومی مصنوعی (AGI) صورت گرفته است که ممکن است بسیار شبیه هوش شما باشد یا نباشد. برخی از جمله سم آلتمن از OpenAI معتقدند که در افق نزدیک است. لیکان، اگرچه یکی از آنها نیست.
او استدلال کرد که ما حتی نمی توانیم AGI را تعریف کنیم زیرا هوش انسان یک چیز نیست. او در آنجا یک نکته دارد. هوش من به هیچ وجه با انیشتین یا لکان قابل مقایسه نیست.
شما می خواهید هوش مصنوعی از شما باهوش تر باشد
در دیدگاه LeCun تردیدی وجود ندارد که هوش مصنوعی در نهایت از انسانها باهوشتر خواهد بود، اما او همچنین خاطرنشان میکند که آنها انگیزههای مشابه ما را ندارند.
او این دستیاران هوش مصنوعی را به “انسان های فوق هوشمند” تشبیه می کند و اضافه می کند که کار با آنها ممکن است مانند کار با همکاران فوق باهوش باشد.
حتی با وجود این همه هوش، لکان اصرار دارد که این هوش مصنوعی ها انگیزه ها و انگیزه های انسانی ندارند. سلطه جهانی برای آنها مشکلی نخواهد داشت، زیرا آنها از ما باهوش تر هستند.
LeCun ایده برنامهنویسی در یک درایو (هدفی جایگزین) را نادیده نمیگیرد، اما میداند که به عنوان “هوش مصنوعی هدفمحور” و از آنجایی که بخشی از این هدف میتواند یک حفاظ غیرقابل نفوذ باشد، پادمانها در آن ایجاد خواهند شد.
آیا احساس بهتری دارم؟ آیا مقررات کمتر، منبع باز بیشتر و پذیرش محکمتر میانجیگری هوش مصنوعی مسیری رو به جلو به سوی آینده ای امنتر است؟ شاید. LeCun مطمئناً اینطور فکر می کند. تعجب می کنم که آیا او اخیراً با هینتون صحبت کرده است.