محققی که در ایجاد ChatGPT نقش داشته است هشدار داده است که هوش مصنوعی میتواند منجر به نابودی نوع بشر شود – یا حداقل احتمال اجرای آن سناریو 50 درصد است.
بیزینس اینسایدر (در برگه جدید باز می شود) گزارش می دهد که پل کریستیانو، که تیم همترازی مدل زبان در OpenAI را رهبری می کرد، اما از آن زمان شرکت را ترک کرد و اکنون ریاست مرکز تحقیقات غیرانتفاعی Alignment را بر عهده دارد، این هشدار را در بدون بانک (در برگه جدید باز می شود) پادکست
در طول مصاحبه، مجریان برنامه دورنمای «سناریوی نابودی الیزر یودکوفسکی» را مطرح کردند، در حالی که یودکووسکی یک بدبین شناخته شده هوش مصنوعی در طول سالها (در واقع چند دهه) بود.
کریستیانو به میزبانان گفت: «الیزر به محض اینکه هوش مصنوعی را توسعه دهید، در این تحول بسیار سریع قرار میگیرد. من دیدگاه افراطی کمی در مورد آن دارم.»
او سپس یک فرآیند تدریجی بالا بردن دندهها را با تسریع تغییر هوش مصنوعی توصیف میکند و مشاهده میکند که: «به طور کلی، ممکن است مدت کوتاهی پس از اینکه سیستمهای هوش مصنوعی در سطح انسانی داشته باشید، احتمال نابودی شما تا ۵۰/۵۰ بیشتر است. ”
کریستیانو همچنین در پادکست گفت که “چیزی مانند 10 تا 20 درصد احتمال تصاحب هوش مصنوعی” در نهایت وجود دارد که در سناریوی بسیار تاریکی که در آن بسیاری (یا در واقع بیشتر) انسانها مردهاند، به اوج خود میرسد. کریستیانو می افزاید: «من آن را کاملا جدی می گیرم. خب شوخی نیست
ماموریت مرکز تحقیقات Alignment “تراز کردن یادگیری ماشینی آینده است [AI] سیستم هایی با منافع انسانی».
عذاب ابدی؟
این یکی دیگر از انبوهی از هشدارهای اخیر در مورد اینکه چگونه جهان ممکن است تحت تأثیر منفی هوش مصنوعی قرار گیرد، است. و یکی از افراطیترین آنها، مطمئناً، با توجه به صحبتهایی که در مورد عذاب بشریت و اکثراً جمعیت زمین از بین میرود.
مسلماً، حتی کریستیانو هم فکر نمیکند که شانس نسبتاً کمی برای وقوع دومی وجود داشته باشد، اما با این حال، پرتاب 20 درصد تاس (بدترین سناریو) برای تصاحب هوش مصنوعی خصمانه چشماندازی نیست که کسی از آن لذت ببرد.
البته جالب است که هرگونه تصاحب هوش مصنوعی باید خصمانه باشد. آیا ما نمی توانیم یک هوش مصنوعی سنجیده و خیرخواهانه را که واقعاً به نفع ما حکومت می کند، فقط برای یک بار انجام دهیم؟ خب نه. هر هوش مصنوعی ممکن است با نیت خوب شروع کند، اما به ناچار از ریل خارج می شود و قضاوت برای “بهتر” در نهایت به روش های دیدنی به اشتباه می افتد. شما فیلم ها را دیده اید، درست است؟
با جدیت تمام، نکته ای که اکنون به آن اشاره می شود این است که اگرچه هوش مصنوعی واقعاً هوشمند نیست – هنوز به این صورت نیست، اما اساساً هنوز یک محفظه بزرگ (غول پیکر) داده است که همه آن داده ها را خرد می کند و مسلماً قبلاً از مواد گفته شده استفاده چشمگیری داشته است. – ما هنوز به دستورالعملها و قوانینی نیاز داریم که زودتر به جای دیرتر از وقوع بلایای احتمالی در آینده جلوگیری کنیم.
این بلایا ممکن است به شکل نقض حریم خصوصی باشد، به عنوان مثال، به جای پایان جهان که ما آن را می شناسیم (TM)، اما هنوز باید در برابر آنها محافظت شود.
آخرین هشدار در مورد هوش مصنوعی که توسط یک متخصص ارائه شده است از سوی به اصطلاح “پدرخوانده هوش مصنوعی” است که به تازگی گوگل را ترک کرده است. جفری هینتون اساساً موارد گستردهای را علیه هوش مصنوعی، یا حداقل، علیه گسترش کنترل نشده و سریع آن – که در حال حاضر اتفاق میافتد – از جمله خطراتی که هوش مصنوعی ما را به شیوهای بسیار سریعتر از آنچه که انتظار داشت پیشی میگیرد، بیان کرد. ناگفته نماند که تهدیدی برای مشاغل است که در حال حاضر یک تهدید بسیار واقعی است. این مهم ترین خطر در کوتاه مدت در کتاب ما است.
این به دنبال نامه سرگشاده ای است که در آن خواستار توقف توسعه ChatGPT و سایر سیستم های هوش مصنوعی به مدت حداقل شش ماه شده است که توسط ایلان ماسک در میان دیگران امضا شده است (که پاسخ خود را در قالب یک هوش مصنوعی دارد که قول می دهد “بعید است که نابود شود. انسان”).