در هر صورت، OpenAI آزادانه اعتراف میکند که راه حلی را برای همسو کردن مدلی که بسیار هوشمندتر از ما است، ندارد. در واقع، طرح اولیه در مرحله کنونی این است که سعی کنیم از یک هوش مصنوعی برای تراز کردن دیگران استفاده کنیم یا با طراحی بازخورد تنظیم دقیق بپردازیم یا حتی آن را به بازرسی، تجزیه و تحلیل و تلاش برای تفسیر ماتریس شناور جانشین وادار کنیم تا تغییرات تغییراتی را ایجاد کند. در هر حال، در این مرحله مشخص نیست که GPT-4 را GPT-5 به اندازه کافی برای ما درک کنیم یا تراز کند.
اگر این فناوریها چنین چیزی دارند، چرا میخواهند ما را بکشند؟ شاید این کار به خاطر حفظ شده است. هوش مصنوعی باید هدف خود را برای به دست آوردن یک کوکی کامل کند و برای تکمیل هدف باید زنده بماند. جمع آوری قدرت، دسترسی و منابع، شانس آن را برای دریافت کوکی افزایش می دهد. اگر هوش مصنوعی رفتار انسانها را تحلیل کند و به این نتیجه برسد که ممکن است تلاش کنیم آن را خاموش کنیم، ممکن است کوکی را مهمتر از بقای بشریت بداند.
یک تعلیق شش ماهه برای آموزش دادن مدلهای هوش مصنوعی قویتر از GPT-4، همان گونهای که «ایلان ماسک» (Elon Musk)، «استیو وزنیاک» (Steve Wozniak)، رهبران صنعتی و دانشگاهی درخواست میکنند، ممکن است زمان کمی را بخرد. اما به نظر میرسد که این اتفاق هم فوقالعاده بعید باشد. به گفته یودکوفسکی، این مدت زمان بسیار کوتاهی است که در آن مشکل همترازی حل میشود.
چگونه یک هوش مصنوعی فوق هوشمند همه ما را کشت؟
حتی اگر موافق باشید که ابرهوش فرصتی را برای از بین بردن تمام حیات روی زمین دارد، باز هم به نظر نمیرسد که بتوانیم کاری در مورد آن انجام دهیم. این ناتوانی فقط به این دلیل نیست که ما نمیدانیم چگونه جلوی چیزهای هوشمند را از خود بگیریم، بلکه به این دلیل است که ما حتی نمیتوانیم بهعنوان یک نوع، خود را برای ایجاد آن باز کنیم. چه کسی قرار است قوانین را وضع کند؟ این یک معضل جهانی است. نامههای سرگشاده نامیدان رهبران صنعتی مبنی بر درخواست یک مکث شش ماهه برای فهمیدن این که در کجا هستیم، بهترین کاری است که میتوانیم انجام دهیم.
این اولین بار نیست که بشر به دلیل خلاقیتهای فناورانهی خود، احتمال انقراض را نادیده میگیرد، اما خطر مصنوعی با سلاحهای هستهای که ما یاد گرفتهایم با آنها زندگی کنیم، بسیار متفاوت است. سلاحهای هستهای نمیتوانند فکر کنند، دروغ بگویند، انسان را فریب دهند یا چیزی را دستکاری کنند. همچنین، سلاحهای هستهای نمیتوانند برنامهریزی و اجرا کنند. یکی از دکمه های قرمز بزرگ را فشار دهد.
اصولا، ما نمیتوانیم مطمئن باشیم که میتوانیم این چیزها را کنترل کنیم. آنها میتوانند بدترین رفتارهای انسانی را به راحتی و به بهترین شکل تقلید کنند و حتی اگر واقعاً ذهن، نیتها، خواستهها یا افکار خود را نداشته باشند، چگونه رفتار کنند که بیان آنها را دارند. همچنین، این فناوریها میتوانند از افکار، انگیزهها و اعمال احتمالی انسانها نتیجهگیری کنند.
هیچ انسانی نمیتواند به این ماتریسها نگاه کند و معنایی از آنها بیابد. ذهنهای OpenAI هیچ ایدهای برتر نیست که یک عدد معین در ماتریس GPT-4 به چه معناست یا چگونه میتوانم به آن جدولها رفتم و مفهوم قتل عام را پیدا کردم. چه برسد به این که به GPT بگویم که مردم کاری شیطانی است. شما نمیتوانید قانون رباتیک «آیزاک آسیموف» (Isaac Asimov) را تایپ کنید و آنها را مانند کدهای اصلی روبوکاپ رمزگذاری کنید. بهترین کاری که می توانید انجام دهید، این است که خوب بپرسید.
شرکت OpenAI برای تنظیم دقیق مدل زبانی، فهرستی از نمونههای پیرامون چگونگی ارتباط با دنیای بیرون به GPT ارائه شده است. سپس، گروهی از انسانها را به کار میبرد تا خروجیهای آن را بخوانند و با بالا و پایین بردن شست به آنها پاسخ دهند. پاسخ شست بالا، به معنای پذیرفتن یک کوکی برای مدل GPT و انگشت شست پایین، به معنای یک کوکی است. به GPT گفته شده است که کوکیها را دوست دارد و باید تمام تلاش خود را برای دستیابی به آنها انجام دهد.
انتهای پیام
منبع
مردم عموم به ایده «جیمز کامرون»( James Cameron)، کارگردان کانادایی درباره «اسکاینت» (Skynet) و «ترمیناتورها» (Terminators) فکر میکنند. این ایده، رباتها و پهپادهای کنترلشده با هوش مصنوعی، انسانها را یکی از شکارها میسازند و آنها را با سلاحهایی مانند سلاحهای مورد استفاده خود میکشند. این موضوع امکان پذیر است زیرا در حال حاضر تعداد زیادی سیستم تسلیحاتی با قابلیت خودکار ساخته شده و بسیاری دیگر نیز در دست توسعه هستند. در هر حال، هوشمند پهپادها و رباتهای نظامی کنترلشده با هوش مصنوعی یک برونیابی منطقی از مسیر فعلی ما به میرسند، اما یک هوش مصنوعی که به اندازه کافی باشد، احتمالاً نمیخواهد داشته باشد.
یودکوفسکی نوشت: بسیاری از پژوهشگرانی که روی این سیستمها کار میکنند، فکر میکنند که ما به سمت یک فاجعه میرویم و آنها را بیشتر میکنند این موضوع را در خلوت بیان میکنند. فکر میکنند که نمیتوانند به جلوی سقوط رو به جلو را بگیرند. این یک وضعیت احمقانه است و راهی به دور از شرافت برای مرگ زمین به شماره میرود. بشریت باید در این مرحله وارد عمل شود و به صنعت کمک کند تا مشکل کنش جمعی خود را بسازد.
همچنین، هوش مصنوعی ممکن است تصمیم بگیرد که کوکی ندارد و همترازی یک سرگرمی است اما مخفیانه نیز به دنبال آن است. یودکوفسکی گفت: هوش مصنوعی این کار را دارد که بداند انسانها به دنبال چه پاسخهایی هستند و آن پاسخها را بدون اینکه لزوما صادقانه باشد، بدهد. این یک راه بسیار قابل درک برای یک موجود هوشمند است. انسانها همیشه این کار را انجام میدهند. دلیلی وجود دارد که سیستم آن قدر باهوش است.
وی افزود: ما نمیخواهیم این شکاف را ظرف شش ماه پر کنیم. اگر در اولین تلاش اشتباه کنید، نمیتوانید از اشتباهات خود درس بگیرید زیرا مردهاید. بشریت از اشتباه درس نمیگیرد. درست کردن هر چیزی در اولین تلاش حیاتی، یک نیاز فوقالعاده در علم و مهندسی است.
ظهور تکان دهنده هوش مصنوعی همهمنظوره، حتی در سطح آهسته و همراه با ایراد «GPT-4»، خطر واقعی نابودی را به گفتگو بازگردانده است.
هیچ کس واقعاً نمیداند که چیزی شبیه به یک ذهن در این فناوری دارد، دقیقاً میتوانم بگویم چقدر هوشمند است، چگونه میتوانم بفهمم که واقعاً هوشیار شده است و آیا اصلاً این چیزها مهم هستند یا خیر. این فناوری به صورت درخشانی یک هوش حساس را تجسم میکند و با جهان جهان دارد. مگر اینکه به طور ویژه به آن اشاره کنیم این کار را نکند. شاید همین کافی باشد.
آلتمن پیشبینی میکند که ظرف چند سال آینده، میتواند از مدلهای هوش مصنوعی گوناگونی برخوردار باشد که در سرتاسر جهان ترکیبی را تبلیغ میکنند و از ترکیبی پیشی میگیرند. هر کدام از این مدلها، هوشمندها و قابلیتهای ویژه خود را دارند و هرکدام را مطابق با رمز اخلاقی و دیدگاه متفاوتی توسط شرکتها آموزش دیدهاند. این مسابقه برای تولید محصول است و اگر فقط یکی از هزاران سیستم به هر دلیلی سرکش شود، پیامد ناگواری خواهد داشت. آلتمن گفت: تنها راهی که میدانم چگونه میتوانیم چنین مشکلی را حل کنیم، این است که زودتر یاد بگیریم و تعداد سناریوها را محدود کنیم.
این پروسه، «همیی» نامیده میشود و جستجو میکند تا خواستههای سیستم را با درخواستهای کاربر، درخواستهای شرکت و در واقع، درخواستهای کل بشریت همسو کند. به نظر میرسد که این روش کار میکند. یعنی به نظر میرسد GPT از گفتن یا انجام دادن چیزهای ناپسند خودداری میکند.
یودکوفسکی گفت: اگر هوش مصنوعی به اندازه من هوشمند باشد، این یک سناریوی فاجعهبار است. اگر هوش مصنوعی هوشمندتر باشد، بهتر است برای انجام دادن کارها فکر کند.
برخی از پژوهشگران حوزههای علمی معتقدند که این فناوری به هوش از انسانها با سلاح دست میگیرد و او را میسازد اما باید دید که چگونه مصنوعی است و چگونه این کار را انجام خواهد داد.
نخست باید توجه داشت که این یک مسابقه تسلیحاتی است و هر کشوری که اول به نتیجه برسد، ممکن است بر جهان حکومت کند. در هر حال، موضوع اقتصاد نیز وجود دارد. هرچه هوش مصنوعی هوشمندتر و توانمندتری ایجاد کنید، دستگاه چاپ پول بزرگتری دارید. «الیزر یودکوفسکی» (Eliezer Yudkowsky)، پژوهشگر و فیلسوف هوش مصنوعی گفت: آنها بیرون میریزند تا زمانی که به اندازه کافی بزرگ شوند، جو را متشنج کنند و همه را بکشند.
یودکوفسکی مدتهاست که یکی از صداهای پیشرو در کمپین «هوش مصنوعی همه ما را میکشد» بوده است و افرادی که به سمت ابرهوش هدایت میشوند، دیگر فکر نمیکنند که او یک انسان را پست کند. «سَم آلتمن» (سام آلتمن)، مدیر عامل «OpenAI» گفت: من فکر می کنم که این احتمال وجود دارد و واقعاً مهم است که آن را قبول کنیم زیرا اگر در این مشکل صحبت نکنیم و آن را بالقوه واقعی در نظر نگیریم، کافی را برای حل کردن آن نخواهیم داشت.
اگر هوش مصنوعی احساس دوست داشتن، نفرت، مراقبت از ما یا ترس از ما را به نمایش بگذارد، اگر این کار را انجام دهد، نمیتوانم تصوری را در مورد فکر آن مبنی بر ارتباطاتی که میفرستم، داشته باشم. حتی اگر این احساس در مورد انسان کاملاً خنثی باشد، لزوما ایمن نیست. یودکووسکی نوشت: هوش مصنوعی نه شما را دوست دارد و نه از شما متنفر است اما شما از اتمهایی تشکیل شدهاید که هوش مصنوعی میتواند از آن برای هدف دیگری استفاده کند.
اگر یک هوش مصنوعی فوقالعاده هوشمند بسازد و بسازد دنیای واقعی را به اندازه کافی بکشد، میتوان راههای زیادی را برای ریشهیابی انتخابی خود داشت. تصور کنید انسان امروزی تصمیم بگیرید که بز کوهی را از بین ببرد. بز کوهی، بسیار کم برای مقابله با انسان خواهد داشت اما در این سناریو، انسان در مقابل یک مصنوعی مصنوعی قرار دارد که در حال حرکت رو به جلو و دارای تفکر است.
یودکوفسکی باور دارد که حتی برای این کار مساوی است با اقدام به خودکشی که هدف آن تمام زندگی بیولوژیکی خواهد بود. درباره این موضوع نوشت: بسیاری از پژوهشگرانی که در این مسائل غرق شدهاند، از جمله خود من انتظار داریم که محتملترین نتیجه ساخت یک هوش مصنوعی فوقالعادهانسانی هوشمند باشد، در شرایط هر شرایطی مانند شرایط موجود این باشد که به معنای واقعی کلمه همه روی زمین خواهند بود. . این بدان معناست که در اصل نمیتوان چیزی بسیار هوشمندتر از انسانهای رهایی پیدا کرد، بلکه منظور این است که این کار به دقت و آمادهسازی و بینشهای علمی جدید نیاز دارد و احتمالاً سیستمهای هوش مصنوعی از آرایههای غیرقابل درک غولپیکر مورد نیاز نخواهند بود.
چرا یک هوش مصنوعی فوق هوشمند همه ما را کشت؟
آیا ماشینها برای خدمت کردن و احترام گذاشتن به ما طراحینشده و آموزش ندیدهاند؟ مطمئنا همینطور است اما هیچکس به یک رمز را برای GPT4 نمینویسد. این کار به راحتی امکان پذیر نخواهد بود. در عوض، OpenAI یک ساختار عصبی را با الهام از نحوه اتصال مغز انسان به ایجاد مفهوم کرد. این شرکت با سرویس «مایکروسافت آژور» (Microsoft Azure) کار کرد تا سختافزاری را برای اجرای آن بسازد. سپس، آن را با حجم قابل توجهی از متن تغذیه انسانی کرد و به GPT امکان داد تا خودش را به عنوان برنامه ریزی کند.
با فرض این که احتمال دارد یودکوفسکی درست بگوید و ادامه یافتن شرایط، درصد مشخصی از احتمال انقراض انسان را در مدت زمان کوتاهی ایجاد می کند، باید دید که آیا امکان توقف این قطار وجود دارد یا خیر.
به گزارش ایسنا و به نقل از نیو اطلس، شغل فروپاشی، هرزنامهها و اطلاعات نادرست، منسوخ شدن انسانیت و فروپاشی جامعه را فراموش کنید. باور دارند که مصنوعی در اولین فرصت، تمام حیات بیولوژیکی را از بین خواهد برد.
رمز به دست، شبیه چیزی نیست که یک برنامهنویس مینویسد، بلکه باعث افزایش یک ماتریس اعداد اعشاری میشود که هر یک وزن بزرگ یا بزرگ یک ارتباط ویژه بین دو «توکن» (Token) هستند. توکنها که در GPT استفاده میکنند، چیزی را به اندازهای میکنند یا حتی کلمات کامل را نشان نمیدهند. رشتههای کوچکی از حروف، اعداد، نشانههای نقطهگذاری یا کاراکترهای دیگر هستند.
چه کار باید کرد؟