هوش مصنوعی چرا و چگونه ما را خواهم کشت؟!

در هر صورت، OpenAI آزادانه اعتراف می‌کند که راه حلی را برای همسو کردن مدلی که بسیار هوشمندتر از ما است، ندارد. در واقع، طرح اولیه در مرحله کنونی این است که سعی کنیم از یک هوش مصنوعی برای تراز کردن دیگران استفاده کنیم یا با طراحی بازخورد تنظیم دقیق بپردازیم یا حتی آن را به بازرسی، تجزیه و تحلیل و تلاش برای تفسیر ماتریس شناور جانشین وادار کنیم تا تغییرات تغییراتی را ایجاد کند. در هر حال، در این مرحله مشخص نیست که GPT-4 را GPT-5 به اندازه کافی برای ما درک کنیم یا تراز کند.

هوش مصنوعی چرا و چگونه ما را خواهم کشت؟!

اگر این فناوری‌ها چنین چیزی دارند، چرا می‌خواهند ما را بکشند؟ شاید این کار به خاطر حفظ شده است. هوش مصنوعی باید هدف خود را برای به دست آوردن یک کوکی کامل کند و برای تکمیل هدف باید زنده بماند. جمع آوری قدرت، دسترسی و منابع، شانس آن را برای دریافت کوکی افزایش می دهد. اگر هوش مصنوعی رفتار انسان‌ها را تحلیل کند و به این نتیجه برسد که ممکن است تلاش کنیم آن را خاموش کنیم، ممکن است کوکی را مهم‌تر از بقای بشریت بداند.

یک تعلیق شش ماهه برای آموزش دادن مدل‌های هوش مصنوعی قوی‌تر از GPT-4، همان گونه‌ای که «ایلان ماسک» (Elon Musk)، «استیو وزنیاک» (Steve Wozniak)، رهبران صنعتی و دانشگاهی درخواست می‌کنند، ممکن است زمان کمی را بخرد. اما به نظر می‌رسد که این اتفاق هم فوق‌العاده بعید باشد. به گفته یودکوفسکی، این مدت زمان بسیار کوتاهی است که در آن مشکل هم‌ترازی حل می‌شود.

چگونه یک هوش مصنوعی فوق هوشمند همه ما را کشت؟

حتی اگر موافق باشید که ابرهوش فرصتی را برای از بین بردن تمام حیات روی زمین دارد، باز هم به نظر نمی‌رسد که بتوانیم کاری در مورد آن انجام دهیم. این ناتوانی فقط به این دلیل نیست که ما نمی‌دانیم چگونه جلوی چیزهای هوشمند را از خود بگیریم، بلکه به این دلیل است که ما حتی نمی‌توانیم به‌عنوان یک نوع، خود را برای ایجاد آن باز کنیم. چه کسی قرار است قوانین را وضع کند؟ این یک معضل جهانی است. نامه‌های سرگشاده نامیدان رهبران صنعتی مبنی بر درخواست یک مکث شش ماهه برای فهمیدن این که در کجا هستیم، بهترین کاری است که می‌توانیم انجام دهیم.

این اولین بار نیست که بشر به دلیل خلاقیت‌های فناورانه‌ی خود، احتمال انقراض را نادیده می‌گیرد، اما خطر مصنوعی با سلاح‌های هسته‌ای که ما یاد گرفته‌ایم با آنها زندگی کنیم، بسیار متفاوت است. سلاح‌های هسته‌ای نمی‌توانند فکر کنند، دروغ بگویند، انسان را فریب دهند یا چیزی را دستکاری کنند. همچنین، سلاح‌های هسته‌ای نمی‌توانند برنامه‌ریزی و اجرا کنند. یکی از دکمه های قرمز بزرگ را فشار دهد.

اصولا، ما نمی‌توانیم مطمئن باشیم که می‌توانیم این چیزها را کنترل کنیم. آنها می‌توانند بدترین رفتارهای انسانی را به راحتی و به بهترین شکل تقلید کنند و حتی اگر واقعاً ذهن، نیت‌ها، خواسته‌ها یا افکار خود را نداشته باشند، چگونه رفتار کنند که بیان آنها را دارند. همچنین، این فناوری‌ها می‌توانند از افکار، انگیزه‌ها و اعمال احتمالی انسان‌ها نتیجه‌گیری کنند.

هیچ انسانی نمی‌تواند به این ماتریس‌ها نگاه کند و معنایی از آنها بیابد. ذهن‌های OpenAI هیچ ایده‌ای برتر نیست که یک عدد معین در ماتریس GPT-4 به چه معناست یا چگونه می‌توانم به آن جدول‌ها رفتم و مفهوم قتل عام را پیدا کردم. چه برسد به این که به GPT بگویم که مردم کاری شیطانی است. شما نمی‌توانید قانون رباتیک «آیزاک آسیموف» (Isaac Asimov) را تایپ کنید و آنها را مانند کدهای اصلی روبوکاپ رمزگذاری کنید. بهترین کاری که می توانید انجام دهید، این است که خوب بپرسید.

بخوان  تحقیق بر روی تاثیر ریزگرانش بر بینایی فضانوردان

شرکت OpenAI برای تنظیم دقیق مدل زبانی، فهرستی از نمونه‌های پیرامون چگونگی ارتباط با دنیای بیرون به GPT ارائه شده است. سپس، گروهی از انسان‌ها را به کار می‌برد تا خروجی‌های آن را بخوانند و با بالا و پایین بردن شست به آنها پاسخ دهند. پاسخ شست بالا، به معنای پذیرفتن یک کوکی برای مدل GPT و انگشت شست پایین، به معنای یک کوکی است. به GPT گفته شده است که کوکی‌ها را دوست دارد و باید تمام تلاش خود را برای دستیابی به آنها انجام دهد.

انتهای پیام



منبع

مردم عموم به ایده «جیمز کامرون»( James Cameron)، کارگردان کانادایی درباره «اسکای‌نت» (Skynet) و «ترمیناتورها» (Terminators) فکر می‌کنند. این ایده، ربات‌ها و پهپادهای کنترل‌شده با هوش مصنوعی، انسان‌ها را یکی از شکارها می‌سازند و آن‌ها را با سلاح‌هایی مانند سلاح‌های مورد استفاده خود می‌کشند. این موضوع امکان پذیر است زیرا در حال حاضر تعداد زیادی سیستم تسلیحاتی با قابلیت خودکار ساخته شده و بسیاری دیگر نیز در دست توسعه هستند. در هر حال، هوشمند پهپادها و ربات‌های نظامی کنترل‌شده با هوش مصنوعی یک برون‌یابی منطقی از مسیر فعلی ما به می‌رسند، اما یک هوش مصنوعی که به اندازه کافی باشد، احتمالاً نمی‌خواهد داشته باشد.

یودکوفسکی نوشت: بسیاری از پژوهشگرانی که روی این سیستم‌ها کار می‌کنند، فکر می‌کنند که ما به سمت یک فاجعه می‌رویم و آنها را بیشتر می‌کنند این موضوع را در خلوت بیان می‌کنند. فکر می‌کنند که نمی‌توانند به جلوی سقوط رو به جلو را بگیرند. این یک وضعیت احمقانه است و راهی به دور از شرافت برای مرگ زمین به شماره می‌رود. بشریت باید در این مرحله وارد عمل شود و به صنعت کمک کند تا مشکل کنش جمعی خود را بسازد.

همچنین، هوش مصنوعی ممکن است تصمیم بگیرد که کوکی ندارد و هم‌ترازی یک سرگرمی است اما مخفیانه نیز به دنبال آن است. یودکوفسکی گفت: هوش مصنوعی این کار را دارد که بداند انسان‌ها به دنبال چه پاسخ‌هایی هستند و آن پاسخ‌ها را بدون اینکه لزوما صادقانه باشد، بدهد. این یک راه بسیار قابل درک برای یک موجود هوشمند است. انسانها همیشه این کار را انجام می‌دهند. دلیلی وجود دارد که سیستم آن قدر باهوش است.

هوش مصنوعی چرا و چگونه ما را خواهم کشت؟!

وی افزود: ما نمی‌خواهیم این شکاف را ظرف شش ماه پر کنیم. اگر در اولین تلاش اشتباه کنید، نمی‌توانید از اشتباهات خود درس بگیرید زیرا مرده‌اید. بشریت از اشتباه درس نمی‌گیرد. درست کردن هر چیزی در اولین تلاش حیاتی، یک نیاز فوق‌العاده در علم و مهندسی است.

ظهور تکان دهنده هوش مصنوعی همه‌منظوره، حتی در سطح آهسته و همراه با ایراد «GPT-4»، خطر واقعی نابودی را به گفتگو بازگردانده است.

بخوان  بهترین ویژگی جدید ویندوز 11 فقط برای دارندگان گوشی های سامسونگ خواهد بود

هیچ کس واقعاً نمی‌داند که چیزی شبیه به یک ذهن در این فناوری دارد، دقیقاً می‌توانم بگویم چقدر هوشمند است، چگونه می‌توانم بفهمم که واقعاً هوشیار شده است و آیا اصلاً این چیزها مهم هستند یا خیر. این فناوری به صورت درخشانی یک هوش حساس را تجسم می‌کند و با جهان جهان دارد. مگر اینکه به طور ویژه به آن اشاره کنیم این کار را نکند. شاید همین کافی باشد.

آلتمن پیش‌بینی می‌کند که ظرف چند سال آینده، می‌تواند از مدل‌های هوش مصنوعی گوناگونی برخوردار باشد که در سرتاسر جهان ترکیبی را تبلیغ می‌کنند و از ترکیبی پیشی می‌گیرند. هر کدام از این مدل‌ها، هوشمندها و قابلیت‌های ویژه خود را دارند و هرکدام را مطابق با رمز اخلاقی و دیدگاه متفاوتی توسط شرکت‌ها آموزش دیده‌اند. این مسابقه برای تولید محصول است و اگر فقط یکی از هزاران سیستم به هر دلیلی سرکش شود، پیامد ناگواری خواهد داشت. آلتمن گفت: تنها راهی که می‌دانم چگونه می‌توانیم چنین مشکلی را حل کنیم، این است که زودتر یاد بگیریم و تعداد سناریوها را محدود کنیم.

این پروسه، «همیی» نامیده می‌شود و جستجو می‌کند تا خواسته‌های سیستم را با درخواست‌های کاربر، درخواست‌های شرکت و در واقع، درخواست‌های کل بشریت همسو کند. به نظر می‌رسد که این روش کار می‌کند. یعنی به نظر می‌رسد GPT از گفتن یا انجام دادن چیزهای ناپسند خودداری می‌کند.

یودکوفسکی گفت: اگر هوش مصنوعی به اندازه من هوشمند باشد، این یک سناریوی فاجعه‌بار است. اگر هوش مصنوعی هوشمندتر باشد، بهتر است برای انجام دادن کارها فکر کند.

برخی از پژوهشگران حوزه‌های علمی معتقدند که این فناوری به هوش از انسان‌ها با سلاح دست می‌گیرد و او را می‌سازد اما باید دید که چگونه مصنوعی است و چگونه این کار را انجام خواهد داد.

نخست باید توجه داشت که این یک مسابقه تسلیحاتی است و هر کشوری که اول به نتیجه برسد، ممکن است بر جهان حکومت کند. در هر حال، موضوع اقتصاد نیز وجود دارد. هرچه هوش مصنوعی هوشمندتر و توانمندتری ایجاد کنید، دستگاه چاپ پول بزرگتری دارید. «الیزر یودکوفسکی» (Eliezer Yudkowsky)، پژوهشگر و فیلسوف هوش مصنوعی گفت: آنها بیرون می‌ریزند تا زمانی که به اندازه کافی بزرگ شوند، جو را متشنج کنند و همه را بکشند.

یودکوفسکی مدت‌هاست که یکی از صداهای پیشرو در کمپین «هوش مصنوعی همه ما را می‌کشد» بوده است و افرادی که به سمت ابرهوش هدایت می‌شوند، دیگر فکر نمی‌کنند که او یک انسان را پست کند. «سَم آلتمن» (سام آلتمن)، مدیر عامل «OpenAI» گفت: من فکر می کنم که این احتمال وجود دارد و واقعاً مهم است که آن را قبول کنیم زیرا اگر در این مشکل صحبت نکنیم و آن را بالقوه واقعی در نظر نگیریم، کافی را برای حل کردن آن نخواهیم داشت.

اگر هوش مصنوعی احساس دوست داشتن، نفرت، مراقبت از ما یا ترس از ما را به نمایش بگذارد، اگر این کار را انجام دهد، نمی‌توانم تصوری را در مورد فکر آن مبنی بر ارتباطاتی که می‌فرستم، داشته باشم. حتی اگر این احساس در مورد انسان کاملاً خنثی باشد، لزوما ایمن نیست. یودکووسکی نوشت: هوش مصنوعی نه شما را دوست دارد و نه از شما متنفر است اما شما از اتم‌هایی تشکیل شده‌اید که هوش مصنوعی می‌تواند از آن برای هدف دیگری استفاده کند.

بخوان  موفقیت ۸۰ درصدی ربات گفتگوگر مشهور در تشخیص آلزایمر

اگر یک هوش مصنوعی فوق‌العاده هوشمند بسازد و بسازد دنیای واقعی را به اندازه کافی بکشد، می‌توان راه‌های زیادی را برای ریشه‌یابی انتخابی خود داشت. تصور کنید انسان امروزی تصمیم بگیرید که بز کوهی را از بین ببرد. بز کوهی، بسیار کم برای مقابله با انسان خواهد داشت اما در این سناریو، انسان در مقابل یک مصنوعی مصنوعی قرار دارد که در حال حرکت رو به جلو و دارای تفکر است.

یودکوفسکی باور دارد که حتی برای این کار مساوی است با اقدام به خودکشی که هدف آن تمام زندگی بیولوژیکی خواهد بود. درباره این موضوع نوشت: بسیاری از پژوهشگرانی که در این مسائل غرق شده‌اند، از جمله خود من انتظار داریم که محتمل‌ترین نتیجه ساخت یک هوش مصنوعی فوق‌العاده‌انسانی هوشمند باشد، در شرایط هر شرایطی مانند شرایط موجود این باشد که به معنای واقعی کلمه همه روی زمین خواهند بود. . این بدان معناست که در اصل نمی‌توان چیزی بسیار هوشمندتر از انسان‌های رهایی پیدا کرد، بلکه منظور این است که این کار به دقت و آماده‌سازی و بینش‌های علمی جدید نیاز دارد و احتمالاً سیستم‌های هوش مصنوعی از آرایه‌های غیرقابل درک غول‌پیکر مورد نیاز نخواهند بود.

چرا یک هوش مصنوعی فوق هوشمند همه ما را کشت؟

آیا ماشین‌ها برای خدمت کردن و احترام گذاشتن به ما طراحی‌نشده و آموزش ندیده‌اند؟ مطمئنا همینطور است اما هیچکس به یک رمز را برای GPT4 نمی‌نویسد. این کار به راحتی امکان پذیر نخواهد بود. در عوض، OpenAI یک ساختار عصبی را با الهام از نحوه اتصال مغز انسان به ایجاد مفهوم کرد. این شرکت با سرویس «مایکروسافت آژور» (Microsoft Azure) کار کرد تا سخت‌افزاری را برای اجرای آن بسازد. سپس، آن را با حجم قابل توجهی از متن تغذیه انسانی کرد و به GPT امکان داد تا خودش را به عنوان برنامه ریزی کند.

با فرض این که احتمال دارد یودکوفسکی درست بگوید و ادامه یافتن شرایط، درصد مشخصی از احتمال انقراض انسان را در مدت زمان کوتاهی ایجاد می کند، باید دید که آیا امکان توقف این قطار وجود دارد یا خیر.

به گزارش ایسنا و به نقل از نیو اطلس، شغل فروپاشی، هرزنامه‌ها و اطلاعات نادرست، منسوخ شدن انسانیت و فروپاشی جامعه را فراموش کنید. باور دارند که مصنوعی در اولین فرصت، تمام حیات بیولوژیکی را از بین خواهد برد.

رمز به دست، شبیه چیزی نیست که یک برنامه‌نویس می‌نویسد، بلکه باعث افزایش یک ماتریس اعداد اعشاری می‌شود که هر یک وزن بزرگ یا بزرگ یک ارتباط ویژه بین دو «توکن» (Token) هستند. توکن‌ها که در GPT استفاده می‌کنند، چیزی را به اندازه‌ای می‌کنند یا حتی کلمات کامل را نشان نمی‌دهند. رشته‌های کوچکی از حروف، اعداد، نشانه‌های نقطه‌گذاری یا کاراکترهای دیگر هستند.

چه کار باید کرد؟