OpenAI، شرکت فناوری پشت ChatGPT، اعلام کرد که یک «کمیته ایمنی و امنیت» تشکیل داده است که هدف آن این است که رویکرد شرکت به هوش مصنوعی از نظر امنیتی مسئولانهتر و سازگارتر باشد.
بر کسی پوشیده نیست که OpenAI و مدیر عامل شرکت سام آلتمن – که در این پنل حضور خواهند داشت – می خواهند اولین کسانی باشند که به AGI (هوش عمومی مصنوعی) می رسند، که به طور گسترده به عنوان دستیابی به هوش مصنوعی شبیه به انسان تلقی می شود که می تواند خود را آموزش دهد. . OpenAI که اخیراً GPT-4o را برای عموم منتشر کرده است، در حال آموزش نسل بعدی مدل GPT خود است که انتظار دارد یک قدم به AGI نزدیکتر باشد.
GPT-4o برای اولین بار در 13 مه به عنوان یک مدل هوش مصنوعی مولد چندوجهی سطح بعدی (قابلیت پردازش در حالتهای متعدد) برای عموم منتشر شد که قادر به مدیریت ورودی و پاسخگویی با صدا، متن و تصاویر است. به طور کلی با استقبال مثبتی مواجه شد، اما از آن زمان تاکنون بحث های بیشتری پیرامون نوآوری در رابطه با قابلیت های واقعی، پیامدها، و اخلاقیات مربوط به فناوری های مشابه مطرح شده است.
کمی بیش از یک هفته پیش، OpenAI به Wired تایید کرد که تیم قبلی خود که مسئول نظارت بر ایمنی مدلهای هوش مصنوعی آن بود، منحل شده و در سایر تیمهای موجود جذب شده است. این به دنبال خروج چشمگیر چهرههای کلیدی شرکت مانند ایلیا سوتسکور، بنیانگذار و دانشمند ارشد OpenAI، و جان لیک، یکی از رهبران تیم ایمنی هوش مصنوعی «سوپر همسویی» است. خروج آنها ظاهراً به نگرانی آنها مرتبط بود که OpenAI، و به ویژه آلتمن، به اندازه کافی برای توسعه مسئولانه فن آوری های خود انجام نداده و از بررسی های لازم صرف نظر کرده است.
به نظر می رسد که این موضوع به OpenAI فرصت زیادی برای فکر کردن داده است و در پاسخ به آن کمیته نظارتی تشکیل داده است. در پستی که تشکیل این پنل را اعلام کرد، OpenAI همچنین اعلام کرد که از “بحث قوی در این لحظه مهم” استقبال می کند. اولین وظیفه کمیته “ارزیابی و توسعه بیشتر فرآیندها و پادمان های OpenAI” در 90 روز آینده و سپس به اشتراک گذاشتن توصیه ها با هیئت مدیره شرکت خواهد بود.
بعد از 90 روز چه اتفاقی می افتد؟
این توصیهها، که قرار شد بعداً تصویب شوند، بهصورت عمومی به شیوهای منطبق با ایمنی و امنیت منتشر خواهند شد.
این پنل متشکل از رئیس برت تیلور، مدیر عامل Quora، آدام دی آنجلو، و نیکول سلیگمن، مدیر عامل سابق سرگرمی سونی، به همراه شش کارمند OpenAI از جمله سم آلتمن، همانطور که ذکر کردیم، و جان شولمن، محقق و یکی از بنیانگذاران OpenAI خواهد بود. OpenAI. به گزارش بلومبرگ، OpenAI اعلام کرد که به عنوان بخشی از این فرآیند با کارشناسان خارجی نیز مشورت خواهد کرد.
تا زمانی که توصیههای تایید شده OpenAI منتشر شود و بتوانم نحوه اجرای آنها را ببینم، قضاوت را محفوظ میدانم، اما به طور شهودی، اطمینان زیادی ندارم که OpenAI (یا هر شرکت بزرگ فناوری) ایمنی و اخلاق را در اولویت قرار دهد. به همان اندازه که آنها برای برنده شدن در مسابقه هوش مصنوعی تلاش می کنند.
مایه تاسف و تاسف است که کسانی که میکوشند بدون توجه به آنچه اتفاق میافتد، بهترین باشند، اغلب در فکر کردن به هزینهها و تأثیرات اعمال خود، و اینکه چگونه میتوانند بر دیگران به شیوهای بسیار واقعی تأثیر بگذارند – حتی اگر مهم باشد، فکر نمیکنند. احتمالاً تعدادی از افراد تحت تأثیر قرار می گیرند.
من خوشحال خواهم شد اگر ثابت شود اشتباه می کنم، امیدوارم که هستم، و در یک دنیای ایده آل، همه شرکت های فناوری، چه در مسابقه هوش مصنوعی باشند و چه نباشند، باید اخلاق و ایمنی را در کاری که انجام می دهند در اولویت قرار دهند. -خانه همان سطحی که در آن برای نوآوری تلاش می کنند. تا اینجای کار در دنیای هوش مصنوعی، به نظر نمی رسد از جایی که من ایستاده ام، چنین باشد، و مگر اینکه عواقب واقعی وجود داشته باشد، نمی بینم که شرکت هایی مانند OpenAI برای تغییر اخلاق یا رفتار خود به طور کلی به حرکت در آمده باشند.