سام آلتمن، مدیر عامل OpenAI این هفته در پستی در X به اشتراک گذاشت که این شرکت با موسسه ایمنی هوش مصنوعی ایالات متحده همکاری می کند و به آژانس دولتی دسترسی زودهنگام به مدل اصلی هوش مصنوعی بعدی برای آزمایش ایمنی را می دهد.
آلتمن این طرح را به عنوان بخشی از یک فشار جدید بزرگتر برای تقویت اقدامات ایمنی در هوش مصنوعی توصیف کرد که می تواند به طور قابل توجهی بر ChatGPT و سایر محصولات OpenAI در سال های آینده تأثیر بگذارد. همچنین ممکن است بخشی از روابط عمومی و کمپین سیاستی علیه منتقدانی باشد که می گویند OpenAI دیگر ایمنی هوش مصنوعی را در اولویت قرار نمی دهد.
یکی از دلایل اصلی این انتقاد این است که OpenAI یک تیم ایمنی هوش مصنوعی داخلی ایجاد کرد و سپس تا حد زیادی تیم را منحل کرد. این انحلال منجر به استعفای مدیران ارشد شرکت، مانند Jan Leike و Ilya Sutskever شد که در تلاشهای اولیه تحقیقات ایمنی شرکت نقش داشتند. بسیاری از کارمندان فعلی و سابق علناً این سؤال را مطرح کرده اند که آیا OpenAI تصمیم گرفته است که ایمنی را به نفع توسعه محصول نادیده بگیرد.
دلیل دیگری وجود دارد که در یادداشتی که مستقیماً به پست آلتمن پیوست شده است برجسته شده است. او گفت که سال گذشته 20 درصد از منابع محاسباتی را به تحقیقات ایمنی اختصاص داده است، اما این تخصیص در آن زمان به طور خاص برای همان کمیته ای در نظر گرفته شده بود که رهبران آن شرکت را ترک کردند. با این حال، معامله با دولت تنها تغییر واقعی نیست. آلتمن گفت OpenAI اکنون بندهای محدودکننده غیر توهینآمیز را که مانع از افشاگری میشد، حذف کرده است.
اگر معامله با مؤسسه ایمنی هوش مصنوعی مستقر در ایالات متحده یک حرکت استراتژیک توسط OpenAI برای بازگرداندن اعتماد باشد، مهم است. این موسسه تحت نظارت موسسه ملی استاندارد و فناوری (NIST) در وزارت بازرگانی فعالیت می کند. او روی توسعه استانداردها و دستورالعملهایی برای ایمنی و امنیت هوش مصنوعی کار کرده است و در حال حاضر با چندین شرکت بزرگ هوش مصنوعی و فناوری مانند مایکروسافت، گوگل، متا، اپل و انویدیا کار میکند.
به اشتراک گذاری دسترسی زودهنگام OpenAI به مدل هوش مصنوعی آینده خود به موسسه اجازه می دهد تا قبل از انتشار عمومی آزمایش و ارزیابی ایمنی را انجام دهد. این اقدام با هدف اطمینان از شناسایی هرگونه خطر بالقوه و کاهش آن در مراحل اولیه توسعه، مطابق با اهداف گستردهتر تعیین شده توسط رئیس جمهور جو بایدن در مورد هوش مصنوعی در سال گذشته است.
اما این تنها تشویق نظارتی OpenAI نیست که در روزهای اخیر ارائه کرده است. این شرکت از قانون جدید آینده نوآوری سنا حمایت کرد که به موسسه ایمنی هوش مصنوعی مسئولیت تنظیم مقررات فدرال برای ایمنی هوش مصنوعی را میدهد. ارتباط آشکار بین فشار بر این لایحه و مرکزیت دادن به مدلهای آن در کار مؤسسه میتواند به عنوان تلاشی برای تأثیرگذاری بیرویه بر مقررات یا تلاشی گستردهتر و بیگناهتر برای ارتقای ایمنی هوش مصنوعی تلقی شود.
هر دو قابل قبول به نظر می رسند و OpenAI همکاری مشابهی با سازمان ایمنی هوش مصنوعی در بریتانیا دارد. اما باز هم OpenAI در نیمه اول امسال بیش از سه برابر بیشتر از تمام سال گذشته برای لابی گری هزینه کرد.
امن، سودآور، هر دو؟
همکاری OpenAI با مؤسسه ایمنی هوش مصنوعی ایالات متحده احتمالاً بر اساس میزان ایمن بودن مدلهای نهایی و اینکه آیا محدودیتهای واقعی برای ایمنتر کردن آنها وجود دارد، مورد قضاوت قرار میگیرد. در اینجا سوال واقعی برای مصرف کنندگان نهفته است. همانطور که هوش مصنوعی در زندگی روزمره ادغام می شود، تنش بین ایمنی و سودآوری ممکن است افزایش یابد حتی زمانی که OpenAI و رقبای آن امیدوارند که عموم مردم به آنها و مدل های هوش مصنوعی خود اعتماد کنند.
دریافت مهر تایید از یک نهاد دولتی به ایجاد اعتماد کمک میکند و OpenAI نمیخواهد شرکتهای دیگر قبل از آن آن را دریافت کنند. مشارکت دادن یک نهاد ایمنی مستقل برای ارزیابی مدلهای هوش مصنوعی قبل از انتشار میتواند اطمینان بیشتری از ایمن و قابل اعتماد بودن ابزارهایی که استفاده میکنید به شما بدهد. نگرانی های فزاینده در مورد مسائل هوش مصنوعی، مانند حریم خصوصی داده ها، سوگیری، و سوء استفاده عمدی از هوش مصنوعی را می توان از طریق یک رویکرد پیشگیرانه کاهش داد. و فشار OpenAI و سایر تلاشها برای مطلوب ساختن این قوانین برای آنها میتواند این و کل هدف موسسه ایمنی هوش مصنوعی را تضعیف کند، اگر آنها مراقب نباشند.