وی در روزهای متوالی خود در کنفرانسی موسوم به کالیژن(برخورد) که در تورنتو برگزار میشود، نگرانیهای را تشریح کرده است.
اما جفری هینتون در ماه آوریل از سمت معاونت و رئیس مهندسی گوگل استعفا داد تا آزادانه در مورد خطرات مرتبط با این فناوری هشدار دهد.
در حالی که شرکتها هوش مصنوعی را به عنوان راه حلی برای همه چیز میدانند و آن را تبلیغ میکنند، خطر جفری هینتون را به صدا درآورده است. او میگوید متقاعد نشده است که یک هوش مصنوعی خوب برای مصنوعی بد پیروز باشد و چه سازگاری اخلاقی مصنوعی را میتوان در نظر گرفت.
اكنون و مكگوایر هر دو نگرانیهای مشابه را هینتون انجام دادهاند، اما لحن آنها قطعاً کمتر هشدار داده بودند.
روبلوکس حتی در حال حاضر یک مدل مصنوعی مصنوعی منبعباز به نام StarCoder است که امیدوار است با ارائه مدلهای زبانی بزرگ به دیگران کمک کند.
در حالی که مکگوایر در یک بحث به چالشهایی در مورد مفهومبندی و تفسیر محتوای اذعان کرد، اما معتقد است که مجموعهای از خلاقانهها، امکانات نامحدودی خواهد داشت.
وی توضیح داد: من متقاعد نشدهام که میتوانم یک هوش مصنوعی خوب را انجام دهم که سعی میکنم جلوی بدی را بگیرم، کنترل کنم. برای مثال، ممکن است حل شود که یک مجتمع نظامی-صنعتی از تولید رباتهای جنگی بازدارید.
او میگوید، پیشرفت فناوری هوش مصنوعی احتمالاً سالم بوده است، حتی اگر نگران پیامهای آن نباشیم.
هینتون در پایان، آزادانه اعتراف کرد که با وجود مشکلات اخلاقی احتمالی، از آشتیاقش نسبت به هوش مصنوعی کاسته نشده است. او گفت: من عاشق این چیزها هستم. چطور می
وی میگوید کودکان کوچک فقط از زبان یاد نمیگیرند، ماشینها نیز میتوانند همین کار را انجام دهند.
موردک تا آنجا پیش رفت که از ۶ تا ۱۲ ماه گذشته به عنوان نقطه عطف در شکوفایی مصنوعی نام برد که پتانسیل آن آزاد شده است.
اواسط اردیبهشت ماه کار خود را در گوگل رها کرد تا حوزه آزادانه را که به پیشگامی آن کمک کرده بود، نقد کند.
تهدیدی برای بشریت
نظر هینتون، از این تهدیدها، علمی-تخیلی ذهن. آنها باید جدی گرفته شوند. او نگران است که جامعه به فکر چاره بیافتد که دیر شده است.
او از چیزی به «هوش مصنوعی عمومی» سخن به میان آورد که میتواند مشکل را حل کند و به عنوان نمونه به محصولات گوگل اشاره کرد. وی گفت: ابزار Lookout برای توصیف عکسها مفید است، اما فناوری زیربنایی باعث میشود در YouTube Shorts جستجو شود.
هینتون پیشرفت و افزایش پیشرفت مصنوعی مصنوعیهای مولد مانند ChatGPT و Bing Chat را نشانهایی از شتاب غیرقابل کنترل و بالقوه خطرناک در توسعه این فناوری دانست.
برخی دیگر از مصاحبهها در کنفرانس کالیژن(Collision) امیدوارکنندهتر بود. کالین مورداک، مدیر بازرگانی گوگل دیپمایند در یک بحث متفاوت گفت که مصنوعی در حال حل برخی از سختترین چالشهای جهان است.
هینتون همچنین دیدگاه خود را که بسیار نقل قول شده بود، تکرار کرد. او میگوید هوش مصنوعی میتواند خطری برای موجودیت بشریت ایجاد کند. اگر مصنوعی از باهوش تر شود، هیچ انسان تضمینی وجود ندارد که مردم در راس کار باقی بمانند.
دانشمند ارشد روبلوکس(Roblox) –سکویی جهانی که افراد را از طریق بازی دور هم جمع میکند- تا حد زیادی با این موضوع موافق است. او معتقد است که ابزارهای هوش مصنوعی مولد سکوی بازی، شکاف را بین سازندگان جدید و پیشکسوتان کم کرده و نوشتن کد و ساخت درون بازی را آسانتر میکنند.
هینتون عمر خود را وقف مطالعه شبکههای عصبی کرده است که کلید هوش مصنوعی هستند، اما به خاطر توسعه یک سیستم تشخیص اشیا در سال ۲۰۱۲ بیشتر میشود. شبکه عصبی موفق میتواند از تصاویر آموزشی برای کمک به تشخیص اشیای رایج استفاده کند.
هینتون همچنین نگران انتشار اطلاعات نادرست توسط هوش مصنوعی فراتر از اتاقهای پژواک است. او مطمئن نیست که آیا می توان هر ادعای جعلی مصنوعی را انجام داد.
انتهای پیام
منبع
این پژوهشگر نگران است که گوگل در تلاش برای رقابت با رباتهای مصنوعی مانند ChatGPT، Bing Chat و مدلهای مشابه، فهرستها و موارد قبلی خود را برای توسعه هوش مصنوعی کنار بگذارد و راه را برای مشکلات اخلاقی متعدد باز کند.
هینتون میگوید در حال حاضر مشکلات زیادی وجود دارد. او استدلال میکند که سوگیری و تبعیض یک مشکل اساسی است، زیرا دادههای آموزشی نادرست میتواند نتایج ناعادلانهای ایجاد کند. الگوریتمها نیز اتاقهای پژواک ایجاد میکنند که اطلاعات نادرست و مسائل مربوط به سلامت روان را تقویت کنند.
هینتون اذعان میکند که سخنرانیاش در کنفرانس کالیژن، چیزهای زیادی درباره کاربردهای خوب هوش مصنوعی مانند مبارزه با تغییرات آب و هوایی بیان نشده است.
هینتون افزود: اگر یک تصمیم مصنوعی ساخته شود که در اختیار گرفتن امور برای دستیابی به هدفش است، ما به مشکل میخوریم.
در عین حال که هینتون نگران خطرات هوش مصنوعی است، معتقد است که در نهایت میتواند هر کاری را که یک انسان میتواند، انجام دهد و قدرت تعقل داشته باشد. به عنوان مثال، GPT-4 میتواند خود را برای حل پازلها و معماهای مشکلتر وفق دهد.
وی گفت صحبت زیادی در این زمینه نمیشود. گوگل دیپمایند در حال حاضر فهرستبندی تماممغذیهای موجود، مبارزه با مقاومتهای ضد آنتیبیوتیک و حتی تسریع کار بر روی توسعه و مالاریا است.
شایان ذکر است که هینتون در این موضعگیری، تنها نیست. جمعی از دانشگاهیان و افراد برجسته در این حوزه از جمله ایلان ماسک و استیو وزنیاک نیز اخیراً نامههای سرگشاده امضا کرده و منتشر کردهاند که در آن خواستار توقف شش ماهه توسعه هوش مصنوعی برای انجام مشکلات اخلاقی و ایمنی آنها هستند. با این حال، سخنان هینتون به عنوان یکی از برجستهترین چهرههای این صنعت، وزن قابل توجهی دارد.
گذشتن از گوگل برای بیان
این دانشمند همچنین در مورد امکان توسعه سلاحهای کاملاً خودمختار و مدلهای هوش مصنوعی به رفتارهای عجیب و غریب از دادههای آموزشی نگران است.
به گزارش ایسنا، جفری هینتون، استاد دانشگاه تورنتو که به دلیل تحقیقات پیشگامانهاش در زمینه شبکههای عصبی، «پدرخوانده هوش مصنوعی» نامیده میشود، به طور جدی به صف هشدار دهندهها در پیشرفت بالقوه خطرناک این فناوری پیوسته است.
مکگوایر نیز گفت که روبلوکس همیشه ابزارهای هوش مصنوعی را با تعدیل محتوای تولید میکند، بر مجموعههای دادههای متنوع تکیه میکند و شفافیت را تمرین میکند.
امید به آینده
در رسانه های خبری، لفظ اتاق پژواک تمثیلی از اتاق پژواک صوتی است که در آن صدا در فضای بسته منعکس می شود. اتاق پژواک توصیف کنایی از وضعیتی است که در آن اطلاعات، ایدهها یا باورها با ارتباطات و تکرار درون یک سامانه برای تقویت میشوند. درون یک اتاق پژواک تمثیلی، منابع رسمی غالباً زیر سؤال نمیروند و دیدگاههای متفاوت یا رقیب سانسور، ممنوع یا کمتر از حد، پوشش داده میشوند.
این استاد دانشگاه در پاسخ به سوالاتی در مورد شغل خود را به خاطر اتوماسیون و ماشینی شدن از دست میدهند، گفت که احساس میکنم «سوسیالیسم» یا جامعهگرایی برای استفاده از نابرابری مورد نیاز است و مردم میتوانند با انتخابی که میتوانند با گذراندن کار خود را انتخاب کنند. زمان تغییر، مانند لوله کشی، از بیکاری در امان بمانند. به نظر میرسد او شوخی نمیکند و معتقد است که جامعه میتواند مجبور باشد برای انطباق با هوش مصنوعی در خود ایجاد کند.
هینتون مدعی است که هوش مصنوعی تنها به افرادی که آن را میسازند، خوب است و نوع بد آن است، هنوز هم میتواند برای نمونههای خوب آن پیروز شود.
این بدان معناست که هینتون را با استفاده از هوش مصنوعی ناامید شده است، میتوان از این فناوری مطمئن استفاده کرد. انسانها ممکن است باید آزمایشی و تجربی را انجام دهند تا بدانند چگونه یک روش مصنوعی ممکن است اشتباه کند و چگونه از دست گرفتن کنترل توسط آن جلوگیری کننده، انجام دهند.
امیدواری به صنعت هوش مصنوعی
در حالی که هینتون معتقد است که مدلهای زبانی بزرگ (هوش مصنوعی آموزشدیده که متنی شبیه به انسان تولید میکند، مانند GPT-4 توسعه یافته توسط شرکت OpenAI) میتواند منجر به افزایش چشمگیر شود، اما نگران این است که سطح حاکم را راحت کند. این مزیت برای غنیسازی خود سوءاستفاده کند و شکاف بزرگ کنونی را بیشتر کند. هینتون میگوید این امر «ثروتمندان را ثروتمندتر و فقرا را فقیرتر میکند».
گوگل در سال ۲۰۱۳ استارتاپ DNNresearch متعلق به جفری هینتون را خرید کرد و مفهوم زیربنایی اختراع او به رشدی از توسعه کمک کرد که به فناوری هوش مصنوعی مولد امروزی شد.
جفری هینتون میگوید سال گذشته که شرکتهای گوگل، OpenAI و دیگران شروع به ایجاد سیستمهای مصنوعی کردند، موضع یا تغییر کرده است. هوش مصنوعی در پنج سال گذشته به سرعت توسعه یافته است که به پدرخوانده این حوزه گفته میشود که تنها در پنج سال آینده چه اتفاقی میافتد، «ترسناک» است.
وی میگوید در حال حاضر تصحیح سوگیریها امکان پذیر است. یک مدل زبانی بزرگ میتواند به اتاقهای پژواک پایان دهد، اما تغییر در سیاستهای شرکت را بسیار مهم میدانم.
او میگویدها و ارتشها ممکن است جنگهایی را دوست داشته باشند که در آنها تلفات داشته باشند، ماشینهایی هستند که به راحتی میتوانند آنها را جایگزین کنند.
گوگل تاکید می کند که دیپمایند خواهان یک هوش مصنوعی ایمن، اخلاقی و فراگیر است و با مشاوره تخصصی و سرمایه گذاری های آموزشی دیپمایند به عنوان مدرک اشاره کرد. وی اصرار دارد که راه برای تعیین مقررات باز است، اما فقط تا جایی که امکان پیشرفتهای شگفتانگیز را دارد.
هینتون نگران است که هوش مصنوعی در مدت کوتاهی از اطلاعات نادرست دامن بزند. وی میگوید: شاید دیگر نتوانید بدانید چه چیزی درست است. او همچنین نگران است که این فناوری نه تنها برخی از کارها را حذف کند، بلکه به طور کامل جایگزین برخی از کارها می شود.
بر خلاف نظر گوگل نظرهایی که جفری هینتون اخیرا داشته است، آشتیاق کلی وی برای توسعه هوش مصنوعی پس از ترک رشد نیافته است. خودش میگوید اگر کارم را در گوگل ترک نمیکردم، مطمئنم که روی مدلهای هوش مصنوعی چندوجهی کار میکند که در آن بینش، زبان و دیگران به تصمیمگیری کمک میکنند.
جفری هینتون دانشمند پیشگام در حوزه هوش مصنوعی که لقب پدرخوانده مصنوعی را یدک میکشد، در جدیدترین اظهارات خود گفته است که هنوز متقاعد نشده است که هوش مصنوعی خوب بر هوش مصنوعی بد پیروز میشود و به آیندهای این فناوری خوشبین نیست.