هوش مصنوعیِ خوب بر بد پیروز نمی‌شود

وی در روزهای متوالی خود در کنفرانسی موسوم به کالیژن(برخورد) که در تورنتو برگزار می‌شود، نگرانی‌های را تشریح کرده است.

اما جفری هینتون در ماه آوریل از سمت معاونت و رئیس مهندسی گوگل استعفا داد تا آزادانه در مورد خطرات مرتبط با این فناوری هشدار دهد.

در حالی که شرکت‌ها هوش مصنوعی را به عنوان راه حلی برای همه چیز می‌دانند و آن را تبلیغ می‌کنند، خطر جفری هینتون را به صدا درآورده است. او می‌گوید متقاعد نشده است که یک هوش مصنوعی خوب برای مصنوعی بد پیروز باشد و چه سازگاری اخلاقی مصنوعی را می‌توان در نظر گرفت.

اكنون و مك‌گوایر هر دو نگرانی‌های مشابه را هینتون انجام داده‌اند، اما لحن آنها قطعاً کمتر هشدار داده بودند.

روبلوکس حتی در حال حاضر یک مدل مصنوعی مصنوعی منبع‌باز به نام StarCoder است که امیدوار است با ارائه مدل‌های زبانی بزرگ به دیگران کمک کند.

در حالی که مک‌گوایر در یک بحث به چالش‌هایی در مورد مفهوم‌بندی و تفسیر محتوای اذعان کرد، اما معتقد است که مجموعه‌ای از خلاقانه‌ها، امکانات نامحدودی خواهد داشت.

وی توضیح داد: من متقاعد نشده‌ام که می‌توانم یک هوش مصنوعی خوب را انجام دهم که سعی می‌کنم جلوی بدی را بگیرم، کنترل کنم. برای مثال، ممکن است حل شود که یک مجتمع نظامی-صنعتی از تولید ربات‌های جنگی بازدارید.

او می‌گوید، پیشرفت فناوری هوش مصنوعی احتمالاً سالم بوده است، حتی اگر نگران پیام‌های آن نباشیم.

هینتون در پایان، آزادانه اعتراف کرد که با وجود مشکلات اخلاقی احتمالی، از آشتیاقش نسبت به هوش مصنوعی کاسته نشده است. او گفت: من عاشق این چیزها هستم. چطور می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ ‌‌

وی می‌گوید کودکان کوچک فقط از زبان یاد نمی‌گیرند، ماشین‌ها نیز می‌توانند همین کار را انجام دهند.

موردک تا آنجا پیش رفت که از ۶ تا ۱۲ ماه گذشته به عنوان نقطه عطف در شکوفایی مصنوعی نام برد که پتانسیل آن آزاد شده است.

اواسط اردیبهشت ماه کار خود را در گوگل رها کرد تا حوزه آزادانه را که به پیشگامی آن کمک کرده بود، نقد کند.

تهدیدی برای بشریت

نظر هینتون، از این تهدیدها، علمی-تخیلی ذهن. آنها باید جدی گرفته شوند. او نگران است که جامعه به فکر چاره بیافتد که دیر شده است.

هوش مصنوعیِ خوب بر بد پیروز نمی‌شود

او از چیزی به «هوش مصنوعی عمومی» سخن به میان آورد که می‌تواند مشکل را حل کند و به عنوان نمونه به محصولات گوگل اشاره کرد. وی گفت: ابزار Lookout برای توصیف عکس‌ها مفید است، اما فناوری زیربنایی باعث می‌شود در YouTube Shorts جستجو شود.

هینتون پیشرفت و افزایش پیشرفت مصنوعی مصنوعی‌های مولد مانند ChatGPT و Bing Chat را نشان‌هایی از شتاب غیرقابل کنترل و بالقوه خطرناک در توسعه این فناوری دانست.

بخوان  کشف کهنترین فسیل باستانی تریزینوسور با کمک مصنوعی مصنوعی

هوش مصنوعیِ خوب بر بد پیروز نمی‌شود

برخی دیگر از مصاحبه‌ها در کنفرانس کالیژن(Collision) امیدوارکننده‌تر بود. کالین مورداک، مدیر بازرگانی گوگل دیپ‌مایند در یک بحث متفاوت گفت که مصنوعی در حال حل برخی از سخت‌ترین چالش‌های جهان است.

هینتون همچنین دیدگاه خود را که بسیار نقل قول شده بود، تکرار کرد. او می‌گوید هوش مصنوعی می‌تواند خطری برای موجودیت بشریت ایجاد کند. اگر مصنوعی از باهوش تر شود، هیچ انسان تضمینی وجود ندارد که مردم در راس کار باقی بمانند.

دانشمند ارشد روبلوکس(Roblox) –سکویی جهانی که افراد را از طریق بازی دور هم جمع می‌کند- تا حد زیادی با این موضوع موافق است. او معتقد است که ابزارهای هوش مصنوعی مولد سکوی بازی، شکاف را بین سازندگان جدید و پیشکسوتان کم کرده و نوشتن کد و ساخت درون بازی را آسان‌تر می‌کنند.

هینتون عمر خود را وقف مطالعه شبکه‌های عصبی کرده است که کلید هوش مصنوعی هستند، اما به خاطر توسعه یک سیستم تشخیص اشیا در سال ۲۰۱۲ بیشتر می‌شود. شبکه عصبی موفق می‌تواند از تصاویر آموزشی برای کمک به تشخیص اشیای رایج استفاده کند.

هینتون همچنین نگران انتشار اطلاعات نادرست توسط هوش مصنوعی فراتر از اتاق‌های پژواک است. او مطمئن نیست که آیا می توان هر ادعای جعلی مصنوعی را انجام داد.

انتهای پیام



منبع

این پژوهشگر نگران است که گوگل در تلاش برای رقابت با ربات‌های مصنوعی مانند ChatGPT، Bing Chat و مدل‌های مشابه، فهرست‌ها و موارد قبلی خود را برای توسعه هوش مصنوعی کنار بگذارد و راه را برای مشکلات اخلاقی متعدد باز کند.

هینتون می‌گوید در حال حاضر مشکلات زیادی وجود دارد. او استدلال می‌کند که سوگیری و تبعیض یک مشکل اساسی است، زیرا داده‌های آموزشی نادرست می‌تواند نتایج ناعادلانه‌ای ایجاد کند. الگوریتم‌ها نیز اتاق‌های پژواک ایجاد می‌کنند که اطلاعات نادرست و مسائل مربوط به سلامت روان را تقویت کنند.

هینتون اذعان می‌کند که سخنرانی‌اش در کنفرانس کالیژن، چیزهای زیادی درباره کاربردهای خوب هوش مصنوعی مانند مبارزه با تغییرات آب و هوایی بیان نشده است.

هوش مصنوعیِ خوب بر بد پیروز نمی‌شود

هینتون افزود: اگر یک تصمیم مصنوعی ساخته شود که در اختیار گرفتن امور برای دستیابی به هدفش است، ما به مشکل میخوریم.

در عین حال که هینتون نگران خطرات هوش مصنوعی است، معتقد است که در نهایت می‌تواند هر کاری را که یک انسان می‌تواند، انجام دهد و قدرت تعقل داشته باشد. به عنوان مثال، GPT-4 می‌تواند خود را برای حل پازل‌ها و معماهای مشکل‌تر وفق دهد.

وی گفت صحبت زیادی در این زمینه نمیشود. گوگل دیپ‌مایند در حال حاضر فهرست‌بندی تمام‌مغذی‌های موجود، مبارزه با مقاومت‌های ضد آنتی‌بیوتیک و حتی تسریع کار بر روی توسعه و مالاریا است.

بخوان  بررسی نواحی خاص مغز با کمک هوش مصنوعی

شایان ذکر است که هینتون در این موضعگیری، تنها نیست. جمعی از دانشگاهیان و افراد برجسته در این حوزه از جمله ایلان ماسک و استیو وزنیاک نیز اخیراً نامه‌های سرگشاده امضا کرده و منتشر کرده‌اند که در آن خواستار توقف شش ماهه توسعه هوش مصنوعی برای انجام مشکلات اخلاقی و ایمنی آن‌ها هستند. با این حال، سخنان هینتون به عنوان یکی از برجسته‌ترین چهره‌های این صنعت، وزن قابل توجهی دارد.

گذشتن از گوگل برای بیان

این دانشمند همچنین در مورد امکان توسعه سلاح‌های کاملاً خودمختار و مدل‌های هوش مصنوعی به رفتارهای عجیب و غریب از داده‌های آموزشی نگران است.

به گزارش ایسنا، جفری هینتون، استاد دانشگاه تورنتو که به دلیل تحقیقات پیشگامانه‌اش در زمینه شبکه‌های عصبی، «پدرخوانده هوش مصنوعی» نامیده می‌شود، به طور جدی به صف هشدار دهنده‌ها در پیشرفت بالقوه خطرناک این فناوری پیوسته است.

مک‌گوایر نیز گفت که روبلوکس همیشه ابزارهای هوش مصنوعی را با تعدیل محتوای تولید می‌کند، بر مجموعه‌های داده‌های متنوع تکیه می‌کند و شفافیت را تمرین می‌کند.

امید به آینده

در رسانه های خبری، لفظ اتاق پژواک تمثیلی از اتاق پژواک صوتی است که در آن صدا در فضای بسته منعکس می شود. اتاق پژواک توصیف کنایی از وضعیتی است که در آن اطلاعات، ایده‌ها یا باورها با ارتباطات و تکرار درون یک سامانه برای تقویت می‌شوند. درون یک اتاق پژواک تمثیلی، منابع رسمی غالباً زیر سؤال نمی‌روند و دیدگاه‌های متفاوت یا رقیب سانسور، ممنوع یا کمتر از حد، پوشش داده می‌شوند.

این استاد دانشگاه در پاسخ به سوالاتی در مورد شغل خود را به خاطر اتوماسیون و ماشینی شدن از دست می‌دهند، گفت که احساس می‌کنم «سوسیالیسم» یا جامعه‌گرایی برای استفاده از نابرابری مورد نیاز است و مردم می‌توانند با انتخابی که می‌توانند با گذراندن کار خود را انتخاب کنند. زمان تغییر، مانند لوله کشی، از بیکاری در امان بمانند. به نظر می‌رسد او شوخی نمی‌کند و معتقد است که جامعه می‌تواند مجبور باشد برای انطباق با هوش مصنوعی در خود ایجاد کند.

هینتون مدعی است که هوش مصنوعی تنها به افرادی که آن را می‌سازند، خوب است و نوع بد آن است، هنوز هم می‌تواند برای نمونه‌های خوب آن پیروز شود.

این بدان معناست که هینتون را با استفاده از هوش مصنوعی ناامید شده است، می‌توان از این فناوری مطمئن استفاده کرد. انسانها ممکن است باید آزمایشی و تجربی را انجام دهند تا بدانند چگونه یک روش مصنوعی ممکن است اشتباه کند و چگونه از دست گرفتن کنترل توسط آن جلوگیری کننده، انجام دهند.

بخوان  نابودی تومور مغزی با جرقه الکتریکی به سلول‌های مغز

امیدواری به صنعت هوش مصنوعی

در حالی که هینتون معتقد است که مدل‌های زبانی بزرگ (هوش مصنوعی آموزش‌دیده که متنی شبیه به انسان تولید می‌کند، مانند GPT-4 توسعه یافته توسط شرکت OpenAI) می‌تواند منجر به افزایش چشمگیر شود، اما نگران این است که سطح حاکم را راحت کند. این مزیت برای غنی‌سازی خود سوءاستفاده کند و شکاف بزرگ کنونی را بیشتر کند. هینتون می‌گوید این امر «ثروتمندان را ثروتمندتر و فقرا را فقیرتر می‌کند».

گوگل در سال ۲۰۱۳ استارتاپ DNNresearch متعلق به جفری هینتون را خرید کرد و مفهوم زیربنایی اختراع او به رشدی از توسعه کمک کرد که به فناوری هوش مصنوعی مولد امروزی شد.

جفری هینتون می‌گوید سال گذشته که شرکت‌های گوگل، OpenAI و دیگران شروع به ایجاد سیستم‌های مصنوعی کردند، موضع یا تغییر کرده است. هوش مصنوعی در پنج سال گذشته به سرعت توسعه یافته است که به پدرخوانده این حوزه گفته می‌شود که تنها در پنج سال آینده چه اتفاقی می‌افتد، «ترسناک» است.

وی میگوید در حال حاضر تصحیح سوگیریها امکان پذیر است. یک مدل زبانی بزرگ می‌تواند به اتاق‌های پژواک پایان دهد، اما تغییر در سیاست‌های شرکت را بسیار مهم می‌دانم.

او می‌گویدها و ارتش‌ها ممکن است جنگ‌هایی را دوست داشته باشند که در آنها تلفات داشته باشند، ماشین‌هایی هستند که به راحتی می‌توانند آنها را جایگزین کنند.

گوگل تاکید می کند که دیپمایند خواهان یک هوش مصنوعی ایمن، اخلاقی و فراگیر است و با مشاوره تخصصی و سرمایه گذاری های آموزشی دیپمایند به عنوان مدرک اشاره کرد. وی اصرار دارد که راه برای تعیین مقررات باز است، اما فقط تا جایی که امکان پیشرفت‌های شگفت‌انگیز را دارد.

هینتون نگران است که هوش مصنوعی در مدت کوتاهی از اطلاعات نادرست دامن بزند. وی می‌گوید: شاید دیگر نتوانید بدانید چه چیزی درست است. او همچنین نگران است که این فناوری نه تنها برخی از کارها را حذف کند، بلکه به طور کامل جایگزین برخی از کارها می شود.

بر خلاف نظر گوگل نظرهایی که جفری هینتون اخیرا داشته است، آشتیاق کلی وی برای توسعه هوش مصنوعی پس از ترک رشد نیافته است. خودش می‌گوید اگر کارم را در گوگل ترک نمی‌کردم، مطمئنم که روی مدل‌های هوش مصنوعی چندوجهی کار می‌کند که در آن بینش، زبان و دیگران به تصمیم‌گیری کمک می‌کنند.

جفری هینتون دانشمند پیشگام در حوزه هوش مصنوعی که لقب پدرخوانده مصنوعی را یدک می‌کشد، در جدیدترین اظهارات خود گفته است که هنوز متقاعد نشده است که هوش مصنوعی خوب بر هوش مصنوعی بد پیروز می‌شود و به آینده‌ای این فناوری خوش‌بین نیست.