یکی از مظاهر بارز فناوری پیشرفته، ظهور هوش مصنوعی است که جهانی را به ویژه در چند ماه اخیر با معرفی رباتهای گفتگوگر یا چتباتها به خود ساخته است.
هنوز درباره این موضوعات صحبت نمیشود، اما اینها انواع بحثهای اخلاقی هستند که با توسعه فناوری جدید و خلاقانه مصنوعی در حال بروز هستند.
این نوع شفافیت برای ایجاد اعتماد با سیستمهای هوش مصنوعی مهم است تا مطمئن شوید که میتوانید یک مدل را چگونه و چرا به یک نقطه تصمیم بگیرید. اگر بتوانیم دلیل آن را بهتر بخواهیم، برای جلوگیری از خطرات مصنوعی، مانند تعصب و تبعیض برنامهریزی کنیم.
عدالت: این اصل به مسائلی مانند انصاف و برابری میپردازد. این که چه کسی باید از آزمایش و استفاده از ماشینی بهرهمند شود.
این موضوع در تعریف شرکت آیبیام (IBM) که یکی از پیشروترین شرکت ها در توسعه فناوری هوش مصنوعی است، به عنوان موضوعی یاد شده است که محققان و پژوهشگران را راهنمایی می کنند که سیستم های مصنوعی را به شیوه های اخلاقی بسازند تا به نفع تمام جامعه به عنوان یک کل باشد.
تعصب و تبعیض: مواردی از تعصب و تبعیض در مورد سیستمهای هوش مصنوعی، سوالات اخلاقی زیادی را در مورد استفاده از این فناوری ایجاد کرده است. چگونه میتوانیم در برابر سوگیری و تواناییهای مصنوعی از خود محافظت کنیم، در حالی که دادههای آموزشی میتوانند خود را در معرض سوگیری قرار دهند؟
تکینگی تکنولوژیک: بسیاری از پژوهشگران نگران این ایده هستند که هوش مصنوعی در آینده نزدیک از هوش انسانی پیشی بگیرند، اما با توجه به توسعه فناوریهایی مانند خودروهای خودران، غیرمنطقی است که فکر میکنم یک خودروی بدون راننده هرگز دچار سانحه رانندگی نمیشود، اما در صورت وقوع حادثه. چه کسی مسئول است؟
نحوه ایجاد اخلاق هوش مصنوعی
حتهتهههههههههههههم baraی rsیdگی behharanehahی erberbhaط be atelaق hahvش meصnnnaی thvصیhe شdedhe est. شرکتهای پیشرو در زمینههای مصنوعی نیز بهگرفتن این دستورالعملها، شکلهایی را نشان میدهند، زیرا شروع به تجربه برخی از عواقب ناشی از عدم رعایت استانداردهای اخلاقی در محصولات خود ساخته میشود.
سودمندیاین اصل از اصول اخلاق مراقبتهای بهداشتی و پزشکی است، جایی که پزشکان سوگند به کسی آسیب میرسانند. این را میتوان به آسانی در روشهای طبیعی مصنوعی به کار برد، جایی که الگوریتمها میتوانند بر خلاف نیت و قصد انجام کارهای خوب و بهبود یک سیستم خاص، سوگیریها را در مورد نژاد، جنسیت، گرههای سیاسی و غیره تقویت کنند.
نمونه هایی از وجود تبعیض و تعصب در سیستم های هوش مصنوعی استفاده از شرکت های بزرگ فناوری دیده شده است و همچنین می توان آن را در برنامه های کاربردی از نرم افزارهای تشخیص چهره گرفته تا الگوریتم های شبکه های اجتماعی استفاده کرد.
قابلیت توضیح: از مدلهای ماشینی به ویژه مدلهای یکهای بزرگ، به عنوان «مدلهای جعبه سیاه» یاد میشود، زیرا معمولاً مشخص نیست که چگونه به یک تصمیم خاص میرسد. قابلیت توضیح به دنبال رفع این ابهام در مورد ایجاد یک مدل و خروجیهای آن با ایجاد یک توضیح قابل فهم انسانی است که منطق ماشین را بیان میکند.
این قانون اخیر شرکتها را مجبور میکند که در ذخیرهسازی و استفاده از دادههای شناسایی شخصی (PII) نظر شمارهگذاری شده باشد. در نتیجه، سرمایهگذاری در حوزه امنیت به اولویت فزایندهای برای کسب و کارها تبدیل میشود، زیرا آنها به دنبال حذف آسیبپذیریها و فرصتهایی برای نظارت، هک و عملکردسایبری هستند.
شفافیت: برای تقویت، کاربران باید عملکرد عملکرد سرویس را ببینند، عملکرد آن را ارزیابی کنند و نقاط قوت و محدودیتهای آن را بشناسند.
به گزارش ایسنا، وقتی به اخلاقی فکر میشود، معمولاً به فناوری به ذهن نمیآید. این در حالی است که «اخلاق فناوری» زیرمجموعهای از مباحث اخلاقی است که به سؤالات اخلاقی مربوط به عصر فناوری و تغییر در جامعه است که در آن رایانههای شخصی و دستگاههای جدید معرفی میشوند، میپردازند.
یونسکو(سازمان آموزشی، علمی و فرهنگی سازمان ملل متحد) که پژوهشهای بینالمللی را برای اطمینان از توسعه علم و فناوری با حفاظتهای اخلاقی برای دههها رهبری کرده و در زمینه تحقیقات ژنتیکی، تغییرات آب و هوایی یا تحقیقات علمی، استانداردهای جهانی را برای استفاده از تحقیقات علمی میدانند. همه مزایای علمی ارائه می شود تا خطرات منفی را به حداقل ممکن برساند و تضمین کند که آنها به جهانی فراگیرتر، پایدارتر و صلح آمیز کمک می کنند، به این نتیجه می رسند که پیشرفت سریع هوش مصنوعی فرصت های علمی را در سطح جهانی، از تشخیص مراقبت های بهداشتی گرفته شده است. تا ایجاد ارتباطات انسانی از طریق رسانههای اجتماعی و ایجاد کارایی در نیروی کار از طریق انجام خودکار وظایف ایجاد شده است.
این رباتهای همهچیزدان حالا دیگر میشود و مانند یک انسان با انسان گفتگو میکنند و به سؤالات ریز و درشت ما با جستجوی لحظههای و تحلیل اطلاعات و پاسخهای موجود در فضای اینترنتی پاسخدهنده میپردازند. آنها در حال حاضر به جایی رسیدهاند که حتی میتوان شعر گفت یا نوشت و توصیف هر فرد از منظره یا رویدادی را به شکل عکس و ویدیو به تصویر درآورند.
نظرات اساسی در مورد هوش مصنوعی
اما به مانند هر چیز در دنیا، برای کسی پوشیده نیست که در این زمینه رعایت اخلاق را رعایت کند، چرا که عدم رعایت آن به معنی ایجاد هرج و مرج و ضایع حق خواهد بود.
به سکو در هیچ زمینه دیگری قطبنمای اخلاقی به اندازه مصنوعی مهم و مرتبط نیست، چرا که این فناوری منظوره، شیوه کار، اعتقاد و زندگی ما را بازتعریف میکند و از نو شکل میدهد. جهان قرار است با سرعتی تغییر کند که از زمان اختراع ماشین چاپ در شش قرن پیش دیده نشده است. فناوری هوش مصنوعی در بسیاری از زمینهها، اکثریتها به همراه دارد، اما بدون ضامنهای اخلاقی، خطر بازتولید تعصب و تبعیض در دنیای واقعی، دامن زدن به شکافها و تهدید حقوق و آزادیهای اساسی بشر را دنبال میکند.
مسئولیت: از آنجایی که قانون قابل توجهی برای تنظیم شیوههای استفاده از هوش مصنوعی وجود ندارد، هیچ مکانیسمی برای اطمینان از اجرای اخلاقی هوش مصنوعی وجود ندارد. برای این شکاف، چارچوبهای اخلاقی به عنوان بخشی از همکاری بین اخلاقشناسان و پژوهشگران برای کنترل ساخت و تولید مدلهای هوش مصنوعی در جامعه پدیدار شدهاند. با این حال آنها در حال حاضر فقط برای راهنمایی هستند و ضمانت اجرا نمی شوند.
طبق تعریف این شرکت، «اخلاق» به مجموعهای از اصول اخلاقی گفته میشود که به ما در تشخیص درست و نادرست کمک میکند. اخلاق مصنوعی نیز مجموعهای از دستورالعملهایی است که در طراحی و نتایج هوش مصنوعی توصیه میکند.
با این حال، این تغییرات سریع، نگرانیهای اخلاقی مزاجی را ایجاد میکند. نگرانیهایی از وجود تعصب و سوگیری در هوش مصنوعی، کمک به بدتر شدن آب و هوا، تهدید حقوق بشر و موارد دیگر از جمله این نگرانیها هستند.
توضیح پذیری: یک سیستم هوشمند مصنوعی باید شفاف باشد.
تعریف اصول برای اخلاق هوش مصنوعی