موضوع مبهمی به نام «اخلاق هوش مصنوعی»

یکی از مظاهر بارز فناوری پیشرفته، ظهور هوش مصنوعی است که جهانی را به ویژه در چند ماه اخیر با معرفی ربات‌های گفتگوگر یا چت‌بات‌ها به خود ساخته است.

هنوز درباره این موضوعات صحبت نمی‌شود، اما این‌ها انواع بحث‌های اخلاقی هستند که با توسعه فناوری جدید و خلاقانه مصنوعی در حال بروز هستند.

موضوع مبهمی به نام «اخلاق هوش مصنوعی»

این نوع شفافیت برای ایجاد اعتماد با سیستم‌های هوش مصنوعی مهم است تا مطمئن شوید که می‌توانید یک مدل را چگونه و چرا به یک نقطه تصمیم بگیرید. اگر بتوانیم دلیل آن را بهتر بخواهیم، ​​برای جلوگیری از خطرات مصنوعی، مانند تعصب و تبعیض برنامه‌ریزی کنیم.

عدالت: این اصل به مسائلی مانند انصاف و برابری می‌پردازد. این که چه کسی باید از آزمایش و استفاده از ماشینی بهره‌مند شود.

این موضوع در تعریف شرکت آی‌بی‌ام (IBM) که یکی از پیشروترین شرکت ها در توسعه فناوری هوش مصنوعی است، به عنوان موضوعی یاد شده است که محققان و پژوهشگران را راهنمایی می کنند که سیستم های مصنوعی را به شیوه های اخلاقی بسازند تا به نفع تمام جامعه به عنوان یک کل باشد.

تعصب و تبعیض: مواردی از تعصب و تبعیض در مورد سیستم‌های هوش مصنوعی، سوالات اخلاقی زیادی را در مورد استفاده از این فناوری ایجاد کرده است. چگونه می‌توانیم در برابر سوگیری و توانایی‌های مصنوعی از خود محافظت کنیم، در حالی که داده‌های آموزشی می‌توانند خود را در معرض سوگیری قرار دهند؟

تکینگی تکنولوژیک: بسیاری از پژوهشگران نگران این ایده هستند که هوش مصنوعی در آینده نزدیک از هوش انسانی پیشی بگیرند، اما با توجه به توسعه فناوری‌هایی مانند خودروهای خودران، غیرمنطقی است که فکر می‌کنم یک خودروی بدون راننده هرگز دچار سانحه رانندگی نمی‌شود، اما در صورت وقوع حادثه. چه کسی مسئول است؟

نحوه ایجاد اخلاق هوش مصنوعی

حتهتهههههههههههههم baraی rsیdگی behharanehahی erberbhaط be atelaق hahvش meصnnnaی thvصیhe شdedhe est. شرکت‌های پیشرو در زمینه‌های مصنوعی نیز به‌گرفتن این دستورالعمل‌ها، شکل‌هایی را نشان می‌دهند، زیرا شروع به تجربه برخی از عواقب ناشی از عدم رعایت استانداردهای اخلاقی در محصولات خود ساخته می‌شود.

سودمندیاین اصل از اصول اخلاق مراقبت‌های بهداشتی و پزشکی است، جایی که پزشکان سوگند به کسی آسیب می‌رسانند. این را می‌توان به آسانی در روش‌های طبیعی مصنوعی به کار برد، جایی که الگوریتم‌ها می‌توانند بر خلاف نیت و قصد انجام کارهای خوب و بهبود یک سیستم خاص، سوگیری‌ها را در مورد نژاد، جنسیت، گره‌های سیاسی و غیره تقویت کنند.

نمونه هایی از وجود تبعیض و تعصب در سیستم های هوش مصنوعی استفاده از شرکت های بزرگ فناوری دیده شده است و همچنین می توان آن را در برنامه های کاربردی از نرم افزارهای تشخیص چهره گرفته تا الگوریتم های شبکه های اجتماعی استفاده کرد.

قابلیت توضیح: از مدلهای ماشینی به ویژه مدلهای یک‌های بزرگ، به عنوان «مدل‌های جعبه سیاه» یاد می‌شود، زیرا معمولاً مشخص نیست که چگونه به یک تصمیم خاص می‌رسد. قابلیت توضیح به دنبال رفع این ابهام در مورد ایجاد یک مدل و خروجی‌های آن با ایجاد یک توضیح قابل فهم انسانی است که منطق ماشین را بیان می‌کند.

این قانون اخیر شرکت‌ها را مجبور می‌کند که در ذخیره‌سازی و استفاده از داده‌های شناسایی شخصی (PII) نظر شماره‌گذاری شده باشد. در نتیجه، سرمایه‌گذاری در حوزه امنیت به اولویت فزاینده‌ای برای کسب ‌و کارها تبدیل می‌شود، زیرا آنها به دنبال حذف آسیب‌پذیری‌ها و فرصت‌هایی برای نظارت، هک و عملکردسایبری هستند.

شفافیت: برای تقویت، کاربران باید عملکرد عملکرد سرویس را ببینند، عملکرد آن را ارزیابی کنند و نقاط قوت و محدودیت‌های آن را بشناسند.

بخوان  قوانین اتحادیه اروپا در هوش مصنوعی کدامند؟

به گزارش ایسنا، وقتی به اخلاقی فکر می‌شود، معمولاً به فناوری به ذهن نمی‌آید. این در حالی است که «اخلاق فناوری» زیرمجموعه‌ای از مباحث اخلاقی است که به سؤالات اخلاقی مربوط به عصر فناوری و تغییر در جامعه است که در آن رایانه‌های شخصی و دستگاه‌های جدید معرفی می‌شوند، می‌پردازند.

یونسکو(سازمان آموزشی، علمی و فرهنگی سازمان ملل متحد) که پژوهش‌های بین‌المللی را برای اطمینان از توسعه علم و فناوری با حفاظت‌های اخلاقی برای دهه‌ها رهبری کرده و در زمینه تحقیقات ژنتیکی، تغییرات آب و هوایی یا تحقیقات علمی، استانداردهای جهانی را برای استفاده از تحقیقات علمی می‌دانند. همه مزایای علمی ارائه می شود تا خطرات منفی را به حداقل ممکن برساند و تضمین کند که آنها به جهانی فراگیرتر، پایدارتر و صلح آمیز کمک می کنند، به این نتیجه می رسند که پیشرفت سریع هوش مصنوعی فرصت های علمی را در سطح جهانی، از تشخیص مراقبت های بهداشتی گرفته شده است. تا ایجاد ارتباطات انسانی از طریق رسانه‌های اجتماعی و ایجاد کارایی در نیروی کار از طریق انجام خودکار وظایف ایجاد شده است.

این ربات‌های همه‌چیزدان حالا دیگر می‌شود و مانند یک انسان با انسان گفتگو می‌کنند و به سؤالات ریز و درشت ما با جستجوی لحظه‌های و تحلیل اطلاعات و پاسخ‌های موجود در فضای اینترنتی پاسخ‌دهنده می‌پردازند. آنها در حال حاضر به جایی رسیده‌اند که حتی می‌توان شعر گفت یا نوشت و توصیف هر فرد از منظره یا رویدادی را به شکل عکس و ویدیو به تصویر درآورند.

نظرات اساسی در مورد هوش مصنوعی

اما به مانند هر چیز در دنیا، برای کسی پوشیده نیست که در این زمینه رعایت اخلاق را رعایت کند، چرا که عدم رعایت آن به معنی ایجاد هرج و مرج و ضایع حق خواهد بود.

به سکو در هیچ زمینه دیگری قطب‌نمای اخلاقی به اندازه مصنوعی مهم و مرتبط نیست، چرا که این فناوری‌ منظوره، شیوه کار، اعتقاد و زندگی ما را بازتعریف می‌کند و از نو شکل می‌دهد. جهان قرار است با سرعتی تغییر کند که از زمان اختراع ماشین چاپ در شش قرن پیش دیده نشده است. فناوری هوش مصنوعی در بسیاری از زمینه‌ها، اکثریت‌ها به همراه دارد، اما بدون ضامن‌های اخلاقی، خطر بازتولید تعصب و تبعیض در دنیای واقعی، دامن زدن به شکاف‌ها و تهدید حقوق و آزادی‌های اساسی بشر را دنبال می‌کند.

مسئولیت: از آنجایی که قانون قابل توجهی برای تنظیم شیوه‌های استفاده از هوش مصنوعی وجود ندارد، هیچ مکانیسمی برای اطمینان از اجرای اخلاقی هوش مصنوعی وجود ندارد. برای این شکاف، چارچوب‌های اخلاقی به عنوان بخشی از همکاری بین اخلاق‌شناسان و پژوهشگران برای کنترل ساخت و تولید مدل‌های هوش مصنوعی در جامعه پدیدار شده‌اند. با این حال آنها در حال حاضر فقط برای راهنمایی هستند و ضمانت اجرا نمی شوند.

طبق تعریف این شرکت، «اخلاق» به مجموعه‌ای از اصول اخلاقی گفته می‌شود که به ما در تشخیص درست و نادرست کمک می‌کند. اخلاق مصنوعی نیز مجموعه‌ای از دستورالعمل‌هایی است که در طراحی و نتایج هوش مصنوعی توصیه می‌کند.

با این حال، این تغییرات سریع، نگرانی‌های اخلاقی مزاجی را ایجاد می‌کند. نگرانی‌هایی از وجود تعصب و سوگیری در هوش مصنوعی، کمک به بدتر شدن آب و هوا، تهدید حقوق بشر و موارد دیگر از جمله این نگرانی‌ها هستند.

توضیح پذیری: یک سیستم هوشمند مصنوعی باید شفاف باشد.

تعریف اصول برای اخلاق هوش مصنوعی

تاثیر هوش مصنوعی بر روش: در حالی که بسیاری از تصورات عمومی در مورد هوش مصنوعی به دست دادن شغلی است، این احتمالاً باید اصلاح شود. با ظهور هر فناوری جدید با پتانسیل مخرب بودن و آثار سوء، می‌بینیم که بازاری برای نقش‌های شغلی خاص تغییر می‌کند. به عنوان مثال، وقتی به صنعت خودرو نگاه می‌کنیم، بسیاری از تولیدکنندگان خودروهای الکتریکی متمرکز می‌شوند تا با ابتکارات سبز هماهنگ شوند. در واقع صنعت انرژی از بین نمیرود، اما منبع انرژی از مصرف سوخت به سمت برق میرود.

هوش مصنوعی به روشی مشابه بررسی مورد باید قرار گیرد. هوش مصنوعی ابزاری را به مانند همین مثال که زده است، تغییر می‌دهد. با رشد و تغییر هر روز داده‌ها، باید وجود داشته باشد که به مدیریت این سیستم‌ها کمک کند. بنابراین جنبه مهم هوش مصنوعی و تاثیر آن بر بازار کار، کمک به انتقال افراد به این حوزه‌های جدید در بازار خواهد بود.

دستیابی به هوش مصنوعی اخلاقی بدون شک برای موفقیت آن مهم خواهد بود و توجه به این نکته مهم است که مصنوعی پتانسیل فوق العاده برای تأثیرگذاری بر جامعه دارد.

موضوع مبهمی به نام «اخلاق هوش مصنوعی»

انتهای پیام



منبع

در مجموع، همان طور که کسب ‌و کارها از خطرات هوش مصنوعی آگاه‌تر می‌شوند، درباره اخلاق و ارزش‌ها توسط هوش مصنوعی نیز فعال‌تر می‌شوند.

به گفته یونسکو، این خطرات مرتبط با هوش مصنوعی، شروع به ترکیب شدن با نابرابری‌های موجود می‌کند و باعث آسیب بیشتر به گروه‌های موجود در حال حاضر به حاشیه می‌شود.

اخلاق هوش مصنوعی یا از نظر اخلاقی و رعایت اخلاقیات در حوزه هوش مصنوعی، چیزی است که با توجه به لحظه لحظه به این فناوری، روز به روز به روز می کند را به خود جلب کند. اخلاق هوش مصنوعی موضوعی است که از پیش‌افتاده‌ها تا آخرالزمانی‌ها را شامل می‌شود و به بهترین شکل ممکن به آن پرداخته نمی‌شود.

عظم دثت دره قینتنه ممتونانت منتر حر مونجهههههههههههههههههههههههههههههههههههههههههههههههههههههههههههههه ادههههههههه اِتناب کnd.

انصاف: انصاف به رفتار عادلانه افراد یا گروه‌هایی از افراد توسط یک سیستم هوش مصنوعی اشاره دارد. وقتی هوش مصنوعی به درستی تنظیم شود، می‌تواند به انسان در انتخاب‌های منصفانه‌تر و مقابله با کمک‌های انسانی کمک کند.

سایت: شرکت‌ها می‌توانند از ساختار سازمانی موجود برای کمک به مدیریت هوش مصنوعی اخلاقی استفاده کنند.

حریم خصوصی: سیستم‌های هوش مصنوعی باید حریم خصوصی و حقوق مصرف‌کنندگان را در اولویت قرار دهند و از آن محافظت کنند و به کاربران در نحوه استفاده و حفاظت از داده‌های شخصی آنها اطمینان دهند که ارائه‌دهنده آن است.

موضوع مبهمی به نام «اخلاق هوش مصنوعی»

استحکام: سیستم‌های مجهز به مصنوعی مصنوعی به طور فعال در برابر مصارف متخاصم، به حداقل رساندن خطرات امنیتی و ایجاد نتایج در سیستم محافظت می‌شوند.

احترام به افراد: این اصل استقلال افراد را به رسمیت می شناسد و انتظارات پژوهشگران را برای محافظت از افراد با خودمختاری کاهش یافته است که می تواند به دلیل شرایط مختلف بیماری، ناتوانی ذهنی و محدودیت های سنی باشد، حفظ می کند. این در اول بر ایده توافق و درجه مشخص است. افراد باید از خطرات و مزایای استفاده از قبل بالقوه هر آزمایشی که بخشی از آن هستند، باید در هر آزمایش و در طول آزمایش آن شرکت کننده یا کنار بکشند.

شرکت آی‌بی‌ام مجموعه‌ای از مناطق زیرزمینی را برای هدایت و شناسایی فناوری‌های هوش مصنوعی ایجاد کرده است که این موارد است:

«اخلاق هوش مصنوعی» در دیره المعارف جهانی ویکی‌پدیا به عنوان بخشی از اخلاق فن آوری شده است که به صورت خاص به ربات و هوش مصنوعی مربوط می شود و در مورد نحوه رفتار و عملکرد انسان با هوش مصنوعی و بالعکس آن است. در اخلاق هوش مصنوعی به بررسی حقوق ربات‌ها و درستی یا نادرستی جایگزین آن‌ها در نقش‌های انسانی پرداخته می‌شود.

بخوان  کشف «ضربان قلب» در یک شراره خورشیدی!

موضوع مبهمی به نام «اخلاق هوش مصنوعی»

با توسعه هوش مصنوعی و تلاش دولت‌ها برای تطبیق ساختار و قانون با این فناوری در حال رشد، اخلاق هوش مصنوعی به عنوان یک موضوع مهم مطرح است که همه باید آن را بدانند.

از آنجایی که ماشین‌های مصنوعی مصنوعی اخلاق‌گرایی را به وجود نیاورده است، تیم‌های پژوهشی شروع به جمع‌آوری مفهوم‌ها و مفهومی برای حل برخی از نظرات اخلاقی فعلی و شکل دادن به آینده کاری در این زمینه‌ها کرده‌اند. در هر روز موارد بیشتر به این دستورالعمل‌ها اعمال می‌شود، در مورد آن‌ها در موارد زیر توافق نظر وجود دارد:

انسانها با انواع سوگیریهای شناختی و ذاتی که در رفتارهای ما نهفته است و متعاقباً در داده های ما ظهور و بروز پیدا می کند، قرار می گیرند و از آنجایی که پایه و اساس همه الگوریتم های ماشینی هستند، برای ما مهم هستند که آزمایش ها و الگوهایی را با آنها انجام دهیم. در نظر گرفتن این موضوع ساختار ببخشیم، زیرا هوش مصنوعی این پتانسیل را دارد که این سوگیری‌های انسانی را با سرعتی بی‌سابقه تقویت می‌کند.

در خط مقدم گفتگوهای اخلاقی پیرامون فناوری‌های هوش مصنوعی وجود دارد. برخی از این موارد عبارتند از:

اخلاق در فناوری طی سال‌های اخیر با پیشرفت فناوری متحول شده است. نمی‌توان اخلاقیات را در زمینه فناوری به حساب نیاورد، چرا که وضع قوانینی برای رعایت حقوق بین انسان‌ها با ماشین‌ها و ربات‌ها به روشنی از نیازهای مبرم جامعه است تا هرج و مرج و آشفتگی ایجاد می‌شود.

سخن پایانی

اخلاق هوش مصنوعی چیست و چرا دارد؟

حریم خصوصی: حریم خصوصی معمولاً در زمینه حریم شخصی داده‌ها، حفاظت از اطلاعات و امنیت داده‌ها مورد بحث قرار می‌گیرد و این نگرانی‌ها به سیاست‌ها اجازه می‌دهند در سال‌های بعدی گام‌های بیشتر در این حوزه بردارد. به عنوان مثال در سال 2016، قانون GDPR برای محافظت از افراد شخصی در اتحادیه اروپا و منطقه اقتصادی اروپا ایجاد شد و به افراد کنترل کننده بر داده های خود داد. در ایالات متحده، شرکت های دولتی در حال حاضر در سیاست های توسعه مانند قوانین حفظ حریم خصوصی مصرف کنندگان کالیفرنیا (CCPA) هستند که از کسب و کارها می توانند مصرف کنندگان را در جمع آوری های خود آگاه کنند.

تعاریف از اخلاق هوش مصنوعی متفاوت است، اما به طور کلی، «اخلاق هوش مصنوعی» اصطلاحی است که به مجموعه وسیعی از ملاحظات مصنوعی مصنوعی می‌شود که ایمنی، امنیت، نگرانی‌های انسانی و ملاحظات زیست محیطی را با می‌کند.

از آنجایی که افراد از همه طبقات جامعه شاهد تاثیر هوش مصنوعی در زندگی و شغل خود هستند، اخلاق مصنوعی برای اکثر مردم به بخش مهمی از سواد هوش مصنوعی تبدیل شده است. اخلاق مصنوعی در حال حاضر در برخی از دبیرستان‌ها و همچنین در دوره‌های هوش مصنوعی در دوره‌های تجاری حرفه‌ای تدریس می‌شود و با رایج شدن قوانینی مانند قانون مصنوعی، می‌توان انتظار داشت که دانش اخلاق مصنوعی به جریان اصلی تبدیل شود.

در حالی که قوانین و پروتکل‌ها برای مدیریت از هوش مصنوعی در حال توسعه هستند، جامعه دانشگاهی به دنبال هدایت اخلاق در تحقیقات تجربی و توسعه الگوریتم‌هاست. سه اصل اساسی وجود دارد که به عنوان راهنمای طراحی آزمایش‌ها و الگوریتم‌ها عمل می‌کند که عبارتند از: