قوانین ایالات متحده آمریکا در هوش مصنوعی کدامند؟ /2/

۱. طرح: جمع آوری دانش کافی در سیستم های هوش مصنوعی برای اطلاع رسانی تصمیمات سازمان در طراحی، توسعه یا استقرار آن؛

۳. نظارت: ایجاد فرهنگ سازمانی که مدیریت خطر هوش مصنوعی را در سیاست‌ها و عملیات خود گنجانده، آنها را به طور خودکار اجرا می‌کند، همچنین توانایی‌پذیری و تنوع، برابری و شمول را می‌تواند کند و کند.

قوانین ایالات متحده آمریکا در هوش مصنوعی کدامند؟  /2/

۳. قابل توضیح و تفسیر بودن: درک و زمینه‌سازی مناسب مکانیسم‌های یک سیستم هوش مصنوعی همچنین خروجی آن؛

۶. پاسخگویی و شفافیت: در دسترس قرار دادن اطلاعات مربوط به سیستم هوش مصنوعی برای افرادی که با آن در مراحل مختلف چرخه حیات هوش مصنوعی دارای و شیوه حفظ سازمانی و حاکمیت برای آسیب‌های احتمالی هستند.

ایسنا/خراسان رضوی چت بات جی چی تی (ChatGPT)، یک محصول مصنوعی است که در ماه نوامبر 2022 در عرصه زندگی بشر قرار داده، شگفت انگیزی برای نوشتن مقاله، شرکت در بحث های فلسفی و تولید کدهای کامپیوتری دارد اما این چت بات محبوب چه خطراتی به همراه دارد. دارد؟

به‌عنوان هماهنگ‌کننده استانداردهای مصنوعی فدرال، موسسه ملی فناوری و استانداردها با رهبران دولت و صنعت هم در ایالات متحده آمریکا و هم در سطح بین‌المللی برای توسعه استانداردهای فنی برای ترویج پذیرش هوش مصنوعی همکاری می‌کند و قوانین را در بخش «استانداردهای فنی مصنوعی» در وب سایت خود ذکر کرده است. علاوه بر این ۵۳۰۱ قانون دفاع ملی سال مالی ۲۰۲۱ به موسسه ملی فناوری و استانداردها دستور داد تا یک تصمیم مدیریت داوطلبانه برای سیستم‌های هوش مصنوعی قابل اعتماد در مدیریت مدیریت هوش مصنوعی ایجاد کند. ملاحظات مدیریت هوش مصنوعی داوطلبانه است اما ممکن است در مواردی که دولت فدرال می‌تواند به‌عنوان یک روش طبیعی هوش مصنوعی را ارائه دهد. خلاصه شده است.

بخوان  برنامه های کاربردی جدید به محققان در تجزیه و تحلیل آماری داده ها کمک می کند

تشخیص کلیدی توسط مدیریت ریسک هوش مصنوعی این است که انسان‌ها معمولاً سیستم‌های هوش مصنوعی را عینی و دارای عملکرد بالا فرض می‌کنند. این فرض می‌تواند به‌طور ناخواسته به افراد، جوامع، سازمان‌ها یا اکوسیستم‌های بزرگ‌تر از محیط زیست محیطی آسیب برساند. افزایش اطمینان به یک سیستم هوش مصنوعی می‌تواند خطرات این آسیب را کاهش دهد. مدیریت ریسک هوش مصنوعی قابلیت اطمینان را به‌عنوان داشتن هفت ویژگی بیان کرده است:

موسسه ملی فناوری و استانداردها

در ۲۶ ژانویه ۲۰۲۳، موسسه ملی فناوری و استانداردها (NIST)، یکی از آژانس‌های وزارت بازرگانی ایالات متحده آمریکا، متحصن، مدیریت ریسک هوش مصنوعی ۱. استقرار یا استفاده از سیستم‌های هوش مصنوعی هستند و هدف از آن کمک به مدیریت خطرات بسیاری از هوش مصنوعی خواهد بود. این قوانین فراتر از مدیریت، به دنبال ارتقاء توسعه و استفاده از اعتماد و استفاده از سیستم‌های مصنوعی است.

برای شرکت‌هایی که از فناوری‌های هوشمند استفاده می‌کنند، برای تصمیم‌گیری مرتبط با مراقبت‌های بهداشتی، سازمان غذا و دارو (FDA) اعلام کرده است که می‌خواهد از ابزارهای پشتیبانی تصمیم گیری بالینی استفاده کند.

• در مورد روش ها و اندازه های اندازه گیری قوی و قابل تایید، اتفاق نظر وجود ندارد.

• مجموعه داده‌های آموزشی امکان‌پذیر است برای حفاظت از نسخه‌های حق‌برداری.

انتهای پیام



منبع

مدیریت خطر هوش مصنوعی همچنین بررسی کرد که سیستم‌های هوش مصنوعی در خطرات مربوط به موارد ذکر شده در ذیل هستند:

علاوه بر انتشار داخلی مدیریت فناوری هوش مصنوعی توسط موسسه و استانداردها، برخی از توصیه‌های بعدی از سایر نهادها در دولت فدرال ایجاد شده است. به عنوان مثال، کمیسیون تجارت فدرال پیشنهاد کرده است که ممکن است به زودی نظارت خود را برای کارهایی که از هوش مصنوعی استفاده می‌کنند، افزایش دهند. قابل ذکر است، به تازگی کمیسیون تجارت فدرال پست‌های وبلاگی از جمله «ادعاهای هوش مصنوعی خود را کنترل کنید» و «چت‌ربات‌ها، دیپ‌فیک‌ها و کلون‌های صوتی». فریب هوش مصنوعی برای فروش» را منتشر کرد که به کسب‌وکارها هشدار داده است تا از ناعادلانه یا گمراه‌کننده جلوگیری کنند.

بخوان  Proton Mail به دنبال این است که جیمیل را با ویژگی های جدید سرنگون کند

www.openaccessgovernment.org

قوانین ایالات متحده آمریکا در هوش مصنوعی کدامند؟  /2/

۱. ایمن بودن: ارائه نظارت در زمان واقعی، پشتیبان یا سایر مداخلات سیستم هوش مصنوعی برای جلوگیری از آسیب یا روانی، یا به خطر انداختن جان، سلامت یا دارای انسان.

۲. اندازه گیری: اجرای فرآیندهای آزمایش، ارزیابی، راستی ازمایی و اعتبارسنجی برای اطلاع از تصمیمات مدیریت؛

۷. معتبر و قابل اعتماد بودن: نشان دادن از طریق آزمایش یا نظارت بر اجرای سیستم هوش مصنوعی که در نظر گرفته شده است.

۵. بیطرفانه بودن: ترویج برابری و مدیریت سوگیری‌های سیستمی، محاسباتی و آماری و انسانی-شناختی

مدیریت خطر هوش مصنوعی چهار عملکرد کلیدی را برای شرح هوش مصنوعی می‌دهد که در طول چرخه عمر سیستم مصنوعی برای مدیریت ریسک و تقسیم این عملکردهای اصلی به زیر مجموعه‌های بیشتر استفاده خواهد شد. بوک همراه مدیریت مدیریت تحقیقات هوش مصنوعی ذیل را برای کمک به شرکت‌ها در اجرای این عملکردهای اصلی پیشنهاد می‌کند:

سازمان غذا و دارو

با پیشرفت روزافزون هوش مصنوعی از افراد خطر را احساس کردند و خواهان وضعیت فوری در این زمینه شدند. بسیاری از جهان در حال حاضر قوانین مربوط به استفاده از هوش مصنوعی و یا در شرف انجام آن هستند و ایالات متحده آمریکا نیز قوانین احتمالی برای تنظیم هوش مصنوعی را در دستور کار خود قرار داده و به فعالیت های مقدماتی و خاص ارائه شده است که سرنخ‌هایی درباره نحوه تفکر دولت فدرال ایالات متحده آمریکا در مورد هوش مصنوعی و نحوه مدیریت آن در آینده می‌دهد.

۲. ایمان و پذیرفتن بودن: از پروتکل‌هایی برای جلوگیری، محافظت در برابر یا پاسخ به وسیله‌ای برای مقابله با سیستم‌های هوش مصنوعی و مقاومت در برابر حوادث نامطلوب؛

بخوان  سرمایه های دنیای فناوری روی چه چیزی سرمایه گذاری کرده اند؟

قوانین ایالات متحده آمریکا در هوش مصنوعی کدامند؟  /2/

۴. مدیریت: اولویت‌بندی و نظارت خطرات سیستم هوش مصنوعی و واکنش به خطرات و بازیابی آنها در نظر گرفته می‌شود.

www.euronews.com

در حالی که فناوری ملی با جزئیات بیشتر توسط مؤسسه و استانداردها، کمیسیون تجارت فدرال، سازمان غذا و دارو، مواردی را که از مقررات آینده هوش مصنوعی ایالات متحده ارائه می‌دهند، ارائه می‌کند، شکی نیست که در حال حاضر، قوانین سخت و سریع را ارائه می‌کند. وجود دارد که شرکت‌های هوش مصنوعی ایالات متحده می‌توانند بر اساس فعالیت‌های آن شرکت کنند. به نظر می‌رسد، نمی‌پذیرد که باید به گونه‌ای تنظیم شود که در نهایت ظاهر شود، اما اینکه چه رخ خواهد داد، هر کسی حدس می‌زند.

۴. افزایش حریم خصوصی: حفاظت از استقلال انسان با محافظت از شناسایی بودن، محرمانه بودن و کنترل.

منابع

قوانین ایالات متحده آمریکا در هوش مصنوعی کدامند؟  /2/

• از داده‌های احتمالی استفاده از شرکت‌های هوش مصنوعی برای قوانین حفاظت از حریم خصوصی دولتی یا سایر خطرات حفظ حریم خصوصی به دلیل قابل‌تجمیع داده‌های هوش مصنوعی کند.

• مسائل مربوط به کیفیت داده‌ها (از جمله داده‌های نادرست، ناقص یا مغرضانه) می‌تواند بر ایمنی سیستم‌های هوش مصنوعی تأثیر بگذارد.

کمیسیون تجارت فدرال

www.reuters.com