به مدل های یادگیری ماشینی نمی توان با اطمینان مطلق اعتماد کرد

علاوه بر Myllyaho، مطالعه توسط Mikko Raatikainen، Tomi Männistö، Jukka K. Nurminen و Tommi Mikkonen انجام شد. این نشریه بر اساس مصاحبه‌های کارشناسان تنظیم شده است.

نقل قول: مطالعه: مدل های یادگیری ماشین را نمی توان با اطمینان مطلق اعتماد کرد (2023، 18 آوریل) بازیابی شده در 18 آوریل 2023 از

اگر مدل‌های یادگیری ماشینی حاوی داده‌های شکسته باشند، مشکل می‌تواند به سیستم‌هایی که در اجرای آن‌ها از مدل‌ها استفاده شده‌اند نیز گسترش یابد. همچنین لازم است مشخص شود که کدام مکانیسم ها برای تصحیح خطاها مناسب هستند.

Myllyaho می‌گوید: «ایده اساسی این مطالعه این است که اگر سیستم‌های حیاتی را در اختیار هوش مصنوعی و الگوریتم‌ها قرار دهید، باید یاد بگیرید که برای شکست آنها آماده شوید.

Myllyaho می‌گوید: «معماران نرم‌افزار درباره نقص‌ها و نادرستی‌های موجود در مدل‌های یادگیری ماشین و اطراف آن مصاحبه شدند.

این برگه یا سند یا نوشته تحت پوشش قانون کپی رایت است. به غیر از هرگونه معامله منصفانه به منظور مطالعه یا تحقیق خصوصی، هیچ بخشی بدون اجازه کتبی قابل تکثیر نیست. محتوای مذکور فقط به هدف اطلاع رسانی ایجاد شده است.





منبع

Myllyaho این مطالعه را با توسعه یک مکانیسم مرتبط برای شناسایی خطاها گسترش داده است، اگرچه هنوز به یک الگوریتم واقعی پیشرفت نکرده است.

“این فقط یک ایده از شبکه های عصبی است. یک مدل یادگیری ماشینی عملکردی می تواند در صورت عدم کارکرد مدل فعلی، مدل های کاری را به سرعت تغییر دهد. به عبارت دیگر، همچنین باید بتواند خطاها را پیش بینی کند یا نشانه های آن را تشخیص دهد. اشتباهات.”

بخوان  ژل بزرگی که چاپ 3بعدی فلز را در شرایطی که امکان پذیر است

“ساختارها باید طوری طراحی شوند که از تشدید خطاهای رادیکال جلوگیری کنند. در نهایت، شدت پیشرفت مشکل به سیستم بستگی دارد.”

“ما باید بررسی کنیم که چگونه می توان اطمینان حاصل کرد که در طیف وسیعی از شرایط، هوش مصنوعی همانطور که باید و با عقلانیت انسانی عمل می کند. مناسب ترین راه حل همیشه بدیهی نیست و توسعه دهندگان باید انتخاب کنند که چه کاری انجام دهند. شما نمی توانید در مورد آن مطمئن باشید.”

اگر یک سرویس استریم گزینه های غیر جالبی را به کاربران پیشنهاد کند، ممکن است لزوما خطرناک نباشد، اما چنین رفتاری اعتماد به عملکرد سیستم را تضعیف می کند. با این حال، نقص در سیستم‌های حیاتی‌تر که به یادگیری ماشین متکی هستند، می‌توانند بسیار مضر باشند.

اخیراً، Myllyaho روی نهایی کردن پایان نامه دکتری خود متمرکز شده است، به همین دلیل است که نمی تواند در مورد آینده خود در این پروژه چیزی بگوید. پروژه IVVES به سرپرستی Jukka K. Nurminen به انجام کار خود در آزمایش ایمنی سیستم های یادگیری ماشین ادامه خواهد داد.

به عنوان مثال، درک این موضوع برای مردم آسان است که با وسایل نقلیه خودران، سیستم به مکانیسم های ایمنی و امنیتی مختلفی نیاز دارد. این همچنین در مورد سایر راه حل های هوش مصنوعی که به حالت های ایمن با عملکرد مناسب نیاز دارند، صدق می کند.

مقاله ای با عنوان “در مورد رفتار نادرست و تحمل خطا در سیستم های یادگیری ماشین” توسط محقق دکتری Lalli Myllyaho به عنوان یکی از بهترین مقالات در سال 2022 معرفی شد. مجله سیستم ها و نرم افزار.

بخوان  ۱۱ موکب وای فای رایگان به زائران اربعین ارائه می‌دهند

اطلاعات بیشتر:
Lalli Myllyaho و همکاران، در مورد رفتار نادرست و تحمل خطا در سیستم های یادگیری ماشین، مجله سیستم ها و نرم افزار (2022). DOI: 10.1016/j.jss.2021.111096

ارائه شده توسط دانشگاه هلسینکی


هرچه سیستم حیاتی تر باشد، ظرفیت کمترین خطرات مرتبط با آن مرتبط تر است.

سیستم های پیچیده تر خطاهای پیچیده تری ایجاد می کنند

به مدل های یادگیری ماشینی نمی توان با اطمینان مطلق اعتماد کرد

انتظار می رود خودروهای خودران نسبت به رانندگان انسانی از اقدامات ایمنی بهتری برخوردار باشند. هرچه سیستم حیاتی تر باشد، ظرفیت کمترین خطرات مرتبط با آن مرتبط تر است. اعتبار: Akarat Phasura

می‌خواستم بررسی کنم که چگونه می‌توان برای مثال، شناسایی اشتباه بینایی کامپیوتری چیزها را آماده کرد. به عنوان مثال، در توموگرافی کامپیوتری، هوش مصنوعی می‌تواند اشیاء را در بخش‌هایی شناسایی کند. اگر خطاهایی رخ دهد، این سؤال ایجاد می‌کند که تا چه حد باید به رایانه‌ها در چنین مواردی اعتماد کرد. میلیاهو می‌گوید، و چه زمانی از یک انسان بخواهیم نگاهی بیندازد.