آیا میخواهید با یک چتبات درمانگر صحبت کنید؟ چتبات میدهند بر هوش مصنوعی سیستمهای پشتیبانی درمانکنندههای را برای روانی که به کمک در بخش سلامت نیاز دارند، اما سوالات اخلاقی نیز در این مورد مطرح است.
«جن پرسون»(Jen Persson) مبارز حریم خصوصی آنلاین بریتانیا، خواستار تنظیم جهانی چت بات درمانگر است، در حالی که برنامه مراقبه Headspace با استفاده از هوش مصنوعی به طور انتخابی برای بهبودی در انسان کمک میکند.
چتباتهای مصنوعی «Replika» از فناوری OpenAI استفاده میکند و افرادی از آن استفاده میکنند. پژوهشگران آن را مورد بررسی قرار دادند و در ایتالیا از آن برای افراد سن قانونی و افراد شکننده از نظر احساسی به دلیل نگرانی دولت ایتالیا در این زمینه، ممنوع شد.
به گزارش ایسنا و به نقل از آی او، بات مکالمه یا چتباتهای(Chatbot) مصنوعی مانند «Replika» به عنوان همراهان بالقوه از سلامت روان برای بیش از دو میلیون کاربر فعال، در حال ظهور هستند. با این حال برنامهای مانند دکتر «پال مارسدن»(Paul Marsden) یکی از اعضای انجمن روانشناسی بریتانیا، هشدار میدهد که چنین برنامههایی فقط باید مکملی برای درمان باشند.
به غیر از همه بالقوه چت باتهای هوش مصنوعی، نگرانیهایی در مورد پیامد اخلاقی استفاده از فناوری هوش مصنوعی در حمایت از سلامت روان مطرح شده است. کوکو(Koko)، یک شرکت فناوری بهداشت روان مستقر در سانفرانسیسکو، به دلیل اجرای آزمایشی با استفاده از چت بات هوش مصنوعی GPT-3 برای نوشتن پاسخ برای بیش از 400 کاربر با انتقاد مورد استفاده قرار گرفت.
چت بات درمانگران: مکملی برای مراقبت از انسان
انتهای پیام
در حالی که برخی از برنامهها روی چتهای درمانگر هوش مصنوعی میسازند، برخی دیگر مانند Headspace به روی انسان میپردازند. با بیش از یک میلیون کاربر و تاییدیه سازمان سلامت ملی انگلیس(NHS) در بریتانیا، اعتقاد اصلی Headspace بر مراقبت انسان استوار است. این شرکت از هوش مصنوعی گزینشی استفاده میکند و میکند انسان را حفظ میکند و در عین حال از سلامت روان پشتیبانی میکند.
چت بات درمانگر هوش مصنوعی مانند Replika یک سیستم پشتیبانی کننده را برای کسانی که به سلامت روان نیاز دارند میدهند. Replika توسط Eugenia Kuyda که ارائه شد، برای ارائه بازخورد مثبت بر اساس روش درمانی کارل راجرز، روانشناس آمریکایی طراحی شده است. این چت بیش از ۱۰ میلیون کاربر دارد و ویژگیهایی مانند مربیگری یا کوچینگ، حافظه و عملکردهای خاطرات را میدهد. اگر Replika ممکن است در شرایط خاص مفید باشد، پل مارسن از انجمن روانشناسی بریتانیا، هشدار میدهد که این برنامهها فقط باید به عنوان مکمل برای درمان انسان عمل کنند.
مواردی که چت باتهای درمانگر بر روی هوش مصنوعی به شهرت میرسند، درخواستها برای تنظیم جهانی در این زمینه بیشتر میشود. جن پرسون، فعال حریم خصوصی آنلاین بریتانیا، پیشنهاد میکند که شرکتهای هوش مصنوعی که ادعاهای مربوط به محصولات سلامت روان را ارائه میکنند، باید استانداردهای کیفیت و ایمنی، محصولات بهداشتی، گیرندههای مشابه را داشته باشند. در مورد Replika، آژانس حفاظت از دادههای ایتالیا این برنامه را به دلیل دلایل نامناسب برای افراد زیر ۱۸ سال و افراد از نظر عاطفی شکننده منع کرد.
مقررات و اطلاعات اخلاقی
نقش هوش مصنوعی در مراقبت از انسان
نتایج یک مطالعه اخیر توسط دانشگاه کرنل نشان داد که رباتگر «ChatGPT»، همدلی شناختی معادل یک کودک ۹ ساله را نشان میدهد. با پیشرفت مداوم در فناوری چت بات هوش مصنوعی، پتانسیل ایجاد تحول در مراقبت از سلامت روان مشهود است، اما باید بین کمک هوش مصنوعی و مراقبتهای انسانی ایجاد شود تا از حمایت اخلاقی و برای افراد نیازمند مطمئن به دست آید.
متخصصان و گرایان هوش مصنوعی استدلال میکنند که از هوش مصنوعی برای روانشناختی استفاده میکنند.
«الیزابت مارکیز»، محقق ارشد تجربه کاربری در شرکت مثورکس (MathWorks) و محقق مقطع دکترا در دانشگاه میشیگان، اشاره کرد که برخی از شاخصهای به موفقیت یا بررسی اخلاقی در آزمایشهای ربات چت مصنوعی وجود ندارد. متخصصان و متخصصان هوش مصنوعی به دلایلی مانند عواملی مانند استفاده و سود، ممکن است از هوش مصنوعی برای استفاده از منابع روانی استفاده کنند.