آیا درمان با هوش مصنوعی می‌تواند مراقبت‌های بهداشتی روان را متحول کند؟

آیا می‌خواهید با یک چت‌بات درمانگر صحبت کنید؟ چت‌بات می‌دهند بر هوش مصنوعی سیستم‌های پشتیبانی درمان‌کننده‌های را برای روانی که به کمک در بخش سلامت نیاز دارند، اما سوالات اخلاقی نیز در این مورد مطرح است.

«جن پرسون»(Jen Persson) مبارز حریم خصوصی آنلاین بریتانیا، خواستار تنظیم جهانی چت بات درمانگر است، در حالی که برنامه مراقبه Headspace با استفاده از هوش مصنوعی به طور انتخابی برای بهبودی در انسان کمک می‌کند.

چت‌بات‌های مصنوعی «Replika» از فناوری OpenAI استفاده می‌کند و افرادی از آن استفاده می‌کنند. پژوهشگران آن را مورد بررسی قرار دادند و در ایتالیا از آن برای افراد سن قانونی و افراد شکننده از نظر احساسی به دلیل نگرانی دولت ایتالیا در این زمینه، ممنوع شد.

به گزارش ایسنا و به نقل از آی او، بات مکالمه یا چت‌بات‌های(Chatbot) مصنوعی مانند «Replika» به عنوان همراهان بالقوه از سلامت روان برای بیش از دو میلیون کاربر فعال، در حال ظهور هستند. با این حال برنامه‌ای مانند دکتر «پال مارسدن»(Paul Marsden) یکی از اعضای انجمن روان‌شناسی بریتانیا، هشدار می‌دهد که چنین برنامه‌هایی فقط باید مکملی برای درمان باشند.

به غیر از همه بالقوه چت بات‌های هوش مصنوعی، نگرانی‌هایی در مورد پیامد اخلاقی استفاده از فناوری هوش مصنوعی در حمایت از سلامت روان مطرح شده است. کوکو(Koko)، یک شرکت فناوری بهداشت روان مستقر در سانفرانسیسکو، به دلیل اجرای آزمایشی با استفاده از چت بات هوش مصنوعی GPT-3 برای نوشتن پاسخ برای بیش از 400 کاربر با انتقاد مورد استفاده قرار گرفت.

چت بات درمانگران: مکملی برای مراقبت از انسان

انتهای پیام

بخوان  دارورسانی مستقیم به مغز با یک پمپ قابل کاشت



منبع

در حالی که برخی از برنامه‌ها روی چت‌های درمانگر هوش مصنوعی می‌سازند، برخی دیگر مانند Headspace به روی انسان می‌پردازند. با بیش از یک میلیون کاربر و تاییدیه سازمان سلامت ملی انگلیس(NHS) در بریتانیا، اعتقاد اصلی Headspace بر مراقبت انسان استوار است. این شرکت از هوش مصنوعی گزینشی استفاده می‌کند و می‌کند انسان را حفظ می‌کند و در عین حال از سلامت روان پشتیبانی می‌کند.

چت بات درمانگر هوش مصنوعی مانند Replika یک سیستم پشتیبانی کننده را برای کسانی که به سلامت روان نیاز دارند می‌دهند. Replika توسط Eugenia Kuyda که ارائه شد، برای ارائه بازخورد مثبت بر اساس روش درمانی کارل راجرز، روانشناس آمریکایی طراحی شده است. این چت بیش از ۱۰ میلیون کاربر دارد و ویژگی‌هایی مانند مربیگری یا کوچینگ، حافظه و عملکردهای خاطرات را می‌دهد. اگر Replika ممکن است در شرایط خاص مفید باشد، پل مارسن از انجمن روانشناسی بریتانیا، هشدار می‌دهد که این برنامه‌ها فقط باید به عنوان مکمل برای درمان انسان عمل کنند.

مواردی که چت بات‌های درمانگر بر روی هوش مصنوعی به شهرت می‌رسند، درخواست‌ها برای تنظیم جهانی در این زمینه بیشتر می‌شود. جن پرسون، فعال حریم خصوصی آنلاین بریتانیا، پیشنهاد می‌کند که شرکت‌های هوش مصنوعی که ادعاهای مربوط به محصولات سلامت روان را ارائه می‌کنند، باید استانداردهای کیفیت و ایمنی، محصولات بهداشتی، گیرنده‌های مشابه را داشته باشند. در مورد Replika، آژانس حفاظت از داده‌های ایتالیا این برنامه را به دلیل دلایل نامناسب برای افراد زیر ۱۸ سال و افراد از نظر عاطفی شکننده منع کرد.

مقررات و اطلاعات اخلاقی

نقش هوش مصنوعی در مراقبت از انسان

بخوان  اولین پرتاب اسپیس‌ایکس در سال ۲۰۲۳ امروز انجام می‌شود

نتایج یک مطالعه اخیر توسط دانشگاه کرنل نشان داد که رباتگر «ChatGPT»، همدلی شناختی معادل یک کودک ۹ ساله را نشان می‌دهد. با پیشرفت مداوم در فناوری چت بات هوش مصنوعی، پتانسیل ایجاد تحول در مراقبت از سلامت روان مشهود است، اما باید بین کمک هوش مصنوعی و مراقبت‌های انسانی ایجاد شود تا از حمایت اخلاقی و برای افراد نیازمند مطمئن به دست آید.

متخصصان و گرایان هوش مصنوعی استدلال می‌کنند که از هوش مصنوعی برای روانشناختی استفاده می‌کنند.

«الیزابت مارکیز»، محقق ارشد تجربه کاربری در شرکت مث‌ورکس (MathWorks) و محقق مقطع دکترا در دانشگاه میشیگان، اشاره کرد که برخی از شاخص‌های به موفقیت یا بررسی اخلاقی در آزمایش‌های ربات چت مصنوعی وجود ندارد. متخصصان و متخصصان هوش مصنوعی به دلایلی مانند عواملی مانند استفاده و سود، ممکن است از هوش مصنوعی برای استفاده از منابع روانی استفاده کنند.