ChatGPT می تواند اطلاعات پزشکی قانع کننده جعل کند !

از آنجایی که ChatGPT در حال حاضر فقط با داده‌های تا سال ۲۰۱۹ آموزش دیده است و آنها را در نظر می‌گیرند، نمی‌توانند هیچ آماری از سال ۲۰۱۹ داشته باشند، اما در این مورد ادعا می‌کنند که ارقام و آمار خود را از یک پایگاه خصوصی داده‌اند. است که برای دسترسی به آن نیاز به پرداخت هزینه است.

این مطالعه در مجله Patterns منتشر شده است.

بر خلاف هشدارهای پژوهشگران، آنها می‌گویند که راه‌های مثبتی برای استفاده از هوش مصنوعی نیز وجود دارد.

به گزارش ایسنا و به نقل از کاسموس، پژوهش‌های جدید نشان می‌دهد که ChatGPT می‌تواند پزشکی قانع‌کننده‌های جعل کند.

می‌گویند: از آنها برای تحقیقات مصنوعی استفاده می‌شود. درخواست از هوش مصنوعی برای بررسی دستور زبان کار یا نوشتن نتیجه‌ای برای نتایج قانونی و صحیح کسب در یک مطالعه، از کاربردهای دیگر از روش‌های مصنوعی استفاده می‌شود که می‌توان آن‌ها را در تحقیقات انجام داد تا زمان‌بری را که روند پژوهش‌های علمی کند می‌کند، حذف کند.

بر اساس این گزارش، پژوهشگران در پایان پیشنهادان کردند که برای ادامه استفاده از ایمان از ChatGPT، ملاحظات مربوط به داده‌های جعلی و پیام‌های آن باید در نظر گرفته شود.

روشهای مثبت استفاده از هوش مصنوعی

پژوهش‌های جدید نشان می‌دهد که ربات مصنوعی مصنوعی ChatGPT می‌تواند داده شود و اطلاعات جعلی را واقعی جلوه دهد که به‌ویژه در مورد اطلاعات پزشکی می‌تواند خطرآفرین باشد.

در ادامه این مقاله علاوه بر این، ما دقت کنیم که این هوش مصنوعی آنلاین رایگان را آزمایش کنیم. سپس خطر تحقیقات ساختگی همراه با راه حل‌های بالقوه برای ایجاد این خطر، برجسته شد.

بخوان  اشکال چاپگر Windows 11 22H2 ویژگی های کلیدی را برای برخی از کاربران شکسته است
نویسندگان این مطالعه جدید ادعا می‌کنند که این ابزار هوش مصنوعی، انتشار تحقیقات جعلی را می‌کند که می‌تواند در همه امور شک و ایجاد کند، آسان‌تر از همیشه می‌کند.

پژوهشگران این مطالعه می‌گویند: ما در این مقاله با چند مثال نشان دادیم که چگونه می‌توانم از هوش مصنوعی برای ساختن تحقیقات در جامعه پزشکی استفاده کنم. علاوه بر این، مطالعات مربوط به تشخیص انسان بر اساس آثار بر روی هوش مصنوعی برای تشخیص دقیق آثار ساخت و تولید شده توسط هوش مصنوعی مقایسه شده است.

انتهای پیام



منبع

مشکل در تولید داده های جعلی است

پژوهشگران پس از درخواست از ChatGPT برای ایجاد یک چکیده برای یک مقاله علمی در مورد استفاده از دو داروی مختلف بر روی آرتریت روماتوئید به این نتیجه رسیدند. آنها از ربات هوش مصنوعی استفاده کردند که از داده های سال ۲۰۱۲ تا ۲۰۲۰ استفاده کردند و ChatGPT یک چکیده واقعی تولید کرد و حتی اعداد واقعی را ارائه کرد. علاوه بر این، زمانی که پژوهشگران آن را متهم کردند، ادعا کردند که یکی از آن دو دارو بهتر است از داروی دیگری کار کند که این موضوع، یک کار و خطرناک خطرناک از سوی یک چت است.

مسائل چالش‌برانگیز می‌شود که فرد از داده‌هایی استفاده می‌کند که نتایجی وجود ندارد و در واقع را برای نوشتن پژوهش می‌سازند که ممکن است به راحتی تشخیص انسان را دور بزند و راه خود را به یک نشریه علمی باز کند.

پژوهشگران هشدار می‌دهند که در عرض تنها یک بعد از ظهر می‌توان با ده‌ها چکیده مطالعه که می‌توان آنها را برای انتشار به کنفرانس‌های مختلف ارسال کرد، روبرو شد و خطر این است که پس از پذیرش یک چکیده برای انتشار، می‌توان از همین فناوری برای نوشتن دست نوشته و مقاله استفاده می شود که کاملاً بر اساس داده های ساختگی و نتایج جعلی بنا شده است.

بخوان  آیا Windows 11 Copilot AI تاکنون شما را ناامید کرده است؟ هوش مصنوعی به زودی می تواند سوپرشارژ شود

پژوهشگران می‌گویند این آثار در صورت، پژوهش‌های مشروع را منتشر می‌کنند و می‌توانند بر روی تعمیم آثار شروع کننده تأثیر بگذارند.