این مطالعه در مجله Patterns منتشر شده است.
پژوهشگران هشدار میدهند که در عرض تنها یک بعد از ظهر میتوان با دهها چکیده مطالعه که میتوان آنها را برای انتشار به کنفرانسهای مختلف ارسال کرد، روبرو شد و خطر این است که پس از پذیرش یک چکیده برای انتشار، میتوان از همین فناوری برای نوشتن دست نوشته و مقاله استفاده می شود که کاملاً بر اساس داده های ساختگی و نتایج جعلی بنا شده است.
پژوهشگران پس از درخواست از ChatGPT برای ایجاد یک چکیده برای یک مقاله علمی در مورد استفاده از دو داروی مختلف بر روی آرتریت روماتوئید به این نتیجه رسیدند. آنها از ربات هوش مصنوعی استفاده کردند که از داده های سال ۲۰۱۲ تا ۲۰۲۰ استفاده کردند و ChatGPT یک چکیده واقعی تولید کرد و حتی اعداد واقعی را ارائه کرد. علاوه بر این، زمانی که پژوهشگران آن را متهم کردند، ادعا کردند که یکی از آن دو دارو بهتر است از داروی دیگری کار کند که این موضوع، یک کار و خطرناک خطرناک از سوی یک چت است.
پژوهشهای جدید نشان میدهد که ربات مصنوعی مصنوعی ChatGPT میتواند داده شود و اطلاعات جعلی را واقعی جلوه دهد که بهویژه در مورد اطلاعات پزشکی میتواند خطرآفرین باشد.
روشهای مثبت استفاده از هوش مصنوعی
میگویند: از آنها برای تحقیقات مصنوعی استفاده میشود. درخواست از هوش مصنوعی برای بررسی دستور زبان کار یا نوشتن نتیجهای برای نتایج قانونی و صحیح کسب در یک مطالعه، از کاربردهای دیگر از روشهای مصنوعی استفاده میشود که میتوان آنها را در تحقیقات انجام داد تا زمانبری را که روند پژوهشهای علمی کند میکند، حذف کند.
از آنجایی که ChatGPT در حال حاضر فقط با دادههای تا سال ۲۰۱۹ آموزش دیده است و آنها را در نظر میگیرند، نمیتوانند هیچ آماری از سال ۲۰۱۹ داشته باشند، اما در این مورد ادعا میکنند که ارقام و آمار خود را از یک پایگاه خصوصی دادهاند. است که برای دسترسی به آن نیاز به پرداخت هزینه است.
پژوهشگران این مطالعه میگویند: ما در این مقاله با چند مثال نشان دادیم که چگونه میتوانم از هوش مصنوعی برای ساختن تحقیقات در جامعه پزشکی استفاده کنم. علاوه بر این، مطالعات مربوط به تشخیص انسان بر اساس آثار بر روی هوش مصنوعی برای تشخیص دقیق آثار ساخت و تولید شده توسط هوش مصنوعی مقایسه شده است.
بر خلاف هشدارهای پژوهشگران، آنها میگویند که راههای مثبتی برای استفاده از هوش مصنوعی نیز وجود دارد.
بر اساس این گزارش، پژوهشگران در پایان پیشنهادان کردند که برای ادامه استفاده از ایمان از ChatGPT، ملاحظات مربوط به دادههای جعلی و پیامهای آن باید در نظر گرفته شود.
پژوهشگران میگویند این آثار در صورت، پژوهشهای مشروع را منتشر میکنند و میتوانند بر روی تعمیم آثار شروع کننده تأثیر بگذارند.
نویسندگان این مطالعه جدید ادعا میکنند که این ابزار هوش مصنوعی، انتشار تحقیقات جعلی را میکند که میتواند در همه امور شک و ایجاد کند، آسانتر از همیشه میکند.
مشکل در تولید داده های جعلی است
انتهای پیام
به گزارش ایسنا و به نقل از کاسموس، پژوهشهای جدید نشان میدهد که ChatGPT میتواند پزشکی قانعکنندههای جعل کند.
در ادامه این مقاله علاوه بر این، ما دقت کنیم که این هوش مصنوعی آنلاین رایگان را آزمایش کنیم. سپس خطر تحقیقات ساختگی همراه با راه حلهای بالقوه برای ایجاد این خطر، برجسته شد.
مسائل چالشبرانگیز میشود که فرد از دادههایی استفاده میکند که نتایجی وجود ندارد و در واقع را برای نوشتن پژوهش میسازند که ممکن است به راحتی تشخیص انسان را دور بزند و راه خود را به یک نشریه علمی باز کند.