قضات انگلستان و ولز میتوانند از ChatGPT در احکام حقوقی خود استفاده کنند اما باید به آنها هشدار داد که مراقب باشند زیرا فناوری مستعد تشکیل پروندههای جعلی است.
به گزارش ایسنا و به نقل از دیلی میل، زمانی که یک جنایتکار متوجه میشود که باید زندگی خود را پشت میلههای زندان اسپری کند، از حیاتیترین زمان پرونده قضایی است اما به یکی از موارد حکم قاضی، این حکم -حداقل تا حدودی- در ChatGPT بارگذاری میشود.
قضات در انگلستان و ولز میتوانند از چتباتهای مصنوعی برای کمک به نوشتن احکام حقوقی خود استفاده کنند. این در حالی است که ChatGPT مستعد ساخت موارد جعلی شناخته شده است و حتی اعتراف کرده است که میتواند در صفحه فرود خود اشتباه کند.
استفاده از چتبات ChatGPT که قبلاً توسط یک قاضی بریتانیایی خیلی سودمند توصیف شده بود، به طور فزایندهای در حوزه نفوذ کرده و باعث نگرانی برخی حقوق از بررسی شده است. دستورالعمل رسمی جدید «دفتر قضایی بریتانیا» که برای هزاران قاضی صادر شده است، بررسی میکند که هوش مصنوعی را میتوان برای خلاصه کردن تعداد زیادی متن یا در کارهای اداری مورد استفاده قرار داد. این دستورالعملها به عنوان وظایف اصلی، شرایط واجد شرایط هستند، اما بخشهای برجستهتر این فرآیند یا انجام بررسیهای تحلیلهای حقوقی نباید در چتباتها بارگذاری شوند.
قاضی «سر جفری چارلز ووس» (Sir Geoffrey Charles Vos) گفت: هوش مصنوعی فرصتهای قابل توجه را برای توسعه یک سیستم عدالت دیجیتال بهتر، سریعتر و مقرونبهصرفهتر ارائه میدهد. فناوری فقط رو به جلو حرکت میکند و دستگاه قضاوت باید بفهمد چه اتفاقی در حال رخ دادن است.
این در حالی است که این فناوری مستعد تشکیل پروندههای جعلی است و میتواند توسط عموم هنگام ارائه پروندههای حقوقی مورد استفاده قرار گیرد. ووس اضافه کرد: قضات مانند هر شخص دیگری باید کاملاً مشخص باشد که هوش مصنوعی میتواند پاسخهای نادرست باشد و همچنین پاسخهای دقیق بدهد.
همچنین، به قضاوت در مورد نشانههایی هشدار داده شده است که ثابت میشود شاید استدلالهای قانونی توسط یک چتباتهای مصنوعی ساخته شده باشد.
ووس که رئیس دادگستری مدنی در انگلستان و ولز است، گفت که راهنمایی از چتبات، اولین نمونه در نوع خود در حوزه قضایی به شماره میرود. او پیش از انتشار این گزارش در یک جلسه توجیهی به خبرنگاران گفت: هوش مصنوعی فرصتهای بزرگی را برای سیستم قضایی میکند، اما از آنجایی که بسیار جدید است، ما باید مطمئن شویم که در همه سطوح میتوان چه کاری انجام داد، چگونه آن را انجام داد. را انجام میدهد و چه کاری را نمیتواند انجام دهد.
«سانتیاگو پاز»(Santiago Paz) یکی از اعضای شرکت حقوقی «دنتونز»(Dentons)، خواستار استفاده از آنها توسط ChatGPT وکلا شده است. پاز گفت: کامل پاسخهای ChatG میتوان قانعکننده به نظر برسند اما حقیقت این است که قابلیتهای این پلتفرم هنوز بسیار محدود است. وکلا باید بدانند که ChatGPT کارشناس حقوقی نیست.
«ییگر گلوسینا»(Jaeger Glucina) رئیس کارکنان شرکت حقوقی «لومینانس»(Luminance) گفت: نمیتوانم مدلهای مولد مصنوعی مصنوعی مانند ChatGPT را به عنوان منبع واقعی اعتماد کرد. باید به عنوان یک دوست آگاه در نظر گرفت، نه یک متخصص در همه زمینههای خاص. اداره قضایی با توجه به کارآمدی ChatGPT برای کارهای ساده و ساده بر متن مانند تولید خلاصه پرونده و در عین حال هشدار دادن در مورد استفاده از آن برای کارهای تخصصی، به خوبی این موضوع را تشخیص داده است.
«نیک امرسون»(Nick Emmerson) رئیس انجمن حقوقی بریتانیا گفت: استفاده از هوش مصنوعی برای خلاصه کردن قضاوتها میتواند کارآیی دادگاه را بهبود بخشد اما در عین حال میتوان اشتباه کند. مدلهای آموزشدیده میتوانند سوگیریها را در دادههای زیربنایی منعکس کنند. مهم است که به یاد داشته باشید قضاوت کنید، نقش انسانی مهم را در اختیار دارند و تصمیم گیری قضایی آنها را نمیتوان با ماشین جایگزین کرد.
قاضی بریتانیایی که پیشتر ChatGPT را خیلی سودمند توصیف کرده بود، اعتراف کرد که از آن هنگام نوشتن حکم دادگاه نظر استفاده شده است. «کالین بیرس» (Colin Birss) قاضی دادگاه شماره نظر انگلستان و ولز گفت که او از چتبات در یک حوزه حقوقی استفاده کرده است که با آن آشناست.
یک قاضی کلمبیایی در استفاده از ChatGPT فراتر رفت و از آن برای تصمیم گیری کمک گرفت.
بیشتر بخوانید:
ChatGPT به قاضی کلمبیایی برای صدور حکم کمک کرد
چتباتهایی مانند ChatGPT و «بارد» (Bard) گوگل است که آن را رقیب میکند، برای استفاده از چند ابزار ساده مفید، اما اتکای بیش از حد به این فناوری میتواند به طور قابل توجهی برای کاربران نتیجه معکوس باشد.
در اوایل سال جاری، یک وکیل نیویورکی به دلیل ارسال یک گزارش حاوی خطا است که با استفاده از ChatGPT تهیه کرده بود، به دردسر افتاد. «استیون شوارتز» (Steven Schwartz) یک گزارش صفحههای حاوی حداقل شش پرونده کاملاً ساختگی را به عنوان بخشی از شکایت علیه شرکت ۱۰ آویانکا (Avianca) ارسال کرد.
شوارتز گفت که از اتکای خود به ربات، بسیار متأسفانه است و از احتمال نادرست بودن آن بیاطلاع بوده است.
انتهای پیام