پای ChatGPT در کفش دستگاه قضایی بریتانیا!



قضات انگلستان و ولز می‌توانند از ChatGPT در احکام حقوقی خود استفاده کنند اما باید به آنها هشدار داد که مراقب باشند زیرا فناوری مستعد تشکیل پرونده‌های جعلی است.

به گزارش ایسنا و به نقل از دیلی میل، زمانی که یک جنایتکار متوجه می‌شود که باید زندگی خود را پشت میله‌های زندان اسپری کند، از حیاتی‌ترین زمان پرونده قضایی است اما به یکی از موارد حکم قاضی، این حکم -حداقل تا حدودی- در ChatGPT بارگذاری می‌شود.

قضات در انگلستان و ولز می‌توانند از چت‌بات‌های مصنوعی برای کمک به نوشتن احکام حقوقی خود استفاده کنند. این در حالی است که ChatGPT مستعد ساخت موارد جعلی شناخته شده است و حتی اعتراف کرده است که می‌تواند در صفحه فرود خود اشتباه کند.

استفاده از چت‌بات ChatGPT که قبلاً توسط یک قاضی بریتانیایی خیلی سودمند توصیف شده بود، به طور فزاینده‌ای در حوزه نفوذ کرده و باعث نگرانی برخی حقوق از بررسی شده است. دستورالعمل رسمی جدید «دفتر قضایی بریتانیا» که برای هزاران قاضی صادر شده است، بررسی می‌کند که هوش مصنوعی را می‌توان برای خلاصه کردن تعداد زیادی متن یا در کارهای اداری مورد استفاده قرار داد. این دستورالعمل‌ها به عنوان وظایف اصلی، شرایط واجد شرایط هستند، اما بخش‌های برجسته‌تر این فرآیند یا انجام بررسی‌های تحلیل‌های حقوقی نباید در چت‌بات‌ها بارگذاری شوند.

قاضی «سر جفری چارلز ووس» (Sir Geoffrey Charles Vos) گفت: هوش مصنوعی فرصت‌های قابل توجه را برای توسعه یک سیستم عدالت دیجیتال بهتر، سریع‌تر و مقرون‌به‌صرفه‌تر ارائه می‌دهد. فناوری فقط رو به جلو حرکت می‌کند و دستگاه قضاوت باید بفهمد چه اتفاقی در حال رخ دادن است.

بخوان  استفاده از فناوری پلاسمای سرد برای رفع چالش هوا

این در حالی است که این فناوری مستعد تشکیل پرونده‌های جعلی است و می‌تواند توسط عموم هنگام ارائه پرونده‌های حقوقی مورد استفاده قرار گیرد. ووس اضافه کرد: قضات مانند هر شخص دیگری باید کاملاً مشخص باشد که هوش مصنوعی می‌تواند پاسخ‌های نادرست باشد و همچنین پاسخ‌های دقیق بدهد.

همچنین، به قضاوت در مورد نشانه‌هایی هشدار داده شده است که ثابت می‌شود شاید استدلال‌های قانونی توسط یک چت‌بات‌های مصنوعی ساخته شده باشد.

ووس که رئیس دادگستری مدنی در انگلستان و ولز است، گفت که راهنمایی از چت‌بات، اولین نمونه در نوع خود در حوزه قضایی به شماره می‌رود. او پیش از انتشار این گزارش در یک جلسه توجیهی به خبرنگاران گفت: هوش مصنوعی فرصت‌های بزرگی را برای سیستم قضایی می‌کند، اما از آنجایی که بسیار جدید است، ما باید مطمئن شویم که در همه سطوح می‌توان چه کاری انجام داد، چگونه آن را انجام داد. را انجام می‌دهد و چه کاری را نمی‌تواند انجام دهد.

«سانتیاگو پاز»(Santiago Paz) یکی از اعضای شرکت حقوقی «دنتونز»(Dentons)، خواستار استفاده از آنها توسط ChatGPT وکلا شده است. پاز گفت: کامل پاسخ‌های ChatG می‌توان قانع‌کننده به نظر برسند اما حقیقت این است که قابلیت‌های این پلتفرم هنوز بسیار محدود است. وکلا باید بدانند که ChatGPT کارشناس حقوقی نیست.

«ییگر گلوسینا»(Jaeger Glucina) رئیس کارکنان شرکت حقوقی «لومینانس»(Luminance) گفت: نمی‌توانم مدل‌های مولد مصنوعی مصنوعی مانند ChatGPT را به عنوان منبع واقعی اعتماد کرد. باید به عنوان یک دوست آگاه در نظر گرفت، نه یک متخصص در همه زمینه‌های خاص. اداره قضایی با توجه به کارآمدی ChatGPT برای کارهای ساده و ساده بر متن مانند تولید خلاصه پرونده و در عین حال هشدار دادن در مورد استفاده از آن برای کارهای تخصصی، به خوبی این موضوع را تشخیص داده است.

بخوان  فرشته یا شیطان؟! - ايسنا

«نیک امرسون»(Nick Emmerson) رئیس انجمن حقوقی بریتانیا گفت: استفاده از هوش مصنوعی برای خلاصه کردن قضاوت‌ها می‌تواند کارآیی دادگاه را بهبود بخشد اما در عین حال می‌توان اشتباه کند. مدل‌های آموزش‌دیده می‌توانند سوگیری‌ها را در داده‌های زیربنایی منعکس کنند. مهم است که به یاد داشته باشید قضاوت کنید، نقش انسانی مهم را در اختیار دارند و تصمیم گیری قضایی آنها را نمی‌توان با ماشین جایگزین کرد.

قاضی بریتانیایی که پیشتر ChatGPT را خیلی سودمند توصیف کرده بود، اعتراف کرد که از آن هنگام نوشتن حکم دادگاه نظر استفاده شده است. «کالین بیرس» (Colin Birss) قاضی دادگاه شماره نظر انگلستان و ولز گفت که او از چت‌بات در یک حوزه حقوقی استفاده کرده است که با آن آشناست.

یک قاضی کلمبیایی در استفاده از ChatGPT فراتر رفت و از آن برای تصمیم گیری کمک گرفت.

بیشتر بخوانید:

ChatGPT به قاضی کلمبیایی برای صدور حکم کمک کرد

چت‌بات‌هایی مانند ChatGPT و «بارد» (Bard) گوگل است که آن را رقیب می‌کند، برای استفاده از چند ابزار ساده مفید، اما اتکای بیش از حد به این فناوری می‌تواند به طور قابل توجهی برای کاربران نتیجه معکوس باشد.

در اوایل سال جاری، یک وکیل نیویورکی به دلیل ارسال یک گزارش حاوی خطا است که با استفاده از ChatGPT تهیه کرده بود، به دردسر افتاد. «استیون شوارتز» (Steven Schwartz) یک گزارش صفحه‌های حاوی حداقل شش پرونده کاملاً ساختگی را به عنوان بخشی از شکایت علیه شرکت ۱۰ آویانکا (Avianca) ارسال کرد.

شوارتز گفت که از اتکای خود به ربات، بسیار متأسفانه است و از احتمال نادرست بودن آن بی‌اطلاع بوده است.

بخوان  چرا فضانوردان در زمین دیرتر پیر می‌شوند؟

انتهای پیام



منبع