هشدار جدی دادگاه عالی بریتانیا به وکلا درباره استفاده نادرست از هوش مصنوعی

دادگاه عالی بریتانیا در اقدامی بی‌سابقه و با صدور هشداری جدی، وکلا و حقوق‌دانان را نسبت به خطرات استفاده نادرست از هوش مصنوعی (AI) در تحقیقات حقوقی و به‌ویژه استناد به آرای قضایی جعلی و غیرواقعی آگاه کرد.

به گزارش خبرگزاری ایمنا وبه نقل از د ورج، قاضی ویکتوریا شارپ قاضی دادگاه کیفری بریتانیا با تأکید بر اینکه ابزارهای هوش مصنوعی همچون ChatGPT قابلیت انجام تحقیقات حقوقی معتبر را ندارند، تصریح کرد که تولید پاسخ‌های به‌ظاهر منطقی اما در حقیقت نادرست توسط این فناوری‌ها می‌تواند به فجایع حقوقی منجر شود.

این هشدار پس از آن صادر شد که موارد بسیاری از استناد وکلا به پرونده‌های جعلی تولیدشده توسط هوش مصنوعی در اسناد قضائی گزارش شده است. در یکی از این موارد، یک وکیل در پرونده‌ای ۴۵ استناد ارائه کرد که ۱۸ مورد از آن‌ها کامل ساختگی بودند، همچنین در پرونده‌ای دیگر یک وکیل دادگستری پنج پرونده غیرواقعی را در یک دعوای ملکی ذکر کرد؛ هرچند در این پرونده‌ها به وکلا تذکر داده شد و به مراجع نظارتی ارجاع شدند، اما دادگاه هشدار داد که چنین تخلفاتی می‌تواند به مجازات‌های شدید از جمله اتهام تحقیر دادگاه یا حتی جرم مانع‌تراشی در اجرای عدالت با مجازات حبس ابد منجر شود.

قاضی شارپ در بیانیه خود افزود: وکلا موظفند تمام اطلاعات و استنادات تولیدشده توسط هوش مصنوعی را به دقت بررسی و صحت آن‌ها را تأیید کنند و نباید تنها به داده‌های تولید شده توسط این ابزارها اکتفا کنند.

وی از نهادهای نظارتی و اتحادیه‌های حقوقی خواست تا تدابیر مؤثرتری برای جلوگیری از سوءاستفاده از هوش مصنوعی و حفاظت از سلامت نظام قضائی به‌کار بگیرند.

اتحادیه وکلای بریتانیا نیز این هشدارها را تأیید کرده و نسبت به خطرات اتکا به هوش مصنوعی بدون بررسی دقیق ابراز نگرانی کرده است، آن‌ها معتقدند که چنین مواردی نه‌تنها به اعتبار وکیل و سیستم حقوقی لطمه می‌زند، بلکه اعتماد عمومی به عدالت را نیز به مخاطره می‌اندازد.

این موضوع محدود به بریتانیا نیست و موارد مشابهی در سایر کشورها نیز گزارش شده است، مسئله توهمات هوش مصنوعی یا تولید اطلاعات نادرست به‌ویژه در زمینه‌های حساس همچون حقوق، نگرانی‌های جدی ایجاد کرده و نیازمند تدوین قوانین و راهکارهای مشخص برای استفاده مسئولانه از این فناوری‌ها است.

کد خبر 873308

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.