به گزارش خبرگزاری ایمنا وبه نقل از د ورج، قاضی ویکتوریا شارپ قاضی دادگاه کیفری بریتانیا با تأکید بر اینکه ابزارهای هوش مصنوعی همچون ChatGPT قابلیت انجام تحقیقات حقوقی معتبر را ندارند، تصریح کرد که تولید پاسخهای بهظاهر منطقی اما در حقیقت نادرست توسط این فناوریها میتواند به فجایع حقوقی منجر شود.
این هشدار پس از آن صادر شد که موارد بسیاری از استناد وکلا به پروندههای جعلی تولیدشده توسط هوش مصنوعی در اسناد قضائی گزارش شده است. در یکی از این موارد، یک وکیل در پروندهای ۴۵ استناد ارائه کرد که ۱۸ مورد از آنها کامل ساختگی بودند، همچنین در پروندهای دیگر یک وکیل دادگستری پنج پرونده غیرواقعی را در یک دعوای ملکی ذکر کرد؛ هرچند در این پروندهها به وکلا تذکر داده شد و به مراجع نظارتی ارجاع شدند، اما دادگاه هشدار داد که چنین تخلفاتی میتواند به مجازاتهای شدید از جمله اتهام تحقیر دادگاه یا حتی جرم مانعتراشی در اجرای عدالت با مجازات حبس ابد منجر شود.
قاضی شارپ در بیانیه خود افزود: وکلا موظفند تمام اطلاعات و استنادات تولیدشده توسط هوش مصنوعی را به دقت بررسی و صحت آنها را تأیید کنند و نباید تنها به دادههای تولید شده توسط این ابزارها اکتفا کنند.
وی از نهادهای نظارتی و اتحادیههای حقوقی خواست تا تدابیر مؤثرتری برای جلوگیری از سوءاستفاده از هوش مصنوعی و حفاظت از سلامت نظام قضائی بهکار بگیرند.
اتحادیه وکلای بریتانیا نیز این هشدارها را تأیید کرده و نسبت به خطرات اتکا به هوش مصنوعی بدون بررسی دقیق ابراز نگرانی کرده است، آنها معتقدند که چنین مواردی نهتنها به اعتبار وکیل و سیستم حقوقی لطمه میزند، بلکه اعتماد عمومی به عدالت را نیز به مخاطره میاندازد.
این موضوع محدود به بریتانیا نیست و موارد مشابهی در سایر کشورها نیز گزارش شده است، مسئله توهمات هوش مصنوعی یا تولید اطلاعات نادرست بهویژه در زمینههای حساس همچون حقوق، نگرانیهای جدی ایجاد کرده و نیازمند تدوین قوانین و راهکارهای مشخص برای استفاده مسئولانه از این فناوریها است.


نظر شما