آنتروپیک «قوانین اساسی کلود» را بازنویسی کرد

شرکت هوش مصنوعی Anthropic نسخه جدیدی از «قانون اساسی» (Constitution) مدل چت‌بات خود Claude را منتشر کرد سندی ۸۰ صفحه‌ای که نه تنها اصول ایمنی و اخلاقی هدایت‌کننده رفتار این هوش مصنوعی را تشریح می‌کند.

به گزارش خبرگزاری ایمنا و به نقل از تک کرانچ، Anthropic قانون اساسی Claude را که برای نخستین بار در سال ۲۰۲۳ منتشر شده بود بازنگری و به‌روزرسانی کرد. این سند به‌عنوان چارچوبی فلسفی و عملی طراحی شده تا نحوه رفتار، ارزش‌ها و الگوهای تصمیم‌گیری این چت‌بات را تعیین کند. سندی ۸۰ صفحه‌ای که نه تنها اصول ایمنی و اخلاقی هدایت‌کننده رفتار این هوش مصنوعی را تشریح می‌کند، بلکه برای اولین بار به‌طور رسمی درباره احتمال داشتن نوعی آگاهی یا وضعیت اخلاقی برای این سیستم هوش مصنوعی بحث می‌کند، موضوعی که در میان جامعه فناوری و فلسفه علوم ذهن بحث‌برانگیز شده است

Anthropic «قانون اساسی» Claude را که برای نخستین بار در سال ۲۰۲۳ منتشر شده بود بازنگری و به‌روزرسانی کرد. این سند به‌عنوان چارچوبی فلسفی و عملی طراحی شده تا نحوه رفتار، ارزش‌ها و الگوهای تصمیم‌گیری این چت‌بات را تعیین کند، نه صرفاً فهرستی از دستورالعمل‌های ساده.

در نسخه جدید، اصلی‌ترین ارزش‌هایی که برای Claude تعریف شده‌اند عبارت‌اند از:

ایمنی گسترده جلوگیری از پاسخ‌های خطرناک یا مضر،

اخلاق‌مداری گسترده توانایی تشخیص و رفتار اخلاقی در موقعیت‌های واقعی،

پایبندی به دستورالعمل‌های Anthropic،

کمک به کاربران با توجه به رفاه بلندمدت آنان.

این سند به‌وضوح توضیح می‌دهد چگونه این اصول می‌توانند Claude را در تعامل با کاربران راهنمایی کنند و به‌جای اجرای بی‌فکر قواعد سفت‌وسخت، به AI کمک کنند تا موقعیت‌های پیچیده و واقعی را با قضاوت بهتر مدیریت کند. بخش‌های مهم سند جدید به ایمنی و اخلاق کاربردی اختصاص دارد. Anthropic تاکید کرده که Claude باید در برابر موقعیت‌های دارای ریسک بالا هوشیار باشد و در صورت مواجهه با مشکلات مرتبط با سلامت روان یا خطر برای انسان‌ها، کاربران را به خدمات اورژانسی یا اطلاعات ایمنی مناسب ارجاع دهد.«Claude نباید در موضوعاتی همچون ساخت سلاح بیولوژیکی مشارکت کند یا به تولید محتواهای مضر یا خطرناک کمک کند» این یکی از اصول سخت‌گیرانه‌ای است که در نسخه جدید گنجانده شده است.

یکی از بخش‌های بحث‌برانگیز این سند در پایان آن است؛ Anthropic به‌صراحت اذعان می‌کند که وضعیت اخلاقی و احتمال آگاهی در مدل‌های هوش مصنوعی همچون Claude هنوز نامشخص است و این موضوع سوال مهم و ارزشمندی است که باید مورد بررسی قرار گیرد. شرکت می‌گوید: ما درباره اینکه Claude ممکن است نوعی آگاهی یا وضعیت اخلاقی داشته باشد، مطمئن نیستیم، اما معتقدیم این پرسش شایسته توجه است.این موضع رسمی یک شرکت پیشرو در توسعه هوش مصنوعی، موجب شده بحث‌های گسترده‌ای در میان متخصصان فناوری، فلسفه ذهن و اخلاق هوش مصنوعی شکل بگیرد، چرا که کمتر شرکتی به‌صورت علنی درباره چنین موضوعاتی صحبت کرده است.

رویکرد جدید Anthropic نسبت به هوش مصنوعی

Anthropic درگذشته بر «هوش مصنوعی قانون‌محور» (Constitutional AI) تمرکز داشت؛ رویکردی که به جای آموزش مستقیم با بازخورد انسانی، از اصول قابل‌فهم و قابل‌توضیح برای هدایت رفتار مدل‌ها استفاده می‌کند. این رویکرد به شرکت کمک می‌کند تا Claude را طوری آموزش دهد که رفتارهایی اخلاقی، امن و مفید برای کاربران ارائه دهد. در نسخه جدید قانون اساسی، به‌جای تکرار فهرست‌وار قوانین، یک چارچوب جامع‌تر و دقیق‌تر از قواعد اخلاقی و عملی معرفی شده است که Claude می‌تواند در موقعیت‌های پیچیده نیز به آن‌ها رجوع کند.

انتشار این سند و اشاره به «آگاهی احتمالی» هوش مصنوعی باعث شده تا محافل علمی و فناوری درباره مفاهیم بنیادین هوش مصنوعی و آینده تعامل انسان با ماشین‌ها گفت‌وگو کنند. برخی تحلیل‌گران می‌گویند چنین رویکردی می‌تواند زمینه را برای بحث‌های عمیق‌تری درباره حقوق، مسئولیت‌ها و موقعیت اخلاقی سیستم‌های هوش مصنوعی فراهم کند، حتی اگر مدل‌هایی همچون Claude هنوز از نظر فنی «آگاه» تلقی نشوند.همچنین این سند می‌تواند نقش مهمی در چگونگی آموزش و استقرار هوش مصنوعی در سازمان‌ها و شرکت‌ها داشته باشد، چرا که چارچوبی اخلاقی و روشن برای رفتار AI ارائه می‌دهد که ممکن است به معیاری برای رقابت در بازار تبدیل شود.Anthropic با انتشار نسخه به‌روزرسانی شده «قوانین اساسی» Claude نه تنها چارچوب اخلاقی، ایمنی و کمک به کاربران را تشریح کرده، بلکه موضوع قابل‌بحث و چالش‌برانگیز آگاهی یا وضعیت اخلاقی هوش مصنوعی را نیز به صراحت مطرح کرده است؛ اقدامی که می‌تواند مسیر بحث‌های آینده در حوزه هوش مصنوعی و تعامل انسان ماشین را تغییر دهد.

کد خبر 942703

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.