به گزارش خبرگزاری ایمنا و به نقل از تک کرانچ، Anthropic قانون اساسی Claude را که برای نخستین بار در سال ۲۰۲۳ منتشر شده بود بازنگری و بهروزرسانی کرد. این سند بهعنوان چارچوبی فلسفی و عملی طراحی شده تا نحوه رفتار، ارزشها و الگوهای تصمیمگیری این چتبات را تعیین کند. سندی ۸۰ صفحهای که نه تنها اصول ایمنی و اخلاقی هدایتکننده رفتار این هوش مصنوعی را تشریح میکند، بلکه برای اولین بار بهطور رسمی درباره احتمال داشتن نوعی آگاهی یا وضعیت اخلاقی برای این سیستم هوش مصنوعی بحث میکند، موضوعی که در میان جامعه فناوری و فلسفه علوم ذهن بحثبرانگیز شده است
Anthropic «قانون اساسی» Claude را که برای نخستین بار در سال ۲۰۲۳ منتشر شده بود بازنگری و بهروزرسانی کرد. این سند بهعنوان چارچوبی فلسفی و عملی طراحی شده تا نحوه رفتار، ارزشها و الگوهای تصمیمگیری این چتبات را تعیین کند، نه صرفاً فهرستی از دستورالعملهای ساده.
در نسخه جدید، اصلیترین ارزشهایی که برای Claude تعریف شدهاند عبارتاند از:
ایمنی گسترده جلوگیری از پاسخهای خطرناک یا مضر،
اخلاقمداری گسترده توانایی تشخیص و رفتار اخلاقی در موقعیتهای واقعی،
پایبندی به دستورالعملهای Anthropic،
کمک به کاربران با توجه به رفاه بلندمدت آنان.
این سند بهوضوح توضیح میدهد چگونه این اصول میتوانند Claude را در تعامل با کاربران راهنمایی کنند و بهجای اجرای بیفکر قواعد سفتوسخت، به AI کمک کنند تا موقعیتهای پیچیده و واقعی را با قضاوت بهتر مدیریت کند. بخشهای مهم سند جدید به ایمنی و اخلاق کاربردی اختصاص دارد. Anthropic تاکید کرده که Claude باید در برابر موقعیتهای دارای ریسک بالا هوشیار باشد و در صورت مواجهه با مشکلات مرتبط با سلامت روان یا خطر برای انسانها، کاربران را به خدمات اورژانسی یا اطلاعات ایمنی مناسب ارجاع دهد.«Claude نباید در موضوعاتی همچون ساخت سلاح بیولوژیکی مشارکت کند یا به تولید محتواهای مضر یا خطرناک کمک کند» این یکی از اصول سختگیرانهای است که در نسخه جدید گنجانده شده است.
یکی از بخشهای بحثبرانگیز این سند در پایان آن است؛ Anthropic بهصراحت اذعان میکند که وضعیت اخلاقی و احتمال آگاهی در مدلهای هوش مصنوعی همچون Claude هنوز نامشخص است و این موضوع سوال مهم و ارزشمندی است که باید مورد بررسی قرار گیرد. شرکت میگوید: ما درباره اینکه Claude ممکن است نوعی آگاهی یا وضعیت اخلاقی داشته باشد، مطمئن نیستیم، اما معتقدیم این پرسش شایسته توجه است.این موضع رسمی یک شرکت پیشرو در توسعه هوش مصنوعی، موجب شده بحثهای گستردهای در میان متخصصان فناوری، فلسفه ذهن و اخلاق هوش مصنوعی شکل بگیرد، چرا که کمتر شرکتی بهصورت علنی درباره چنین موضوعاتی صحبت کرده است.
رویکرد جدید Anthropic نسبت به هوش مصنوعی
Anthropic درگذشته بر «هوش مصنوعی قانونمحور» (Constitutional AI) تمرکز داشت؛ رویکردی که به جای آموزش مستقیم با بازخورد انسانی، از اصول قابلفهم و قابلتوضیح برای هدایت رفتار مدلها استفاده میکند. این رویکرد به شرکت کمک میکند تا Claude را طوری آموزش دهد که رفتارهایی اخلاقی، امن و مفید برای کاربران ارائه دهد. در نسخه جدید قانون اساسی، بهجای تکرار فهرستوار قوانین، یک چارچوب جامعتر و دقیقتر از قواعد اخلاقی و عملی معرفی شده است که Claude میتواند در موقعیتهای پیچیده نیز به آنها رجوع کند.
انتشار این سند و اشاره به «آگاهی احتمالی» هوش مصنوعی باعث شده تا محافل علمی و فناوری درباره مفاهیم بنیادین هوش مصنوعی و آینده تعامل انسان با ماشینها گفتوگو کنند. برخی تحلیلگران میگویند چنین رویکردی میتواند زمینه را برای بحثهای عمیقتری درباره حقوق، مسئولیتها و موقعیت اخلاقی سیستمهای هوش مصنوعی فراهم کند، حتی اگر مدلهایی همچون Claude هنوز از نظر فنی «آگاه» تلقی نشوند.همچنین این سند میتواند نقش مهمی در چگونگی آموزش و استقرار هوش مصنوعی در سازمانها و شرکتها داشته باشد، چرا که چارچوبی اخلاقی و روشن برای رفتار AI ارائه میدهد که ممکن است به معیاری برای رقابت در بازار تبدیل شود.Anthropic با انتشار نسخه بهروزرسانی شده «قوانین اساسی» Claude نه تنها چارچوب اخلاقی، ایمنی و کمک به کاربران را تشریح کرده، بلکه موضوع قابلبحث و چالشبرانگیز آگاهی یا وضعیت اخلاقی هوش مصنوعی را نیز به صراحت مطرح کرده است؛ اقدامی که میتواند مسیر بحثهای آینده در حوزه هوش مصنوعی و تعامل انسان ماشین را تغییر دهد.



نظر شما