به گزارش خبرگزاری ایمنا به نقل از نیچر، مشخص شده است که مدلهای زبانی بزرگ (LLMs) وقتی در گروهها با هم تعامل دارند، قادر به توسعه نُرمهای اجتماعی هستند، این شامل ایجاد قواعد خاص برای نحوه استفاده از زبان میشود. این پدیده شبیه آداب اجتماعی در بین انسانها است؛ مثل اینکه دو نفر با یکدیگر دست بدهند یا بجنبدند تا به یک توافق مشترک دست پیدا کنند.
آندرا بارونچلی، استاد دانشگاه لندن و متخصص رفتار گروهی، هدف اصلی خود را درک نحوه تعامل مدلهای زبانی در محیطهای گروهی عنوان کرد، او و تیم خود در اولین آزمایش، از مدل زبانی Claude استفاده کردند تا بازیهای نامگذاری را انجام دهند ، این نوع بازیها در گذشته مطالعات رفتار انسانی به کار رفتهاند. در این بازیها، اعضای یک گروه به صورت تصادفی جفت میشوند و از آنها خواسته میشود یک شیء را نامگذاری کنند، اگر نامها یکسان باشد، جایزه میگیرند و اگر متفاوت باشد، تنبیه میشوند. پس از چندین دور بازی، اعضای گروه به طور فزایندهای شروع به استفاده از یک نام مشترک میکنند که نشان از شکلگیری یک نُرم اجتماعی دارد.
در این مطالعه، ۲۴ نسخه از مدل Claude را در بازی قرار دادند و از هر جفت خواستند یک حرف از بین ۱۰ گزینه انتخاب کنند، اگر هر دو عضو یک حرف را انتخاب میکردند، جایزه میگرفتند.
پس از چندین دور بازی و تغییر مداوم در جفتها، الگوهایی از توافق مشترک ظاهر شد، این موضوع حتی در آزمایشهای بزرگتر با ۲۰۰ نسخه از Claude و حروف بیشتر نیز تکرار شد.
جالبتر اینکه، وقتی مدلها به صورت انفرادی عمل میکردند، حروف را کامل تصادفی انتخاب میکردند، اما وقتی در گروهها با یکدیگر تعامل داشتند، تمایل بیشتری به انتخاب برخی حروف نسبت به دیگران نشان دادند، این امر نشان دهنده شکلگیری یک «تعصب جمعی» در مدلها بود، این پدیده در بین انسانها نیز وجود دارد و زمانی رخ میدهد که افراد در تعامل با یکدیگر، باورها یا تصمیمات جمعی خاصی را در پیش میگیرند.
بارونچلی درباره این یافته متعجب شد، او گفت: «این پدیده، به گفته ما، در سیستمهای هوش مصنوعی مشاهده نشده بود.»
ایجاد چنین تعصباتی میتواند منجر به ارائه تصمیمات نابرابر یا نادرست شود، حتی اگر هر مدل به تنهایی بدون تعصب به نظر برسد. بنابراین، پژوهشگران پیشنهاد کردند که مدلهای زبانی را در محیطهای گروهی نیز تست کنند تا بتوانند رفتارهای آنها را بهتر درک و بهبود دهند، این کار میتواند کمک کند تا از شکلگیری تعصبات ناخواسته در سیستمهای هوش مصنوعی جلوگیری شود.




نظر شما