هوش  مصنوعی جمعی و مدل های اجتماعی

گروهی از مدل‌های زبانی بزرگ توانستند در بازی‌های ساده تعاملی، رفتارهای اجتماعی را تقلید کنند و به توافق‌های مشترک دست پیدا کنند.

به گزارش خبرگزاری ایمنا به نقل از نیچر، مشخص شده است که مدل‌های زبانی بزرگ (LLMs) وقتی در گروه‌ها با هم تعامل دارند، قادر به توسعه نُرم‌های اجتماعی هستند، این شامل ایجاد قواعد خاص برای نحوه استفاده از زبان می‌شود. این پدیده شبیه آداب اجتماعی در بین انسان‌ها است؛ مثل اینکه دو نفر با یکدیگر دست بدهند یا بجنبدند تا به یک توافق مشترک دست پیدا کنند.

آندرا بارونچلی، استاد دانشگاه لندن و متخصص رفتار گروهی، هدف اصلی خود را درک نحوه تعامل مدل‌های زبانی در محیط‌های گروهی عنوان کرد، او و تیم خود در اولین آزمایش، از مدل زبانی Claude استفاده کردند تا بازی‌های نام‌گذاری را انجام دهند ، این نوع بازی‌ها در گذشته مطالعات رفتار انسانی به کار رفته‌اند. در این بازی‌ها، اعضای یک گروه به صورت تصادفی جفت می‌شوند و از آن‌ها خواسته می‌شود یک شیء را نام‌گذاری کنند، اگر نام‌ها یکسان باشد، جایزه می‌گیرند و اگر متفاوت باشد، تنبیه می‌شوند. پس از چندین دور بازی، اعضای گروه به طور فزاینده‌ای شروع به استفاده از یک نام مشترک می‌کنند که نشان از شکل‌گیری یک نُرم اجتماعی دارد.

در این مطالعه، ۲۴ نسخه از مدل Claude را در بازی قرار دادند و از هر جفت خواستند یک حرف از بین ۱۰ گزینه انتخاب کنند، اگر هر دو عضو یک حرف را انتخاب می‌کردند، جایزه می‌گرفتند.

پس از چندین دور بازی و تغییر مداوم در جفت‌ها، الگوهایی از توافق مشترک ظاهر شد، این موضوع حتی در آزمایش‌های بزرگ‌تر با ۲۰۰ نسخه از Claude و حروف بیشتر نیز تکرار شد.

جالب‌تر اینکه، وقتی مدل‌ها به صورت انفرادی عمل می‌کردند، حروف را کامل تصادفی انتخاب می‌کردند، اما وقتی در گروه‌ها با یکدیگر تعامل داشتند، تمایل بیشتری به انتخاب برخی حروف نسبت به دیگران نشان دادند، این امر نشان دهنده شکل‌گیری یک «تعصب جمعی» در مدل‌ها بود، این پدیده در بین انسان‌ها نیز وجود دارد و زمانی رخ می‌دهد که افراد در تعامل با یکدیگر، باورها یا تصمیمات جمعی خاصی را در پیش می‌گیرند.

بارونچلی درباره این یافته متعجب شد، او گفت: «این پدیده، به گفته ما، در سیستم‌های هوش مصنوعی مشاهده نشده بود.»

ایجاد چنین تعصباتی می‌تواند منجر به ارائه تصمیمات نابرابر یا نادرست شود، حتی اگر هر مدل به تنهایی بدون تعصب به نظر برسد. بنابراین، پژوهشگران پیشنهاد کردند که مدل‌های زبانی را در محیط‌های گروهی نیز تست کنند تا بتوانند رفتارهای آن‌ها را بهتر درک و بهبود دهند، این کار می‌تواند کمک کند تا از شکل‌گیری تعصبات ناخواسته در سیستم‌های هوش مصنوعی جلوگیری شود.

کد خبر 867175

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.