ICTPRESS – دانشمندان در یک تحقیق جدید، به این نتیجه رسیدند که مدلهای زبانی بزرگ در حوزه هوش مصنوعی به صورت خودکار قوانین اجتماعی را از طریق تعاملات متقابل توسعه میدهند و به توافق زبانی میرسند.
بر اساس گزارش شبکه اخبار ICTPRESS، پژوهشگران کشف کردند که مدلهای هوش مصنوعی میتوانند از طریق تعامل با یکدیگر، هنجارهای اجتماعی مشترک را تشکیل دهند. این مدلها وقتی در گروهها فعالیت میکنند، تنها دستورالعملها را اجرا نمیکنند، بلکه به شکلی خودسازماندهی میشوند و به جامعهای شبیه انسانها تبدیل میشوند و در مورد هنجارهای زبانی توافق مییابند.
مدلهای زبانی بزرگ، الگوریتمهای یادگیری عمیق قدرتمندی هستند که قادر به درک و تولید زبان انسانی هستند. مشهورترین مدلین این دسته تا کنون چتجیپیتی هستند. دانشمندان از دانشگاه لندن و دانشگاه IT کپنهاگ خاطرنشان کردند که این مدلها در تعاملات گروهی، فراتر از پیروی از دستورالعملها و الگوها، میتوانند به شکلی خودکار خود را سازماندهی کنند.
آریل فلینت آشری، نویسنده ارشد مقاله، میگوید: “_clause_ بیشتر تحقیقات در مورد مدلهای زبانی بزرگ بر این پایه انجام شدهاند که این مدلها را جداگانه بررسی میکنند، در حالی که در دنیای واقعی، سامانههای هوش مصنوعی با مجموعهای از عاملهای تعاملکننده سروکار دارند. ما قصد داشتیم با تمرکز بر این تعاملات، به این سوال جواب دهیم که آیا این مدلها میتوانند در شکلگیری هنجارها و قوانین جامعه همکاری کنند. نتیجه مثبت است و کاری که این مدلها با هم انجام میدهند، تفاوت قابل توجهی با عملکرد تنهایی خود دارد.”
این پژوهش از یک چارچوب برای بررسی هنجارهای اجتماعی انسانها بهرهگیری کرده است که بر اساس مدل بازی نامگذاری شکلگیری آنها مورد بررسی قرار گرفته است.
نتایج تحقیق حاکی از ظهور خودکار هنجارهای اجتماعی پذیرفتهشده جهانی در جمعیتهای غیرمتمرکز مدلهای زبانی بزرگ است. تیم محقق گوش داده: “ما نشان میدهیم چگونه سوگیریهای جمعی قوی در طول این فرآیند میتوانند پدید آیند، حتی زمانی که هیچیک از مدلها به صورت فردی سوگیری نشان ندهند. ما همچنین بررسی میکنیم چگونه گروههای اقلیت متعهد از مدلهای زبانی بزرگ، میتوانند با تحمیل هنجارهای اجتماعی جایگزین، تغییرات اجتماعی را در جمعیت بزرگتر ترسیم کنند.”
دانشمندان تاکید کردند که این سامانهها قابلیت پیشرفت خودکار هنجارهای اجتماعی را بدون هیچ برنامهریزی مقایسهای دارند، که این موضوع پیامدهای مهمی برای طراحی و توسعه این سیستمها، تا آنها با ارزشهای انسانی و اهداف اجتماعی همسو ماندند، دارد.
در آزمایشهای انجامشده، سیستمهای مدل زبانی بزرگ در گروههای متغیری از 24 تا 200 عضو شرکت کردند. در هر گرد، دو عامل به صورت راندوم با هم جفت شدند و از آنها خواسته شد که نامی از مجموعهای مشترک را انتخاب کنند. اگر هر دو عامل نام یکسانی را انتخاب میکردند، پاداش میگرفتند، در غیر این صورت، جریمه میشدند و انتخابهای همراندومشوندگان را میدیدند.
ناشرین این پژوهش گفتهاند که مدلها فقط به قسمتی از حافظه تعاملات اخیر خود دسترسی داشتند و به آنها گفته نشده بود که بخشی از یک گروه بودند. یکی از مهمترین نتایج این تحقیق این بود که در طول تعاملات، یک توافق نامگذاری عمومی به صورت خودکار در سراسر جمعیت شکل میگرفت، بدون اینکه هیچ هماهنگی صریحی برقرار شده باشد. این پدیده نشاندهنده شکلگیری هنجارها در فرهنگهای انسانی است. نکتهای که توجهآورتر است اینکه پژوهشگران سوگیریهای جمعی مشاهده کردند که نمیتوان آنها را در سطح فردی ردیابی کرد. نتایج این تحقیق در مجله Science Advances منتشر شده است.