ICTPRESS – دانشمندان در یک تحقیق جدید، به این نتیجه رسیدند که مدل‌های زبانی بزرگ در حوزه هوش مصنوعی به صورت خودکار قوانین اجتماعی را از طریق تعاملات متقابل توسعه می‌دهند و به توافق زبانی می‌رسند.

بر اساس گزارش شبکه اخبار ICTPRESS، پژوهشگران کشف کردند که مدل‌های هوش مصنوعی می‌توانند از طریق تعامل با یکدیگر، هنجارهای اجتماعی مشترک را تشکیل دهند. این مدل‌ها وقتی در گروه‌ها فعالیت می‌کنند، تنها دستورالعمل‌ها را اجرا نمی‌کنند، بلکه به شکلی خودسازمان‌دهی می‌شوند و به جامعه‌ای شبیه انسان‌ها تبدیل می‌شوند و در مورد هنجارهای زبانی توافق می‌یابند.

مدل‌های زبانی بزرگ، الگوریتم‌های یادگیری عمیق قدرتمندی هستند که قادر به درک و تولید زبان انسانی هستند. مشهورترین مدلین این دسته تا کنون چت‌جی‌پی‌تی هستند. دانشمندان از دانشگاه لندن و دانشگاه IT کپنهاگ خاطرنشان کردند که این مدل‌ها در تعاملات گروهی، فراتر از پیروی از دستورالعمل‌ها و الگوها، می‌توانند به شکلی خودکار خود را سازماندهی کنند.

آریل فلینت آشری، نویسنده ارشد مقاله، می‌گوید: “_clause_ بیشتر تحقیقات در مورد مدل‌های زبانی بزرگ بر این پایه انجام شده‌اند که این مدل‌ها را جداگانه بررسی می‌کنند، در حالی که در دنیای واقعی، سامانه‌های هوش مصنوعی با مجموعه‌ای از عامل‌های تعامل‌کننده سروکار دارند. ما قصد داشتیم با تمرکز بر این تعاملات، به این سوال جواب دهیم که آیا این مدل‌ها می‌توانند در شکل‌گیری هنجارها و قوانین جامعه همکاری کنند. نتیجه مثبت است و کاری که این مدل‌ها با هم انجام می‌دهند، تفاوت قابل توجهی با عملکرد تنهایی خود دارد.”

این پژوهش از یک چارچوب برای بررسی هنجارهای اجتماعی انسان‌ها بهره‌گیری کرده است که بر اساس مدل بازی نام‌گذاری شکل‌گیری آنها مورد بررسی قرار گرفته است.

نتایج تحقیق حاکی از ظهور خودکار هنجارهای اجتماعی پذیرفته‌شده جهانی در جمعیت‌های غیرمتمرکز مدل‌های زبانی بزرگ است. تیم محقق گوش داده: “ما نشان می‌دهیم چگونه سوگیری‌های جمعی قوی در طول این فرآیند می‌توانند پدید آیند، حتی زمانی که هیچ‌یک از مدل‌ها به صورت فردی سوگیری نشان ندهند. ما همچنین بررسی می‌کنیم چگونه گروه‌های اقلیت متعهد از مدل‌های زبانی بزرگ، می‌توانند با تحمیل هنجارهای اجتماعی جایگزین، تغییرات اجتماعی را در جمعیت بزرگ‌تر ترسیم کنند.”

دانشمندان تاکید کردند که این سامانه‌ها قابلیت پیشرفت خودکار هنجارهای اجتماعی را بدون هیچ برنامه‌ریزی مقایسه‌ای دارند، که این موضوع پیامدهای مهمی برای طراحی و توسعه این سیستم‌ها، تا آنها با ارزش‌های انسانی و اهداف اجتماعی همسو ماندند، دارد.

در آزمایش‌های انجام‌شده، سیستم‌های مدل زبانی بزرگ در گروه‌های متغیری از 24 تا 200 عضو شرکت کردند. در هر گرد، دو عامل به صورت راندوم با هم جفت شدند و از آنها خواسته شد که نامی از مجموعه‌ای مشترک را انتخاب کنند. اگر هر دو عامل نام یکسانی را انتخاب می‌کردند، پاداش می‌گرفتند، در غیر این صورت، جریمه می‌شدند و انتخاب‌های هم‌راندوم‌شوندگان را می‌دیدند.

ناشرین این پژوهش گفته‌اند که مدل‌ها فقط به قسمتی از حافظه تعاملات اخیر خود دسترسی داشتند و به آنها گفته نشده بود که بخشی از یک گروه بودند. یکی از مهم‌ترین نتایج این تحقیق این بود که در طول تعاملات، یک توافق نام‌گذاری عمومی به صورت خودکار در سراسر جمعیت شکل می‌گرفت، بدون اینکه هیچ هماهنگی صریحی برقرار شده باشد. این پدیده نشان‌دهنده شکل‌گیری هنجارها در فرهنگ‌های انسانی است. نکته‌ای که توجه‌آورتر است اینکه پژوهشگران سوگیری‌های جمعی مشاهده کردند که نمی‌توان آنها را در سطح فردی ردیابی کرد. نتایج این تحقیق در مجله Science Advances منتشر شده است.

توسط jahankhabari.ir