انتشارات تجارت – شرکت اوپنایآی (OpenAI) یک صفحه وب تحت عنوان «مرکز ارزیابی ایمنی» راهاندازی کرده است که اطلاعات مربوط به بهبود ایمنی مدلهای هوش مصنوعی خود را به بررسی عمومی قرار میدهد.
همچنین، این پلتفرم در مواردی که مدلها محتویات مضر تولید میکنند، روشهای اصلاح آنها را نیز نشان میدهد.
اوپنایآی ادعا میکند که این پلتفرم شفافیت بیشتری برای کار خود فراهم میکند، در حینی که این شرکت در مواجهه با عدهای از پروندههای قضایی برای استفاده از متنهای دارای حق نشر برای آموزش مدلهایش است.
«مرکز ارزیابی ایمنی» جهت گسترش نظارت بر عملکرد مدلهای اوپنایآی راهاندازی شده و به طور مداوم بهروزرسانی میشود.
در بیانیه خود، شرکت اوپنایآی اعلام کرده است: “با تکامل علم ارزیابی هوش مصنوعی، هدف ما پیشرفتهای خود در توسعه روشهای مقیاسپذیرتر برای اندازهگیری قابلیتها و ایمنی مدلها را به اشتراک بگذاریم. با به اشتراک گذاشتن نتایج برخی از ارزیابیهای ایمنی خود، امیدواریم این امر درک عملکرد ایمنی سیستمهای اوپنایآی را در طول زمان آسانتر کند و از تلاشهای جامعه برای افزایش شفافیت در این حوزه حمایت کند.”
این شرکت همچنین اعلام کرده است که به تلاشهای فعالتر برای ارتباط در این زمینه خواهد پرداخت.
کاربران میتوانند به بخشهای مختلف این پلتفرم مراجعه کرده و اطلاعات مربوط به مدلهای مختلف، از جمله GPT-4.1 تا 4.5، را بررسی کنند.
اوپنایآی تذکر میدهد که اطلاعات ارائه شده در این مرکز فقط یک عکس لحظهای است و برای دریافت جزئیات بیشتر، باید به ارزیابیها و مشخصات بیشتر مراجعه کرد.
یکی از نکات مهم این مرکز این است که اوپنایآی خودش این آزمایشها را انجام میدهد و اطلاعاتی که قرار است به صورت عمومی به اشتراک گذاری شود، را انتخاب میکند. بنابراین، هیچ اطمینانی وجود ندارد که این شرکت تمام مسائل یا نگرانیهای خود را با عمومی در میان بگذارد.
منبع