هوش مصنوعی

انتشارات تجارت – شرکت اوپن‌ای‌آی (OpenAI) یک صفحه وب تحت عنوان «مرکز ارزیابی ایمنی» راه‌اندازی کرده است که اطلاعات مربوط به بهبود ایمنی مدل‌های هوش مصنوعی خود را به بررسی عمومی قرار می‌دهد.

همچنین، این پلتفرم در مواردی که مدل‌ها محتویات مضر تولید می‌کنند، روش‌های اصلاح آن‌ها را نیز نشان می‌دهد.

اوپن‌ای‌آی ادعا می‌کند که این پلتفرم شفافیت بیشتری برای کار خود فراهم می‌کند، در حینی که این شرکت در مواجهه با عده‌ای از پرونده‌های قضایی برای استفاده از متن‌های دارای حق نشر برای آموزش مدل‌هایش است.

«مرکز ارزیابی ایمنی» جهت گسترش نظارت بر عملکرد مدل‌های اوپن‌ای‌آی راه‌اندازی شده و به طور مداوم به‌روزرسانی می‌شود.

در بیانیه خود، شرکت اوپن‌ای‌آی اعلام کرده است: “با تکامل علم ارزیابی هوش مصنوعی، هدف ما پیشرفت‌های خود در توسعه روش‌های مقیاس‌پذیرتر برای اندازه‌گیری قابلیت‌ها و ایمنی مدل‌ها را به اشتراک بگذاریم. با به اشتراک گذاشتن نتایج برخی از ارزیابی‌های ایمنی خود، امیدواریم این امر درک عملکرد ایمنی سیستم‌های اوپن‌ای‌آی را در طول زمان آسان‌تر کند و از تلاش‌های جامعه برای افزایش شفافیت در این حوزه حمایت کند.”

این شرکت همچنین اعلام کرده است که به تلاش‌های فعال‌تر برای ارتباط در این زمینه خواهد پرداخت.

کاربران می‌توانند به بخش‌های مختلف این پلتفرم مراجعه کرده و اطلاعات مربوط به مدل‌های مختلف، از جمله GPT-4.1 تا 4.5، را بررسی کنند.

اوپن‌ای‌آی تذکر می‌دهد که اطلاعات ارائه شده در این مرکز فقط یک عکس لحظه‌ای است و برای دریافت جزئیات بیشتر، باید به ارزیابی‌ها و مشخصات بیشتر مراجعه کرد.

یکی از نکات مهم این مرکز این است که اوپن‌ای‌آی خودش این آزمایش‌ها را انجام می‌دهد و اطلاعاتی که قرار است به صورت عمومی به اشتراک گذاری شود، را انتخاب می‌کند. بنابراین، هیچ اطمینانی وجود ندارد که این شرکت تمام مسائل یا نگرانی‌های خود را با عمومی در میان بگذارد.

منبع

توسط jahankhabari.ir