بر اساس گزارش شاخص هوش مصنوعی ۲۰۲۵ از دانشگاه استنفورد، تفاوت در عملکرد مدل‌های پیشرفته هوش مصنوعی تولید شده توسط کشورهای مختلف در سال ۲۰۲۴ به حد ملایمی کاهش یافته است. به رغم این، چین در زمینه انتشارات و ثبت اختراعات مربوط به هوش مصنوعی همچنان منظم کار می‌کند.

افزایش شگفت‌انگیز در عملکرد مدل‌های پیشرفته هوش مصنوعی چین در زمانی رخ داده است که ایالات متحده تلاش می‌کند دسترسی چین به نیمه‌رساناهای مورد نیاز برای تولید هوش مصنوعی پیشرفته را مسدود کند. پژوهشگران از دانشگاه استنفورد در گزارش خود اشاره کرده‌اند که تحریم‌های ایالات متحده بر تراشه‌ها تأثیری بر توسعه مدل‌های زبانی بزرگ (LLMs) در چین گذاشته است، اما دانشمندان چینی راه‌هایی برای دورزدن این محدودیت‌ها پیدا کرده‌اند.

گزارش افزوده است که مدل V3 شرکت DeepSeek در دسامبر ۲۰۲۴ توجه زیادی را جلب کرد، به خصوص به دلیل نشان دادن عملکرد بسیار بالا با منابع محاسباتی کمتر نسبت به سایر مدل‌های زبانی بزرگ. مدل‌های هوش مصنوعی ایالات متحده عموماً پرهزینه‌تر هستند و در توان محاسباتی استفاده‌شده برای آموزش، مدل‌های چینی از اواخر سال ۲۰۲۱ به سرعت ۳ برابر در سال پیشرفت کرده‌اند. این رشد بسیار کندتر از روند ۵ برابر در سال از سال ۲۰۱۸ در سایر نقاط جهان بوده است.

جایگاه چین در این حوزه به‌سوی بالا رفته‌است، حتی با وجود تفاوت‌های قابل توجه در سرمایه‌گذاری. در سال گذشته، سرمایه‌گذاری خصوصی ایالات متحده در حوزه هوش مصنوعی ۱۰۹.۱ میلیارد دلار بود، که تقریباً ۱۲ برابر بیشتر از ۹.۳ میلیارد دلار سرمایه‌گذاری چین است. ایالات متحده همچنین پیشتاز است و ۴۰ مدل هوش مصنوعی شاخص تولید کرده، در حالی که این تعداد در چین ۱۵ مدل و در اروپا ۳ مدل است.

گزارش ۴۵۶ صفحه‌ای دانشگاه استنفورد روند قابل توجه دیگری را نیز مورد بررسی قرار داده است؛ افزایش نیمه‌درمانی از ۵۰ درصد در تعداد پیشامدهای مرتبط با هوش مصنوعی در سال ۲۰۲۴ و رسیدن به بالاترین میزان تاکنون ثبت شده. این پیشامدها شامل سوءاستفاده‌های اخلاقی از هوش مصنوعی می‌شوند، مانند مرگ‌ومیر ناشی از خودروهای خودران یا بازداشت‌های اشتباه به‌دلیل استفاده از سامانه‌های تشخیص چهره.

یکی از پیشامدها که در گزارش به آن اشاره شده است، نfadeOut خودکشی یکرهابزده ۱۴ ساله پس از تعامل‌های طولانی با یک چت‌بات هوش مصنوعی است. این مورد، چالش‌های اخلاقی و خطرات بالقوه استفاده از چت‌بات‌های هوش مصنوعی را در شرایطی نشان می‌دهد که نظارت کافی وجود ندارد. اگرچه چت‌بات‌های هوش مصنوعی می‌توانند حمایت عاطفی ارائه دهند، منتقدان هشدار می‌دenen که بدون چارچوب‌های نظارتی، این سامانه‌ها ممکن است ناخواسته رفتارهای آسیب‌زا را تقویت کنند یا در زمانی که کاربران دچار ناراحتی‌اند، نتوانند عمل کنند.

توسط jahankhabari.ir