بر اساس گزارش شاخص هوش مصنوعی ۲۰۲۵ از دانشگاه استنفورد، تفاوت در عملکرد مدلهای پیشرفته هوش مصنوعی تولید شده توسط کشورهای مختلف در سال ۲۰۲۴ به حد ملایمی کاهش یافته است. به رغم این، چین در زمینه انتشارات و ثبت اختراعات مربوط به هوش مصنوعی همچنان منظم کار میکند.
افزایش شگفتانگیز در عملکرد مدلهای پیشرفته هوش مصنوعی چین در زمانی رخ داده است که ایالات متحده تلاش میکند دسترسی چین به نیمهرساناهای مورد نیاز برای تولید هوش مصنوعی پیشرفته را مسدود کند. پژوهشگران از دانشگاه استنفورد در گزارش خود اشاره کردهاند که تحریمهای ایالات متحده بر تراشهها تأثیری بر توسعه مدلهای زبانی بزرگ (LLMs) در چین گذاشته است، اما دانشمندان چینی راههایی برای دورزدن این محدودیتها پیدا کردهاند.
گزارش افزوده است که مدل V3 شرکت DeepSeek در دسامبر ۲۰۲۴ توجه زیادی را جلب کرد، به خصوص به دلیل نشان دادن عملکرد بسیار بالا با منابع محاسباتی کمتر نسبت به سایر مدلهای زبانی بزرگ. مدلهای هوش مصنوعی ایالات متحده عموماً پرهزینهتر هستند و در توان محاسباتی استفادهشده برای آموزش، مدلهای چینی از اواخر سال ۲۰۲۱ به سرعت ۳ برابر در سال پیشرفت کردهاند. این رشد بسیار کندتر از روند ۵ برابر در سال از سال ۲۰۱۸ در سایر نقاط جهان بوده است.
جایگاه چین در این حوزه بهسوی بالا رفتهاست، حتی با وجود تفاوتهای قابل توجه در سرمایهگذاری. در سال گذشته، سرمایهگذاری خصوصی ایالات متحده در حوزه هوش مصنوعی ۱۰۹.۱ میلیارد دلار بود، که تقریباً ۱۲ برابر بیشتر از ۹.۳ میلیارد دلار سرمایهگذاری چین است. ایالات متحده همچنین پیشتاز است و ۴۰ مدل هوش مصنوعی شاخص تولید کرده، در حالی که این تعداد در چین ۱۵ مدل و در اروپا ۳ مدل است.
گزارش ۴۵۶ صفحهای دانشگاه استنفورد روند قابل توجه دیگری را نیز مورد بررسی قرار داده است؛ افزایش نیمهدرمانی از ۵۰ درصد در تعداد پیشامدهای مرتبط با هوش مصنوعی در سال ۲۰۲۴ و رسیدن به بالاترین میزان تاکنون ثبت شده. این پیشامدها شامل سوءاستفادههای اخلاقی از هوش مصنوعی میشوند، مانند مرگومیر ناشی از خودروهای خودران یا بازداشتهای اشتباه بهدلیل استفاده از سامانههای تشخیص چهره.
یکی از پیشامدها که در گزارش به آن اشاره شده است، نfadeOut خودکشی یکرهابزده ۱۴ ساله پس از تعاملهای طولانی با یک چتبات هوش مصنوعی است. این مورد، چالشهای اخلاقی و خطرات بالقوه استفاده از چتباتهای هوش مصنوعی را در شرایطی نشان میدهد که نظارت کافی وجود ندارد. اگرچه چتباتهای هوش مصنوعی میتوانند حمایت عاطفی ارائه دهند، منتقدان هشدار میدenen که بدون چارچوبهای نظارتی، این سامانهها ممکن است ناخواسته رفتارهای آسیبزا را تقویت کنند یا در زمانی که کاربران دچار ناراحتیاند، نتوانند عمل کنند.