OpenAI در یادداشتی به قانونگذاران آمریکا هشدار داده است رقیب چینی این شرکت یعنی DeepSeek، با استفاده از روشهایی ناعادلانه و بسیار پیچیده، خروجی مدلهای پیشروی آمریکایی را جمعآوری میکند و از آنها برای آموزش نسخههای بعدی چتبات R۱ بهره میبرد.
به گفته OpenAI، این یادداشت روز پنجشنبه برای «کمیته ویژه مجلس نمایندگان آمریکا درباره چین» ارسال شده است. در متن یادداشت آمده که DeepSeek از تکنیکهایی موسوم به «distillation» استفاده میکند؛ روشی که OpenAI آن را بخشی از تلاشهای مستمر برای بهرهبرداری از تواناییهایی میداند که این شرکت و دیگر آزمایشگاههای پیشرو آمریکایی توسعه دادهاند. OpenAI همچنین میگوید نشانههایی از روشهای تازه و پنهانکارانه شناسایی کرده که هدفشان دور زدن سازوکارهای حفاظتی این شرکت و جلوگیری از ردیابی سوءاستفاده از خروجی مدلهاست.
Bloomberg پیشتر گزارش داده بود که OpenAI مدت کوتاهی پس از انتشار مدل R۱ از Deepseek در سال گذشته، نگرانیهای خود درباره این روند را بهصورت غیرعلنی مطرح کرده و همراه با شریکش، Microsoft Corp بررسی کرده است که آیا DeepSeek به شکل غیرمجاز به دادهها یا خروجیهای مورد استفاده دسترسی پیدا کرده یا نه. در روش «distillation»، یک مدل هوش مصنوعی از خروجی مدل دیگری بهعنوان داده آموزشی استفاده میکند تا تواناییهایی مشابه آن را بازتولید کند.
OpenAI در این یادداشت میگوید distillation که به گفته این شرکت بیشتر از سمت چین و گاهی روسیه است، با وجود اقدامات برای برخورد با کاربرانی که قوانین و شرایط استفاده از خدمات OpenAI را نقض میکنند، همچنان ادامه دارد و حتی شکل پیچیدهتری پیدا کرده است. این شرکت تاکید میکند که این جمعبندی را بر اساس الگوها و فعالیتهایی ارائه کرده که در پلتفرم خود مشاهده و رصد کرده است.
از نگاه OpenAI، گسترش این روش میتواند به تهدیدی جدی برای کسبوکار شرکتهای آمریکایی تبدیل شود؛ چون DeepSeek و بسیاری از مدلهای چینی، هزینه اشتراک ماهانه ندارند. در حالیکه شرکتهایی مثل OpenAI و Anthropic میلیاردها دلار برای زیرساخت هوش مصنوعی سرمایهگذاری کردهاند و برای خدمات پیشرفته خود پول میگیرند. این نابرابری میتواند به مرور مزیت آمریکا نسبت به چین در هوش مصنوعی را تضعیف کند.
OpenAI در ادامه یادداشت خود به ریسکهای امنیت ملی دیگری هم اشاره میکند که به گفته این شرکت، همزمان با پیشرفت DeepSeek برجستهتر میشوند. از جمله اینکه چتبات DeepSeek در موضوعاتی که از نگاه دولت چین حساس یا بحثبرانگیز تلقی میشوند، مانند تایوان و میدان تیانآنمن، خروجیها را سانسور میکند. OpenAI همچنین هشدار میدهد وقتی ویژگیهای مدل از طریق distillation کپی میشوند، معمولاً سازوکارهای ایمنی و محدودیتهای محافظتی منتقل نمیشوند یا کنار گذاشته میشوند؛ موضوعی که میتواند احتمال سوءاستفاده از مدلها را در حوزههای پرریسک، مانند زیستشناسی و شیمی، افزایش دهد.
در همین زمینه، John Moolenaar، نماینده جمهوریخواه و رئیس کمیته چین در مجلس نمایندگان آمریکا، روز پنجشنبه در بیانیهای گفت: «این بخشی از روش همیشگی حزب کمونیست چین است: بدزد، کپی کن و نابود کن.» او اضافه کرد: «شرکتهای چینی همچنان مدلهای هوش مصنوعی آمریکایی را میدزند و به نفع خودشان بهره میبرند؛ همان طور که وقتی از OpenAI کپی کردند تا DeepSeek را بسازند.»
OpenAI درباره این یادداشت حاضر به اظهارنظر نشده است. سخنگویان سفارت چین در واشنگتن و شرکت DeepSeek هم به درخواستها برای ارائه توضیح پاسخ ندادند.
این یادداشت همچنین نشان میدهد تلاشهای OpenAI برای مسدود کردن مسیر distillation نتوانسته این مشکل را به طور کامل برطرف کند. به گفته این شرکت، بررسی داخلی نشان میدهد حسابهایی که به کارکنان DeepSeek نسبت داده میشوند، تلاش کردهاند با دسترسی به مدلها از طریق پنهان کردن منشأ درخواستها، سازوکارهای حفاظتی و محدودیتهای موجود را دور بزنند.
OpenAI میگوید کارکنان DeepSeek حتی کدهایی توسعه دادهاند که به آنها امکان میدهد به مدلهای هوش مصنوعی آمریکایی دسترسی پیدا کنند و خروجیها را در قالب یک برنامه خودکار جمعآوری کنند. این شرکت همچنین به وجود شبکههایی از «فروشندگان غیرمجاز خدمات OpenAI» اشاره کرده که هدفشان دور زدن کنترلها و محدودیتهای OpenAI است.
David Sacks، مسئول پرونده هوش مصنوعی در کاخ سفید، پیشتر درباره تاکتیکهای distillation چین هشدار داده بود. او سال گذشته در گفتوگو با Fox News گفته بود DeepSeek توانسته از تراشههای قدیمیتر کارایی بیشتری بیرون بکشد و در عین حال تاکید کرده بود شواهد قابل توجهی وجود دارد که نشان میدهد این شرکت با استفاده از روش distillation، دانش را از مدلهای OpenAI استخراج کرده است.
هشدار OpenAI درباره distillation در شرایطی مطرح میشود که در واشنگتن هنوز نگرانیها درباره دسترسی چین به تراشههای پیشرفته هوش مصنوعی پابرجاست، چون این سطح از دسترسی میتواند سرعت پیشرفت DeepSeek را بیشتر کند. در پایان سال گذشته، دونالد ترامپ، محدودیتهای صادرات تراشه را تا حدی کاهش داد و به Nvidia اجازه داد پردازندههای H۲۰۰ را بفروشد؛ تراشههایی که حدود ۱۸ ماه از جدیدترین نسخههای Blackwell عقبتر هستند.
از زمان عرضه R۱، DeepSeek تنها بهروزرسانیهای جزئی ارائه کرده است؛ در حالی که رقبای آمریکایی و چینی، پیدرپی مدلهای تازه وارد بازار کردهاند. با این حال گزارشها حاکی است DeepSeek روی توسعه یک مدل «عاملمحور» کار میکند تا در رقابت با OpenAI و سایر بازیگران جدیتر ظاهر شود و هدفگذاری آن، انتشار این محصول در اواخر سال ۲۰۲۵ بوده است.
کمی بعد از انتشار R۱، مقامات آمریکایی تحقیقاتی را آغاز کردند تا مشخص شود آیا DeepSeek با خرید تراشه از مسیر سنگاپور، کنترلهای صادراتی آمریکا را دور زده است یا نه. بر اساس اسنادی که اخیراً در اختیار کمیته چین در مجلس نمایندگان قرار گرفته، Nvidia با ارائه کمکهای مهندسی و مشاوره فنی به DeepSeek کمک کرده مدل R۱ را بهینهتر کند و حتی در برخی بخشهای طراحی آن هم نقش داشته است. همچنین در این گزارش آمده که مدل پایه DeepSeek-V۳ برای طی کردن آموزش کامل، تنها به حدود ۲.۸ میلیون ساعت پردازشی با GPUهای H۸۰۰ نیاز داشته است. این پردازندهها در سال ۲۰۲۳ برای مدت کوتاهی اجازه فروش به چین را داشتند، اما با تغییر مقررات در ادامه همان سال، فروششان متوقف شد.
نماینده جمهوریخواه و رئیس پیشین یکی از کمیتههای نظارتی مجلس در حوزه کنترل صادرات، Michael McCaul، سال گذشته و پس از تصمیم مربوط به H۲۰۰ گفته بود: «DeepSeek باید مثل یک زنگ هشدار عمل میکرد و به آمریکا یادآوری میکرد که فروش تراشههای پیشرفته به چین چه پیامدهای خطرناکی میتواند داشته باشد. چین با استفاده از تراشههای ضعیفتر Nvidia توانست پیشرفتهترین مدلهای متنباز دنیا را توسعه دهد. تصور اینکه با سختافزار پیشرفتهتری مثل H۲۰۰ چه کارهایی میتوانند بکنند، نگرانکننده است.»