فهرست مطالب
گزاشی جدید از فعالیت گسترده سرویسهای پروکسی API در چین پرده برداشته است که دسترسی ارزان به کلود را فراهم میکنند.
به گزارش سرویس هوش مصنوعی تکناک، این تحقیق که روز دوشنبه توسط «زیلان چیان»، پژوهشگر آزمایشگاه سیاستگذاری چین دانشگاه آکسفورد منتشر شد، از شکلگیری یک اقتصاد زیرزمینی پیرامون سرویسهای پروکسی API در چین پرده برداشته است؛ بازاری که دسترسی به مدلهای کلود شرکت آنتروپیک را تنها با ۱۰ درصد قیمت رسمی در اختیار کاربران قرار میدهد. این سرویسهای پروکسی API که در جوامع چینی با عنوان «Transfer Stations» یا «ایستگاههای انتقال» شناخته میشوند، به صورت آشکار در پلتفرمهایی نظیر GitHub، Taobao و تلگرام فعالیت دارند. مدل کسبوکار آنها بر پایه ترکیبی از سرقت اعتبارنامههای کاربری، جایگزینی مخفیانه مدلهای هوش مصنوعی و استخراج پرامپتها و خروجیهای کاربران برای فروش مجدد به عنوان دیتاست آموزش AI بنا شده است.
بیشتر بخوانید: جنگ پشت پرده هوش مصنوعی؛ نگرانی مایکروسافت از تغییر جبهه OpenAI
یافتههای این تحقیق، هشدارهای اخیر کاخ سفید و آنتروپیک را تقویت میکند. کاخ سفید در اواخر آوریل، برخی نهادهای چینی را به اجرای عملیات «استخراج در مقیاس صنعتی» علیه مدلهای پیشرفته آمریکایی متهم کرده بود؛ عملیاتی که با استفاده از دهها هزار حساب پروکسی انجام میشود. آنتروپیک نیز در ماه فوریه از شناسایی حدود ۲۴ هزار حساب جعلی مرتبط با آزمایشگاههای چینی از جمله دیپسیک، Moonshot AI و MiniMax خبر داده بود.
01
از 03زنجیره تامین بازار سیاه در کشورهای فقیر
چیان در گزارش خود از یک زنجیره تامین ماژولار سخن میگوید که در آن هر بازیگر تنها مسئول یک یا دو حلقه از فرایند است. اپراتورهای بالادستی با بهرهبرداری از سرویسهای پروکسی API، سوءاستفاده از تخفیفهای سازمانی و تقسیم اشتراکهای ۲۰۰ دلاری، حسابهای آنتروپیک را به صورت انبوه ایجاد میکنند. به گفته او، بخشی از این حسابها حتی با استفاده از اطلاعات کارتهای اعتباری سرقتی و بدون پرداخت هزینه وارد این اکوسیستم میشوند.
برای مطالعه بیشتر: هوش مصنوعی خانگی در راه است؛ انویدیا پردازش AI را به خانهها میآورد
زیلان چیان در گزارش خود مینویسد که زنجیره تامین بازار سیاه برای عبور از سازوکارهای جدید احراز هویت آنتروپیک (که اکنون در برخی موارد شامل ارائه مدارک شناسایی و ثبت سلفی زنده است) به جذب نیروهای انسانی در کشورهای کمدرآمد روی آورده است. این افراد در ازای مبالغ اندک، فرایند احراز هویت را به صورت حضوری تکمیل میکنند. به گفته او، بازار سیاه دادههای بیومتریک Worldcoin (جایی که اسکن عنبیه جمعآوریشده از کاربران کامبوجی و کنیایی با قیمتی کمتر از ۳۰ دلار معامله میشد) به الگوی اجرایی این شبکهها تبدیل شده است.
02
از 03جایگزینی مدل و دزدی اطلاعات
همزمان، پژوهشگران مرکز امنیت اطلاعات CISPA Helmholtz در آلمان با بررسی سرویسهای پروکسی API فعال به شواهد گستردهای از «جایگزینی مدل» دست یافتند. طبق نتایج این تحقیق، دسترسیهایی که تحت عنوان Gemini-2.5 فروخته میشدند، در یک بنچمارک پزشکی تنها ۳۷ درصد امتیاز کسب کردند؛ در حالی که نسخه رسمی API نزدیک به ۸۴ درصد عملکرد داشت. در مواردی نیز کاربران بهجای دریافت خروجی Claude Opus، پاسخهایی تولیدشده توسط مدلهای ارزانتر مانند Sonnet، Haiku یا حتی مدلهای بومی چینی نظیر Qwen دریافت میکردند؛ خروجیهایی که سپس به صورت جعلی با نام مدل اصلی بازبرچسبگذاری میشدند.

مرتبط: مقایسه دو غول بزرگ هوش مصنوعی؛ آیا چین از آمریکا عقب افتاده است؟
همچنین چیان تاکید میکند که اپراتورهای این شبکهها تمامی پرامپتها و پاسخهای عبوری از سرورهای خود را ذخیره میکنند. در مورد ایجنتهای کدنویسی، این دادهها شامل زنجیره کامل استدلال، کانتکست مخازن کد و خروجیهای تاییدشده انسانی میشود. چند توسعهدهنده چینی به او گفتهاند که حاشیه سود پایین فروش سرویسهای پروکسی API تنها ابزاری برای جذب کاربر است و تجارت واقعی، استخراج و فروش همین لاگهای دادهای محسوب میشود. هماکنون نیز مجموعهدادههایی از خروجیهای استدلالی Claude Opus 4.6 بدون سرچشمه شفاف در HuggingFace در گردش است.
03
از 03سرویسهای پروکسی API و بحران دادهها
ارزش این دادههای استدلالی برای فرایند «تقطیر مدل» بسیار بالا است، چرا که میتوان آنها را به صورت سیستماتیک جمعآوری و برای آموزش مدلهای رقیب استفاده کرد. در عمل، این سرویسهای پروکسی API با کمترین هزینه، کاربران پرداختکننده را به تولیدکنندگان داوطلب داده آموزشی تبدیل میکنند. با وجود این، دامنه تهدید به آموزش مدلهای AI محدود نمیشود. ایجنتهای کدنویسی به طور مداوم دادههایی مانند ساختار مخازن نرمافزاری، معماری APIها و منطق احراز هویت را برای مدل ارسال میکنند. توسعهدهندگانی که این ترافیک را از طریق پروکسیهای تأییدنشده عبور میدهند، کدهای اختصاصی و محرمانه خود را بدون هیچ تعهد مشخصی در زمینه نگهداری دادهها، در اختیار سرورهای شخص ثالث قرار میدهند.
شرکت سامسونگ در سال ۲۰۲۳ با نمونهای مشابه از این بحران مواجه شد؛ زمانی که مهندسان بخش تولید تراشه این شرکت بخشی از کدهای محرمانه را در ChatGPT وارد کردند و ناخواسته اطلاعات حساس مربوط به فرایند ساخت نیمههادیها را به سرورهای OpenAI منتقل کردند. سرویسهای پروکسی نیز دقیقا همان سطح از ریسک را ایجاد میکنند، با این تفاوت که حتی فاقد ابتداییترین شروط خدمات و الزامات امنیتی ارائهدهندگان بزرگ هوش مصنوعی هستند. آنتروپیک در سپتامبر گذشته، دسترسی نهادهای تحت کنترل چین را به کلود مسدود و پس از آن، لایههای فزایندهای از احراز هویت سختگیرانه را اعمال کرد. با وجود این، یافتههای چیان نشان میدهد که هر محدودیت تازه، بهجای کاهش دسترسی غیرمجاز، تنها باعث شکلگیری بازار جدیدی برای دور زدن همان محدودیتها شده است.
















