اتهام سنگین Anthropic به شرکتهای چینی: آیا Claude هدف استخراج غیرقانونی مدلهای AI قرار گرفته است؟
رقابت هوش مصنوعی وارد فاز تازهای شده؛ فازی که دیگر فقط درباره ساخت مدل قویتر نیست، بلکه درباره این است که چه کسی از چه کسی «یاد میگیرد».
شرکت آمریکایی Anthropic اعلام کرده سه آزمایشگاه هوش مصنوعی چینی یعنی DeepSeek، Moonshot AI و MiniMax با ساخت بیش از ۲۴ هزار حساب جعلی، مدل Claude را هدف قرار دادهاند تا از آن برای بهبود مدلهای خودشان استفاده کنند.
طبق ادعای Anthropic، این شرکتها بیش از ۱۶ میلیون تعامل با Claude ایجاد کردهاند و از تکنیکی به نام «Distillation» استفاده کردهاند؛ روشی که معمولاً برای ساخت نسخههای کوچکتر و ارزانتر از یک مدل به کار میرود، اما در صورت استفاده روی مدل رقبا میتواند به نوعی «کپیبرداری هوشمند» تبدیل شود.
Distillation دقیقاً چیست و چرا جنجالی شده؟
Distillation در حالت عادی یک روش فنی رایج است:
یک مدل بزرگ بهعنوان معلم عمل میکند و مدل کوچکتر تلاش میکند رفتار آن را یاد بگیرد.
اما وقتی یک شرکت از مدل رقیب برای این کار استفاده کند، ماجرا کاملاً متفاوت میشود.
جالب است بدانید پیشتر هم OpenAI در یادداشتی به قانونگذاران آمریکایی، DeepSeek را به استفاده از همین روش برای تقلید محصولاتش متهم کرده بود.
جزئیات ادعاها علیه شرکتهای چینی
Anthropic اعلام کرده:
- DeepSeek بیش از ۱۵۰ هزار تعامل برای بهبود منطق پایه و همراستاسازی مدل انجام داده است.
- Moonshot AI بیش از ۳.۴ میلیون تعامل با تمرکز بر استدلال عاملی، ابزارها، کدنویسی و تحلیل داده ثبت کرده است.
- MiniMax حدود ۱۳ میلیون تعامل برای بهبود کدنویسی عاملی و ارکستراسیون انجام داده است.
Anthropic حتی مدعی شده MiniMax تقریباً نیمی از ترافیک خود را هنگام عرضه نسخه جدید Claude به سمت استخراج قابلیتهای آن هدایت کرده است.
این اتهامات در حالی مطرح میشود که DeepSeek با مدل متنباز R1 قبلاً توجه زیادی جلب کرده و گفته میشود نسخه جدید آن یعنی DeepSeek V4 میتواند در حوزه کدنویسی از Claude و ChatGPT عملکرد بهتری داشته باشد.
ارتباط ماجرا با صادرات چیپهای AI
این پرونده دقیقاً همزمان با بحثهای داغ درباره صادرات چیپهای پیشرفته AI به چین مطرح شده است. دولت آمریکا اخیراً اجازه صادرات چیپهای پیشرفته مانند H200 ساخت Nvidia به چین را صادر کرده، اما منتقدان میگویند این تصمیم میتواند توان پردازشی چین را در رقابت جهانی AI تقویت کند.
Anthropic معتقد است مقیاس این استخراجها بدون دسترسی به چیپهای پیشرفته ممکن نبوده و همین موضوع، ضرورت کنترل صادرات را تقویت میکند.
نگرانی امنیتی فراتر از رقابت تجاری
ماجرا فقط رقابت اقتصادی نیست.
Anthropic هشدار داده مدلهایی که از طریق distillation غیرقانونی ساخته میشوند، احتمالاً لایههای ایمنی مدل اصلی را حفظ نمیکنند. این موضوع میتواند خطراتی مانند:
- توسعه ابزارهای سایبری مخرب
- انتشار گسترده اطلاعات نادرست
- استفاده در عملیات نظارتی گسترده
را افزایش دهد.
به گفته دیمیتری آلپروویچ، همبنیانگذار CrowdStrike، سرعت پیشرفت مدلهای چینی احتمالاً بدون استفاده از distillation به این شکل ممکن نبوده است.
جمعبندی: جنگ پنهان AI وارد فاز جدید شد
اگر این ادعاها درست باشد، رقابت هوش مصنوعی دیگر فقط رقابت بر سر نوآوری نیست؛ بلکه به رقابتی بر سر حفاظت از دانش، زیرساخت و حتی امنیت ملی تبدیل شده است.
در جهانی که مدلهای AI هر روز قدرتمندتر میشوند، کنترل دسترسی به چیپها، دادهها و حتی تعاملات API میتواند تعیینکننده توازن قدرت باشد.
به نظر میرسد «جنگ سرد هوش مصنوعی» تازه وارد مرحلهای شده که اثراتش فراتر از شرکتها و به سطح سیاستگذاری جهانی رسیده است.
#هوش_مصنوعی #رقابت_فناوری #امنیت_سایبری #صادرات_چیپ
#Anthropic #Claude #DeepSeek #MiniMax #MoonshotAI #Distillation #Nvidia #AICompetition

آیلین سرهنگی
متخصص حوزه فناوری با تمرکز بر هوش مصنوعی، یادگیری ماشین و زیرساختهای نرمافزاری، در تیم فنی یک شرکت فعال در زمینه فناوریهای نوین فعالیت میکنم و تلاش دارم تا با تولید محتوای دقیق، کاربردی و بهروز، مفاهیم پیچیدهی تکنولوژی را به زبان ساده برای همه ارائه کنم.دستهبندیها

پیشنهاد میشود بخوانید

ورود OpenAI به فاز جدی سازمانی؛ همکاری با BCG، مککنزی و Accenture برای فتح بازار Enterprise AI

هوش مصنوعی

اتهام سنگین Anthropic به شرکتهای چینی: آیا Claude هدف استخراج غیرقانونی مدلهای AI قرار گرفته است؟

هوش مصنوعی

آیا OpenClaw از کنترل خارج شد؟ ماجرای حذف دستهجمعی ایمیلهای پژوهشگر امنیتی Meta AI

هوش مصنوعی

Canva با خرید استارتاپهای انیمیشن و مارکتینگ، به ابرپلتفرم تبلیغات و طراحی تبدیل میشود؟

هوش مصنوعی
