تدعي شركة Anthropic أن DeepSeek وشركتين صينيتين أخريين للذكاء الاصطناعي أساءتا استخدام نموذج Claude AI في محاولة لتحسين منتجاتهما الخاصة. في إعلان يوم الاثنينوتقول أنثروبيك إن “الحملات على نطاق صناعي” تضمنت إنشاء نحو 24 ألف حساب احتيالي وأكثر من 16 مليون عملية تبادل مع كلود، كما أفادت التقارير. في وقت سابق من قبل صحيفة وول ستريت جورنال.
الشركات الثلاث – DeepSeek، MiniMax، وMoonshot – متهمة بارتكاب جرائم قرصنة “التقطير” كلودأو تدريب نموذج ذكاء اصطناعي أصغر يعتمد على نموذج أكثر تقدمًا. ورغم أن منظمة أنثروبيك تقول إن التقطير “طريقة تدريب مشروعة”، فإنها تضيف أنه “يمكن استخدامها أيضا لأغراض غير مشروعة”، بما في ذلك “لاكتساب قدرات قوية من مختبرات أخرى في جزء صغير من الوقت، وبجزء صغير من التكلفة، التي قد يتطلبها تطويرها بشكل مستقل”.
تضيف أنثروبيك أن النماذج المقطرة بشكل غير مشروع “من غير المرجح” أن تستمر في تطبيق الضمانات الحالية. وكتبت أنثروبيك: “يمكن للمختبرات الأجنبية التي تستخلص النماذج الأمريكية أن تغذي هذه القدرات غير المحمية في الأنظمة العسكرية والاستخباراتية والمراقبة – مما يمكّن الحكومات الاستبدادية من نشر الذكاء الاصطناعي الحدودي للعمليات السيبرانية الهجومية، وحملات التضليل، والمراقبة الجماعية”.
ديب سيك، الذي أحدث ضجة في صناعة الذكاء الاصطناعي لنماذجها القوية ولكن الأكثر كفاءة، عقدت أكثر من 150 ألف جلسة تبادل مع كلود واستهدفت قدراتها المنطقية، وفقًا لـ Anthropic. كما أنها متهمة باستخدام كلود لتوليد “بدائل آمنة للرقابة على الأسئلة الحساسة سياسياً حول المنشقين أو قادة الأحزاب أو الاستبداد”. في رسالة إلى المشرعين الأسبوع الماضي، OpenAI متهم بالمثل DeepSeek عن “الجهود المستمرة للاستفادة مجانًا من القدرات التي طورتها OpenAI والمختبرات الحدودية الأمريكية الأخرى.”
كان لدى Moonshot وMiniMax أكثر من 3.4 مليون و13 مليون تبادل مع كلود، على التوالي. وتدعو أنثروبيك الأعضاء الآخرين في صناعة الذكاء الاصطناعي، ومقدمي الخدمات السحابية، والمشرعين إلى معالجة التقطير، مضيفة أن “الوصول المقيد للرقائق” يمكن أن يحد من تدريب النماذج و”حجم التقطير غير المشروع”.


