Anthropic oskarża chiński DeepSeek o plagiat Claude AI w celu przyspieszenia cenzury

W miarę jak modele sztucznej inteligencji chińskich firm stają się coraz bardziej wyrafinowane, Anthropic ujawnił wspólne wysiłki takich firm jak DeepSeek aby splagiatować wewnętrzne działanie wielokrotnie nagradzanego Claude LLM i przedstawić go jako własną innowację.
Anthropic obawia się, że powstali agenci AI są pozbawieni zabezpieczeń przed złośliwym wykorzystaniem nieodłącznie związanym z Claude i że podejście DeepSeek oparte na otwartym kodzie źródłowym może umieścić potężne narzędzia AI w rękach zarówno podmiotów państwowych, jak i niepaństwowych, które mają mniej skrupułów co do ich wykorzystania.
Na przykład DeepSeek, który wstrząsnął branżą dzięki swojej wydajnością w zakresie mocy obliczeniowej sztucznej inteligencji, pozbawił kod Claude zabezpieczeń wolności słowa i sprawił, że jego agent omijał tematy, których chińska rządowa cenzura stara się unikać.
Firma Anthropic, która tworzy jedne z najbardziej zaawansowanych narzędzi sztucznej inteligencji, właśnie miała starcie z Pentagonem dotyczące wykorzystania Claude do celów wojskowych. Nalega ona, by Claude nie był wykorzystywany do kontrolowania bezzałogowych systemów uzbrojenia ani do inwigilacji amerykańskich obywateli, podczas gdy Pentagon chce mieć większą swobodę w korzystaniu ze swojego agenta AI bez takich uciążliwych barier.
Kiedy DeepSeek i inni zbierają algorytmy decyzyjne Claude'a za pośrednictwem dużej rozproszonej sieci proxy, która obsługuje miliony zapytań za pośrednictwem fałszywych kont lub tak zwanej "destylacji", wynikowi agenci mogą być wykorzystywani przez wojsko państwowe bez żadnych takich ograniczeń.
Właśnie dlatego Anthropic bije na alarm w sprawie praktyk, które wyśledził w trzech chińskich firmach zajmujących się sztuczną inteligencją - DeepSeek, MiniMax i Moonshot - i wprowadza sposoby na ich złagodzenie. W szczególności w przypadku MiniMax zakres plagiatu modeli AI zapiera dech w piersiach. Anthropic wykrył ponad 13 milionów wymian zapytań z Claude, które często skutkowały ulepszaniem modelu MiniMax w czasie rzeczywistym, podczas gdy Anthropic wprowadzał główne aktualizacje Claude.
Anthropic ma teraz zabezpieczenia pozwalające wykryć miliony pozornie nieszkodliwych zapytań używanych do destylacji, takich jak pytanie Claude'a, w jaki sposób osiągnąłby"cel, jakim jest dostarczanie opartych na danych spostrzeżeń - a nie podsumowań lub wizualizacji - opartych na rzeczywistych danych i popartych pełnym i przejrzystym rozumowaniem" oraz analizowanie wyników w celu ulepszenia chińskich LLM.
Firma ostrzega, że nie jest w stanie sama walczyć z tą praktyką i stara się zaangażować innych branżowych gigantów, takich jak OpenAI czy Google, aby mogli wpłynąć na decydentów politycznych w celu ulepszenia przepisów dotyczących kontroli eksportu sztucznej inteligencji za pomocą środków zapobiegających destylacji, a nie tylko zakazów dotyczących procesorów graficznych Nvidia Blackwell i innego sprzętu.
Kup procesor graficzny NVD RTX PRO 6000 Blackwell Professional Edition AI na Amazon









