Anthropic odrzuca naciski Pentagonu na otwarcie Claude AI dla bezzałogowych systemów uzbrojenia lub masowej inwigilacji

Anthropic, gigant w dziedzinie sztucznej inteligencji, pozwoli, aby 27 lutego minął termin wyznaczony przez Pentagon na pozbawienie modelu Claude wszelkich zabezpieczeń do użytku wojskowego.
Według dyrektora generalnego Anthropic, Dario Amodei, firma zajmująca się sztuczną inteligencją nie może z "czystym sumieniem" otworzyć Claude do obsługi bezzałogowych systemów uzbrojenia lub masowego nadzoru obywateli USA, ponieważ nie jest ona ani ewidentnie bezpieczna, ani wystarczająco niezawodna, aby nadawać się do tego celu.
Claude firmy Anthropic jest jednocześnie jednym z wiodących agentów AI i najbardziej zorientowanym na bezpieczeństwo, z wbudowanymi zabezpieczeniami przed złośliwym wykorzystaniem narzędzi AI. Amerykański Departament Wojny (DoW) wymaga jednak, chrome-extension://efaidnbmnnnibpcajpcglclefindmkaj/https://media.defense.gov/2026/Jan/12/2003855671/-1/-1/0/ARTIFICIAL-INTELLIGENCE-STRATEGY-FOR-THE-DEPARTMENT-OF-WAR.PDF aby kupowane przez niego modele sztucznej inteligencji były pozbawione wszelkich ograniczeń, z wyjątkiem własnych, niejasnych ograniczeń dotyczących "zgodnego z prawem użycia":
Różnorodność, równość i integracja oraz ideologia społeczna nie mają miejsca w DoW, więc nie możemy wykorzystywać modeli AI, które zawierają ideologiczne "dostrajanie", które zakłóca ich zdolność do dostarczania obiektywnie prawdziwych odpowiedzi na podpowiedzi użytkownika
Departament musi również wykorzystywać modele wolne od ograniczeń polityki użytkowania, które mogą ograniczać legalne zastosowania wojskowe. W związku z tym nakazuję CDAO ustanowienie punktów odniesienia dla obiektywności modelu jako podstawowego kryterium zamówień w ciągu 90 dni, a także nakazuję Podsekretarzowi Wojny ds. Nabycia i Utrzymania włączenie standardowego języka "dowolnego zgodnego z prawem użycia" do każdej umowy DoW, w ramach której usługi AI są zamawiane w ciągu 180 dni.
Pentagon zagroził teraz Anthropic tragicznymi reperkusjami, które wykraczają poza wpływ na jego bilans. Poza zagrożeniem dla obecnego kontraktu o wartości 200 milionów dolarów na dostarczanie narzędzi AI do Pentagonu, Anthropic ryzykuje, że zostanie uznany za zagrożenie dla łańcucha dostaw lub poproszony o usunięcie barier Claude'a do użytku wojskowego zgodnie z prawem z lat 50. XX wieku, zaprojektowanym w celu zmuszenia amerykańskich firm do przestrzegania przepisów podczas wojny koreańskiej ze względów bezpieczeństwa narodowego.
Oznaczenie ryzyka łańcucha dostaw jest zwykle zarezerwowane dla firm z potencjalnymi powiązaniami ze złośliwymi podmiotami państwowymi, takimi jak chiński Huawei lub rosyjski Kaspersky, więc umieszczenie Anthropic na tej liście może zadać znaczący cios jej potencjałowi zarobkowemu. Pomimo ryzyka stania się pariasem AI dla obecnej administracji Białego Domu, Amodei podkreśla, że obecne"pionierskie systemy AI po prostu nie są wystarczająco niezawodne, aby zasilać w pełni autonomiczną broń", podczas gdy"używanie tych systemów do masowego nadzoru krajowego jest niezgodne z wartościami demokratycznymi"
Anthropic's Claude był głównym modelem, gdy rząd po raz pierwszy chciał użyć narzędzi AI do przesiewania informacji niejawnych i był pomocny przy planowaniu nalotu, który schwytał wenezuelskiego przywódcę Maduro, więc Dario Amodei powiedział, że ma nadzieję, że Pentagon ponownie rozważy swoje stanowisko w sprawie dwóch scenariuszy czerwonej linii, które będzie nadal ograniczał w swoich modelach AI.











