Anthropic wycofał dostęp OpenAI na poziomie deweloperskim do rodziny dużych modeli Claude, powołując się na naruszenie warunków handlowych, wiele osób zaznajomionych z decyzją powiedział Wired we wtorek.
W oświadczeniu rzecznik Anthropic, Christopher Nulty, powiedział, że wewnętrzni inżynierowie OpenAI "korzystali z naszych narzędzi do kodowania przed uruchomieniem GPT-5,", co firma uważa za bezpośrednie naruszenie klauzul umownych, które zabraniają wdrażania Claude w celu "budowania konkurencyjnego produktu lub usługi" lub odwrotnej inżynierii modelu.
Według tego samego raportu, OpenAI podłączyło Claude do zastrzeżonych narzędzi testowych w celu porównania generowania kodu, kreatywnego pisania i wydajności bezpieczeństwa ze swoimi systemami. Testy rzekomo obejmowały wrażliwe kategorie podpowiedzi, takie jak samookaleczenie i zniesławienie. Szefowa komunikacji OpenAI, Hannah Wong, opisała tę praktykę jako "standard branżowy" benchmarking i wyraziła rozczarowanie zawieszeniem, zauważając, że własne API OpenAI pozostaje otwarte dla Anthropic.
Anthropic twierdzi, że ograniczony dostęp do "testów porównawczych i ocen bezpieczeństwa" zostanie przywrócony, ale nie wyjaśnił, jak to ograniczenie będzie działać w praktyce. Firma już wcześniej ograniczała korzystanie z aplikacji przez rywali: w lipcu zablokowała start-up Windsurf po tym, jak plotki powiązały firmę z ofertą przejęcia OpenAI. Dyrektor naukowy Jared Kaplan zauważył wówczas, że "sprzedaż Claude do OpenAI" byłaby "dziwna"
Wyciąganie interfejsów API od konkurentów jest dobrze znaną taktyką w sektorze technologicznym; Facebook słynnie zablokował Vine przed korzystaniem z jego interfejsów API, a Salesforce niedawno ograniczył interfejsy API Slack dla konkurencyjnych aplikacji do współpracy. Posunięcie firmy Anthropic nastąpiło dzień po tym, jak ograniczyła ona wykorzystanie Claude Code dla wszystkich klientów, powołując się na szybki wzrost i naruszenia warunków świadczenia usług.
Źródło(a)
Wired (w języku angielskim)