Anthropic révoque l'accès d'OpenAI à Claude

Tous les produits présentés sur WIRED sont sélectionnés indépendamment par nos rédacteurs. Cependant, nous pouvons percevoir une rémunération de la part de revendeurs et/ou pour les achats de produits effectués via ces liens.
Anthropic a révoqué mardi l'accès API d'OpenAI à ses modèles, ont indiqué à WIRED plusieurs sources proches du dossier. OpenAI a été informé que son accès avait été coupé pour violation des conditions d'utilisation.
« Claude Code est devenu la référence pour les codeurs du monde entier. Il n'a donc pas été surprenant d'apprendre que l'équipe technique d'OpenAI utilisait également nos outils de codage avant le lancement de GPT-5 », a déclaré Christopher Nulty, porte-parole d'Anthropic, dans un communiqué à WIRED. « Malheureusement, il s'agit d'une violation flagrante de nos conditions d'utilisation. »
Selon les conditions commerciales d' Anthropic, il est interdit aux clients d'utiliser le service pour « créer un produit ou un service concurrent, y compris pour entraîner des modèles d'IA concurrents », ni pour « rétroconcevoir ou dupliquer » les services. Ce changement d'accès d'OpenAI à Claude intervient alors que le créateur de ChatGPT s'apprêterait à lancer un nouveau modèle d'IA, GPT-5, réputé plus performant en codage.
Selon certaines sources, OpenAI connectait Claude à ses propres outils internes via des API dédiées aux développeurs, au lieu d'utiliser l'interface de chat habituelle. Cela a permis à l'entreprise de réaliser des tests pour évaluer les capacités de Claude en codage et en écriture créative, par rapport à ses propres modèles d'IA, et de vérifier comment Claude réagissait aux messages de sécurité concernant des catégories telles que le contenu pédopornographique, l'automutilation et la diffamation. Les résultats permettent à OpenAI de comparer le comportement de ses propres modèles dans des conditions similaires et d'effectuer les ajustements nécessaires.
« Évaluer d'autres systèmes d'IA pour évaluer les progrès et améliorer la sécurité est une pratique courante dans le secteur. Bien que nous respections la décision d'Anthropic de nous couper l'accès à notre API, c'est décevant car notre API reste accessible », a déclaré Hannah Wong, directrice de la communication d'OpenAI, dans un communiqué à WIRED.
Nulty affirme qu'Anthropic « continuera de garantir qu'OpenAI dispose d'un accès API à des fins d'analyse comparative et d'évaluation de la sécurité, comme c'est la pratique courante dans le secteur ». L'entreprise n'a pas répondu à la demande de clarification de WIRED concernant l'impact éventuel de la restriction actuelle de l'API Claude d'OpenAI sur ce travail.
Le retrait de l'accès aux API de leurs concurrents par les grandes entreprises technologiques est une tactique courante dans le secteur depuis des années. Facebook a fait de même avec Vine, propriété de Twitter (ce qui a donné lieu à des allégations de comportement anticoncurrentiel) et, le mois dernier, Salesforce a restreint l'accès de ses concurrents à certaines données via l'API Slack. Ce n'est même pas une première pour Anthropic. Le mois dernier, l'entreprise a restreint l'accès direct de la start-up de codage IA Windsurf à ses modèles après la rumeur d'un rachat par OpenAI. ( Cet accord a échoué .)
Jared Kaplan, directeur scientifique d'Anthropic , s'est entretenu avec TechCrunch à l'époque au sujet de la révocation de l'accès de Windsurf à Claude, déclarant : « Je pense qu'il serait étrange pour nous de vendre Claude à OpenAI. »
Un jour avant de couper l'accès d'OpenAI à l'API Claude, Anthropic a annoncé de nouvelles limites de débit sur Claude Code, son outil de codage alimenté par l'IA, citant une utilisation explosive et, dans certains cas, des violations de ses conditions de service .
wired