“Valutare altri sistemi di AI per parametrare i progressi e migliorare la sicurezza è uno standard industriale. Pur rispettando la decisione di Anthropic di interrompere il nostro accesso Api, siamo delusi, considerando che per loro le nostre Api sono ancora disponibili“, ha dichiarato a Wired Hannah Wong, responsabile delle comunicazioni di OpenAI.
Nulty afferma che Anthropic “continuerà a garantire a OpenAI l’accesso alle Api a scopo di benchmarking e per le valutazioni di sicurezza, come da prassi in tutto il settore“. L’azienda non ha risposto alle domande di Wired sull’eventuale impatto della limitazione imposta a OpenAI su questo fronte.
La guerra delle Api
Nell’industria tecnologica la revoca dell’accesso alle Api ai concorrenti è una tattica che viene impiegata da anni. In passato, Facebook ha fatto lo stesso con Vine, la defunta applicazione controllata da Twitter, attirandosi accuse di comportamento anticoncorrenziale, mentre il mese scorso Salesforce ha impedito ai rivali di accedere a determinati dati attraverso l’Api di Slack.
La stessa Anthropic ha precedenti in questo senso. Il mese scorso, l’azienda ha limitato l’accesso diretto di Windsurf ai suoi modelli, dopo che erano iniziate a circolare voci su una possibile acquisizione della startup di intelligenza artificiale da parte di OpenAI (un affare che poi non si è concretizzato). “Credo che per noi sarebbe strano vendere Claude a OpenAI“, aveva commentato il responsabile scientifico di Anthropic Jared Kaplan.
Un giorno prima di interrompere l’accesso di OpenAI alle Api del chatbot, Anthropic ha annunciato nuovi limiti al numero di richieste che gli utenti possono sottoporre a Claude Code, citando un boom di utilizzo e, in alcuni casi, violazioni dei suoi termini di servizio.
Questo articolo è apparso originariamente su Wired US.


