
Dopo la fine del Summit sull'azione dell'IA a Parigi, il co-fondatore e CEO di Anthropic Dario Amodei ha definito l'evento un'\"occasione mancata\". Ha aggiunto che \"è necessario maggiore focalizzazione e urgenza su diversi argomenti data la velocità con cui la tecnologia sta progredendo\" nella dichiarazione rilasciata martedì.
L'azienda di IA ha organizzato un evento concentrato sui developer a Parigi in collaborazione con la startup francese Dust, e TechCrunch ha avuto l'opportunità di intervistare Amodei sul palco. Durante l'evento, ha spiegato il suo pensiero e ha difeso un terzo percorso che non è né puramente ottimista né puramente critico sui temi dell'innovazione e del governo dell'IA, rispettivamente.
\"Ero un neuroscienziato, dove fondamentalmente guardavo dentro veri cervelli per vivere. E adesso guardiamo dentro cervelli artificiali per vivere. Quindi nei prossimi mesi faremo alcuni progressi emozionanti nell'ambito dell'interpretabilità, in cui stiamo davvero iniziando a capire come operano i modelli,\" ha detto Amodei a TechCrunch.
\"Ma è sicuramente una corsa. È una corsa tra rendere i modelli sempre più potenti, che è incredibilmente veloce per noi e incredibilmente veloce per gli altri - non puoi davvero rallentare, giusto? ... La nostra comprensione deve tenere il passo con la nostra capacità di costruire cose. Penso che sia l'unico modo,\" ha aggiunto.
Sin dal primo vertice sull'IA a Bletchley nel Regno Unito, il tono della discussione sul governo dell'IA è cambiato significativamente. È in parte dovuto al panorama geopolitico attuale.
\"Non sono qui stamattina per parlare della sicurezza dell'IA, che era il titolo della conferenza un paio di anni fa,\" ha detto il Vicepresidente degli Stati Uniti JD Vance al Summit sull'azione dell'IA martedì. \"Sono qui per parlare dell'opportunità dell'IA.\"
Interessantemente, Amodei sta cercando di evitare questa antagonizzazione tra sicurezza e opportunità. Infatti, crede che un maggiore focus sulla sicurezza sia un'opportunità.
\"Al vertice originale, il vertice U.K. Bletchley, c'erano molte discussioni su test e misure per vari rischi. E non credo che queste cose abbiano rallentato molto la tecnologia in alcun modo,\" ha detto Amodei all'evento di Anthropic. \"Se qualcosa, fare questo tipo di misurazione ci ha aiutato a comprendere meglio i nostri modelli, il che alla fine ci aiuta a produrre modelli migliori.\"
E ogni volta che Amodei pone un certo accento sulla sicurezza, gli piace anche ricordare a tutti che Anthropic è ancora molto concentrata sulla costruzione di modelli di IA di frontiera.
\"Non voglio fare nulla per ridurre la promessa. Stiamo fornendo modelli ogni giorno su cui le persone possono costruire e che vengono utilizzati per fare cose incredibili. E sicuramente non dovremmo smettere di farlo,\" ha detto.
\"Quando la gente parla molto dei rischi, mi infastidisco un po' e dico: 'oh, ragazzi, nessuno ha davvero fatto un buon lavoro nel delineare realmente quanto grande potrebbe essere questa tecnologia,'\"," ha aggiunto più tardi nella conversazione.
I costi di formazione di DeepSeek sono \"semplicemente non accurati\"
Quando la conversazione si è spostata sui recenti modelli di DeepSeek, Amodei ha minimizzato i successi tecnici e ha detto di sentirsi che la reazione pubblica fosse \"non organica\".
\"Onestamente, la mia reazione è stata molto limitata. Avevamo visto V3, che è il modello base per DeepSeek R1, a dicembre. E quel era un modello impressionante,\" ha detto. \"Il modello uscito a dicembre era su questo genere di curva di riduzione dei costi molto normale che abbiamo visto nei nostri modelli e in altri modelli.\"
Ciò che è stato notevole è che il modello non stava uscendo dai \"tre o quattro laboratori di frontiera\" con sede negli Stati Uniti. Ha elencato Google, OpenAI e Anthropic come alcuni dei laboratori di frontiera che generalmente spingono il limite con nuove versioni dei modelli.
\"E questo era motivo di preoccupazione geopolitica per me. Non ho mai voluto che i governi autoritari dominassero questa tecnologia,\" ha detto.
Per quanto riguarda i presunti costi di formazione di DeepSeek, ha respinto l'idea che la formazione di DeepSeek V3 fosse 100 volte più economica rispetto ai costi di formazione negli Stati Uniti. \"Penso che [sia] semplicemente non accurato e non basato sui fatti,\" ha detto.
I prossimi modelli Claude con ragionamento
Sebbene Amodei non abbia annunciato alcun nuovo modello all'evento di mercoledì, ha anticipato alcuni dei prossimi lanci dell'azienda - e sì, includono alcune capacità di ragionamento.
\"Siamo generalmente concentrati nel cercare di fare la nostra interpretazione dei modelli di ragionamento che siano meglio differenziati. Ci preoccupiamo di assicurarci di avere abbastanza capacità, che i modelli diventino più intelligenti, e ci preoccupiamo delle cose di sicurezza,\" ha detto Amodei.
Uno dei problemi che Anthropic sta cercando di risolvere è il dilemma della selezione del modello. Se hai un account ChatGPT Plus, ad esempio, può essere difficile sapere quale modello dovresti scegliere nella finestra di selezione del modello per il tuo prossimo messaggio.
Lo stesso vale per gli sviluppatori che utilizzano API di modelli di linguaggio di grandi dimensioni (LLM) per le proprie applicazioni. Vogliono bilanciare le cose tra accuratezza, velocità delle risposte e costi.
\"Siamo stati un po' perplessi dall'idea che ci siano modelli normali e modelli di ragionamento e che siano diversi l'uno dall'altro,\" ha detto Amodei. \"Se sto parlando con te, tu non hai due cervelli e uno risponde subito e l'altro aspetta più tempo.\"
Secondo lui, a seconda dell'input, dovrebbe esserci un passaggio più fluido tra modelli preaddestrati come Claude 3.5 Sonnet o GPT-4o e modelli addestrati con il reinforcement learning che possono produrre catene di pensieri (CoT) come OpenAI's o1 o DeepSeek's R1.
\"Pensiamo che questi dovrebbero esistere come parte di un'unica entità continua. E potremmo non essere ancora lì, ma Anthropic vuole davvero spostarsi in quella direzione,\" ha detto Amodei. \"Dovremmo avere un passaggio più fluido da quello a modelli preaddestrati - piuttosto che 'ecco cosa A e ecco cosa B,'\" ha aggiunto.
Poiché le grandi aziende di IA come Anthropic continuano a rilasciare modelli migliori, Amodei crede che aprirà alcune grandi opportunità per interrompere le grandi imprese del mondo in ogni settore.
\"Stiamo lavorando con alcune aziende farmaceutiche per utilizzare Claude per scrivere studi clinici, e sono riusciti a ridurre il tempo necessario per scrivere il rapporto dello studio clinico da 12 settimane a tre giorni,\" ha detto Amodei.
\"Oltre al biomedicale, c'è il legale, il finanziario, l'assicurativo, la produttività, il software, le cose intorno all'energia. Penso che ci sarà - in sostanza - una rinascita dell'innovazione disruptiva nello spazio delle applicazioni di IA. E vogliamo aiutarla, vogliamo supportarla tutto,\" ha concluso.
Leggi la nostra copertura completa del Summit sull'Azione dell'Intelligenza Artificiale a Parigi.
TechCrunch ha una newsletter centrata sull'IA! Iscriviti qui per riceverla nella tua casella di posta ogni mercoledì.