
Ciao, ragazzi, benvenuti alla newsletter settimanale sull'AI di TechCrunch. Se desideri riceverla nella tua casella di posta ogni mercoledì, iscriviti qui.
Sono passati solo pochi giorni da quando OpenAI ha rivelato il suo ultimo modello generativo di punta, o1, al mondo. Commercializzato come un modello di 'ragionamento', o1 impiega più tempo per 'pensare' alle domande prima di risponderle, scomponendo i problemi e controllando le proprie risposte.
Ci sono molte cose che o1 non può fare bene - e lo ammette anche OpenAI. Ma su alcune attività, come la fisica e la matematica, o1 eccelle nonostante non abbia necessariamente più parametri rispetto al modello di punta precedente di OpenAI, GPT-4o. (Nell'AI e nell'apprendimento automatico, 'parametri', solitamente in miliardi, corrispondono approssimativamente alle capacità di risoluzione di un modello.)
E questo ha implicazioni sulla regolamentazione dell'AI.
La proposta di legge SB 1047 della California, ad esempio, impone requisiti di sicurezza sui modelli di intelligenza artificiale che hanno costituito un investimento superiore a $100 milioni per lo sviluppo o sono stati addestrati utilizzando potenza di calcolo oltre una certa soglia. Modelli come o1, tuttavia, dimostrano che aumentare il potere di calcolo per l'addestramento non è l'unico modo per migliorare le prestazioni di un modello.
In un post su X, il manager della ricerca di Nvidia, Jim Fan, ha ipotizzato che i futuri sistemi di intelligenza artificiale potrebbero basarsi su "nuclei di ragionamento" di dimensioni più contenute e più facili da addestrare rispetto alle architetture intensive di addestramento (ad esempio, il Llama 405B di Meta) che sono state di tendenza ultimamente. Studi accademici recenti, nota, hanno dimostrato che modelli di piccole dimensioni come o1 possono superare notevolmente modelli di grandi dimensioni se gli viene dato più tempo per riflettere sulle domande.
Ma è stato miope da parte dei legislatori legare le misure di regolamentazione dell'AI al calcolo? Sì, dice Sara Hooker, responsabile del laboratorio di ricerca della startup di intelligenza artificiale Cohere, in un'intervista con TechCrunch:
[o1] in un certo senso evidenzia quanto sia incompleta questa visione, usando le dimensioni del modello come proxy per il rischio. Non tiene conto di tutto ciò che puoi fare con le inferenze o l'esecuzione di un modello. Per me, è una combinazione di cattiva scienza unita a politiche che mettono l'accento non sui rischi attuali che vediamo nel mondo ora, ma sui rischi futuri.
Ora, questo significa che i legislatori dovrebbero strappare le leggi sull'AI dalle loro basi e ricominciare da capo? No. Molte sono state scritte per essere facilmente emendabili, partendo dal presupposto che l'AI si sarebbe evoluta ben oltre la loro promulgazione. La legge della California, ad esempio, conferirebbe all'Agenzia delle operazioni governative dello stato l'autorità per ridefinire le soglie di calcolo che attivano i requisiti di sicurezza della legge.
La parte ovviamente complicata sarà capire quale metrica potrebbe essere un migliore proxy per il rischio rispetto al calcolo per l'addestramento. Come tanti altri aspetti della regolamentazione dell'AI, è qualcosa su cui riflettere mentre le leggi negli Stati Uniti - e nel mondo - avanzano verso l'approvazione.
Notizie

Prime reazioni a o1: Max ha ottenuto le prime impressioni da ricercatori sull'AI, fondatori di startup e VC su o1 - e ha testato di persona il modello.
Altman lascia il comitato per la sicurezza: Il CEO di OpenAI Sam Altman si è dimesso dal comitato della startup responsabile della revisione della sicurezza di modelli come o1, probabilmente in risposta alle preoccupazioni che non avrebbe agito in modo imparziale.
Slack diventa un hub per agenti: Alla conferenza annuale della casa madre Salesforce, Slack ha annunciato nuove funzionalità, tra cui riassunti di incontri generati dall'IA e integrazioni con strumenti per la generazione di immagini e ricerche web basate sull'IA.
Google inizia a segnalare immagini AI: Google dice che prevede di apportare modifiche alla Ricerca Google per rendere più chiare le immagini nei risultati che sono state generate dall'IA - o modificate da strumenti basati sull'IA.
Mistral lanciata una tier gratuita: La startup francese di intelligenza artificiale Mistral ha lanciato una nuova tier gratuita per consentire agli sviluppatori di perfezionare e creare app di test con i modelli di intelligenza artificiale della startup.
Snap lancia un generatore di video: Al suo annuale Snap Partner Summit di martedì, Snapchat ha annunciato di introdurre un nuovo strumento di generazione di video basato sull'IA per i creatori. Lo strumento permetterà a selezionati creatori di generare video AI da prompt di testo e, presto, da prompt di immagini.
Intel sigla una grande intesa per i chip: Intel annuncia di co-sviluppare un chip per l'IA con AWS utilizzando il processo di fabbricazione dei chip Intel a 18A. Le società hanno descritto l'accordo come un 'quadro pluriennale e multimiliardario' che potrebbe potenzialmente coinvolgere ulteriori progettazioni di chip.
Speciale sull'IA di Oprah: Oprah Winfrey ha trasmesso una speciale sull'IA con ospiti come Sam Altman di OpenAI, Bill Gates di Microsoft, l'influencer tecnologico Marques Brownlee e l'attuale direttore dell'FBI, Christopher Wray.
Documento di ricerca della settimana
Sappiamo che l'IA può essere persuasiva, ma può far emergere qualcuno profondamente coinvolto in una tana di cospirazioni? Beh, non da sola. Ma un nuovo modello di Costello et al. presso il MIT e Cornell può intaccare credenze su cospirazioni non vere che persistono per almeno un paio di mesi.
Nell'esperimento, hanno fatto parlare persone che credevano a dichiarazioni legate a cospirazioni (ad esempio, 'l'11 settembre è stato un piano interno') con un chatbot che offriva gentilmente, pazientemente e incessantemente prove contrarie ai loro argomenti. Queste conversazioni hanno portato gli esseri umani coinvolti a dichiarare una riduzione del 20% nella credenza associata due mesi dopo, almeno per quanto queste cose possano essere misurate. Ecco un esempio di una delle conversazioni in corso:

E' improbabile che coloro che sono profondamente immersi nelle cospirazioni reptiliane e dello stato profondo abbiano probabilità di consultare o credere a un'IA come questa, ma l'approccio potrebbe essere più efficace se fosse utilizzato in un momento critico come il primo approccio di una persona a queste teorie. Ad esempio, se un adolescente cerca 'Il carburante per aerei può fondere le travi d'acciaio?' potrebbero vivere un momento di apprendimento invece che uno tragico.
Modello della settimana
Non è un modello, ma riguarda i modelli: I ricercatori di Microsoft questa settimana hanno pubblicato un benchmark di intelligenza artificiale chiamato Eureka mirato a (nelle loro parole) 'espandere le valutazioni dei [modelli]... in modo aperto e trasparente.'
I benchmark dell'IA sono all'ordine del giorno. Quindi cosa rende diverso Eureka? Beh, i ricercatori dicono che, per Eureka - che è in realtà una collezione di benchmark esistenti - hanno scelto attività che rimangono sfidanti anche per 'i modelli più capaci'. Nello specifico, Eureka testa capacità spesso trascurate nei benchmark dell'IA, come le abilità di navigazione spazio-visiva.
Per mostrare quanto possa essere difficile Eureka per i modelli, i ricercatori hanno testato sistemi, tra cui Claude di Anthropic, GPT-4o di OpenAI e Llama di Meta, sul benchmark. Nessun singolo modello ha ottenuto buoni punteggi su tutti i test di Eureka, il che, secondo i ricercatori, sottolinea l'importanza di 'continua innovazione' e di 'miglioramenti mirati' ai modelli.
Misto
In una vittoria per gli attori professionisti, la California ha approvato due leggi, AB 2602 e AB 1836, che limitano l'uso di repliche digitali basate sull'IA.
La legislazione, sostenuta da SAG-AFTRA, il sindacato degli attori, richiede che le aziende che fanno affidamento sulla replica digitale di un interprete (ad esempio, voce o immagine clonate) forniscono una descrizione 'ragionevolmente specifica' dell'uso previsto della replica e negoziano con il consulente legale o il sindacato dell'interprete. Richiede inoltre che i datori di lavoro del settore dell'intrattenimento ottenere il consenso dell'eredità di un interprete deceduto prima di utilizzare una replica digitale di quella persona.
Come nota l'Hollywood Reporter nella sua copertura, le leggi codificano concetti per i quali SAG-AFTRA ha combattuto durante lo sciopero di 118 giorni lo scorso anno con studi e importanti piattaforme streaming. La California è il secondo stato dopo il Tennessee ad imporre restrizioni sull'uso di somiglianze digitali di attori; SAG-AFTRA ha anche patrocinato lo sforzo del Tennessee.