I modelli di licenza dell'IA 'Open' spesso presentano restrizioni preoccupanti

Questa settimana, Google ha rilasciato una famiglia di modelli di intelligenza artificiale aperti, Gemma 3, che ha ricevuto immediatamente elogi per la loro impressionante efficienza. Ma come alcuni sviluppatori hanno lamentato su X, la licenza di Gemma 3 rende l'uso commerciale dei modelli una proposta rischiosa.

Non è un problema unico di Gemma 3. Aziende come Meta applicano anche termini di licenza personalizzati e non standard ai loro modelli liberamente disponibili, e i termini presentano sfide legali per le aziende. Alcune società, specialmente operazioni più piccole, temono che Google e altri potrebbero 'far saltare il tappeto' sotto ai loro piedi affermando le clausole più onerose.

“La licenza restrittiva e inconsistente dei cosiddetti modelli di intelligenza artificiale 'aperti' sta creando una significativa incertezza, in particolare per l'adozione commerciale,” ha detto Nick Vidal, responsabile della community presso l'Open Source Initiative, un'istituzione di lunga data che mira a definire e 'curare' tutte le cose open source. “Mentre questi modelli vengono promossi come aperti, i termini effettivi pongono varie sfide legali e pratiche che scoraggiano le aziende dall'integrarli nei loro prodotti o servizi.”

I sviluppatori di modelli aperti hanno le loro ragioni per rilasciare modelli con licenze proprietarie anziché opzioni standard del settore come Apache e MIT. Una startup di intelligenza artificiale come Cohere, ad esempio, è stata chiara sul suo intento di supportare il lavoro scientifico, ma non commerciale, sui propri modelli.

Ma le licenze Gemma e Llama di Meta in particolare hanno restrizioni che limitano i modi in cui le aziende possono utilizzare i modelli senza il timore di ripercussioni legali.

Meta, ad esempio, vieta agli sviluppatori di utilizzare l'“output o i risultati” dei modelli Llama 3 per migliorare qualsiasi modello diverso da Llama 3 o “opere derivate”. Impedisce anche alle aziende con oltre 700 milioni di utenti attivi mensili di distribuire i modelli Llama senza prima ottenere una licenza speciale aggiuntiva.

La licenza di Gemma è generalmente meno onerosa. Ma concede a Google il diritto di “limitare (remote o in altro modo) l'uso” di Gemma che Google ritiene sia in violazione della politica di utilizzo vietato dell'azienda o delle “leggi e regolamenti applicabili”.

Queste clausole non si applicano solo ai modelli Llama e Gemma originali. I modelli basati su Llama o Gemma devono anche aderire alle rispettive licenze di Llama e Gemma, rispettivamente. Nel caso di Gemma, ciò include i modelli addestrati su dati sintetici generati da Gemma.

Florian Brand, assistente di ricerca presso il Centro tedesco di ricerca sull'intelligenza artificiale, ritiene che — nonostante ciò che i dirigenti delle giganti tecnologiche vorrebbero farvi credere — le licenze come quelle di Gemma e Llama “non possono ragionevolmente essere definite 'open source'.”

“La maggior parte delle aziende ha un insieme di licenze approvate, come Apache 2.0, quindi qualsiasi licenza personalizzata è un sacco di problemi e denaro,” ha detto Brand a TechCrunch. “Le piccole aziende senza team legali o denaro per avvocati si attengono ai modelli con licenze standard.”

Brand ha notato che i sviluppatori di modelli di intelligenza artificiale con licenze personalizzate, come Google, non hanno ancora fatto rispettare aggressivamente i propri termini. Tuttavia, la minaccia è spesso sufficiente a scoraggiare l'adozione, ha aggiunto.

“Queste restrizioni hanno un impatto sull'ecosistema dell'IA — anche su ricercatori di intelligenza artificiale come me,” ha detto Brand.

Han-Chung Lee, direttore dell'apprendimento automatico presso Moody's, concorda sul fatto che le licenze personalizzate come quelle associate a Gemma e Llama rendono i modelli “non utilizzabili” in molti scenari commerciali. Anche Eric Tramel, scienziato applicato presso la startup di intelligenza artificiale Gretel.

“Le licenze specifiche del modello prevedono deroghe specifiche per le derivate e la distillazione del modello, il che suscita preoccupazioni per il rientro anticipato,” ha detto Tramel. “Immagina un'azienda che produce specificamente adattamenti fini del modello per i propri clienti. Quale licenza dovrebbe avere un adattamento di dati Gemma di Llama? Quali sarebbero le conseguenze per tutti i loro clienti successivi?”

Lo scenario che i deployer temono di più, ha detto Tramel, è che i modelli siano una sorta di cavallo di Troia.

“Un'officina di modelli può mettere in circolazione modelli [aperti], aspettare di vedere quali casi di business si sviluppano usando quei modelli, e quindi imporsi nei settori verticali di successo o tramite estorsione o tramite procedimenti legali,” ha detto. “Ad esempio, Gemma 3, a quanto pare, sembra un rilascio solido — e uno che potrebbe avere un ampio impatto. Ma il mercato non può adottarlo a causa della struttura della licenza. Quindi, le imprese probabilmente aderiranno a modelli Apache 2.0 forse più deboli e meno affidabili.”

Per essere chiari, alcuni modelli hanno raggiunto una distribuzione ampia nonostante le loro licenze restrittive. Ad esempio, Llama è stato scaricato centinaia di milioni di volte ed è stato integrato in prodotti di grandi società, tra cui Spotify.

Ma potrebbero essere ancora più di successo se fossero concessi in licenza in modo permissivo, secondo Yacine Jernite, responsabile di machine learning e società presso la startup di intelligenza artificiale Hugging Face. Jernite ha chiesto ai fornitori come Google di passare a strutture di licenza aperte e di “collaborare più direttamente” con gli utenti su termini ampiamente accettati.

“Dato l'assenza di consenso su questi termini e il fatto che molte delle assunzioni sottostanti non siano ancora state testate in tribunale, tutto serve principalmente come dichiarazione d'intenti da parte di quegli attori,” ha detto Jernite. “[Ma se certe clausole] vengono interpretate troppo ampiamente, molto del buon lavoro si troverà su terreno legale incerto, il che è particolarmente spaventoso per le organizzazioni che costruiscono prodotti commerciali di successo.”

Vidal ha detto che c'è un urgente bisogno di aziende di modelli di intelligenza artificiale che possono integrare, modificare e condividere liberamente senza temere improvvisi cambiamenti di licenza o ambiguità legale.

“Il panorama attuale delle licenze dei modelli di intelligenza artificiale è disseminato di confusione, termini restrittivi e affermazioni fuorvianti di apertura,” ha detto Vidal. “Invece di ridefinire 'open' per soddisfare gli interessi aziendali, l'industria dell'IA dovrebbe allinearsi con i principi consolidati dell'open source per creare un ecosistema veramente aperto.”