Il miliardario sostenuto da SoftBank investirà 230 milioni di dollari nella startup di intelligenza artificiale indiana Krutrim

Il fondatore di Ola, Bhavish Aggarwal, sta investendo 230 milioni di dollari in una startup di intelligenza artificiale da lui fondata, mentre il paese si impegna a stabilirsi in un settore dominato da aziende statunitensi e cinesi.

Aggarwal sta finanziando l'investimento in Krutrim — che ha creato LLM per le lingue indiane — principalmente attraverso il suo family office, ha detto una fonte a conoscenza della questione a TechCrunch. In un post su X martedì, Aggarwal ha detto che Krutrim mira ad attrarre un investimento di 1,15 miliardi di dollari entro l'anno prossimo. Cercherà di raccogliere il resto del capitale da investitori esterni, ha detto la fonte.

L'annuncio del finanziamento coincide con la startup unicorn Krutrim che rende open source i suoi modelli di intelligenza artificiale e svela i piani per costruire quello che afferma sarà il supercomputer più grande dell'India in collaborazione con Nvidia.

Il laboratorio ha rilasciato Krutrim-2, un modello linguistico di 12 miliardi di parametri che ha mostrato una forte performance nel processare le lingue indiane. Nei test di analisi dei sentimenti che Krutrim ha condiviso martedì, ha ottenuto un punteggio di 0,95 rispetto a 0,70 dei modelli concorrenti, raggiungendo un tasso di successo dell'80% nei compiti di generazione del codice.

Il laboratorio ha reso open source diversi modelli specializzati, inclusi sistemi per il trattamento delle immagini, la traduzione del parlato e la ricerca di testi, tutti ottimizzati per le lingue indiane.

“Siamo ancora lontani dai benchmark globali ma abbiamo fatto buoni progressi in un anno,” ha scritto Aggarwal, le cui altre imprese sono sostenute da SoftBank, su X. “Con la condivisione dei nostri modelli, speriamo che l'intera comunità indiana di intelligenza artificiale collabori per creare un ecosistema di intelligenza artificiale indiano di classe mondiale.”

L'iniziativa arriva mentre l'India cerca di stabilirsi in un panorama dell'intelligenza artificiale dominato dalle aziende statunitensi e cinesi. Il recente rilascio del modello di “ragionamento” R1 di DeepSeek, costruito su un presunto modesto budget, ha scosso l'industria tecnologica.

L'India la scorsa settimana ha elogiato i progressi di DeepSeek e ha detto che il paese ospiterà i grandi modelli linguistici del laboratorio cinese su server domestici. L'unità cloud di Krutrim ha iniziato a offrire DeepSeek su server indiani la scorsa settimana.

Krutrim ha anche sviluppato il proprio framework di valutazione, BharatBench, per valutare la competenza dei modelli di intelligenza artificiale nelle lingue indiane, colmando una lacuna nei benchmark esistenti che si concentrano principalmente sull'inglese e il cinese.

L'approccio tecnico del laboratorio include l'utilizzo di una finestra di contesto da 128.000 token, consentendo ai suoi sistemi di gestire testi più lunghi e conversazioni più complesse. Le metriche di performance pubblicate dalla startup hanno mostrato che Krutrim-2 ha ottenuto punteggi elevati nella correzione grammaticale (0,98) e nelle conversazioni a più turni (0,91).

L'investimento segue il lancio nel gennaio di Krutrim-1, un sistema di 7 miliardi di parametri che ha servito come primo grande modello linguistico dell'India. La distribuzione del supercomputer con Nvidia è prevista per marzo, con espansione programmata durante l'anno.