DeepSeek, un’azienda cinese di intelligenza artificiale, ha rilasciato all’inizio del mese R1, il suo modello di ragionamento open-source. Le sue capacità corrispondono all’incirca a quelle dei modelli avanzati di OpenAI, Anthropic e Alphabet GOOGL/GOOG, pur avendo costi di formazione materialmente inferiori.
Perché è importante: L’impressionante dinamica prestazioni/costi di R1 ha sollevato le preoccupazioni degli investitori sulla necessità dei miliardi di dollari di spese in conto capitale che le grandi aziende tecnologiche statunitensi hanno effettuato (e degli altri miliardi che intendono spendere) nell’IA generativa.
- Il lancio di R1 e il suo prezzo drasticamente più basso (oltre il 90% in meno rispetto all’ultimo modello di ragionamento di OpenAI) vanno di pari passo con la nostra visione più ampia di “mercificazione dei complementi” dello spazio dei modelli linguistici di grandi dimensioni (Large Language Model - LLM).
- Riteniamo che quando il prezzo dei LLM (il bene complementare) scende, il valore e l’utilizzo del bene primario dei venditori di cloud pubblico, l’infrastruttura cloud, aumentano. A tal fine, riteniamo che Amazon AMZN, Microsoft MSFT e Google traggano vantaggio dalla riduzione dei prezzi degli LLM nel lungo periodo.
La linea di fondo: Manteniamo le nostre stime di fair value per Microsoft (USD490 per azione), Amazon (USD200) e Alphabet (USD220), e riteniamo che queste aziende ad ampio raggio traggano vantaggio da un livello di LLM mercificato, con un aumento della spesa per l’IA che crea venti di coda per le loro attività di cloud pubblico.
- Sebbene ci aspettiamo che le spese di capitale dei fornitori di cloud pubblico rimangano elevate nel breve termine, le consideriamo principalmente orientate a soddisfare la domanda di IA generativa, che dovrebbe prosperare con prezzi più bassi dei LLM, rispetto alla formazione di modelli all’avanguardia.
- Allo stesso tempo, ci aspettiamo che queste grandi aziende tecnologiche statunitensi replichino alcune delle tecniche di IA che DeepSeek ha sfruttato per ridurre il costo dell’R1 e i costi dell’addestramento e dell’inferenza dei loro modelli, riducendo potenzialmente le loro spese di capitale a medio e lungo termine.
L'autore o gli autori non possiedono posizioni nei titoli menzionati in questo articolo. Leggi la policy editoriale di Morningstar.
Le informazioni contenute in questo articolo sono esclusivamente a fini educativi e informativi. Non hanno l’obiettivo, né possono essere considerate un invito o incentivo a comprare o vendere un titolo o uno strumento finanziario. Non possono, inoltre, essere viste come una comunicazione che ha lo scopo di persuadere o incitare il lettore a comprare o vendere i titoli citati. I commenti forniti sono l’opinione dell’autore e non devono essere considerati delle raccomandazioni personalizzate. Le informazioni contenute nell’articolo non devono essere utilizzate come la sola fonte per prendere decisioni di investimento.