Che l’intelligenza artificiale sia una gallina dalle uova d’oro ormai lo hanno capito anche i sassi… il problema è che come già era scritto nel Vangelo “Molti sono i chiamati ma pochi gli eletti ( Matteo 21,23-27)” o per dirla in maniera più moderna individuare quelle aziende che potrebbero affiancare gli attuali Gorilla nell’AI (nvidia e microsoft fra tutti). Gia’ parecchi spunti li ho raccolti nella prima parte di questa discussione che potete trovare QUI ma continuo nella mia selezione di articoli che reputo significativi.
30/10/24 Briefing.com: Advanced Micro Devices scivola dopo la lieve guidance sui ricavi del Q4; La domanda di IA è ancora robusta (AMD)
Advanced Micro (AMD -9%) scivola oggi poiché i suoi ricavi del Q3 sono stati insufficienti per superare un’altra lieve prospettiva di vendita trimestrale. È stato un altro trimestre turbolento per l’intelligenza artificiale, con il segmento principale dei data center di AMD che ha più che raddoppiato i ricavi anno su anno per il secondo trimestre consecutivo. La crescita fuori misura legata all’intelligenza artificiale ha spinto AMD ad aumentare nuovamente le sue previsioni di vendita di data center AI per il FY24 di 0,5 miliardi di dollari a 5,0 miliardi di dollari.
Tuttavia, il mercato era preparato per un’impressionante crescita legata all’intelligenza artificiale, in particolare dopo che il fornitore di AMD, Taiwan Semi (TSM), ha fornito eccellenti numeri del Q3 alimentati dall’intelligenza artificiale all’inizio di questo mese. Nel frattempo, al di fuori della costante domanda dei clienti, che ha ancora rallentato sequenzialmente, AMD ha subito ulteriori cali delle vendite anno su anno nei suoi segmenti Gaming ed Embedded, sottolineando i venti contrari macroeconomici ostinati. Di conseguenza, gli acquirenti non stanno entrando in azione oggi, mantenendo le azioni di AMD all’interno della gamma.
- L’intelligenza artificiale è rimasta l’headliner nel terzo trimestre, portando un fatturato dei data center del 122% su base annua a 3,5 miliardi di dollari. I trimestri consecutivi di crescita di oltre il +100% hanno portato il segmento a comprendere oltre la metà dei giri totali di AMD, rispetto a solo un quarto del fatturato totale di due anni fa. La piattaforma CPU EPYC di AMD, utilizzata per alimentare i servizi cloud generali, come Office 365 (MSFT) e Netflix (NFLX), ha avuto un forte successo. Tuttavia, la superstar è stata la piattaforma GPU MI300X di AMD, che alimenta le numerose istanze relative all’intelligenza artificiale.
- Durante la conferenza, il management ha discusso dell’insaziabile appetito per l’intelligenza artificiale, facendo riferimento a grandi aziende tecnologiche come Microsoft e Meta Platforms (META) che si sono aggiudicate gli acceleratori MI300X di punta di AMD.
- Guardando al futuro, AMD è entusiasta dei vantaggi competitivi delle sue prossime piattaforme. Ad esempio, l’azienda ha notato che il suo MI325X, che sta riscontrando un elevato interesse da parte dei clienti, offre prestazioni di inferenza fino al 20% superiori rispetto al chip H200 di NVIDIA (NVDA). L’inizio delle consegne di produzione dell’MI325X è previsto per il quarto trimestre, con un’ampia disponibilità nel primo trimestre del 25. Inoltre, la serie MI350 di nuova generazione di AMD è sulla buona strada per un lancio nel 2H25, con la serie MI400 che procede verso un lancio nel 2026.
- Tuttavia, nel frattempo, gli altri segmenti di AMD non stanno raccogliendo lo stesso entusiasmo. Il giro di affari del segmento di clientela, che si concentrano sui PC, sono aumentati del 29% su base annua a 1,9 miliardi di dollari, sostenuti da una forte domanda di processori Zen 5 Ryzen nonostante le recenti recensioni sfavorevoli dei clienti. I ricavi dei giochi sono diminuiti nel terzo trimestre, scendendo del 69% su base annua a 462 milioni di dollari, in gran parte a causa di un calo dei giri semi-personalizzati, sottolineando la scarsa domanda di console di gioco. L’embedded è diminuito del 25% su base annua poiché i clienti hanno continuato ad adeguare i livelli di inventario.
- Queste debolezze si sono rivelate un freno alle prospettive di AMD per il Q4, prevedendo un fatturato di 7,2-7,8 miliardi di dollari, il cui punto medio era semplicemente in linea con il consenso. AMD non ha emesso una guidance trimestrale ottimista dal 2022. Data la domanda costante di intelligenza artificiale, il mercato ha cercato una guida più vivace.
In conclusione, mentre l’intelligenza artificiale rimane calda, la temperatura tiepida degli altri segmenti di AMD continua a pesare sulla guidance sui ricavi trimestrali. Tuttavia, l’embedded si sta gradualmente riprendendo, mentre si prevede che il gaming porterà a una crescita sequenziale nel quarto trimestre. Con la domanda di intelligenza artificiale che dovrebbe rimanere robusta, AMD è ben posizionata per riaccendere l’interesse per le sue azioni.
29/10/24 Bloomberg: Il CEO di Arm ritiene che l’intelligenza artificiale trasformerà il mondo molto più velocemente di Internet
Meno di due anni dopo essere diventato amministratore delegato di Arm Holdings Plc, Rene Haas ha guidato il progettista di chip britannico alla più grande offerta pubblica iniziale del 2023 al mondo, raccogliendo 4,87 miliardi di dollari. Da allora, le azioni sono più che raddoppiate, valutando la società con sede a Cambridge a quasi 150 miliardi di dollari.
Haas mira a mettere Arm, che progetta chip per giganti della tecnologia come Apple Inc. e Samsung Electronics Co., in prima linea nell’intelligenza artificiale. La battaglia sulla proprietà intellettuale ha innescato un’escalation di controversie legali con il partner di lunga data Qualcomm Inc.
Il dirigente californiano ha parlato con Bloomberg a Londra prima che l’ultimo episodio della faida con Qualcomm diventasse pubblico. Il 62enne ha parlato dello sviluppo dell’intelligenza artificiale molto più veloce di Internet, dello sviluppo unidirezionale dell’industria automobilistica e dei libri che lo aiutano a prendere decisioni. La trascrizione è stata modificata per brevità.
Bloomberg: La vostra strategia è quella di alimentare la rivoluzione dell’intelligenza artificiale. Quali sono le cose che potrebbero intralciare?
Haas: Uno dei veri limiti per la nostra crescita è il talento. La nostra opportunità è ampia. Siamo nel settore degli smartphone, dei PC, delle fotocamere, delle automobili, dei data center e tutte queste soluzioni richiedono sempre più innovazione. Ho bisogno di più ingegneri. Stiamo cercando di espanderci a livello globale.
D: Le notizie sull’intelligenza artificiale possono dare un colpo di frusta agli investitori. Tagliando gli alti e bassi di Nvidia, ASML e simili, sei più eccitato ora di quanto non lo fossi un anno fa?
R: Al 100%. In effetti, sono sorpreso che si sia mosso tanto velocemente quanto si è mosso. Ho avuto la possibilità di vedere in anteprima uno dei più recenti modelli di OpenAI, che ora pensa e ragiona. Questo è un grande salto. Se pensi a quello che ChatGPT era stato in precedenza, setaccia Internet e ti dà una risposta davvero bella ed elegante basata sulle ricerche. Ma non si tratta di ragionare. I nuovi modelli possono farlo.
D: I data center sono in piena espansione, ma ci sono preoccupazioni per il loro fabbisogno energetico. Qual è la soluzione? Più energia o chip più efficienti?
R: Abbiamo bisogno di entrambi. Abbiamo bisogno di chip molto più efficienti dal punto di vista energetico, motivo per cui Arm sta guadagnando molte quote nel segmento dei data center. Detto questo, credo che avremo bisogno di sempre più accesso all’energia, punto, perché non generiamo abbastanza elettricità. Quindi, ci sarà bisogno di una combinazione di solare, batteria, eolico, forse anche nucleare.
Questi grandi data center che eseguono l’addestramento per gli algoritmi di intelligenza artificiale, generano un’enorme quantità di consumo di energia. Non siamo neanche lontanamente vicini al limite di quanto siano intelligenti questi modelli di intelligenza artificiale.
D: Hai detto che l’intelligenza artificiale ora è come Internet a metà degli anni ’90. Quindi, tra 30 anni, l’intelligenza artificiale potrebbe essere quasi irriconoscibile. Come potrebbe essere questo futuro?
R: La differenza, direi, tra l’Internet del 1990 ad oggi e l’IA di 30 anni dopo è che non ci vorrà così tanto tempo. Accadrà molto, molto più velocemente, probabilmente da cinque a 10 anni.
Si tratterà semplicemente di aiutare l’intelligenza artificiale a fare cose come la ricerca sui farmaci. Se si pensa ai tassi di fallimento della ricerca sui farmaci: 95% di fallimento, da 10 a 12 anni per sviluppare un nuovo farmaco. L’intelligenza artificiale sarà in grado di ridurre questi tempi, potenzialmente della metà. Sarà molto, molto drammatico.
D: L’industria automobilistica si è scontrata con venti contrari. Siete preoccupati per questo, o la volatilità è irrilevante perché il quadro generale è ancora quello delle auto con più chip?
R: Sicuramente quest’ultimo. Questo settore sta attraversando una trasformazione per la prima volta negli ultimi 75 anni. Dal motore a combustione all’elettrico, si tratta di una rivoluzione gigantesca se si tratta di come vengono progettate le auto, di come vengono prodotte e, in ultima analisi, di come si guida il prodotto. Tutte le case automobilistiche con cui parli, che si tratti di Mercedes, BMW, Toyota, Stellantis o Ford, vogliono muoversi in questo settore, ma è molto impegnativo.
D: Quando pensa alle sue operazioni a livello globale, vede il ruolo della Cina diventare più grande, più piccolo o rimanere lo stesso?
R: Oggi, la Cina rappresenta circa il 15% della nostra attività. Vedo che rimarrà più o meno lo stesso. Ci sono mercati in cui la Cina continua a innovare e a essere leader, come i veicoli elettrici. Questi veicoli sono tutti basati su Arm. E la Cina sta ovviamente facendo molto nel settore degli smartphone con Xiaomi, Vivo, OPPO e marchi del genere. Questi sono ottimi mercati per noi. Ma anche il resto del mondo sta innovando in modo piuttosto aggressivo.
D: L’industria dei semiconduttori è stata coinvolta nella geopolitica. Le competenze necessarie per gestire un’attività di chip sono cambiate nel tempo?
R: Penso di sì. 10 anni fa, la quantità di interazione che i miei predecessori avevano con i leader di governo non era della portata attuale. Incontro persone tutto il tempo, che sia nel Regno Unito, negli Stati Uniti, nell’UE o in Cina, e parlo molto di politica, strategia, ecc. Due fattori lo spingono: la geopolitica è molto più complicata e ci sono molte cose che riguardano il controllo delle esportazioni. Ma anche il nostro settore è tornato ad essere importante.
D: E infine… C’è qualcosa che hai letto, guardato o ascoltato che ti ha lasciato un’impressione?
R: Volo molto, quindi sono un drogato di podcast. Mi piace BG2, il podcast di Brad Gerstner. Lo ascolto molto. Ascolto i podcast di Bloomberg. E noi abbiamo i nostri, era un po’ snervante essere un reporter.
Per quanto riguarda la lettura, ho dai 10 ai 15 libri sul mio Kindle. Mi piacciono i libri di storia, e in realtà sto leggendo un libro intitolato “The Upside of Disruption”, che parla un po’ del caos e di come funzionano le cose. Devo leggere di nuovo “Too Big to Fail” di Andrew Ross Sorkin, solo per guardare a come vengono prese le decisioni in tempi di crisi in aree senza precedenti.
09/10/24 Barron’s: Jensen Huang sul futuro dell’IA e sul più grande vantaggio di Nvidia
Supremazia del software.Nvidia
Le azioni di Nvidia stanno di nuovo correndo con il valore di mercato del produttore di chip che raggiunge i 3,3 trilioni di dollari. Da un giorno all’altro, Nvidia potrebbe superare Apple come l’azienda più preziosa del mondo.
L’ultima spinta a Nvidia arriva da produttori di server AI Super Micro Computer e Hon Hai che hanno pubblicizzato la continua domanda di hardware AI. Anche il CEO di Microsoft si sta vantando sui social media su quanto velocemente la sua azienda stia adottando gli ultimi chip di Nvidia. (Inserzione grafica-processing units di Nvidia sono adatte per i calcoli paralleli necessari per l’IA.)
Mentre Nvidia si crogiola nel suo successo, i giorni più luminosi dell’azienda potrebbero ancora essere davanti. Il CEO Jensen Huang è ottimista sul fatto che il produttore di GPU possa continuare a migliorare le prestazioni dell’hardware AI, portando a maggiori progressi nelle capacità di intelligenza artificiale.
In effetti, dice Huang, non abbiamo ancora visto nulla in termini di innovazione dell’IA.
“Stiamo cercando di farlo andare più veloce”, ha detto Huang durante una conversazione con il CEO di Arm Rene Haas. La discussione è arrivata nell’episodio di debutto di un nuovo podcast ospitato da Arm chiamato Tech Unheard .
Ci sono stretti legami tra Huang e Haas e le loro aziende. Prima di entrare in Arm, Haas ha trascorso sette anni lavorando per Huang come direttore generale del business dei prodotti informatici di Nvidia. Nel 2020, Nvidia ha accettato di acquistare Arm per 40 miliardi di dollari. L’accordo è fallito per l’opposizione dell’antitrust.
Quella familiarità era evidente nella conversazione tra i due dirigenti del chip. Hanno sbarrato sulla loro storia condivisa con alcuni dialoghi rivelatori mescolati.
Huang ha detto a Haas che Nvidia avrebbe guidato prestazioni aggiuntive, senza ulteriori requisiti di energia e costi, andando oltre la GPU, progettando l’intero sistema informatico, dalla rete e dagli switch al software e ad altri chip.
“Vogliamo ridurre il costo in modo da poter fornire questo nuovo tipo di inferenza di ragionamento con lo stesso costo e reattività del passato”, ha detto Huang.
Ha aggiunto che i chatbot AI sarebbero in grado di ricercare idee, ragionare e riflettere sulle loro risposte in modo più approfondito passando attraverso migliaia di calcoli di pensiero prima di raggiungere una conclusione. “La qualità delle risposte sarà molto migliore”.
Ma più di prima, Huang ha anche parlando del potere del software. È un’altra area di forza per Nvidia, ma in cui l’azienda non ottiene molto credito.
Nel podcast di questa settimana, Huang ha sottolineato l’importanza del software e la sua compatibilità con l’hardware futuro.
“Il software che hai sviluppato per i cluster di ieri come Hopper verrà eseguito su Blackwell, e quel software verrà eseguito su Rubin [la futura architettura GPU di Nvidia]”, ha detto. “Questa compatibilità architettonica è davvero molto vitale perché l’investimento dell’industria sul software è mille volte maggiore dell’hardware… tutto il software che scrivi oggi migliorerà domani”.
Huang ha notato che una volta che il software viene messo in produzione, raramente muore all’interno delle aziende. L’ecosistema di programmazione software di Nvidia, CUDA, è potente perché qualsiasi nuovo software può essere eseguito su una base installata di GPU Nvidia che è già nelle centinaia di milioni.
Nonostante la reputazione di Nvidia come azienda di hardware e chip, più della metà degli ingegneri dell’azienda lavora sul software. Questa è probabilmente una sorpresa per molti investitori e un motivo in più per cui le azioni Nvidia hanno spazio per correre.
30/09/24 Barron’s; Le Azioni Di Constellation Sono Raddoppiate Quest’Anno. Il motivo per continuare a volare.
DiEmily DattiloRistampe
Le azioni di Constellation Eneergy stanno avendo un grande anno e possono continuare a salire, dice KeyBanc Capital Markets.
Gli analisti guidati da Sophie Karp hanno aumentato il loro obiettivo di prezzo delle azioni sulla società energetica a 279 dollari da 265 dollari e hanno ribadito un rating di sovrappeso sulle azioni. Il titolo ha chiuso a 257 dollari venerdì.
Il nuovo obiettivo di prezzo si basa su una valutazione di 30 volte gli utili per azione che Constellation dovrebbe produrre nel 2025, riflettendo che gli investitori ora hanno una visione più chiara di quanto velocemente i profitti potrebbero crescere a lungo termine, hanno scritto gli analisti. Storicamente, le azioni di Constellation sono state scambiate tra 12 e 28 volte gli utili.
All’inizio di questo mese, la società ha annunciato che essa e Microsoft avevano stipulato un accordo di acquisto di 20 anni per l’energia dal sito nucleare di Three Mile Island in Pennsylvania. Barron ha riferito che la società energetica riceverà un compenso con un premio alla tariffa corrente per l’elettricità nell’area, mentre Microsoft otterrà energia senza emissioni di carbonio per gestire i suoi data center.
“Crediamo che questo sia stato un catalizzatore importante nel dimostrare il valore della generazione nucleare nell’era dell’IA e ci aspettiamo che lo slancio continui”, hanno scritto gli analisti.
Le azioni di Constellation sono aumentate dell’1,3% a 260,25 dollari lunedì. Il titolo è più che raddoppiato quest’anno, con un guadagno del 123%.
Scrivi a Emily Dattilo a emily.dattilo@dowjones.com
25/09/24 Briefing.com: Il forte rapporto utili di Micron ricorda al mercato che si tratta di un leader fra i partecipanti all’intelligenza artificiale
A seguito di un deludente rapporto sugli utili del 3Q24 alla fine di giugno in cui ha semplicemente stimato le entrate del quarto trimestre in linea con le stime degli analisti, le aspettative alle stelle e il prezzo delle azioni, per il produttore di chip di memoria Micron (MU) erano crollati. Dopo la chiusura di ieri sera, tuttavia, MU ha rivelato che era prematuro gettare la spugna poiché la robusta domanda di server AI ha alimentato un’impressionante performance beat-and-raise Q4 che non solo sta catapultando le azioni MU in forte più in alto, ma sta anche alla base della forza in tutto lo spazio dei semiconduttori.
All’indomani di quel rapporto sugli utili del terzo trimestre, la narrazione principale che circondava MU era che mentre le sue prospettive di crescita basate sull’intelligenza artificiale erano solide, grazie al crescente slancio nel suo mercato dei data center, l’esposizione dell’azienda ai mercati finali più lenti di PC e smartphone l’avrebbe frenata. I livelli di inventario sono stati elevati, specialmente all’interno della base di clienti di PC di MU, esercitando una pressione al ribasso sui volumi di DRAM e le tendenze della spesa soft dei consumatori hanno pesato sul mercato degli smartphone.
Sebbene quella narrazione fosse in parte corretta – i mercati di PC e smartphone rimangono davvero in una pausa – non è riuscita a cogliere quanto sia forte il business dell’IA per MU, come illustrato dai seguenti punti dati:
- Il mix di entrate del data center dell’azienda ha raggiunto un livello record nel 2024, ma sta solo grattando la superficie in termini di potenziale contributo alle entrate. MU si aspetta che il mercato totale indirizzabile (TAM) per i suoi chip di memoria ad alta larghezza di banda (HBM) esploda a oltre 25,0 miliardi di dollari nel 2025, rispetto ai 4,0 miliardi di dollari di quest’anno.
- Il CEO Sanjay Mehrotra ha ribadito che i chip HBM sono esauriti per i calendari 2024 e 2025 e che l’azienda sta facendo buoni progressi nell’aumento della sua capacità di produzione. MU sta costruendo un nuovo fab in Idaho, che dovrebbe essere operativo nel 2025, e sta anche lavorando attraverso il processo di autorizzazione per un’altra struttura a New York.
- Oltre a HBM, il portafoglio di data center dell’azienda include anche prodotti D5 e LP5 ad alta capacità e soluzioni SSD. MU si aspetta che ciascuna di queste categorie di prodotti generi più miliardi di dollari di entrate nell’anno fiscale 25.
- Rafforzato dai fattori di cui sopra, la guida alle entrate del primo trimestre 25 dell’azienda di 8,50-8,90 miliardi di dollari ha facilmente battuto le aspettative con il punto medio dell’intervallo di orientamento pari a una crescita anno/anno dell’85%.
La ciliegina sulla torta è che MU prevede che la crescita delle unità PC acceleri nella parte posteriore di CY25 man mano che il ciclo di sostituzione del PC prende slancio con il lancio di nuovi PC AI e del sistema operativo Windows 12. Questo, a sua volta, dovrebbe portare a livelli di inventario più sani presso i produttori di PC, fornendo un altro catalizzatore per i volumi e i prezzi della DRAM. La linea di fondo, però, è che il rapporto beat-and-raise di MU ha rimesso l’azienda sulla mappa come un giocatore leader nel campo dell’ intelligenza artificiale.
23/09/24 NYTime: Può l’ A.I. essere un bluff? Uno scettico di Wall Street suona l’allarme.
Jim Covello, capo della ricerca azionaria di Goldman Sachs, ha avvertito che costruire troppo di ciò di cui il mondo non ha bisogno “in genere finisce male”.
Mentre l’auto di Jim Covello correva sull’autostrada 101 da San Jose a San Francisco questo mese, ha contato i cartelloni pubblicitari sull’intelligenza artificiale. I quasi 40 cartelli che ha superato, tra cui uno che promuoveva qualcosa chiamato Writer Enterprise AI e un altro per Speech AI, erano nuove prove, pensò, di una bolla economica.
“Non molto tempo fa, erano tutti cripto”, ha detto Covello dei cartelloni pubblicitari. “E ora sono tutti A.I.”
Covello, capo della ricerca azionaria presso Goldman Sachs, è diventato il principale scettico dell’IA di Wall Street. Tre mesi fa, ha scosso i mercati con un documento di ricerca che ha sfidato se le aziende avrebbero visto un rendimento sufficiente su quello che secondo alcune stime potrebbe essere di 1 trilione di dollari in spesa per A.I nei prossimi anni. Ha detto che l’intelligenza artificiale generativa, che può riassumere il testo e scrivere il codice software, ha commesso così tanti errori che era discutibile se avrebbe mai risolto in modo affidabile problemi complessi.
Il documento di Goldman è arrivato giorni dopo che un partner di Sequoia Capital, una società di venture capital, ha sollevato domande simili in un post sul blog sull’IA. Il loro scetticismo ha segnato un punto di svolta per le azioni correlate all’IA, portando ad un ripensamento del settore più caldo di Wall Street.
Il paniere di azioni A.I. di Goldman, che è gestito da un braccio separato dell’azienda e comprende Nvidia, Microsoft, Apple, Alphabet, Amazon, Meta e Oracle, è diminuito del 7 per cento dal suo picco del 10 luglio, mentre investitori e leader aziendali discutono se l’IA possa giustificare i suoi costi sbalorditivi.
La pausa è arrivata all’inizio della corsa agli armamenti A.I. L’industria tecnologica ha una storia di grandi spese per realizzare transizioni tecnologiche, come ha fatto durante le rivoluzioni dei personal computer e di Internet. Quei build-out hanno attraversato cinque anni o più prima che ci fosse un ritorno nei conti.
Ma il signor Covello, 51 anni, ha esperienza con i boom e i fallimenti tecnologici. Ha seguito lo scoppio della bolla dot-com come analista di semiconduttori ed è stato sfregiato nel vedere i colleghi perdere il lavoro. Più recentemente, il veterano di Goldman è entrato a far parte di un team interno che ha valutato i servizi di IA per l’azienda. Ha detto che i servizi che ha recensito erano costosi, ingombranti e non “abbastanza intelligenti da rendere i dipendenti più intelligenti”.
La storia del settore ha portato alcune persone a dire che l’invito alla cautela del signor Covello è prematuro. Poco dopo la pubblicazione del documento di Goldman, George Lee, co-responsabile dell’attività di consulenza geopolitica dell’azienda, ha sfidato il signor Covello in un’e-mail, dicendo che l’IA era pronta a risparmiare tempo ai lavoratori e migliorare la loro produttività. Il signor Lee lo ha esortato ad essere paziente.
“L’impatto a lungo termine dei cambiamenti di piattaforma è che le applicazioni emergono nel tempo man mano che quella tecnologia viene perfezionata, resa più facilmente disponibile, resa più economica”, ha detto Lee in un’intervista, parlando dell’e-mail.
I clienti di Goldman hanno chiesto di saperne di più. Su loro richiesta, l’azienda ha iniziato a ospitare dibattiti privati di toro e orso con il signor Lee, come il toro, delineando il suo ottimismo sull’IA, e il signor Covello, come l’orso, spiegando il suo pessimismo.
La conversazione era in ritardo, ha detto Jim Morrow, amministratore delegato di Callodine Group, un cliente di Goldman con sede a Boston. “A.I. aveva catturato lo zeitgeist del mercato”, ha detto. “Avere qualcuno di un’azienda come Goldman suonare il campanello e dire: ‘Ehi, non diventerà realtà nel modo in cui tutti pensano’ ha fatto fare domande importanti a persone su ciò che stava realmente accadendo”.
Il signor Covello è nato per essere uno scettico. Prima di partire per la Georgetown University, dove sarebbe diventato la prima persona della sua famiglia di Filadelfia ad andare al college, suo padre gli chiese se una laurea quadriennale potesse mai giustificare il suo costo. Poi, come prima base nella squadra di baseball dell’università, ha usato lo stesso occhio scettico nella scatola del battitore mentre aveva una media di un rispettabile .270.
Nel 2000 è entrato a far parte di Goldman Sachs come analista tecnologico. Quell’estate, l’azienda si è riunita in un vigneto nella Napa Valley per un’entusiastica convention aziendale sull’industria tecnologica. Ma il boom di Internet, che era già stato al culmine, ha iniziato a crollare nei mesi successivi.
Alcune aziende come Google e Amazon sono sopravvissute e sono diventate favolosamente ricche, ma il signor Covello si è fissato sulla carneficina. “È stato un momento molto spaventoso”, ha detto. “Non sapevo se avrei ancora avuto un lavoro”.
Il signor Covello ha mantenuto il suo lavoro. All’epoca, Goldman stava riducendo i suoi costi sostituendo gli analisti esperti con dipendenti più giovani. Ha promosso Covello come suo principale analista di semiconduttori nel 2001 e lo ha elevato a capo della ricerca azionaria globale nel 2021.
Dopo il rilascio di ChatGPT nel 2022, l’industria tecnologica ha iniziato a confrontare l’arrivo di A.I. con l’alba dell’Internet pubblico. Il confronto ha attirato l’attenzione del signor Covello. “Non è questo per cui chiunque dovrebbe fare il tifo”, ha detto, ricordando i milioni di posti di lavoro che sono stati persi.
Per creare attività di IA, gli esperti hanno previsto che 1 trilione di dollari sarebbero stati spesi in data center, servizi pubblici e applicazioni. Il signor Covello pensava che quei costi rendessero impossibile per l’industria risolvere a basso costo i problemi del mondo reale, che è ciò che le società di Internet facevano decenni fa.
Come membro del gruppo di lavoro di Goldman sull’IA, ha esaminato un servizio che utilizzava l’IA generativa per aggiornare automaticamente i fogli di calcolo degli analisti con i risultati finanziari delle aziende. Ha detto che ha fatto risparmiare ai suoi analisti circa 20 minuti di tempo per azienda, ma è costato sei volte di più.
La voce dello scetticismo del signor Covello si diffuse nell’azienda. Allison Nathan, che cura un rapporto di ricerca mensile chiamato “Top of Mind”, stava pianificando un numero su A.I. Su raccomandazione di un collega, ha incontrato il signor Covello.
“Per circa 35 minuti, sono stata ammutolita dalla sua narrazione e dalle sue opinioni”, ha detto.
La signora Nathan ha deciso di intervistare il signor Covello per il rapporto. La conversazione ha contribuito a inquadrare il titolo del rapporto di 31 pagine, “Gen AI: Troppa spesa, troppo poco beneficio?”
Il signor Covello ha sfidato l’idea che i costi dell’IA sarebbero diminuiti, osservando che i costi sono aumentati per alcune tecnologie sofisticate come le macchine che producono semiconduttori. Ha anche criticato le capacità di A.I.
“Costruire cose per cui il mondo non ha bisogno, o per cui non è pronto, in genere finisce male”, ha detto.
Alla conferenza tecnologica annuale di Goldman questo mese a San Francisco, l’azienda ha messo il signor Covello e il signor Lee davanti a poche centinaia di persone per spiegare le loro opinioni divergenti sull’IA. Il signor Covello si è concentrato sulle carenze della tecnologia, citando un articolo di Business Insider su un’azienda farmaceutica che ha cancellato i suoi servizi Microsoft A.I. dopo aver trovato le capacità alla pari con “presentazioni della scuola media”.
Il signor Lee scosse la testa. Ha evidenziato un documento dell’Università di Princeton che ha scoperto che l’IA ha aiutato 5.000 sviluppatori in 100 aziende a raggiungere un aumento della produttività del 20%.
“Non è perfetto”, ha detto il signor Lee. Ma ha aggiunto: “Le persone stanno raccogliendo un po’ di risparmio sulla produttività”.
Alcune persone tra il pubblico si sono chieste se Goldman stesse coprendo le sue basi mettendo in luce il suo pessimista interno di IA in una conferenza guidata da evangelisti di IA come Jensen Huang, l’amministratore delegato di Nvidia, il principale produttore mondiale di chip di IA. Ma molte persone hanno considerato il dibattito costruttivo.
“Era una versione aggiornata della domanda: ‘Se lo costruisci, verranno?'” ha detto David Readerman, gestore di portafoglio presso Endurance Capital Partners.
Il signor Covello prevede che il boom dell’IA perderà slancio quando le aziende che stanno adottando la tecnologia taglieranno la spesa dopo che i loro profitti sono crollati. Non pensa che questo farà scenare un’altra recessione delle dot-com. Ma ogni giorno, sta rivalutando la sua posizione.
“Quando hai una visione che è un po’ fuori dal consenso generale, vivi in questo tipo di stato costante di paranoia che A.I. sarà grande come tutti pensano che sia”, ha detto. “Quindi sono sinceramente alla ricerca dei miei punti ciechi ogni singolo giorno. Dove potrei sbagliarmi?”
13/09/24 Briefing.com: Oracle
L’impennata di Oracle continua mentre le sue prospettive di crescita nel cloud e nell’intelligenza artificiale sono sotto i riflettori (ORCL)
Una settimana molto buona per Oracle (ORCL) si è trasformata in una ancora migliore dopo che Bloomberg ha riferito che la società di database e software cloud ha alzato la sua guidance sui ricavi per il FY26 ad almeno 66,0 miliardi di dollari durante una riunione degli analisti finanziari di ieri. Le prospettive rialziste, che dipendono in gran parte dalla robusta domanda all’interno del business delle infrastrutture cloud (OCI) di ORCL, arrivano sulla scia di un solido rapporto sugli utili del Q1 che ha caratterizzato un EPS migliore e un’impressionante crescita degli obblighi di performance rimanenti (RPO) del 53%. Alimentate da questi due catalizzatori, le azioni di ORCL sono aumentate del 20% questa settimana.
- Guardando più lontano all’orizzonte, ORCL ha affermato che 104 miliardi di dollari di entrate nel FY29 sono un obiettivo raggiungibile man mano che espande la sua attività di infrastruttura cloud e capitalizza su una quantità sempre crescente di casi d’uso dell’intelligenza artificiale. Quando si pensa ai principali fornitori di cloud, vengono subito in mente i tre hyperscaler – Microsoft (MSFT), Google (GOOG) e Amazon Web Services (AMZN), ma ORCL sta diventando un attore molto formidabile nello spazio.
- In alternativa ai tre grandi hyperscaler, OCI fornisce ai clienti macchine virtuali e server per eseguire carichi di lavoro complessi e fornisce loro una varietà di offerte di storage in grado di gestire enormi volumi di dati. Inoltre, OCI ha lanciato nuovi strumenti di intelligenza artificiale, come OCI Vision e Oracle Machine Learning, che aiutano le aziende a sfruttare l’analisi e l’automazione dei dati. Infine, OCI ospita anche i prodotti applicativi cloud dell’azienda, inclusi i prodotti Human Capital Management (HCM) e Enterprise Resource Planning (ERP).
- Quando ORCL ha pubblicato i risultati del Q1 lunedì sera, ha riferito che i ricavi dell’infrastruttura cloud sono aumentati del 45% su base annua a 2,2 miliardi di dollari, sostenuti da un aumento del 56% dei ricavi da consumo OCI. In effetti, la crescita sarebbe stata ancora più forte se ORCL avesse avuto una maggiore capacità. A tal proposito, l’azienda sta pianificando di raddoppiare il suo capex nel FY25 rispetto al FY24 a sostegno della sua creazione di altre 77 regioni cloud. Per un po’ di contesto, ORCL ha attualmente 85 aree cloud operative.
- MSFT, GOOG e AMZN non sono solo concorrenti di ORCL, ma sono anche clienti in quanto eseguono il software di database di ORCL sulle loro piattaforme cloud. Oltre ai risultati e alle indicazioni del Q1, ORCL ha anche annunciato un nuovo accordo con Amazon Web Services (AWS), che consente ai clienti AWS di accedere a Oracle Autonomous Database su un’infrastruttura dedicata e a Oracle Exadata Database Service all’interno di AWS.
Il lungo viaggio da sviluppatore di software di database on-premise a società di software e infrastrutture cloud è stato a volte difficile per ORCL e i suoi azionisti, ma la sua transizione è in pieno svolgimento ora e una crescita più forte è finalmente una realtà.
10/09/24 Briefing.com: Palantir Technologies raggiunge i migliori livelli dall’inizio del 2021 dopo l’inclusione in S&P 500 (PLTR)
Le azioni di Palantir Technologies (PLTR +13%) sono corse più alto oggi, raggiungendo livelli mai visti dall’inizio del 2021 prima che la scadenza del periodo di blocco dell’IPO della società accendesse un’ondata di vendite. L’inclusione nell’S&P 500 annunciata venerdì dopo la chiusura sta dando il fiamme alle azioni. I mormorii che lo sviluppatore di software AI potrebbe essere sull’S&P sono iniziati dopo aver consegnato il suo secondo trimestre consecutivo di redditività GAAP nel 1Q23 e ha osservato che la redditività dovrebbe persistere nei prossimi trimestri.
Ci è piaciuto PLTR dalla fine dell’anno scorso dopo aver mostrato un eccezionale slancio di inversione di tendenza capitalizzando il ronzio dell’IA. Tuttavia, con le azioni ora ai massimi pluriennali dopo aver più del raddoppiato l’anno fiscale, la valutazione di PLTR è salata a livelli alti, scambiando a un multiplo delle vendite di 27x FY24, considerevolmente superiore ad alcuni dei suoi colleghi, tra cui Snowflake (SNOW) a 11x e IBM (IBM) a 3x.
- PLTR ha costantemente dimostrato i suoi vantaggi tecnologici nel campo dell’IA, offrendo recentemente un altro solido ritmo nel secondo trimestre. Le entrate governative e commerciali hanno mantenuto lo slancio al rialzo, con i clienti commerciali in aumento del 41% anno/anno a 593. Il lato commerciale di PLTR tende ad essere l’obiettivo principale ogni trimestre, dato che l’azienda comanda già una presenza dominante negli Stati Uniti. Governo.
- PLTR è cresciuto con profitto, espandendo recentemente i suoi margini operativi rettificati di 12 punti all’anno al 37%, segnando il suo settimo trimestre consecutivo di espansione del margine. Come azienda focalizzata sul software, PLTR ha ampio spazio per mantenere la sua redditività.
- L’Europa è stata un ostacolo costante, che ha pesato sulla crescita commerciale internazionale, che ha composto un relativamente piccolo 22% dei giri totali nel secondo trimestre. All’inizio di quest’anno, PLTR ha avvertito che i venti contrari in Europa potrebbero persistere dato che la regione si stava dirigendo verso una crescita del PIL dello 0% nei prossimi due anni. Tuttavia, per compensare questa sfida, PLTR si è spostato rapidamente in Asia e in Medio Oriente, contribuendo a mantenere la crescita positiva delle sue entrate commerciali internazionali nel secondo trimestre al 15% anno/anno.
Nel complesso, PLTR rimane una solida scommessa sull’ intelligenza artificiale a lungo termine. Il software dell’azienda si differenzia da altri strumenti di analisi dei dati basati sull’intelligenza artificiale e ha già penetrato nelle imprese globali, tra cui ExxonMobil (XOM) e United Airlines (UAL), per non parlare delle numerose agenzie governative, compresi gli Stati Uniti. Governo federale. Tuttavia, ai livelli attuali, esortiamo cautela a breve termine poiché eventuali crepe minori possono aprire PLTR fino a un’ondata di vendite. A seguito di massicci afflussi di capitale nel settore dell’IA, i clienti vorranno vedere presto un sano ritorno sull’investimento. Anche se PLTR continua a mostrare il suo vantaggio competitivo, se il quadro generale dell’IA inizia a deteriorarsi, PLTR sarà probabilmente spazzato via dalla pressione di vendita, soprattutto data la sua attuale valutazione.
05/09/24 Barron’s: L’intelligenza artificiale non può essere all’altezza delle aspettative del mercato. Perché la festa è finita.
Informazioni sull’autore: Amar Bhidé è professore di politica sanitaria presso la Mailman School of Public Health della Columbia University e autore del prossimo libro Uncertainty and Enterprise: Venturing Beyond the Known, pubblicato dalla Oxford University Press.
Mentre parte della frenesia si è placata, l’inevitabilità della rivoluzione dell’intelligenza artificiale rimane profondamente radicata nei consigli di amministrazione delle aziende e a Wall Street. “Il rischio di investire troppo poco è nettamente maggiore del rischio di investire troppo”, ha dichiarato Sundar Pichai, CEO di Alphabet ha detto agli investitori recentemente.
Eppure, secondo l’hedge fund Elliott Management, molti dei presunti usi dell’IA “non saranno mai efficienti in termini di costi, non funzioneranno mai correttamente, assorbiranno troppa energia o si riveleranno inaffidabili”, ha affermato il Financial Time.
L’entusiasmo per l’intelligenza artificiale è stato alla base della recente straordinaria corsa al rialzo del mercato azionario, anche se la crescita è ora rallentata. Al 3 settembre, tutti i titoli dei Magnifici Sette, ad eccezione di Tesla, erano on ribasso, con Nvidia in testa alle perdite.
La storia – e l’inevitabile inaffidabilità dei motori statistici dell’IA – supporta la visione di Elliott. L’intelligenza artificiale è un’azienda già matura. Non è pronto per una ipercrescita che giustificherebbe le aspettative esagerate del mercato.
Negli ultimi 70 anni, gli innovatori dell’intelligenza artificiale hanno lavorato duramente per combinare la capacità del computer digitale di manipolare in modo impeccabile 1 e 0 con l’imprecisione del pensiero e del discorso umano.
Le prime applicazioni incorporavano competenze specialistiche. Tuttavia, questo approccio era limitato a problemi come la diagnosi medica, per i quali gli esperti avevano conoscenze codificabili.
Inoltre, le approssimazioni statistiche si sono rivelate più efficaci in termini di costi rispetto all’esperienza umana codificata. L’algoritmo di ricerca di Google, che ha superato di gran lunga i catalogatori umani di Internet di Yahoo, è stato un esempio lampante.
Tuttavia, anche la dipendenza dalle approssimazioni statistiche limitava l’accuratezza. Input ambigui potrebbero rendere le applicazioni inaccettabili e inaffidabili. Le parole stampate che utilizzano caratteri standard sono meno ambigue delle parole scritte a mano. Non sorprende che il software di riconoscimento ottico dei caratteri esegua la scansione di libri e documenti stampati in modo molto più accurato rispetto ai programmi di riconoscimento della scrittura a mano. Decifrare le parole pronunciate (“lì” o “loro”?) richiede di conoscere l’intento di chi parla. Ma poiché le correlazioni statistiche non sono in grado di scoprire l’intenzione, i programmi di dettatura rimangono frustrantemente incostanti.
L’accuratezza delle applicazioni di intelligenza artificiale dipende anche dal processo che genera i dati sottostanti. La stabilità dei processi fisici, come la frenata automatica nelle automobili, la produzione di acciaio e la raffinazione del petrolio, li rende suscettibili di modelli statistici affidabili. Al contrario, la condotta umana è soggetta ai capricci e ai capricci degli atteggiamenti sociali. Le previsioni statistiche sui processi fisici tendono quindi ad essere affidabili, mentre le previsioni sul comportamento dei consumatori possono essere altamente imprecise.
Tuttavia, l’IA statistica non doveva essere infallibile.
Google e Meta Platforms si affidano all’intelligenza artificiale statistica per generare gli annunci che ora dominano Internet. Quasi ogni pubblicità che mi lanciano addosso è completamente lontana dai miei interessi. Ma la posta in gioco nel mostrare a qualcuno gli annunci sbagliati è bassa e anche il targeting selvaggiamente impreciso della pubblicità algoritmica batte l’alternativa della pubblicità cieca.
Nelle applicazioni creative, l’accuratezza dell’intelligenza artificiale può essere irrilevante. Non ci sono effetti speciali o animazioni corretti nei videogiochi e nei cartoni animati. Non esiste un punto di riferimento oggettivo per il restauro di vecchie copie di film: chissà com’era l’originale? Il ripristino automatizzato dell’intelligenza artificiale vince perché è molto più economico e veloce del ripristino umano.
Man mano che gli innovatori risoluti imparavano gradualmente dove i vantaggi superavano i loro limiti, l’IA è diventata onnipresente. Nel 2006, filosofo futurista Nick Bostrom ha osservato che l’IA era “filtrata in applicazioni generali, spesso senza essere chiamata IA perché una volta che qualcosa diventa abbastanza utile e abbastanza comune non è più etichettato come IA”.
L’iPhone di Apple del 2007 ha messo il turbo all’intelligenza artificiale. Quasi tutte le app per smartphone, dagli SMS al sexting, dalla mappatura al matchmaking, dall’editing video allo streaming, hanno incorporato l’intelligenza artificiale. E le app per smartphone abilitate all’intelligenza artificiale, come Uber e Airbnb, hanno rivoluzionato i trasporti e il turismo. La ricerca mobile e i social media hanno schiacciato i media e la pubblicità tradizionali.
Nonostante il suo uso già diffuso, gli appassionati ritengono che l’intelligenza artificiale sia ancora agli inizi. Un imprenditore veterano del software sostiene che “le incarnazioni precedenti, come il ripiegamento delle proteine, erano esoteriche”. Ma ora i modelli linguistici di grandi dimensioni, o LLM, hanno aggiunto interfacce di chat accessibili al grande pubblico. “La vera creatività viene dalle persone che lo usano e suggeriscono nuovi usi, piuttosto che dagli ingegneri che lo creano”, ha detto l’imprenditore.
L’analogia con l’invenzione dei fogli di calcolo nel 1979 è seducente. I fogli di calcolo avevano interfacce utente semplici che consentivano alle persone con competenze tecniche limitate di creare programmi utili. Offrendo un valore convincente per le applicazioni che non richiedevano costosi mainframe, sono diventati una “killer app” per i personal computer.
Gli LLM hanno interfacce utente ancora più semplici e naturali rispetto ai fogli di calcolo. Eppure, sotto il cofano, gli LLM eseguono motori statistici con gli stessi problemi statistici che delineavano l’ambito pratico delle precedenti applicazioni di intelligenza artificiale. Come con l’IA precedente, gli LLM possono brillare in applicazioni creative, come la generazione di immagini, dove la precisione non è il fattore decisivo. Al contrario, come con altri modelli statistici di intelligenza artificiale, input e risultati ambigui ne fanno deragliare l’affidabilità. Non possono apprendere dai dati generati da un processo instabile o dipendono fortemente dal contesto.
Gettare ogni tipo di dati possibile nei vasi di addestramento degli LLM non ne migliora l’accuratezza e l’affidabilità. I dati medici non migliorano le risposte a domande legali o ingegneristiche. La formazione sulla letteratura swahili non affina i riassunti statistici delle opere di Shakespeare.
Negli usi a basso rischio, le persone tollereranno gli errori LLM come fanno con i correttori di completamento automatico nei loro messaggi di testo. La domanda multimiliardaria è se i benefici derivanti dagli usi a basso rischio possano coprire i costi.
I fogli di calcolo offrivano un’affidabilità di classe mainframe su personal computer economici. Al contrario, gli LLM richiedono agli utenti di acquistare hardware più costoso. Inoltre, l’hardware dell’utente rappresenta una frazione dei costi di costruzione, formazione e gestione degli LLM. Nonostante il clamore, gli LLM non sono come le invenzioni a corrente alternata di Nikola Tesla che Drasticamente cambiato L’economia dell’elettrificazione.
Per ora, gli investitori maniacali e i monopolisti stanno sovvenzionando massicciamente gli usi antieconomici dell’IA. Cosa succede quando la musica si ferma e gli investitori si rendono conto che alberi già alti non possono germogliare come alberelli, tanto meno crescere fino al cielo?
Commenti di ospiti come questo sono scritti da autori esterni al Barron’s
redazione. Riflettono la prospettiva e le opinioni degli autori. Invia proposte di commento e altri feedback a
ideas@barrons.com
.
29/08/24 Barron’s: Perché dovresti ignorare il calo delle azioni di Nvidia dopo i guadagni e prepararti per il prossimo grande chip dell’IA
DiTae Kim
Gli investitori dovrebbero ignorare la volatilità delle azioni legata ai risultati a breve termine del produttore di chip e concentrarsi invece sullo sfondo migliore per il boom dell’intelligenza artificiale e la GPU di nuova generazione di Nvidia, che è adatta alle applicazioni di intelligenza artificiale.
Mentre Apple e Microsoft – le altre due società del valore di circa 3 trilioni di dollari insieme a Nvidia – hanno registrato una crescita dei ricavi anno su anno del 5% e del 15%, rispettivamente, per i loro ultimi trimestri, Nvidia continua a sovraclassare i suoi colleghi, offrendo risultati storicamente senza precedenti per un’azienda tecnologica delle sue dimensioni.
Mercoledì, Nvidia ha riportato una crescita dei ricavi anno su anno del 122% a 30 miliardi di dollari nel suo secondo trimestre fiscale, che si è concluso a luglio. La sua attività di data center, guidata dalla domanda di intelligenza artificiale, è cresciuta ancora di più, al 154%. La società ha anche fornito una forte prospettiva per il trimestre in corso, superando le aspettative di Wall Street, e ha annunciato che il suo consiglio ha autorizzato un ulteriore programma di riacquisto di azioni da 50 miliardi di dollari.
Le azioni Nvidia sono inizialmente scese fino al 6% nel trading after-hour dopo i risultati, con alcuni analisti che hanno notato che nei precedenti trimestri i risultati battevano in percentuale maggiore le stime degli analisti.
Ma credo che qualsiasi scetticismo sia ingiustificato alla luce di ciò che abbiamo imparato dal rapporto sugli utili e dal commento di Nvidia sulla sua prossima unità di elaborazione grafica Blackwell, che dovrebbe fornire un altro grande passo avanti nella crescita l’anno prossimo.
In primo luogo, c’è un’alta certezza per quanto riguarda le intenzioni di spesa dei grandi clienti tecnologici di Nvidia, tra cui Alphabet, Microsoft e Meta Platforms, che hanno tutti affermato di aver pianificato di investire in modo aggressivo nell’infrastruttura di intelligenza artificiale in futuro. Microsoft ha anche affermato che la capacità è stata limitata per i servizi Azure AI, il che significa che l’azienda non ha abbastanza server GPU AI per soddisfare la domanda. La direzione di Meta ha detto che prevedeva di “aumentare significativamente” gli investimenti nell’infrastruttura di intelligenza artificiale l’anno prossimo.
L’altra domanda principale nella mente degli investitori è stata la tempistica del lancio di Blackwell. Nvidia ha riconosciuto mercoledì di aver dovuto cambiare il design della maschera del chip Blackwell, un modello di produzione utilizzato per stampare circuiti su wafer di chip, per migliorare i rendimenti di produzione. La buona notizia è che la correzione è completa e l’azienda si aspetta “diversi miliardi di dollari” di entrate dalle spedizioni di Blackwell durante il quarto trimestre, con una rampa di produzione più grande nei trimestri successivi.
Il CEO di Nvidia Jensen Huang è stato esplicito sul potenziale di crescita di Blackwell nella teleconferenza sugli utili con investitori e analisti: “Il cambiamento alla maschera è completo. Non sono stati necessari cambiamenti funzionali”, ha detto. “Ci aspettiamo di far crescere la nostra attività di data center in modo piuttosto significativo l’anno prossimo. Blackwell sarà un punto di svolta completo per l’industria.”
Le prestazioni di Blackwell sono probabilmente una grande ragione per cui la domanda probabilmente supererà la capacità di Nvidia di produrre la sua GPU di nuova generazione. Questa settimana, Nvidia ha rivelato i primi dettagli sulle prestazioni di Blackwell su un benchmark AI standard del settore chiamato MLPerf, che ha mostrato che la GPU è fino a quattro volte più veloce delle GPU di oggi nei modelli di intelligenza artificiale in esecuzione.
La tempistica esatta delle spedizioni di Blackwell, sia che siano ritardate di poche settimane o mesi, non ha molta importanza a lungo termine finché la domanda di GPU rimane robusta e l’azienda genera una forte crescita per l’intero anno 2025. Questo è ciò che guiderà il prezzo delle azioni di Nvidia.
Nvidia ha avuto “un altro trimestre di battuta/aumento straordinariamente forte per il leader di mercato nei primi inning delle inflessioni simultanee nel calcolo accelerato [basato su GPU] e nell’IA generativa”, ha scritto l’analista di TD Cowen Matthew Ramsay in una nota ai clienti, aggiungendo che il ritardo minore è ora risolto durante “l’impennata di calcolo del data center più grande/più veloce della storia”.
Tutte le ultime prove suggeriscono che il potenziale di crescita di Nvidia per il prossimo anno sta migliorando, non peggio.
Scrivi a Tae Kim a tae.kim@barrons.com
29/08/24 Barron’s: La reazione del mercato ai guadagni di Nvidia è sana. Cosa dice sul boom dell’IA.
La reazione del mercato ai guadagni di Nvidia di mercoledì è stata prevedibile date le recenti risposte ai numeri di alcuni artisti stellari in questa stagione degli utili.
La società ha riferito che il profitto è raddoppiato nell’ultimo anno. Era meglio delle stime di consenso su Wall Street. I margini sono superiori al 60%. Eppure il titolo è sceso nel trading fuori orario a seguito del rapporto. Microsoft, Amazon e Alphabet hanno avuto esperienze simili nelle ultime settimane.
La prima cosa da notare è che a volte accadono cose come questa: i trader compreranno un’azione in previsione di un evento solo per venderla quando effettivamente accade, bloccando i guadagni quando lo fanno. Potrebbe esserci un po’ di questo che sta succedendo qui.
Gli investitori hanno anche dovuto digerire il deposito del bilancio ritardato e un rapporto di un venditore allo scoperto su Super Micro Computer un’altra società di intelligenza artificiale specializzata nella creazione di server. Questo, insieme a Nvidia, potrebbe portare alcuni a preoccuparsi che il boom dell’IA si stia trasformando in fallimento.
Questo è il motivo per cui la mossa delle azioni Nvidia è in realtà un buon segno. Dimostra che l’hype intorno all’IA non è una frenesia speculativa, almeno non ancora.
In una tipica bolla, diciamo azioni Internet negli anni ’90, o tulipani olandesi nel XVII secolo, le persone continuano a comprare le attività solo perché pensano che i prezzi continueranno a salire. Ad un certo punto, raggiungono un momento di Minsky. Prende il nome dall’economista statunitense Hyman Minksy, questo è il punto in cui gli investitori si rendono improvvisamente conto che il valore di quelle cose non è neanche lontanamente vicino ai prezzi che le persone stanno pagando e il crollo segue.
Non è quello che sta succedendo ora, sembra più che i trader si stiano impegnando per valutare se il prezzo di Nvidia è giustificato dopo la sua corsa spettacolare. Il titolo ha guadagnato il 154% quest’anno. Due anni fa, un’azione costava circa 15 dollari; oggi è di circa 120 dollari, rettificato per i fraflimenti azionari.
Quindi una pausa per riflettere sembra sano, anche se Nvidia può ancora vantare una rapida crescita e clienti ben finanziati come Google, Meta Platforms e Microsoft. Almeno gli investitori non si stanno facendo trasportare.
Le entrate del produttore di chip crescono man mano che la domanda di intelligenza artificiale accelera
Nvidia ha detto che le start-up e le aziende stanno implorando i suoi chip per data center AI e che le entrate e i guadagni sono più che raddoppiati nel trimestre di luglio. Mentre gli investitori erano preoccupati per la quantità di denaro che si riversa nello spazio dell’intelligenza artificiale, il CEO di Nvidia Jensen Huang ha affermato che lo slancio per l’IA generativa sta accelerando.
- Nvidia ha registrato un fatturato record del trimestre di luglio di 30 miliardi di dollari e guadagni rettificati migliori del previsto di 68 centesimi per azione. Ma alcuni investitori si sono concentrati sul rallentamento della crescita di trimestre in trimestre, notando che le entrate sono state in aumento del 15% rispetto al primo trimestre fiscale rispetto a un guadagno dell’88% un anno prima.
- La GPU Blackwell di nuova generazione di Nvidia è fino a quattro volte più veloce della sua attuale GPU H100 su MLPerf, un punto di riferimento del settore per misurare le prestazioni di intelligenza artificiale e apprendimento automatico. Prevede di aumentare la produzione di chip nel quarto trimestre e prevede di spedire “diversi miliardi di dollari” di entrate di Blackwell.
- Gli investitori hanno anche notato che il margine operativo di Nvidia, secondo la contabilità generalmente accettata, si è ridottoal 62% dal 64,9% del trimestre precedente, ma è passato dal 50% dell’anno scorso. Il consiglio di amministrazione di Nvidia ha approvato ulteriori 50 miliardi di dollari in riacquisti di azioni, senza una data di scadenza. Il suo attuale riacquisto di azioni aveva 7,5 miliardi di dollari rimasti.
- Huang ha venduto 4,8 milioni di azioni Nvidia per 580 milioni di dollari tra il 14 giugno e il 9 agosto. Le transazioni sono state effettuate nell’ambito di un piano di trading Huang adottato a marzo che esegue automaticamente operazioni azionarie in condizioni prestabilite, eliminando qualsiasi vantaggio dalle informazioni materiali non pubbliche.
Cosa c’è dopo: per il trimestre in corso, Nvidia prevede un intervallo di entrate con 32,5 miliardi di dollari a metà, al di sopra delle aspettative. Huang ha detto che le capacità del modello AI continuano a migliorare man mano che le aziende aggiungono più potenza di calcolo e dati durante la formazione di nuovi modelli.
13/08/24 Barron’s: Acquista Azioni Micron, Dice L’analista. E questo per la domanda di Server AI.
DaTae KimSegui
Micron Technology MU è pronto a diventare un vincitore della crescente domanda di semiconduttori di intelligenza artificiale, secondo New Street Research.
Martedì, l’analista Pierre Ferragu ha riaffermato un rating Buy sul titolo e ha ribadito il suo prezzo obiettivo di 150 dollari.
Nota che le prospettive di memoria per i data center per la seconda metà del 2024 sono “forti su tutti i fronti con la corsa dell’IA e il recupero del server tradizionali” e prevede che Micron continuerà a battere le aspettative nei prossimi trimestri.
Ferragu stima che la domanda di memoria nel mercato dei server AI sarà aumentata di 14 volte nei prossimi quattro anni a 50 miliardi di dollari nel 2027 da 3,5 miliardi di dollari nel 2023.
“L’aumento del contenuto HBM [memoria ad alta larghezza di banda] nei server AI è un motore di crescita pluriennale per la memoria”, ha scritto.
Micron è leader nei mercati della DRAM, che viene utilizzata nei computer desktop e nei server, e della memoria flash, che si trova negli smartphone e nei dischi rigidi a stato solido.
Le azioni Micron sono aumentate del 50% negli ultimi 12 mesi, rispetto a un aumento del 34% per l’ETF iShares Semiconductor SOXX
Scrivi a Tae Kim a tae.kim@barrons.com
30/07/24 MarketWatch: i guadagni di Microsoft e AMD mostrano che l’IA rimane un’illusione ottica
Wall Street vuole numeri precisi, e finora, questo proviene principalmente da società di hardware e produttori di chip
La dicotomia nelle reazioni di Wall Street ai risultati di Microsoft Corp. e Advanced Micro Devices Inc. – due giganti della tecnologia che hanno investito molto nell’IA – è un perfetto esempio del gioco dell’ottica dell’IA.
Molti produttori di chip e aziende hardware che vendono prodotti reali per l’esecuzione di applicazioni di intelligenza artificiale nei centri dati sono stati in grado di quantificare lo specifico contributo alle entrate, mentre gli sviluppatori di software che non riducono le entrate sui prodotti relativi all’intelligenza artificiale non sono così chiari. Questo è uno dei motivi per cui gli investitori hanno spinto i valori di molti produttori di chip invece delle società di software, molte delle quali non stanno divulgando entrate specifiche dell’IA.
Martedì, AMD ha aumentato le sue previsioni per il suo nuovo chip grafico AI, l’MI300, per la seconda metà dell’anno, e ha affermato che il chip, più il suo chip Epyc per i server, stavano alimentando la sua più grande crescita del data center di sempre. L’amministratore delegato di AMD Lisa Su ha aumentato le sue previsioni a 4,5 miliardi di dollari per le entrate quest’anno dai chip di accelerazione grafica MI300 dell’azienda utilizzati nei data center di intelligenza artificiale. Questo è aumentato rispetto agli oltre 4 miliardi di dollari in precedenza e le azioni di AMD sono aumentate del 7% nel trading after-hour
Nel frattempo, il gigante del software Microsoft ha avuto una leggera mancanza di entrate nella sua attività di servizi cloud di Azure, con una crescita delle entrate in un po’ al 30% e una previsione per un’altra leggera decelerazione alla crescita del 28%-29% nel prossimo trimestre. Il Chief Financial Officer di Microsoft Amy Hood ha citato alcuni rallentamenti in Europa sull’utilizzo del centro dati non-AI e sui vincoli di capacità su Azure, poiché l’azienda spende per costruirlo ulteriormente.
Pur essendo in grado di quantificare la sua crescita cloud-business, Microsoft non ha fornito entrate sul software Copilot 365, il suo strumento per le imprese e i consumatori per consentire l’uso dell’IA. “I clienti copilota sono aumentati di oltre il 60% trimestre su trimestre”, ha detto l’amministratore delegato di Microsoft Satya Nadella agli analisti durante la teleconferenza sugli utili. “I consumatori hanno utilizzato Copilot per creare oltre 12 miliardi di immagini e condurre 13 miliardi di chat fino ad oggi, in aumento del 150% dall’inizio dell’anno solare”.
Ma poiché non è ancora una voce di per sé, è difficile quantificare i dati finanziari del Copilot di Microsoft. Un analista ha chiesto “cosa ci vorrà perché l’IA [generativa] diventi più reale” in tutto il settore.
“Guarda, alla fine della fiera , la generazione AI è solo software”, ha detto Nadella, aggiungendo che si sta traducendo in un “tasso di crescita più veloce di qualsiasi altra generazione precedente di software che abbiamo lanciato come suite in M 365”.
Ma Wall Street vuole numeri precisi, e finora, i numeri più precisi e i dati sulle entrate dei prodotti provengono da aziende hardware e produttori di chip. Gli utili di Nvidia Corp – molto attesi dal mercato – usciranno il 28 agosto.
Se i CEO delle società di software vogliono le valutazioni delle società di hardware o semiconduttori in questo momento, probabilmente si rendono conto che dovrebbero condividere più dettagli finanziari sulle loro offerte di intelligenza artificiale. Se ciò accadrà o meno, o se il ritorno sull’investimento di un cliente sarà il miglior indicatore, è una grande domanda che gli investitori continuano a porsi.
25/07/24 Barron’s: Le vendite di chip AI di AMD possono essere forti, ma l’analista nota i rischi
DaTae Kim
AMD venderà più chip di intelligenza artificiale del previsto quest’anno, dice Susquehanna.
Giovedì, l’analista Christopher Rolland ha ribadito il suo rating positivo per l’AMDstock e ha riaffermato il suo obiettivo di prezzo di 200 dollari.
Ad aprile, la direzione di AMD aumentato la sua previsione per il 2024 per le entrate dell’unità di elaborazione grafica AI del centro dati a più di 4 miliardi di dollari da 3,5 miliardi di dollari. L’MI300, una GPU per data center, è l’offerta di AMD per alimentare progetti di intelligenza artificiale e applicazioni di intelligenza artificiale.
Rolland si aspetta che AMD aumenti di nuovo la sua guida per l’MI300 quando la società riporterà i guadagni la prossima settimana, ma non è sicuro.
“Senza grande fiducia, ci aspettiamo a malincuore un ulteriore aumento di 500 milioni di dollari”, ha scritto, aggiungendo che la guida del centro dati sarà l’obiettivo principale per gli investitori.
Che AMD aumenti le sue previsioni la prossima settimana o meno, l’analista stima che l’azienda venderà 5 miliardi di dollari di GPU per data center quest’anno rispetto all’attuale orientamento di oltre 4 miliardi di dollari.
Rolland ha anche detto che ora ci sono rischi crescenti per il business della CPU di AMD, notando il ritardo nel lancio del prodotto.
Mercoledì, un dirigente di AMD ha annunciato che la consegna dei nuovi processori desktop della serie Ryzen 9000 dell’azienda slitterà di una o due settimane all’inizio di agosto poiché le spedizioni iniziali “non hanno soddisfatto” le sue aspettative di qualità.
Le azioni AMD sono aumentate del 26% negli ultimi 12 mesi, rispetto all’aumento del 32% dell’ETF iShares Semiconductor
15/07/24 Corriere Economia: Metti l’AI nei portafogli
14/07/24 E se invece guadagnare con l’AI provassimo guadagnare grazie ai suggerimenti dell’AI?
UniCredit e AcomeA hanno lanciato un certificato aperto su 10 azioni europee che vengono settimanalmente selezionate fra le 50 dell’ EURO STOXX 50 da un algoritmo di Intelligenza artificiale.
Di fatto e’ un fondo con dei costi di gestione piu’ bassi – 0.76% annuo – rispetto ai fondi – ma superiori a quelli degli ETF – e con l’innegabile vantaggio che in caso di guadagno si possono compensare eventuali minusvalenze.
10/07/24 Briefing.com: Advanced Micro rivede i massimi di più mesi dopo il suo acquisto di Silo AI (AMD) da 665 milioni di dollari
L’acquisto in contanti di Silo AI di circa 665 milioni di dollari di Advanced Micro (AMD +3%) sta stimolando una sana attività di acquisto oggi mentre le azioni si spostano ai loro migliori livelli dall’inizio di aprile, prima che i numeri del primo trimestre innescassero una svendita. La risposta energica all’acquisizione da parte di AMD di un’organizzazione legata all’IA è alla base di un appetito sostenuto tra gli investitori per tutto ciò che riguarda l’IA. Mentre i rendimenti della tecnologia devono ancora essere significativi, il mercato è più che disposto a comprare ora in previsione di una crescita esplosiva lungo la linea.
L’IA rimarrà al centro dell’attenzione verso la stagione dei guadagni, che prenderà il via alla fine di questa settimana. Le grandi aziende tecnologiche stanno cercando di superarsi a vicenda in una corsa per essere il leader dominante nell’IA. La battaglia di AMD è attualmente con NVIDIA (NVDA), le cui GPU, inclusa la sua prossima piattaforma Blackwell, sono rimaste la scelta migliore tra i giganti della tecnologia che costruiscono la loro infrastruttura AI. Tuttavia, AMD si è in genere trovata al secondo posto dopo NVIDIA, non è un brutto posto dove stare se l’IA si rivela redditizia come molti si aspettano.
- Tuttavia, AMD non è compiacente nel rimanere al numero due. Accettando di acquisire Silo AI, che si presenta come il più grande laboratorio di intelligenza artificiale privato d’Europa, lavorando con ogni verticale, dall’automotive all’energia, AMD prevede di fortificare in modo significativo la sua attività di intelligenza artificiale.
- Silo AI è stata fondata nel 2017 e da allora si è impegnata nello sviluppo di modelli di intelligenza artificiale su misura. Alcuni dei suoi clienti passati includono Unilever (UL), dove Silo ha sviluppato uno strumento ML per migliorare l’efficienza dell’imballaggio, e Intel (INTC), che ha utilizzato la tecnologia di controllo qualità di Silo.
- Con esperienza nel lavorare con un importante progettista e produttore di chip in Intel, Silo AI sembra essere una soluzione solida per AMD. Il laboratorio probabilmente lavorerà fianco a fianco con AMD che integra rapidamente l’intelligenza artificiale nei suoi prodotti, portando forse a futuri guadagni di prestazioni rispetto a NVIDIA, forse a prezzi più bassi.
Anche con l’IA in fase di sperimentazione, le aziende si stanno rivolgendo alla tecnologia per non essere lasciate indietro in modo competitivo se l’IA decolla in modo significativo. I progettisti di chip, tra cui NVDA, AMD e INTC, saranno ciascuno in competizione per una fetta della torta AI, e qualsiasi vantaggio minore potrebbe tradursi in notevoli guadagni finanziari. Accettando di aggiungere Silo AI alla sua attività, AMD sta facendo il passo necessario per ottenere un potenziale vantaggio rispetto ai suoi colleghi. Se l’acquisto alla fine si tradurrà in un sano ritorno sull’investimento deve ancora essere visto. Tuttavia, stare seduti non è un’opzione per i produttori di chip durante una tale frenesia legata all’IA.
05/07/24 TomsHardware: L’industria dell’IA deve guadagnare 600 miliardi di dollari all’anno per pagare la massiccia spesa hardware: i timori di una bolla di intelligenza artificiale si intensificano sulla scia del rapporto Sequoia
da Anton Shilov
La bolla dell’IA sta raggiungendo un punto di svolta?
Nonostante i massicci investimenti nell’infrastruttura di intelligenza artificiale da parte di giganti dell’alta tecnologia, la crescita dei ricavi dell’IA deve ancora materializzarsi, indicando un divario significativo nel valore dell’utente finale dell’ecosistema. In effetti, David Cahn, un analista di Sequoia Capital, ritiene che le aziende di intelligenza artificiale dovranno guadagnare circa 600 miliardi di dollari all’anno per pagare la loro infrastruttura di intelligenza artificiale, come i centri dati.
Nvidia ha guadagnato 47,5 miliardi di dollari di entrate hardware per data center l’anno scorso (con la maggior parte dell’hardware che sono GPU di elaborazione per applicazioni AI e HPC). Aziende come AWS, Google, Meta, Microsoft e molte altre hanno investito pesantemente nella loro infrastruttura di intelligenza artificiale nel 2023 per applicazioni come ChatGPT di OpenAI. Tuttavia, guadagneranno quell’investimento? David Cahn crede che questo potrebbe significare che stiamo assistendo alla crescita di una bolla finanziaria.
Matematica semplice
La matematica di Cahn è relativamente semplice. In primo luogo, raddoppia la previsione delle entrate run-rate di Nvidia per coprire i costi totali del centro dati AI (le GPU sono la metà; il resto include energia, edifici e generatori di backup). Quindi, raddoppia di nuovo quell’importo per tenere conto di un margine lordo del 50% per gli utenti finali, come le startup o le aziende che acquistano AI computing da aziende come AWS o Microsoft Azure, che devono anche fare soldi.
I fornitori di cloud, in particolare Microsoft, stanno investendo pesantemente nelle scorte di GPU. Nvidia ha riferito che metà delle entrate del suo data center proviene da grandi fornitori di cloud, con Microsoft da sola che probabilmente contribuisce a circa il 22% delle entrate del quarto trimestre FY2024 di Nvidia. Nel frattempo, l’azienda ha venduto circa 19 miliardi di dollari di GPU per data center nel primo trimestre dell’anno fiscale 2025.
L’introduzione dei processori B100/B200 di Nvidia, che promettono prestazioni 2,5 volte migliori mentre costano solo il 25% in più, probabilmente guiderà ulteriori investimenti e creerà un’altra carenza di forniture.
Secondo l’analista, OpenAI, che utilizza l’infrastruttura Azure di Microsoft, ha visto un sostanziale aumento delle entrate, da 1,6 miliardi di dollari alla fine del 2023 a 3,4 miliardi di dollari nel 2024. Questa crescita sottolinea la posizione dominante di OpenAI sul mercato, superando di gran lunga altre startup che stanno ancora lottando per raggiungere un traglio di 100 milioni di dollari. Eppure gli investimenti nell’hardware AI stanno crescendo.
Anche le proiezioni ottimistiche per le entrate dell’IA delle grandi aziende tecnologiche non sono all’altezza, dice Cahn. Supponendo che Google, Microsoft, Apple e Meta generino ciascuno 10 miliardi di dollari all’anno dall’IA e altre aziende come Oracle, ByteDance, Alibaba, Tencent, X e Tesla generino 5 miliardi di dollari ciascuna, rimane un divario di 500 miliardi di dollari.
L’industria dell’IA deve imparare a guadagnare
Ci sono sfide significative alla visione ottimistica degli investimenti nell’infrastruttura di intelligenza artificiale. A differenza dell’infrastruttura fisica, l’informatica GPU AI potrebbe essere mercificata man mano che nuovi giocatori entrano in scena (AMD, Intel, per non parlare dei processori personalizzati di Google, Meta e Microsoft), in particolare nel campo dell’inferenza, portando a un’intensa concorrenza sui prezzi. Gli investimenti speculativi spesso si traducono in perdite elevate e i nuovi processori svalutano rapidamente quelli più vecchi, contrariamente al valore più stabile dell’infrastruttura fisica.
In definitiva, mentre l’IA ha un potenziale di trasformazione e aziende come Nvidia svolgono un ruolo cruciale, la strada da percorrere sarà lunga e impegnativa poiché le aziende e le startup devono ancora inventare applicazioni che fanno soldi.
Cahn ritiene che l’industria debba temperare le aspettative di rapidi profitti dai progressi dell’IA, riconoscendo la natura speculativa degli investimenti attuali e la necessità di un’innovazione sostenuta e di creazione di valore. In caso contrario, la bolla del valore di centinaia di miliardi di dollari è destinata a esplodere, portando potenzialmente a una crisi economica globale, ma stiamo speculando qui, ovviamente.
05/07/24 Varie notizie sul declassamento di Nvidia a “neutral”
- Le azioni AMD sono aumentate del 5% venerdì.
- L’analista di New Street Research Pierre Ferragamo afferma che il successo di Nvidia è già incluso nel prezzo.
- Pierre Ferragu vede molto più spazio per la crescita del prezzo delle azioni in AMD.
L’analista di New Street Research Pierre Ferragu ha abbssato il suo rating Buy suNvidia (NVDA) questo venerdì a favore di un voto neutro. La valutazione di Ferragu ha sorpreso il mercato poiché Nvidia è stata l’ovvio leader nell’attuale mercato rialzista iniziato quasi due anni fa nell’ottobre del 2022.
Ferragu non è davvero ribassista sulle prospettive di intelligenza artificiale (AI) di Nvidia, anzi, in realtà. Invece, pensa che Nvidia sia correttamente valutata al momento in base alla guida attuale. Come analista di alto livello che ha trascorso 10 anni a coprire i semiconduttori alla Bernstein, Ferragu ha detto ai clienti di concentrarsi invece su sostenitori del settore a prezzi migliori come AMD e Taiwan Semiconductor (TSM).
Farragu ha dato alle azioni AMD un obiettivo di prezzo di 235 dollari, 12 mesi e un obiettivo di 345 dollari entro la fine del 2026. Ha basato la sua valutazione su una previsione che AMD produrrà 10 dollari di utili per azione entro il 2027.
AMD ha sottoperformato il sentimento degli investitori per la sua attività di chip AI finora quest’anno, e Morgan Stanley ha recentemente declassato le azioni su tale conto.
Tuttavia, il continuo guadagno di quota di mercato di AMD all’interno del mercato delle CPU per i PC non ha motivo di fermarsi. I processori Ryzen AI 300 di nuova generazione sono progettati per elaborare meglio i carichi di lavoro AI e molti analisti pensano che potrebbero aiutare AMD a rubare ancora più quota di mercato da Intel (INTC).
Inoltre, gli investitori stanno spingendo in alto secondo produttore di chip faberless poiché si prevede che le sue GPU del data center abilitate all’IA venderanno 4 miliardi di dollari solo quest’anno.
02/06/24 MarketWatch: Si sta profilando una bolla azionaria di intelligenza artificiale? Questa è la domanda da 167 miliardi di dollari.
Le proiezioni delle spese di capitale dell’IA non sono al passo con le proiezioni delle entrate dell’IA, che secondo Barclays potrebbero incapsulare FOMO, o la paura di perdere il rialzo
La spesa frenetica per l’intelligenza artificiale guiderà importanti aumenti delle entrate per le aziende di Internet – o quei grandi spenditori non sono troppo precipitosi ?
Questa è una domanda chiave per gli investitori in questi giorni, secondo l’analista di Barclays Ross Sandler, che ha notato martedì che la matematica non sembra sommarsi. Le aspettative di Wall Street sono di circa 60 miliardi di dollari in spese di capitale incrementali per l’IA, ma solo 20 miliardi di dollari in entrate cloud incrementali per il 2026.
“Uno dei dibattiti più caldi di oggi nella comunità degli investimenti è se tutti gli investimenti in capex AI che vanno nei centri dati finiranno per essere un’overbuild della bolla [telecomunicazioni] del 2000, o se c’è abbastanza domanda di [entrate] di intelligenza artificiale da giustificarli”, ha detto Sandler in una nota ai clienti.
Rispondere a questa domanda dipende da quale scenario gli investitori ritengono più probabile quando cercano di dare un senso alle discrepanze tra la spesa prevista per l’IA e le entrate previste per l’IA. Gli investitori devono chiedere se pensano che le aspettative di reddito siano corrette, il che significa che la spesa in conto capitale è troppo alta per sostenerlo, o se le proiezioni sulle entrate sottovalutano l’impatto futuro dell’IA sui dati finanziari.
Sandler pensa che la corsa alla spesa per l’IA – un totale di 167 miliardi di dollari dall’inizio della frenesia dell’IA – potrebbe riflettere un po’ di FOMO, o la paura di perdere l’opportunità, piuttosto che uno “scenario Field of Dreams” in cui le entrate diffuse dell’IA si manifesteranno presto in grande stile.
Potresti chiamarla una domanda da 167 miliardi di dollari, anche se Sandler fa un ulteriore passo avanti nel soprannominarla “la domanda da miliardi di dollari”.
Sulla base del nostro lavoro preliminare qui, la stima di consenso per il capex AI hyperscaler nel 2026 è sufficiente per supportare Internet esistente più 12.000 nuovi prodotti AI su scala ChatGPT”, ha scritto. Ma Wall Street è preoccupata se ci saranno effettivamente da qualche parte vicino a così tante applicazioni di intelligenza artificiale che possono generare entrate, secondo Sandler.
Dal suo punto di vista, Sandler vede il potenziale per “molti nuovi servizi che porteranno alla luce alcuni di questo caso toro, ma probabilmente non 12.000 di loro”. Al di fuori della Cina, ci sono circa 50 app di consumo in generale che hanno più di 50 utenti, mentre nel mercato del software, forse qualche dozzina di grandi aziende di software insieme rastrellano circa 1 miliardo di licenze.
Con questa matematica, “anche se tutti questi prodotti sono stati sostituiti da prodotti di intelligenza artificiale concorrenti, non c’è modo che le entrate di tali prodotti di intelligenza artificiale giustifichino il limite per il 2026”, ha detto Sandler.
Riconosce che i servizi di intelligenza artificiale potrebbero finire per sfoggiare metriche di coinvolgimento molto più profonde rispetto alle loro controparti tradizionali. In un tale scenario, il possibile impatto sulle entrate dell’IA potrebbe ora essere sottovalutato. Ad esempio, nota che Character.ai vede un quinto delle richieste di inferenza giornaliere relative a ciò che Google vede, anche da una base di utenti molto più piccola.
“Solo cinque Character.ai sono gli stessi di un Google?” Sandler ha chiesto. “È piuttosto selvaggio a cui pensarci”.
Nel complesso, però, quando si tratta del grande dibattito sugli investimenti, ha scritto che lui e il suo team stanno “annusando FOMO e si aspettano che qualcuno cominci a rinsavire prossimo, ma è ancora molto presto per l’IA”.
Mentre si concentra sulle azioni di Internet, ha aggiunto che la tendenza “probabilmente non significa che Nvidia sia in qualsiasi tipo di problema a medio termine, poiché ci aspettiamo che il capex dell’IA continui ad andare forte per un paio d’anni prima che qualcuno sbatta le palpebre e tagli”.
20/06/24 Barron’s: AMD diventa ora la scelta Top dell’analista Piper a causa dei chip del server AI
DaEric J. SavitzSegui
Le azioni di Advanced Micro Devices sono scambiate in rialzo giovedì, almeno in parte grazie a una nota rialzista sul business dei server AI del produttore di chip da parte dell’analista di Piper Sandler Harsh Kumar.
Kumar, che mantiene un rating di sovrappeso e un prezzo obiettivo di 175 dollari sul titolo, ha designato AMD come la sua prima scelta di semiconduttori di grande capitalizzazione verso la seconda metà dell’anno.
In una nota di ricerca, Kumar ha notato che ha viaggiato con la gestione AMD in Europa la scorsa settimana ed è uscito “estremamente impressionato” dalla strategia dell’azienda e dal suo posizionamento competitivo sul mercato delle GPU utilizzate per le applicazioni di intelligenza artificiale, dove è una delle poche aziende che sfida Nvidiahead.
Kumar vede anche venti in coda sia per i segmenti PC di AMD che per i segmenti server convenzionali.
Ma l’IA è al centro della storia di AMD in questo momento. Kumar riferisce che AMD ha più di 100 clienti per i suoi processori AI, con la maggior parte di loro che dovrebbe aumentare l’adozione nella seconda metà del 2024. Dice che il chip MI300 di punta dell’azienda sta “performando molto bene”, con vendite che dovrebbero superare i 4 miliardi di dollari quest’anno.
Ma come AMD ha recentemente rivelato, ha una raffica di chip follow-on in arrivo, tra cui l’MI325 (previsto entro la fine dell’anno), l’MI350 (in arrivo l’anno prossimo) e l’MI400 (in programma per il 2026). Kumar sostiene che l’MI350 sarà competitivo con la linea di chip Blackwell di Nvidia, mentre l’MI400 affronta il chip di prossima generazione recentemente annunciato da Nvidia, soprannominato Rubin.
L’analista sottolinea che i clienti di AMD per i suoi chip AI includono Microsoft, Meta e Oracle.
Un altro fattore che potrebbe contribuire alla forza delle azioni AMD è un articolo del Wall Street Journal affermando che alcuni PC Samsung AI basati sui chip Snapdragon di Qualcomm stanno avendo problemi a eseguire alcune applicazioni. Questa notizia sta facendo pressione sulle azioni sia di Qualcomm che di Arm (che fornisce i progetti su cui si basano i chip di Qualcomm). Gli investitori sono stati ottimisti sulle prospettive per Qualcomm di assumere una certa quota di mercato nei processori PC di AMD e Intel.
Nel trading di giovedì, le azioni Advanced Micro sono del 4,5% in più a 161,59 dollari, mentre Arm è in calo del 9% a 158,36 dollari e Qualcomm è inferiore del 5,7% a 214,18 dollari. Le azioni del rivale AMD Intel sono frazionalmente più basse.
20/06/24 il Foglio: È nata una stella Jensen Huang
Nell’ufficio a Taipei di Morris Chang c’è un disegno incorniciato e appeso a una parete che, da solo, racconta buona parte della rivoluzione digitale che sta vivendo il mondo in questa nuova èra dell’intelligenza artificiale. Il novantaduenne Chang è il fondatore della Taiwan Semiconductor Manufactoring Company (Tsmc), l’azienda leader mondiale dei semiconduttori. Il decollo del colosso taiwanese è legato alla prima rivoluzione digitale, quella di internet, e soprattutto alla partnership tra Tsmc e Apple, che ha portato al boom degli iphone. Ma se Steve Jobs è l’uomo che in qualche modo ha fatto la fortuna di Chang, nel disegno appeso alla parete l’anziano fondatore è ritratto insieme a un altro top manager. Uno che deve larga parte del suo successo proprio al re dei chip di Taipei: Jen-hsun Huang, un altro figlio di Taiwan che ora tutti conoscono con il nome americanizzato in “Jensen”.
E’ stato lo stesso Jensen Huang a regalare il disegno al suo idolo e sotto ha fatto incidere una dedica che dice tutto dell’ammirazione che prova per Chang: “La tua carriera è un capolavoro: sei la Nona Sinfonia di Beethoven”.
E’ da qui, da Taiwan e da Chang, che bisogna partire per capire Huang. Il nuovo Steve Jobs, l’amministratore delegato di Nvidia, una società che fino a pochi anni fa conoscevano solo gli appassionati di videogame e gli addetti ai lavori del mondo tech. L’altro ieri Nvidia ha compiuto l’ultimo salto a Wall Street, dopo tre anni di crescita esplosiva, e ha superato Microsoft dopo aver già lasciato alle spalle Apple. Adesso l’azienda di Santa Clara, nella Silicon Valley, è la numero uno al mondo con una capitalizzazione di oltre 3.300 miliardi di dollari. E Huang, che l’ha fondata a trent’anni nel 1993 e la guida da allora come ceo, è uno degli uomini più ricchi del pianeta, con un patrimonio personale di circa 115 miliardi di dollari.
Tutto parte da Taiwan perché è lì che si producono gran parte dei chip che hanno rivoluzionato il mondo e promettono di rivoluzionarlo di nuovo con L’IA generativa. Senza la capacità produttiva di Chang, Nvidia non sarebbe mai riuscita a tenere il passo della crescita mostruosa che avuto negli ultimi anni, quando da azienda specializzata in Gpu, le schede grafiche nate per i videogiochi, si è trasformata in casa madre per i prodotti che creano la potenza di calcolo necessaria per L’IA. Tutti adesso vogliono la tecnologia di Nvidia, perché è quella che serve a tenere il passo con l’evoluzione dell’intelligenza artificiale. E questo ha reso il gruppo di Huang in breve tempo più ricco di Amazon e Meta messe insieme.
Ma da Taiwan bisogna partire anche per capire Huang, che è nato nel 1963 sull’isola, nella città di Tainan, e da piccolo si è trasferito con la famiglia a vivere in Thailandia. Da lì è poi approdato a dieci anni negli Stati Uniti ed è cresciuto nell’oregon, lo stato della Nike – un’altra azienda storicamente legata al mondo asiatico– delle grandi foreste e degli spiriti liberi. Gli anni della laurea in Ingegneria alla Oregon State University, prima di partire per il master a Stanford e una vita nella Silicon Valley, sono quelli che hanno plasmato in effetti quello spirito libertario oregoniano che Huang mostra ancora oggi. E che è incarnato dal suo oggetto simbolo: il giubbotto di pelle nera.
Se non avete mai sentito parlare di Huang, siete in buona compagnia di una larga fetta di americani, che in larga parte lo hanno scoperto solo due mesi fa da un post su Instagram di Mark Zuckerberg. Il fondatore di Facebook ha postato una foto del suo scambio di giacca con Huang, per mostrarsi orgoglioso con indosso uno dei giubbotti da motociclista del capo di Nvidia. “Non lo conoscete? – ha scritto Zuck – Lui è la Taylor Swift del mondo della tecnologia”.
Da trent’anni, inverno ed estate, Huang gira sempre con giubbotti di pelle di vari tagli, tutti vagamente ispirati a Marlon Brando, che ora probabilmente prenderanno il posto iconico che avevano nella Silicon Valley le maglie turtleneck di Steve Jobs disegnate da Issey Miyake, i bomber da aviatore di Jeff Bezos o le magliette grigie di Zuckerberg.
Anche il look fa parte di un personaggio che ha fama di essere tra i manager che più conoscono il proprio prodotto e hanno uno sguardo capace di anticipare il futuro. Di sicuro Huang vide lunghissimo quel giorno dell’aprile 1993 quando prese posto con due amici in uno squallido fast food della catena Denny’s a San Jose, in una zona all’epoca malfamata della città. Gli altri due erano Chris Malachowsky e Curtis Priem e insieme decisero, tra omelette e tazze di caffè, di avviare una startup dedicata a produrre graphics processor
units (Gpu), schede che all’epoca andavano installate sulla scheda madre di un pc per renderlo capace di sviluppare giochi in 3D e animazioni sempre più realistiche. Era nata Nvidia, che ora potrebbe segnare il ventunesimo secolo come Microsoft e Intel hanno segnato la fine del ventesimo.
Quando la startup cominciò a produrre, il mercato era ancora piccolissimo, ma i tre soci avevano visto arrivare l’onda. Huang si licenziò dal lavoro che aveva in Amd, un altro dei colossi dei chip, e Nvidia iniziò a rilasciare schede grafiche dai nomi iperbolici come “Titan X” o “Geforce Gtx 1080” che innescarono una rivoluzione nel mondo dei videogamer.
Huang dimostrò di nuovo di avere la vista lunga nel 2003 quando, tra lo scetticismo degli investitori di Nvidia, decise di cominciare a proporre le Gpu non solo alle aziende di giochi, ma all’intero mondo tech alla ricerca di potenza di calcolo. Quando le schede di Nvidia si rivelarono perfette per accogliere reti neurali e favorire i processi di machine lear
ning, l’intuizione trovò conferma. Il boom attuale è stato possibile in buona parte grazie a Tsmc e all’amicizia con Chang. E ora a Taiwan Huang è una star. Nei giorni scorsi ha partecipato a Taipei al Computex, il principale evento tech locale, con la moglie Lori e i figli Spencer e Madison, che lavorano entrambi in Nvidia: dovunque è andato, indossando l’inseparabile giubbotto di pelle, si sono viste scene di solito riservate alle star del mondo della musica o dello sport.
13/06/24 E l’Italia ha aziende quotate “AI”? Poca cosa..
intervista alla Ceo di Almaware su Libero … fosse quotata al Nasdaq sarebbe già triplicata.. qui non se ne cura nessuno…
07/06/24 Barron’s: L’intelligenza artificiale è ancora in voga, ma gli investitori stanno diventando sempre più esigenti
Teresa RivasFollow
I
L’entusiasmo per l’intelligenza artificiale ha alimentato buona parte del rally del mercato azionario negli ultimi anni. È improbabile che la situazione cambi presto, ma l’interesse degli investitori potrebbe spostarsi da un’azienda all’altra, almeno temporaneamente.
I magnifici sette – Alphabet, società madre di Google, Amazon.com, Apple, Meta Platforms, società madre di Facebook, Microsoft , Nvidia e Tesla , che ha spinto gran parte dei guadagni azionari del 2023 sono stati tutti grandi nomi tecnologici, portando alcuni investitori a temere che ci fosse un rischio di concentrazione eccessivo nel mercato.
Eppure in realtà, nonostante le loro somiglianze superficiali, l’M7 non ha mai davvero scambiato in blocco, come dimostrano le loro prestazioni divergenti nel 2024: mentre le azioni Tesla sono scese di quasi il 30% quest’anno, le azioni Nvidia sono aumentate di quasi il 140%.
James Reilly, economista di mercato di Capital Economics, sostiene che ciò è avvenuto nel contesto di un cambiamento più ampio nel sentiment degli investitori nei confronti dell’IA. Mentre in precedenza sia i titoli del software che quelli dei semiconduttori hanno beneficiato dell’ottimismo sull’IA, più recentemente le azioni della prima categoria sono rimaste indietro, mentre quelle della seconda hanno continuato a salire.
“Contrariamente ad alcuni suggerimenti, non pensiamo che questa debolezza in una parte del settore IT sia la prova che l’entusiasmo per l’IA stia diminuendo”, scrive Reilly. “Questo spostamento a favore dei produttori di semiconduttori e delle utility suggerisce che gli investitori si stanno concentrando maggiormente su quelle società che dovrebbero beneficiare fin dall’inizio dell’IA, piuttosto che su quelle che dovrebbero beneficiare dell’utilizzo finale della tecnologia”.
In un certo senso, questo ha senso: la tecnologia AI è ancora nascente, quindi è difficile prevedere a questo punto chi saranno i veri vincitori dell’uso finale, mentre non importa chi alla fine prenderà il comando, è chiaro che ci sono alcune aziende di chip che forniranno i “picconi e le pale” per arrivarci.
Detto questo, Reilly non crede che questo cambiamento sia permanente, ma piuttosto una variazione naturale nelle opinioni degli investitori, con il pendolo che alla fine oscilla all’indietro. Inoltre, pensa che una volta che sarà più chiaro quali giocatori sono in testa al gruppo, gli utenti di IA potrebbero ancora una volta riprendersi, in tutti i settori.
“La nostra sensazione rimane che il settore IT sia la fonte più probabile di tali vincitori e supererà la maggior parte degli altri”, scrive. “E non saremmo sorpresi se le grandi aziende tecnologiche continuassero a guidare la carica. Ma è possibile creare casi d’uso convincenti per l’IA per le azioni della maggior parte dei settori del mercato. Quindi, man mano che questi usi diventano più chiari, sospettiamo che il rally si allargherà un po’, almeno rispetto a gran parte dell’ultimo anno o giù di lì”.
Questa è ovviamente una buona notizia per il mercato in generale, in quanto renderebbe i guadagni meno dipendenti solo da pochi grandi attori.
Nvidia’s dominance ha comprensibilmente reso nervosi gli investitori. Sebbene il titolo abbia mostrato segni di rallentamento e non sembri necessariamente maturo per un pullback, le sue enormi dimensioni significano che diventa più difficile fornire grandi balzi in avanti.
Come ha notato Bespoke Investment Group all’inizio di questa settimana, quando Nvidia è stata scambiata per l’ultima volta circa 22,6 volte le vendite a termine, nel marzo 2023, la sua capitalizzazione di mercato era solo il 20% del suo livello attuale e le sue entrate previste per i prossimi 12 mesi erano un quarto delle stime attuali.
L’azienda non pensa che Nvidia sembri necessariamente vulnerabile, ma sottolinea che “se le previsioni di vendita dovessero aumentare di nuovo tanto quanto hanno fatto rispetto a marzo 2023, dovrebbero avvicinarsi ai 600 miliardi di dollari. Allo stesso modo, un’altra quintuplicazione del titolo da questi livelli produrrebbe una capitalizzazione di mercato di 15,3 trilioni di dollari (13% dell’attuale capitalizzazione di mercato globale). Questo tipo di mosse non devono assolutamente invertirsi, ma mettiamo in guardia dal pensare che questo tipo di mosse estreme siano sostenibili e consigliamo agli investitori di fissare aspettative realistiche”.
La buona notizia è che, nonostante l’enorme sovraperformance di Nvidia, ci sono prove che anche ora il rally del mercato non è troppo stretto.
“Mentre i più grandi nomi del settore tecnologico stanno chiaramente aiutando di più, anche molti altri stanno facendo bene”, osserva Frank Cappelleri di CappThesis. “Se/quando cominciamo a vedere una notevole divergenza all’interno del Indice S&P 500 Settore tecnologico, è allora che sapremo davvero che le fondamenta si stanno indebolendo. Non ancora”.
Con tanto potenziale vento contrario si accumula, questa è una buona notizia per gli investitori.
Scrivi a Teresa Rivas all’indirizzo teresa.rivas@barrons.com
07/06/24 Barron’s: Le azioni Nvidia si sono lasciate alle spalle AMD e Intel. Potrebbero recuperare, dice l’analista.
Adam Clark Follow
Nvidia ha dominato finora il mercato dei chip per l’intelligenza artificiale, e Advanced Micro Devices e Intel sono rimasti sulla sua scia. Le cose potrebbero cambiare in meglio per AMD, ma le possibilità sono meno buone per Intel, secondo un analista di Melius Research.
“Abbiamo incontrato AMD questa settimana e pensiamo che potrebbe essere uno dei beneficiari di un recupero commerciale in uscita dal secondo trimestre”, ha scritto l’analista di Melius Ben Reitzes in una nota di ricerca.
Reitzes ha indicato un paio di fattori che dovrebbero beneficiare AMD come il fatto che Microsoft ha approvato i vantaggi dei suoi chip AI sulla base del costo totale di proprietà, il costo se si tiene conto di fattori indiretti come le richieste di alimentazione e raffreddamento, un’area in cui Nvidia ha promosso come la propria forza.
Altri potenziali vantaggi per AMD potrebbero includere un maggior numero di ordini da parte di Meta nella seconda metà del 2024 e la sua forza nei nuovi processori AI per PC.
Reitzes ha un rating Buy sul titolo AMD e un target price di 210 dollari. Le azioni sono aumentate dello 0,9% a 168,26 dollari nelle prime contrattazioni di venerdì.
Reitzes ha rating Buy sia sulle azioni Nvidia che su quelle AMD. Tuttavia, il suo target price per le azioni Nvidia di 1.250 dollari implica un potenziale aumento di circa il 5% rispetto ai livelli attuali, mentre il suo target price per le azioni AMD indica un possibile guadagno del 25%.
Tuttavia, è una storia diversa quando si tratta di Intel Il piano dell’azienda di semiconduttori di fare un Investimento enorme nella capacità di produzione di chip confonde le acque per il titolo, secondo l’analista di Melius.
“Non solo la storia della fonderia Intel è troppo complicata per l’investitore medio, ma il fatto che si possano acquistare Nvidia e AMD, aziende con narrazioni di intelligenza artificiale e pochissima intensità di capitale, non fa che aumentare il dolore”, ha scritto Reitzes.
Intel ora deve dimostrare che i suoi margini lordi hanno toccato il fondo e che può beneficiare di un aumento dei mercati dei PC e dei server, piuttosto che dimostrare il successo dei chip AI, secondo Reitzes.
30/05/24 Barron’s: Il fondatore di C3.ai Tom Siebel sul perché l’IA è calda e il software aziendale no
Nel bel mezzo di un tratto difficile per le aziende di software aziendale, C3.ai + 19,44% mercoledì è riuscita a pubblicare risultati migliori del previsto per il suo trimestre di aprile. La società ha mostrato un’accelerazione della crescita top-line per cinque trimestri consecutivi, tornando alla crescita del 20% nell’ultimo periodo per la prima volta dal 2022. E questo ha trascinato in alto l’azione.
Ciò è in contrasto con i risultati deludenti di mercoledì da Salesforce.com che è in calo del 20% giovedì, e UiPath crollata del 34%. Workday ha recentemente riportato un trimestre altrettanto povero.
C’è una visione crescente che i budget IT aziendali si stanno restringendo e la tendenza si sta diffondendo in tutto il settore. Ciò solleva una domanda ovvia: cosa rende C3.ai così speciale?
Il CEO di C3.ai Tom Siebel pensa che la risposta sia semplice. Mentre i budget si stanno restringendo per il software aziendale convenzionale, dice, le aziende stanno spendendo senza reali vincoli di bilancio per le applicazioni AI. Siebel pensa che molte delle aziende di intelligenza artificiale affermate stiano lottando per adattare le loro applicazioni legacy a un mondo di intelligenza artificiale.
“Questi ragazzi hanno cataste di software che hanno costruito letteralmente nel secolo scorso”, ha detto Siebel in un’intervista con Barron’s. “Quello che fanno è che hanno preso un adesivo AI e l’hanno messo sulla parte anteriore della loro scatola – ServiceNow, Salesforce, Workday, Oracle, SAP. Non sono proprio sicuro che i loro risultati saranno all’altezza. La differenza tra noi e loro è che siamo un’IA aziendale nativa. Ho iniziato a costruire questo stack di software AI 15 anni fa, e oggi abbiamo 90 applicazioni aziendali chiavi in mano. Siamo in un posto diverso da loro.” Siebel afferma che l’IA potrebbe effettivamente essere un vento contrario, piuttosto che un accelerante, per alcune società di software aziendale mentre le priorità di spesa cambiano.
Non è sicuramente un vento contrario per noi”, dice. “Dove siamo, non sono davvero sicuro che ci siano budget. Questi ragazzi fanno solo i budget. Questo sta accadendo a livello di CEO, o la persona che gestisce il livello di produzione, e non ha bisogno di un budget. I manager scrivono un assegno e se ne vanno.”
Siebel sottolinea che tutti i chip che NVIDIA vende vengono utilizzate per costruire un’infrastruttura di intelligenza artificiale per eseguire applicazioni di intelligenza artificiale. “Questi ragazzi stanno costruendo hardware per noi. “Sono là fuori a posare il marciapiede 100 miglia davanti a noi in modo che possiamo rotolarci sopra””.”
Il capo di C3.ai, che è stato anche il fondatore della società di software di gestione delle relazioni con i clienti Siebel Systems, che è stata acquisita da Oracle nel 2006, aggiunge che le società di software aziendali stanno soffrendo in parte di una mancanza di innovazione al di là dell’IA.
“Voglio dire, chi non ha il CRM installato?” lui chiede. “Chi non ha una licenza CRM aziendale? Tutti hanno capito. “Devono avere qualcosa di nuovo””.”
Nel frattempo, Siebel sostiene anche che più del valore nella catena alimentare dell’IA alla fine andrà alle società di software di intelligenza artificiale.
“Diamo un’occhiata allo stack di intelligenza artificiale”, dice. “In fondo abbiamo il silicio, e sopra questo abbiamo l’infrastruttura. Sopra questo abbiamo modelli fondamentali, e per di più abbiamo applicazioni. La maggior parte del valore sul mercato oggi viene attribuita al silicio e alle infrastrutture. Era la stessa cosa nel mercato dei PC nel 1990. Ma come abbiamo visto nei PC, a lungo termine, il valore è nel livello dell’applicazione, ed è lì che giochiamo. A lungo termine, il silicio diventa una commodities, perché così succede sempre, e e così pure l’infrastruttura. Abbiamo già visto questo film.”
27/05/24 WSj: L’IA Sta Guidando “la Prossima Rivoluzione Industriale”. Wall Street Sta Incassando.
Le azioni della vecchia scuola nei settori dei servizi pubblici, dell’energia e dei materiali stanno superando il mercato più ampio
La domanda di intelligenza artificiale è ancora in piena espansione, un anno dopo che il fenomeno ha preso d’assalto Wall Street per la prima volta. Ben oltre il settore tecnologico, gli investitori stanno trovando vincitori in azioni pick-and-shovel old-school.
Le aziende con tasche profonde stanno investendo pesantemente nella tecnologia di intelligenza artificiale, il che ha significato una manna per i produttori di chip come Nvidia NVDA 6,98%aumentare; triangolo di puntare verdee una serie di aziende, come i fornitori di energia, manodopera e materie prime, per gestire i loro prodotti.
Wall Street sta prendendo atto. Il settore dei servizi pubblici dell’S&P 500 ha restituito il 15% negli ultimi tre mesi, superando tutti gli altri angoli dell’indice. Le scorte di energia e materiali hanno sovraperformato il mercato più ampio, che è avanzato del 4,2% in quel periodo. I prezzi delle azioni sono in aumento per le aziende industriali che beneficeranno dell’espansione e della ristrutturazione del data center.
Il rapporto sui guadagni di Nvidia la scorsa settimana ha mostrato che la domanda di capacità di intelligenza artificiale sta solo guadagnando piede. La società ha registrato 26 miliardi di dollari di vendite per il suo ultimo trimestre, più del triplo del totale rispetto all’anno precedente. Le azioni del produttore di chip grafici sono scambiate a livelli record, più che raddoppiando quest’anno.
“La prossima rivoluzione industriale è iniziata”, con le imprese e i paesi che convertono i data center esistenti in “fabbriche di intelligenza artificiale”, ha detto l’amministratore delegato Jensen Huang in una chiamata degli investitori.
Le aziende big-tech come Microsoft e Meta Platforms stanno spendendo miliardi per i chip Nvidia e l’infrastruttura correlata per costruire le proprie capacità di intelligenza artificiale. Il governo potrebbe unirsi: un gruppo bipartisan del Senato ha raccomandato decine di miliardi di dollari di nuove spese federali relative all’IA negli anni a venire.
È qui che si trovano le opportunità investibili”, ha affermato Lauren Goodwin, economista e capo stratega di mercato di New York Life Investments. “Sono costruttori e operatori di data center, energia e servizi pubblici”.
I dirigenti del centro dati hanno affermato che l’aumento della domanda significa tempi di consegna più lunghi per le apparecchiature essenziali come i generatori di backup e i sistemi di raffreddamento.
“Abbiamo visto un ampliamento del commercio dell’IA. Non dipende più da un solo titolo”, ha detto Nadia Lovell, senior equity strategist degli Stati Uniti, gestione patrimoniale globale presso UBS. “Le patatine sono fondamentali, ma non sono tutta la casa”.
Il Global X U.S. L’ETF per lo sviluppo delle infrastrutture ha restituito il 13% quest’anno, superando l’anticipo dell’11% dell’S&P 500.
Le azioni di Vertiv Holdings, che produce apparecchiature che alimentano e raffreddano i centri dati, sono più che raddoppiate quest’anno. La società ha affermato che i nuovi ordini sono cresciuti del 60% rispetto a un anno prima del primo trimestre. Gli analisti di Wall Street si aspettavano una crescita di circa il 15% e hanno rivisto le loro previsioni di profitto nettamente più in alto per gli anni a venire.
“Anche se ancora nelle sue fasi iniziali, l’IA sta rapidamente diventando un tema pervasivo nei nostri mercati finali”, ha detto il CEO di Vertiv Giordano Albertazzi il mese scorso.
Eaton, un’azienda che produce apparecchiature di gestione dell’alimentazione, ha avanzato il 42% quest’anno. Johnson Controls, che produce sistemi elettronici per edifici commerciali, è in aumento del 28%.
Le azioni infrastrutturali potrebbero ottenere un ulteriore impulso se la Federal Reserve tagliasse i tassi di interesse entro la fine dell’anno, come molti investitori si aspettano. Gli investitori guarderanno il rilascio di venerdì dell’indice delle spese di consumo personale, l’indicatore di inflazione preferito dalla Fed, per indizi sul percorso da seguire sui tassi.
Il rally ha lasciato le azioni scambiate ben al di sopra delle loro medie a lungo termine. Eaton negozia a 31 volte i suoi guadagni attesi nei prossimi 12 mesi, mentre Vertiv negozia a 40 volte. Il multiplo dell’S&P 500 è 21 volte.
Il boom della spesa in corso significa che le valutazioni elevate per le imprese industriali sono meno rischiose del solito, secondo Joseph Ghio, analista di Williams Jones Wealth Management. “Queste aziende sono meno cicliche di una volta”, ha detto, aggiungendo che pensa che Eaton possa quasi raddoppiare il suo profitto nei prossimi cinque anni.
La sua azienda possiede azioni di Eaton e Quanta Services, che fornisce manodopera qualificata alle compagnie elettriche, per conto dei clienti. Le azioni di Quanta sono aumentate del 31% quest’anno.
07/05/24 Briefing.com: Technologies affonda perché i risultati ottimisti del primo trimestre non riescono a soddisfare le alte aspettative (PLTR)
Palantir Technologies (PLTR -14%) non riesce a scoprire alcun guadagno oggi anche dopo aver superato le stime delle entrate nel primo trimestre, proiettando quelle del secondo trimestre al di sopra del consenso e aumentando le sue previsioni di vendita FY24. Lo sviluppatore di software di analisi basato sull’intelligenza artificiale, le cui radici sono iniziate come startup finanziata dalla CIA, stava uscendo da un’impressionante performance del quarto trimestre che ha inviato le sue azioni verso i livelli del 2021. Mentre gli investitori accumulavano, spingendo il PLTR oltre il +50% in più rispetto all’anno, chiedevano a gran voce un altro rapporto eccezionale nel primo trimestre. Di fronte a questa barra elevata, i risultati di PLTR, anche se solidi in superficie, si sono rivelati piuttosto deboli oggi.
C’erano anche alcune crepe sotto la superficie, specialmente intorno alle tendenze d’oltremare. Ad esempio, le entrate commerciali statunitensi sono aumentate del 40% all’anno rispetto a un lieve miglioramento del 16% delle entrate commerciali internazionali. Il CEO Alex Karp, uno che non addolcisce mai le situazioni, lo mette in parole senza mezzi termini, affermando che il PLTR ha venti contrari in Europa. Ha aggiunto che la regione si sta dirigendo verso una crescita del PIL allo 0% nei prossimi anni, il che sarà un problema per l’azienda. Nel frattempo, anche se PLTR ha aumentato la sua previsione delle entrate FY24, proiettando 2,677-2,689 miliardi di dollari rispetto a 2,652-2,668 miliardi di dollari, era semplicemente per le dimensioni del suo rialzo del primo trimestre, segnalando che era giustificata una certa prudenza data l’incertezza macroeconomica.
Tuttavia, nonostante la risposta di oggi, PLTR ha consegnato diversi punti salienti del primo trimestre, illuminando che rimane tra le prime fasi di un vento di coda indotto dall’IA potenzialmente di lunga durata.
- PLTR ha registrato EPS coerente con le previsioni degli analisti e ha consegnato il suo sesto trimestre consecutivo di redditività GAAP nel primo trimestre. Nel frattempo, la crescita consolidata delle entrate ha accelerato al 20,8% annuo/anno a 643,3 milioni di dollari nel primo trimestre guidata dalla piattaforma di intelligenza artificiale (AIP) di base di PLTR. Le vendite commerciali globali sono aumentate del 27% all’anno a 299 milioni di dollari, mentre le rivorazioni governative sono in ritardo, migliorando del 16% a 335 milioni di dollari.
- Vale la pena notare che la crescita delle vendite del governo ha accelerato dal +11% registrato nel quarto trimestre, coerentemente con l’aspettativa di PLTR di un’ulteriore aumento della spesa per l’IA mentre si sposta verso la metà posteriore dell’anno.
- La domanda commerciale degli Stati Uniti è rimasta robusta nel primo trimestre. PLTR ha aggiunto il 69% in più di clienti anno/anno, un bel rialzo dal salto del +55% dello scorso trimestre a 262. La direzione prevede di sostenere questo slancio al rialzo per il resto dell’anno, aumentando le sue prospettive di entrate commerciali negli Stati Uniti ad almeno 661 milioni di dollari, 21 milioni di dollari in più rispetto alle sue previsioni precedenti.
- Un fattore di fondo nella capacità di PLTR di continuare ad attrarre più aziende sulla sua piattaforma risiede nei suoi Bootcamp, dove le organizzazioni possono visualizzare ciò che il software di PLTR può fare e come può aumentare la produttività. PLTR ha citato un esempio di come queste sessioni di formazione possono aumentare l’adozione di AIP, osservando che una società di servizi pubblici leader ha firmato un accordo a sette cifre in meno di una settimana dopo aver terminato un Bootcamp. Queste sessioni stanno già portando a una sostanziale compressione del ciclo dell’affare.
Nel complesso, le alte aspettative del mercato sono state sufficienti per affondare PLTR oggi nonostante le solide prestazioni del primo trimestre dell’azienda. Le preoccupazioni provenienti dall’Europa si sono aggiunte anche al ritiro di oggi, soprattutto in considerazione dei commenti del CEO Alex Karp secondo cui la regione rappresenterà un problema. Tuttavia, i risultati del primo trimestre non hanno sostenuto una divergenza strutturale dalle prospettive edificanti dell’azienda che circondano l’IA. Come tale, la caduta rapida di oggi offre un punto di ingresso decente a lungo termine.
20/04/24 Financial Time: la caduta degli dei..
Nvidia scende del 10% mentre gli investitori vedono il rischio nelle azioni Big Tech
Il prezzo delle azioni di Nvidia è crollato del 10 per cento venerdì, contribuendo a sigillare il peggior ribasso per i mercati azionari statunitensi dall’ottobre 2022, poiché gli investitori hanno evitato le attività rischiose prima dell’annuncio degli utili delle Big Tech la prossima settimana.
Il produttore di chip ha sopportato la sua peggiore sessione da marzo 2020, perdendo più di 200 miliardi di dollari del suo valore di mercato quella giornata. Il declino ha rappresentato circa la metà del calo dello 0,9 per cento dell’S&P 500 di Wall Street, secondo i dati di Bloomberg.
Netflix, nel frattempo, ha perso circa il 9% al giorno dopo l’annuncio del servizio di streaming che avrebbe smesso di rivelare regolarmente i suoi numeri di abbonati ha oscurato i guadagni più forti del previsto. Il Nasdaq Composite, pesante di tecnologia, ha chiuso la sessione in calo del 2,1 per cento.
Anche le azioni che sono state spinte più in alto dall’entusiasmo degli investitori per l’intelligenza artificiale hanno sofferto, con Advanced Micro Devices, Micron Technology e Meta che hanno chiuso rispettivamente del 5,4 per cento, del 4,6 per cento e del 4,1 per cento in meno. Super Micro Computer, un gruppo di apparecchiature server visto come beneficiario del boom dell’IA, ha chiuso – 23 per cento.
“È una giornata difficile per le azioni tecnologiche”, ha detto Kevin Gordon, uno stratega degli investimenti senior di Charles Schwab. “Tutto ciò che stava andando bene all’inizio di quest’anno si sta rivoltando, ma le banche e l’energia stanno andando bene assieme ai prodotti per la casa [difensive]”.
Le mosse di venerdì arrivano mentre gli investitori hanno iniziato a prendere sul serio la possibilità che la Federal Reserve degli Stati Uniti possa fare solo un taglio di un quarto di punto ai tassi di interesse quest’anno, o forse nessuno. Gli attacchi di rappresaglia tra Iran e Israele hanno anche aumentato l’ansia degli investitori, intaccando il rally del mercato.
Ma gli analisti hanno detto che la svendita di venerdì è stata invece guidata dagli investitori che hanno riposizionato in fretta i loro portafogli prima di una raffica di utili trimestrali delle Big Tech la prossima settimana.
“Il pullback azionario ha molto poco a che fare con i tassi [di interesse]”, ha detto Parag Thatte, uno stratega della Deutsche Bank. “Ha più a che fare con gli investitori che iniziano a prezzare una crescita degli utili più lenta [per Big Tech]”.
Andrew Brenner, capo del reddito fisso internazionale di NatAlliance Securities, ha affermato che “non c’è una pressione relativa sui tassi” in assenza di nuovi annunci dalla Fed. “Ma le azioni vengono schiacciate”.
Microsoft, Alphabet e Meta riporteranno tutte i risultati per il primo trimestre della prossima settimana, mentre i risultati di Nvidia sono dovuti a fine maggio. Anche se ci si aspetta che tutti abbiano funzionato bene, affrontano difficili confronti trimestre su trimestre.
La crescita degli utili per azione su base annua per Nvidia, Meta, Microsoft, Amazon, Alphabet e Apple ha raggiunto il picco del 68,2 per cento nel quarto trimestre del 2023. Gli analisti di UBS si aspettano che i cosiddetti Big 6 riportino una crescita dell’EPS del 42,1 per cento per i primi tre mesi di quest’anno.
L’indice di riferimento S&P 500 di Wall Street ha perso lo 0,9 per cento venerdì, chiudendo la sua settimana peggiore in più di cinque mesi in termini percentuali. L’indice è diminuito ogni giorno dallo scorso venerdì, la sua peggiore corsa in un anno e mezzo. All’improvviso, “gli acquirenti dip (quelli che comperavano ad ogni calo) non stanno comprando dip. . . o se lo sono, vengono sommersi”, ha detto Mike Zigmont, responsabile del trading di Harvest Volatility Management. L’indice del dollaro era stabile il giorno mentre i prezzi del petrolio sono aumentati modestamente.
19/04/24 Barron’s: Nvidia ha vinto il primo round dell’IA. Ora la concorrenza si sta scaldando.
Negli ultimi 18 mesi, l’intelligenza artificiale ha regalato meraviglie apparentemente quotidiane. Per gli investitori, la sorpresa più grande è stata l’ascesa di Nvidia che ha origini umili per dominare completamente il mercato dei chip legati all’intelligenza artificiale.
Un tempo nota soprattutto per la creazione di schede grafiche aggiuntive per PC per i giocatori, Nvidia ha trasformato le sue unità di elaborazione grafica, o GPU, nel cuore pulsante della rivoluzione dell’intelligenza artificiale, alimentando la creazione di modelli linguistici di grandi dimensioni ed eseguendo il software di inferenza che li sfrutta nei data center di tutto il mondo. Nvidia è stata quasi sola sul campo, con una quota di mercato superiore al 90%.
Ma sta arrivando una nuova concorrenza, da parte di aziende grandi e piccole, e la battaglia sarà feroce. La posta in gioco non potrebbe essere più alta: Lisa Su, CEO di Advanced Micro Devices, ha stimato il mercato dei chip AI a 400 miliardi di dollari entro il 2027. Intel Il CEO Pat Gelsinger ha previsto un’opportunità di 1 trilione di dollari entro il 2030. È quasi il doppio delle dimensioni di l’intera industria dei chip nel 2023.
Jensen Huang di Nvidia ha costruito un’azienda universalmente rispettata e ammirata, ma gli acquirenti di chip non sono entusiasti di fare affidamento su un’unica fonte. Per aziende di hardware come Dell Technologies, Hewlett Packard Enterprise, Lenovo e Super Micro Computer non è sufficiente che i chip Nvidia soddisfino la domanda dei clienti, che vorrebbero delle alternative. I fornitori di servizi cloud come Amazon.com e Alphabet vogliono così tanto più opzioni che sta progettando i propri chip. E le aziende che si affidano a sistemi basati sull’intelligenza artificiale vogliono più risorse di calcolo a costi più gestibili di quelli che possono ottenere ora.
Il successo di Nvidia è ora un’opportunità per tutti gli altri.
È difficile trovare un prodotto di qualsiasi tipo che abbia avuto un impatto sui mercati finanziari così rapido della GPU Nvidia H100, lanciata nel marzo 2022.
Il prezzo delle azioni di Nvidia è più che triplicato dal debutto dell’H100, portando il valore di mercato dell’azienda a 2,1 trilioni di dollari. Tra le società quotate negli Stati Uniti, solo Microsoft e Apple hanno capitalizzazioni di mercato più elevate. E nessun’altra azienda di chip si avvicina neanche lontanamente.
Non si tratta di GameStop o Trump Media & Technology. In effetti, Nvidia è il titolo anti-meme: la crescita dei ricavi dell’azienda ha effettivamente superato i guadagni azionari. Per il quarto trimestre fiscale conclusosi il 28 gennaio, Nvidia ha registrato un fatturato di 22,1 miliardi di dollari, in aumento del 265% rispetto all’anno precedente. I ricavi dei data center dell’azienda sono aumentati del 409%.
Poche settimane fa, Nvidia ha lanciato la sua ultima meraviglia, la GPU Blackwell B200, che secondo il CEO Huang supera notevolmente l’H100. Con Blackwell, Nvidia alza l’asticella per i suoi rivali. Nvidia per il prossimo futuro venderà tutti i Blackwell che riuscirà a produrre o, per essere più precisi, il partner Taiwan Semiconductor Manufacturing può realizzare.
Huang ha detto che le GPU Blackwell costeranno da $ 30.000 a $ 40.000 ciascuna. Gli attuali H100 vengono venduti nella stessa gamma. Ma i prezzi dei chip non sono tutto. I clienti dell’IA vogliono eseguire i carichi di lavoro nel minor tempo possibile, al minor costo, con la massima precisione e affidabilità, assorbendo il minor consumo energetico possibile. Ci sono un certo numero di aziende che pensano di poterlo fare altrettanto bene, o meglio, di Nvidia.
I rivali di Nvidia si dividono in tre gruppi: grandi produttori di chip, fornitori di cloud computing e start-up sostenute da venture capital. Con un mercato da 1 trilione di dollari in gioco, questo non sarà il vincitore che prende tutto. Non è game over. Il gioco è iniziato.
Gli sfidanti più ovvi di Nvidia sono Advanced Micro Devices e Intel.
Le azioni AMD sono aumentate del 71% negli ultimi 12 mesi, aiutate dalla percezione del mercato che le sue nuove GPU MI300 eroderanno la morsa di Nvidia sul mercato. Questa speranza è ispirata dal successo di AMD nel rubare quote di mercato a Intel nel settore dei PC e dei server.
“AMD è davvero l’unica altra azienda sul campo”, sostiene Andrew Dieckmann, direttore generale del business delle GPU per data center di AMD. “Siamo l’unica altra soluzione adottata su larga scala all’interno del settore”. Afferma che i chip AMD superano l’H100 di Nvidia per molti carichi di lavoro di inferenza, offrendo al contempo parità per l’addestramento del modello. Ma l’altro vantaggio di AMD è che non è Nvidia.
“Per quanto riguarda gli utenti molto grandi, non hanno intenzione di scommettere l’intero franchising su un unico fornitore”, afferma Dieckmann. “C’è un estremo desiderio di alternative di mercato”.
Il CEO di AMD, Lisa Su, ha dichiarato durante l’ultima chiamata sugli utili dell’azienda che ora si aspetta un fatturato GPU di 3,5 miliardi di dollari nel 2024, rispetto alla previsione di 2 miliardi di dollari del trimestre precedente.
Intel sta venendo da dietro, e il titolo ha lottato per anni, ma la società ha aperto gli occhi questo mese con il lancio di Gaudi 3, i suoi chip acceleratori AI di terza generazione per l’addestramento e l’inferenza. Intel sostiene che Gaudi 3 è più veloce dell’H100 di Nvidia per entrambe le attività di intelligenza artificiale, pur utilizzando meno energia, e che Gaudi 3 sarà competitivo con Blackwell.
Intel, che ora sta spendendo miliardi per costruire fabbriche di chip in Arizona e Ohio, dovrebbe essere avvantaggiata nel lungo periodo dall’avere una propria fonte di approvvigionamento in un mercato con una grave carenza di forniture. Ma non ancora: Gaudi 3 sarà prodotto da TSMC, proprio come i chip AI di Nvidia e AMD.
Jeni Barovian, vice presidente del gruppo Network & Edge di Intel, attribuisce a Nvidia il merito di aver “gettato le basi per questa rivoluzione”, ma afferma che Intel non intende essere lasciata indietro. I clienti vogliono alternative, dice. “Oggi non si sentono come se avessero una scelta”.
Poi c’è Qualcomm, un altro leader di lunga data nel settore dei semiconduttori. L’azienda di chip per telefoni cellulari ha preso tecnologie originariamente progettate per gli smartphone e le ha applicate al cloud in un chip di inferenza AI chiamato Cloud AI 100. Qualcomm sembra più interessata all’opportunità di servire l’edge delle reti, su laptop e telefoni.
Il vicepresidente senior di Qualcomm, Ziad Asghar, ritiene che, nel tempo, un numero maggiore di carichi di lavoro di inferenza verrà gestito su “dispositivi edge”. La teoria è che è più economico e più sicuro per i dati stare fuori dal cloud. “Il centro di gravità nell’inferenza si sta spostando dalla nuvola al bordo”, dice Asghar.
Meno visibili, ma non meno seri nel competere nei chip AI, sono i team interni di quattro giganti del cloud computing: Amazon, Alphabet, Meta (Facebook) e Microsoft. Tutti e quattro stanno progettando chip proprietari sia per le proprie esigenze interne che per servire i clienti del cloud. La storia della concorrenza qui è meno diretta: nessuno dei leader del cloud vende chip a terze parti.
Ciononostante, sono ancora una minaccia per Nvidia. Meta, Microsoft, Amazon e Google insieme stanno spendendo una fortuna per l’infrastruttura AI. Si prevede che questi quattro paesi avranno una spesa in conto capitale combinata per il 2024 di 178 miliardi di dollari, con un aumento di oltre il 26% rispetto all’anno precedente. Microsoft da sola vedrà il capex aumentare del 53% quest’anno, secondo le stime monitorate da FactSet. La spesa aumenterà del 31% per Alphabet e del 26% per Meta. Tutti e quattro stanno costruendo chip in parte per ottenere un migliore controllo della loro spesa, e tutti dicono che possono arrivarci controllando più dello “stack”, incluso il software, l’hardware e la progettazione dei chip, non diversamente dall’approccio di Apple alla progettazione dell’hardware.
Nvidia ha rifiutato di commentare questo articolo, sottolineando che la società è nel suo periodo di quiete pre-guadagni. Ma Huang ha affrontato la questione della concorrenza nel recente passato.
“Abbiamo più concorrenza di chiunque altro sul pianeta”, ha detto Huang in un evento di marzo allo Stanford Institute for Economic Policy. “Non solo abbiamo la concorrenza dei nostri concorrenti, ma anche quella dei nostri clienti”. Il suo punto di vista è che gli alti livelli di integrazione ed efficienza integrati nei sistemi di Nvidia rendono difficile per i rivali tenere il passo. Huang ha affermato che il costo totale di funzionamento dell’azienda è così buono che “anche quando i chip dei concorrenti sono gratuiti, non è abbastanza economico”.
Ciò non ha impedito alle Big Tech di provarci e a loro si sono unite una serie di start-up sostenute da venture capital. Alcune di queste start-up sperano di vendere chip e sistemi a fornitori di server e cloud, ma la maggior parte di esse sta cercando di sconvolgere il mercato offrendo servizi basati su cloud direttamente ai clienti.
La più intrigante del gruppo potrebbe essere Cerebras Systems, che secondo quanto riferito sta pianificando un’IPO nel 2024.
A marzo, Cerebras ha presentato il suo chip più grande fino ad oggi, il Wafer Scale Engine 3, o WSE-3. Con i suoi 72 pollici quadrati, è il più grande chip commerciale mai realizzato. L’H100, al contrario, è di circa un pollice quadrato. Piuttosto che cercare di collegare in rete molti chip insieme, una sfida ingegneristica, Cerebras sta semplicemente impacchettando tutta la potenza su un gigantesco semiconduttore.
Il chip di Cerebras ha quattro trilioni di transistor, 50 volte la potenza di calcolo dell’H100.
Cerebras sta raggruppando i chip in una piattaforma di calcolo chiamata CS-3, che dice di poter addestrare un modello linguistico di grandi dimensioni come Llama di Meta in un giorno, rispetto a un mese per le piattaforme basate su Nvidia. Cerebras non vende direttamente chips. Sebbene sia disposta a vendere sistemi hardware completi, la maggior parte delle entrate della start-up proviene dalla vendita dell’accesso ai suoi sistemi allo stesso modo dei fornitori di cloud. Tra i suoi clienti: la Mayo Clinic, GSK e il Lawrence Livermore National Laboratory.
Il CEO di Cerebras, Andrew Feldman, afferma che l’azienda ha costruito otto volte più sistemi nel 2023 rispetto all’anno precedente e prevede che il totale aumenterà di 10 volte nel 2024. Cerebras ha registrato un fatturato nel 2023 di 79 milioni di dollari e ha raggiunto il pareggio del flusso di cassa. La società ha raccolto 715 milioni di dollari in capitale di rischio ed è stata valutata 4 miliardi di dollari nel suo round più recente, nel 2021.
“L’opportunità è quella di portare le prestazioni dei supercomputer alle grandi aziende senza sovraccarico di supercomputer”, afferma Feldman.
Il segreto di questo, dice, sono i chips delle dimensioni di un piatto. “Grandi chip significano che non devi interrompere il lavoro.”
Jonathan Ross, che ha svolto un ruolo importante nello sviluppo dei chip AI di Google, è ora a capo di una start-up di chip AI chiamata Groq, da non confondere con il modello Grok AI di Elon Musk. (Tutto questo grokking deriva da una parola coniata da Robert Heinlein nel suo romanzo del 1961, Straniero in terra straniera; significa comprendere appieno qualcosa nel modo più profondo possibile.)
Come Cerebras, la strategia di Groq è quella di vendere il tempo di calcolo in base al consumo, piuttosto che vendere chip a società di hardware e cloud. Ross afferma che Groq è in grado di eseguire modelli popolari come il Llama 2-70b di Meta a una velocità 10 volte superiore a quella dei sistemi basati su Nvidia. (Puoi provarlo gratuitamente su Il sito web dell’azienda.) Dopo che Huang di Nvidia ha presentato Blackwell qualche settimana fa, Groq ha rilasciato un comunicato stampa che diceva semplicemente: “Ancora più veloce”. La società ha annunciato un finanziamento di 367 milioni di dollari fino ad oggi; Ross afferma di aver raccolto ulteriori capitali che non sono ancora stati annunciati.
La start-up di chip AI d-Matrix si concentra sulle applicazioni di inferenza AI nei data center, lasciando la costruzione del modello a Nvidia e altri. Fondata nel 2019, d-Matrix utilizza un design chiamato “calcolo in-memory”, che secondo il CEO Sid Sheth è un’idea che esiste da 30 o 40 anni, un approccio per accelerare il calcolo, ma che non ha mai avuto un’applicazione davvero buona fino a quando non è emersa l’intelligenza artificiale. D-Matrix, che ha raccolto 160 milioni di dollari, prevede di iniziare a vendere chip il prossimo anno.
SambaNova, che ha raccolto 1,1 miliardi di dollari da investitori di rischio, è un’altra società che adotta un approccio basato sui sistemi per servire il mercato dell’intelligenza artificiale. Oltre ai chip, il suo approccio aggrega 54 modelli di intelligenza artificiale open source, compresi quelli di Google e Meta.
Un elemento sorprendente della storia di SambaNova è che, per molti clienti, si tratta di installare sistemi fisici nei loro data center. “La maggior parte dei dati aziendali si trova ancora on-premise”, afferma il CEO Rodrigo Liang. Osserva che i clienti provengono da settori come il settore bancario, sanitario e governativo, compresi i laboratori nazionali di Sandia, Lawrence Livermore e Los Alamos.
Ci sono molte altre start-up di chip AI là fuori. Rain AI, che ha ricevuto finanziamenti iniziali dal CEO di OpenAI Sam Altman, si concentra in particolare sull’efficienza energetica e sull’esecuzione di modelli linguistici di grandi dimensioni su dispositivi edge. Lightmatter sta utilizzando la fotonica, una tecnologia basata sulla luce originariamente creata per applicazioni di calcolo quantistico, per migliorare la velocità di rete nei data center di intelligenza artificiale.
Certo, queste start-up hanno grandi idee, ma operano ancora su piccola scala. Potrebbero volerci anni prima che siano pronti ad affrontare Nvidia. Tuttavia, ci sono potenzialmente grandi portafogli pronti ad accelerare i loro progressi.
Bloomberg ha riferito che SoftBank Group sta valutando un investimento di 100 miliardi di dollari per finanziare una nuova società di chip AI. (SoftBank è anche un investitore e cliente di SambaNova.) Nel frattempo, Altman di OpenAI, secondo il Wall Street Journal, ha messo a punto un piano per investire fino a 7 trilioni di dollari, una cifra che sembra implausibilmente grande, per costruire dozzine di nuove fabbriche di chip. Né SoftBank né OpenAI hanno voluto commentare tali rapporti.
È improbabile che l’emergere di un numero crescente di nuovi e potenziali concorrenti ponga fine al regno di Nvidia come campione dei chip AI. Ma significa che il dominio senza ostacoli di Nvidia su un mercato da 1 trilione di dollari sta volgendo al termine. A partire da ora.
19/03/24 FastCompany: intervista al Ceo di Nvidia
“Negli anni ’20, l’acqua entrò in una turbina e uscì la corrente elettrica. Ora gli elettroni entrano in un generatore e l’intelligenza esce.”
Sto chiacchierando con il CEO di Nvidia Jensen Huang presso la sede centrale del gigante dei chip nella Silicon Valley, dove uno dei suoi moduli di calcolo DGX H100 si trova parzialmente smontato davanti a noi. Riempita con processori incredibilmente veloci e altri componenti all’avanguardia, la scatola, che può costare fino a 500.000 dollari, è un elemento fondamentale dei supercomputer utilizzati da grandi aziende, startup e università per alimentare nuove esperienze di intelligenza artificiale trasformative, e Huang si è rivolto a una precedente rivoluzione tecnologica per spiegarne il significato.
È un confronto evocativo: l’IA in esecuzione su hardware Nvidia cambia la vita di tutti i giorni in profondità come una volta l’elettricità. Ma semmai, sottovaluta l’influenza radicale di Nvidia sul momento attuale. Anche la sua quota di mercato schiacciante per i chip di intelligenza artificiale – l’85%, secondo Raymond James Financial – non trasmette il contributo di Nvidia all’IA come la conosciamo.
Nvidia non è solo nel business di fornire hardware di calcolo sempre più potente e lasciare che tutti gli altri capiscano cosa farne. In una serie di settori, le tecnologie, le piattaforme e le partnership dell’azienda stanno facendo gran parte del lavoro pesante di mettere l’IA al lavoro. In una sola settimana nel gennaio 2024, ad esempio, Nvidia ha riferito di aver iniziato a testare in beta la sua piattaforma di scoperta di farmaci, di aver dimostrato il software che consente ai personaggi dei videogiochi di parlare di dialoghi senza script, di aver annunciato accordi con quattro produttori cinesi di veicoli elettrici che incorporeranno la tecnologia Nvidia nei loro veicoli e di aver presentato una partnership nel settore della vendita al dettaglio volto a sventare il taccheggio organizzato.
Per applicare i suoi chip estremamente versatili alle attività del mondo reale, Nvidia ha già avuto bisogno di immergersi profondamente in queste discipline e molte altre. “Non esiste un chip di sintesi proteica”, dice Huang, a titolo di esempio. “Devi andare a capire la biologia delle proteine e devi capire cosa vogliono fare gli scienziati e come possiamo automatizzare meglio il loro lavoro. E quindi tutti questi diversi algoritmi richiedono una discreta quantità di ricerca.”
Annunciato al GTC 2024, il supercomputer DGX SuperPod AI di Nvidia è alimentato dai nuovi chip GB300 Grace Blackwell dell’azienda. [Foto: Courtesy Nvidia]
La tecnologia Nvidia è un ingrediente così essenziale nel progresso dell’IA che i keynote di Huang alla conferenza degli sviluppatori GTC dell’azienda possono servire come anteprima di dove sta andando l’intero campo. Uno dei suoi grandi temi all’edizione di quest’anno, tenutosi lunedì pomeriggio al SAP Center di San Jose davanti a un pubblico di 11.000, era la robotica. Oltre a passare attraverso i prodotti dell’azienda in quel dominio, con nomi come Gr00t e Thor, ha mostrato video in cui gli esseri umani usavano il software Nvidia per insegnare ai bot come eseguire compiti come far funzionare uno spremiagrumi. Non scrivendo codice, ma semplicemente eseguendoli.
Gli unici ospiti sul palco di Huang durante la sua presentazione di due ore erano nove robot umanoidi, che lo hanno affiancato verso la fine, più due minuscoli cugini di WALL-E sviluppati dalla Disney. Quando ha dichiarato che “il momento ChatGPT per la robotica potrebbe essere proprio dietro l’angolo”, respingere di riflesso l’affermazione come hype non sembrava una scommessa sicura. Dopo tutto, stiamo già vivendo nell’era dell’IA che Nvidia ha previsto anni fa e ha fatto tanto quanto qualsiasi azienda per trasformarsi in realtà.
Conosciuto per la sua caratteristica giacca di pelle nera e i suoi modi affabili, Huang ha guidato Nvidia da quando l’ha co-fondata nel 1993. Allora, l’azienda ha aperto la strada al concetto di unità di elaborazione grafica (GPU), chip ad alte prestazioni per il rendering di giochi 3D e altre applicazioni PC visivamente intensive. Il suo primo chip, rilasciato nel 1995, ha venduto male. Ma la RIVA 128 del 1997 è stata un successo, stabilendo l’azienda come una centrale elettrica della computer grafica.
All’epoca in cui Nvidia stava aumentando, l’IA non era solo lontana nel proprio futuro. L’intera industria tecnologica era scettica sul potenziale della tecnologia, portando a un periodo di disillusione e diminuzione degli investimenti noti come inverno di intelligenza artificiale. Ma Huang sottolinea che gran parte dell’attuale successo dell’azienda deriva dalle scelte che ha fatto all’inizio della sua storia, prima di cogliere esattamente dove avrebbero portato.
“Il futuro, come sempre, si svolge in modo continuo”, dice, diventando filosofico. “Non c’è una vera discontinuità di per sé”. Ad esempio, anche quando le GPU riguardavano esclusivamente la grafica, Nvidia le ha rese programmabili, in modo che potessero fare di più che lanciare pixel predefiniti su un display. Ciò li ha resi piattaforme per se stessi piuttosto che semplicemente aiutanti della CPU di un computer.
Le abilità che Nvidia ha acquisito lungo la strada lo hanno preparato per nuove sfide. “La fisica delle particelle per un videogioco non è dissimile dalla fluidodinamica in una simulazione molecolare”, dice Huang, spiegando come gli insegnamenti di un settore potrebbero essere applicati a un altro. “L’elaborazione delle immagini che usiamo per illuminare una scena nella computer grafica non è diversa dall’elaborazione delle immagini per gli strumenti medici. In molti modi, queste sono tutte matematiche molto simili. E così abbiamo ampliato la nostra apertura, lentamente e sistematicamente.”
Più capaci sono i processori Nvidia, maggiore è il loro potenziale al di là delle immagini. Nel 2006, l’azienda ha introdotto un livello software chiamato CUDA (Compute Unified Device Architecture), che consente agli sviluppatori di sfruttare il muscolo algoritmico delle sue GPU per compiti impegnativi di ogni tipo. Nel giro di pochi anni, i ricercatori di intelligenza artificiale lo stavano usando per ottenere scoperte in settori come il deep learning.
Mentre l’IA è sbocciata in laboratorio, la sua promessa del mondo reale è diventata più chiara e chiara per Huang. Ma all’inizio, convincere i potenziali clienti che sarebbe stato ovunque – e Nvidia sarebbe stata nel suo cuore – è stata una vendita difficile. “Nessuno l’ha capito affatto”, dice Huang con una risata, citando il suo lungo fallimento nel far incuriosire un’azienda automobilistica dall’idea di usare la visione artificiale per lasciare che le auto si guidano da sole: “Pensavano solo che fosse un giocattolo”.
Con il tempo, la visione e la persistenza di Huang hanno dato i loro frutti in modo drammatico. Nell’ultimo anno, dice, la comprensione mondiale di ciò che Nvidia sta facendo “è aumentata di un ordine di grandezza”.
Anche in questo caso, quello che potrebbe sembrare un punto di svolta è davvero il culmine di anni di investimenti pazienti che hanno posizionato Nvidia per il successo mentre la commercializzazione dell’IA è iniziata sul serio. “Una volta che la GPU Nvidia è diventata l’impostazione predefinita per la ricerca, ha finito per diventare l’impostazione predefinita per ciò che è diventata quella ricerca”, afferma Anshel Sag, analista principale di Moor Insights & Strategy.
Uno dei pezzi più storici della ricerca basata su Nvidia è stato un programma sperimentale di intelligenza artificiale chiamato AlexNet. Sviluppato nel 2012 da Alex Krizhevsky in collaborazione con Ilya Sutksever (più recentemente meglio conosciuto come capo scienziato di OpenAI) e Geoffrey Hinton (il “Padrino dell’IA” e ora uno scettico dell’IA vocale), potrebbe insegnare a identificare gli oggetti nelle immagini con una precisione senza precedenti. Vedendo la svolta della visione artificiale che rappresentava, Nvidia ha concluso che in futuro, “il software più importante sarebbe stato gli algoritmi che percepiscono il mondo che ci circonda e manipolano le cose o controllano le cose nel mondo reale”, afferma il Rev Lebardian, un VP che è stato in azienda per 22 anni.
Tra le altre implicazioni, Nvidia ha ritenuto che l’IA del mondo reale avrebbe richiedeto una tecnologia di simulazione più sofisticata. Ad esempio, testare qualcosa come le auto autonome, ora parte della piattaforma automobilistica Drive di Nvidia, potrebbe essere fatto in modo molto più sicuro, rapido ed economico in forma virtuale che sulle strade reali. Nel 2020, l’azienda ha incanalato quella realizzazione in Omniverse, un’offerta basata su cloud dedicata a una delle categorie più calde della tecnologia aziendale: i cloni digitali.
Supervisionato da Lebardian e sfruttando l’esperienza dell’azienda sia nell’intelligenza artificiale che nella grafica 3D, Omniverse consente la creazione di repliche digitali ultra-realistiche di oggetti, posizioni e processi fisici. Il gigante del miglioramento della casa Lowe’s lo sta usando per digitalizzare i suoi negozi per applicazioni come la gestione degli scaffali. BMW ha simulato la sua fabbrica per aiutare a posizionare efficacemente i robot. E la società di intelligenza di chirurgia cerebrale Atlas Meditech ha creato una sala operatoria virtuale che consente ai chirurghi di provare in sicurezza le procedure prima di intraprendere per davvero.
Pochi giorni prima che Nvidia svelasse il nuovo software di Omniverse per la Vision Pro di Apple al GTC, ho avuto modo di provarlo da solo in una sala conferenze presso la sede centrale di Nvidia. La coupé sportiva digitale Nissan Z su larga scala con cui ho interagito, dall’apertura del bagagliaio al sedere al volante, è stata renderizzata nel cloud sull’hardware Nvidia. Ma era così ultra-realistico che potevo leggere la stampa fine in rilievo sulle sue gomme. L’azienda ha impiegato solo poche settimane per costruire il codice Vision Pro necessario, che si fa da cavalcare su un’app di configuratore per auto Nissan creata dallo studio di computer grafica Katana. Eppure è anche il risultato diretto della reazione preveggente dell’azienda ad AlexNet più di un decennio fa.
Come altre iniziative Nvidia, Omniverse beneficia dell’incata dedizione dell’azienda a incontrare i clienti dove si trovano, che si tratti di un centro commerciale suburbano o di un centro medico. “Capiscono l’utente finale meglio di chiunque altro, e questa è davvero la chiave per chi sono e perché hanno così tanto successo”, afferma Peter Rutten, VP del calcolo ad alta intensità di prestazioni presso la società di ricerca IDC.
Il che non vuol dire che l’approccio di Nvidia all’innovazione implichi far bollire una quantità illimitata di oceani da solo. Al suo centro, è una società di piattaforme, dipendente dai partner per finire il lavoro creando esperienze specifiche del settore in cima al suo stack hardware e software.
Non possiamo andare a costruire tutti quegli strumenti e tutte le soluzioni e le applicazioni per tutti in ogni settore con la scala in cui ci triamo”, afferma Lebardian. “Dovremmo essere milioni di persone. Quindi siamo perfettamente felici di lavorare con gli altri, e lo preferiamo.” (Il numero di persone è attualmente di circa 30.000 persone, di trenta volte in più rispetto a quando Lebardian si è unito nel 2002.)
Più di 100 partner offrono prodotti basati su una sola piattaforma di intelligenza artificiale Nvidia: la Clara incentrata sull’assistenza sanitaria, che ha una suite di offerte che abbraccia biofarmaceutiche, immagini, dispositivi e genomica. Tuttavia, sapere semplicemente abbastanza per collaborare efficacemente in così tante categorie ha contribuito a plasmare la forza lavoro dell’azienda. “Abbiamo medici qui”, dice Kimberly Powell, che è entrata a far parte di Nvidia nel 2008 come primo dipendente dedicato alla tecnologia sanitaria ed è ora vicepresidente e direttore generale di quel gruppo. “Abbiamo chimici computazionali. Abbiamo biologi computazionali. Nel corso degli anni, abbiamo assunto esperti di dominio profondo, perché c’è un livello di traduzione linguistica che dobbiamo capire”.
“Nel prossimo decennio, vedremo progressi nell’informatica come non abbiamo mai visto prima”, dice Huang. Si stacca da alcune aree di cui è particolarmente appassionato (tecnologia climatica, biologia digitale, robotica generica) e sottolinea che anche se molti dei recenti risultati di Nvidia sono il risultato di 5-15 anni di investimento, tutti rimangono lavori in corso. Ad un certo punto, i computer quantistici potrebbero superare i supercomputer classici, come quelli basati sulle GPU Nvidia. Ma Huang non si aspetta che ciò accada per un altro decennio o due. Anche allora, è fiducioso che i computer più potenti del mondo saranno gli ibridi classici-quantistici, un’area di ricerca che l’azienda sta già perseguendo.
L’ottimismo di Wall Street che Nvidia possa continuare a cavalcare l’onda dell’IA si riflette nella sua capitalizzazione di mercato, che ha superato 1 trilione di dollari nel maggio 2023, mettendo il produttore di chip nel cielo rarefatto di Microsoft, Apple, Alphabet e Meta. A febbraio, Nvidia ha annunciato un fatturato del 2023 di 60,8 miliardi di dollari, in aumento del 126% rispetto al 2022. Lo stesso mese, la sua capitalizzazione di mercato ha raggiunto i 2 trilioni di dollari, dietro solo a Microsoft e Apple.
Questi vasti numeri sono in parte una scommessa sul mercato generale dell’IA, che la società di ricerca Spherical Insights prevede salirà a 2,76 trilioni di dollari entro il 2032. Anche se non ci sono garanzie che Nvidia continuerà a svolgere un ruolo essenziale, è difficile trovare qualcuno disposto a prevedere che non lo farà. “Nvidia ha un fossato molto profondo”, afferma Jack Hidary, CEO della società di intelligenza artificiale e software quantistico SandboxAQ, un partner Nvidia. “E mi aspetto che quel vantaggio competitivo non solo rimanga, ma cresca effettivamente nei prossimi quattro o cinque anni”.
Alla domanda sugli scenari in cui altri giocatori di intelligenza artificiale potrebbero recuperare, Huang indica l’ubiquità di Nvidia, che ha richiesto anni per essere raggiunta e non sarebbe facile da replicare. “Siamo l’unica architettura al mondo disponibile in ogni cloud”, dice. “È disponibile in cloud privati, è in loco, è al limite nelle auto, nei robot e nelle fabbriche”.
In effetti, così tanti clienti desidano le GPU Nvidia, per il gioco e il mining di criptovaluta, nonché l’intelligenza artificiale, che la domanda ha spesso superato l’offerta. Questa è un’opportunità per altre aziende, almeno se hanno le tasche straordinariamente profonde necessarie per entrare nel business dei semiconduttori. A febbraio, Bloomberg ha riferito che la giapponese SoftBank sta progettando di raccogliere fondi per un’impresa di chip AI da 100 miliardi di dollari per integrare la sua risorsa esistente Arm, la cui tecnologia è concessa in licenza da molte società, tra cui Nvidia. Poi c’è il CEO di OpenAI Sam Altman, che secondo quanto riferito ha cercato 7 trilioni di dollari per lanciare una nuova società di chip.
Più immediatamente, Nvidia affronta già rivali sotto forma di nuovi assumi come Cerebras, Graphcore, Groq e SambaNova. Ma piuttosto che sfidare a testa alta il gorilla 800-pound dell’hardware AI, i nuovi arrivati sono meglio cercare di scolpirsi le proprie nicchie, dice Rutten di IDC. Ad esempio, invece di improrsi sul mercato per la formazione di modelli di intelligenza artificiale, in cui l’hardware Nvidia potrebbe rivelarsi impossibile da spostare, la startup di chip Recogni si sta concentrando sull’inferenza: il processo di estrazione di informazioni da un modello e di sfruttarle per uno scopo particolare, come un sistema avanzato di assistenza alla guida.
“Nvidia sta usando la stessa soluzione per la formazione e l’inferenza”, spiega il CEO di Recogni Marc Bolitho. “Stiamo lavorando per una soluzione appositamente costruita e ottimizzata per l’inferenza dell’IA e vediamo che il mercato cresce molto rapidamente con l’aumentare della base di utenti per l’IA generativa”. Gli investitori vedono abbastanza potenziale in questo tipo di concorrenza mirata che Recogni è stato in grado di annunciare un round di finanziamento di 102 milioni di dollari a febbraio.
Un’altra minaccia potenzialmente importante risiede nella gran voglia delle enormi aziende tecnologiche di controllare i loro stack tecnologici da cima a fondo. Amazon, Microsoft, Google e Meta hanno riversato risorse nello sviluppo di chip personalizzati, forse prefigurando un giorno in cui sono più pienamente responsabili dei propri destini di IA. Google ha viaggiato particolarmente lontano lungo questa strada con le sue Tensor Processing Units, attualmente nella loro quinta generazione. E lo scorso maggio, Meta ha rivelato il suo primo processore AI, il Meta Training and Inference Accelerator. Su misura per il processo di scelta di contenuti e annunci da visualizzare nei feed dei social network, potrebbe essere un chip che nessuno tranne Meta progetterebbe.
Huang non esclude tali esercizi nell’indipendenza dell’IA. “Se le grandi aziende volessero costruire il proprio silicio, noi aumentiamo ancora”, dice. “Ogni volta che ci hanno nel loro cloud, portiamo loro molti e molti clienti. Portiamo molti sviluppatori a loro.” Partecipare al vibrante ecosistema di Nvidia, sostiene, è in definitiva un atto di interesse personale, una posizione che il continuo abbraccio della grande tecnologia sembrerebbe confermare.
A gennaio, quando Mark Zuckerberg si è recato su Instagram per fornire un aggiornamento video sulla ricerca sull’intelligenza artificiale di Meta, non ha nemmeno menzionato gli sforzi di progettazione dei chip dell’azienda. Invece, ha parlato in termini che tutti nell’industria tecnologica potrebbero capire, vantandosi di un piano per distribuire 350.000 GPU Nvidia H100 entro la fine del 2024, un impegno che gli costerà miliardi. Anche per i titani dell’IA, basarsi su ciò che Nvidia ha creato – più ambizioso, meglio è – è spesso il modo in cui avvengono i progressi.
19/03/24 Briefing.com: NVIDIA soccombe alla presa di profitto sulla scia della conferenza GPU, ma le prospettive sono più brillanti che mai (NVDA)
Di fronte a una affollatissima audience alla GPU Technology Conference a San Jose, NVIDIA (NVDA) ha presentato il suo supercomputer AI di nuova generazione, il DGX SuperPod, che sarà alimentato da un nuovo processore chiamato Blackwell. Dire che questo evento è stato molto atteso sarebbe un’importante eufemismo e il meteorico aumento del 75% da inizio anno del titolo rispecchia quell’entusiasmo. La debolezza iniziale del titolo, quindi, è più la funzione di qualche consolidamento e presa di profitto, piuttosto che una vera delusione per quanto riguarda la raffica di annunci di NVDA che escono da questo evento.
- In effetti, i due principali takeaway di questa mattina sono che Blackwell è una piattaforma significativamente più potente del suo predecessore, Hopper, e che NVDA è solo nei primi inning di questo boom di crescita basato sull’IA. Sul primo punto, NVDA ha dichiarato che i Superchip GB200 – che alimentano il supercomputer DGX AI e includono 72 GPU Blackwell – offrono un aumento delle prestazioni fino a 30 volte rispetto alla GPU NVIDIA H100 Tensor Core per carichi di lavoro di inferenza del modello linguistico di grandi dimensioni.
- Su quest’ultimo punto, NVDA ha scatenato una raffica di comunicati stampa, annunciando che molte aziende tecnologiche leader stanno espandendo le loro partnership e collaborazioni con NVDA per scalare le loro capacità di intelligenza artificiale generativa. Alcuni standout includono Google (GOOG) Cloud, Amazon (AMZN), NetApp (NTAP) e CrowdStrike (CRWD). Quando il CEO di NVDA Jensen Huang ha commentato lo scorso trimestre che l’informatica accelerata e l’IA generativa hanno raggiunto il punto di svolta, questa serie di annunci incapsula davvero questa affermazione.
- NVDA in realtà non produce i suoi chip. Tale compito è esternalizzato a Taiwan Semiconductor Manufacturing (TSM), che sta anche vivendo una reazione sell-the-news dopo che le azioni hanno raggiunto livelli record la scorsa settimana.
- Guardando oltre il calo di oggi in entrambe le azioni, è difficile immaginare che la debolezza sarà duratura, dato che il lancio di Blackwell sembra destinato a diventare il prossimo potente catalizzatore di crescita per entrambe le società. Blackwell sarà sul mercato entro la fine dell’anno e dovrebbe avere un impatto immediato e sostanziale sul segmento Data Center di NVDA. Forse l’unico fattore che trattiene NVDA sarà la catena di approvvigionamento, che potrebbe non essere abbastanza robusta per gestire la domanda alle stelle.
- Grazie al successo dilagante della GPU Hopper di NVDA, il segmento Data Center è stato la star dello spettacolo nell’ultimo anno. Nel quarto trimestre, le entrate del centro dati sono aumentate del 409% all’anno a 18,4 miliardi di dollari, anche se le vendite in Cina sono diminuite in modo significativo a causa delle restrizioni commerciali. Con il lancio di Blackwell, le opportunità di mercato si espandono ulteriormente poiché il processore è in grado di eseguire azioni molto più complesse, come la generazione di video 3D su comando.
La linea di fondo è che NVDA sta continuando a progredire attraverso un modello di consolidamento tanto bisognoso dopo l’enorme rally del titolo, ma le prospettive di crescita rimangono più brillanti che mai uscendo dalla sua conferenza.
04/03/24 Forbes: Anthropic rilascia Claude 3, un modello che sostiene può battere il migliore di OpenAI
In un’intervista, i fondatori Dario e Daniela Amodei hanno detto a Forbes che il nuovo modello incentrato sull’impresa di Anthropic, pubblicato lunedì, supera i rivali con GPT-4 e Gemini 1.0 Ultra di Google.
Anthropic ha annunciato oggi una nuova serie di modelli in grande linguaggio che la società di intelligenza artificiale sostiene siano i più intelligenti del mondo fino ad oggi, superando le offerte rivali di OpenAI e Google.
Chiamato Claude 3, la nuova famiglia di Anthropic è disponibile in tre versioni – Opus, Sonnet e Haiku – che variano in base alle prestazioni e al prezzo. Opus, la versione più potente e costosa da eseguire, ha superato il GPT-4 di OpenAI e il Gemini 1.0 Ultra di Google attraverso una serie di benchmark che misurano l’intelligenza, ha detto la società. It e Sonnet, l’offerta di medio livello, sono stati resi disponibili lunedì, mentre Haiku sarà rilasciato in una data annunciata successiva.
In un’intervista, il cofondatore e CEO Dario Amodei ha detto che la famiglia di modelli è stata progettata pensando a diversi casi d’uso aziendali. “Claude 3 Opus è, almeno secondo le valutazioni, per molti aspetti il modello più performante al mondo in una serie di compiti”, ha aggiunto.
Su una serie di soggetti di test popolari tra cui le conoscenze generali di livello universitario (MMLU), la matematica della scuola elementare (GSM8K), il codice informatico (HumanEval) e la conoscenza delle domande e risposte (ARC-Challenge), Claude 3 Opus ha superato il GPT-4 di OpenAI e il Gemini 1.0 Ultra di Google, per i benchmark condivisi dall’azienda. Sul benchmark general-knowledge, Claude 3 Opus ha anche superato Mistral Large, il modello top-line rilasciato dall’unicorno AI open-source Mistral, pubblicato la scorsa settimana.
La versione di Claude 3 che la maggior parte degli utenti vedrà, tuttavia, Claude 3 Sonnet, si è comportata più alla pari con GPT-4: avanti su alcuni benchmark, indietro su altri. E Amodei ha ammesso che i benchmark di Anthropic non hanno tenuto conto dei recenti aggiornamenti di OpenAI e Google (GPT-4 Turbo e Gemini 1.5 Pro) poiché i loro colleghi non hanno ancora pubblicato le valutazioni dei test corrispondenti. “Sarei sorpreso se non ci esibissimo in modo competitivo”, ha detto.
A 15 dollari per milione di token di input – equivalente al testo di 2.500 pagine di libro – e 75 dollari per milione di token di output, Claude 3 Opus è più costoso della versione di anteprima del GPT-4 Turbo di OpenAI, che costa rispettivamente 10 e 30 dollari per milione di token. Amodei e la cofondatrice e sorella Daniela Amodei hanno detto a Forbes che si aspettano che Opus sia utilizzato da aziende che hanno bisogno delle prestazioni più all’avanguardia per funzioni come l’analisi dei dati complessi e la ricerca biomedica.
Claude 3 Sonnet, in confronto – che è cinque volte più economico – avrebbe senso per la maggior parte delle attività, hanno aggiunto, con usi che vanno dalla ricerca e dal recupero attraverso grandi archivi di dati, alle previsioni delle vendite e al marketing mirato e alla generazione di codice.
Il modello a basso costo, Claude 3 Haiku, costerà solo una frazione di questo, utile per le interazioni dal vivo con i clienti, la moderazione dei contenuti e la gestione dell’inventario logistico. La versione Haiku ha ancora funzionato alla pari con l’ultima versione di punta di Anthropic di Claude 2, il modello predecessore rilasciato solo otto mesi fa, ha detto Dario Amodei: “È molto competitivo con altri modelli della stessa classe. Questo è un grande guadagno”.
Tutti e tre i modelli consentiranno richieste fino a 200.000 token (approssimativamente delle dimensioni di un libro), più dei 128.000 supportati da GPT-4 Turbo. Gli utenti di Opus saranno in grado di richiedere 1 milione di limiti di token per alcuni usi, ha detto Anthropic, corrispondente al tetto che Google ha offerto ad alcuni utenti di Gemini 1.5 Pro.
Formato da sette ricercatori che hanno lasciato OpenAI, Anthropic ha storicamente mirato a separarsi dal suo progenitore e da altre aziende del settore attraverso un’attenzione più profonda alla sicurezza dell’IA. Alcuni addetti ai lavori del settore si sono chiesti se questo abbia rallentato l’azienda e messo in discussione le prestazioni del suo modello negli ultimi mesi, anche sui social media. Su una popolare classifica crowdsourcing di valutatori umani, Claude 1 ha attualmente una valutazione più alta rispetto ai suoi successori Claude 2.0 e il Claude 2.1 aggiornato.
Dario Amodei si è scrollato di dosso quelle valutazioni come una sola valutazione basata sull’uomo di un numero finito di compiti dei consumatori. Ha ammesso che mentre Claude 2 era più sicuro del suo predecessore in un modo che soddisfaceva i ricercatori di Anthropic, ciò è venuto a costo di maggiori “rifiuti errati” o rifiuti di suggerimenti che il modello riteneva si avvicinassero troppo ai suoi guardrail di sicurezza. La famiglia Claude 3 si comporta molto meglio dei predecessori nel non servire quei rifiuti, ha affermato Anthropic. I prompt innocui che si avvicinano al contenuto ai suoi limiti di sicurezza vengono rifiutati circa il 10% delle volte, rispetto al 25% di Claude 2.1. “Ora stiamo facendo progressi verso un maggiore equilibrio tra i due, qualcosa che ottiene il meglio di entrambi i mondi”, ha detto Amodei. “È davvero difficile tracciare un confine complesso nel modo giusto. Cerchiamo sempre di farlo meglio.”
Mentre aziende come Inflection, Character.AI e persino OpenAI si sono avventurate ulteriormente nei casi d’uso dei consumatori, Anthropic si sta concentrando sui clienti aziendali. Gli utenti del suo chatbot consumer gratuito, chiamato anche Claude, avranno ora accesso a Sonnet, mentre le persone che desiderano provare Opus dovranno abbonarsi alla sua versione a pagamento da 20 dollari al mese. Ma le versioni di Claude 3 sono state fatte più per i casi d’uso aziendali in mente, ha detto Daniela Amodei. I clienti di Claude includono le società tecnologiche Gitlab, Notion, Quora e Salesforce (un investitore antropico); il gigante finanziario Bridgewater e il conglomerato SAP, nonché il portale di ricerca aziendale LexisNexis, il telco SK Telecom e il Dana-Farber Cancer Institute.
Tra i primi utenti di test Claude 3, il produttore di software di produttività Asana ha trovato un miglioramento del 42% nel tempo di risposta iniziale, ha detto il dirigente focalizzato sull’IA Eric Pelz in una dichiarazione. La collega società di software Airtable ha affermato di aver integrato Claude 3 Sonnet nel proprio strumento di intelligenza artificiale per aiutare a creare contenuti e riepilogare i dati più velocemente.
Per quanto sia quanto è costato l’allenamento di Claude 3 – quanto computing e per quanto tempo – i cofondatori di Anthropic hanno rifiutato di dire. Mentre Claude 2 è stato rilasciato lo scorso luglio, Amodei ha detto che non era un omaggio, poiché l’azienda a volte allena più modelli contemporaneamente, a seconda della disponibilità di cluster di unità di elaborazione grafica o GPU.
Anthropic – che ha recentemente raccolto 750 milioni di dollari con una valutazione di 18,4 miliardi di dollari, come riportato da Forbes – prevede di aggiungere funzionalità tra cui l’interpretazione del codice, le funzioni di ricerca e le citazioni delle fonti nei prossimi mesi. “Continueremo a scalare i nostri modelli e a renderli più intelligenti, ma continueremo anche a cercare di rendere i modelli più piccoli ed economici più intelligenti ed efficienti”, ha detto Amodei. “Ci saranno aggiornamenti grandi e piccoli durante tutto l’anno”.
22/02/24 Barron’s: Nvidia sta vendendo picconi in una corsa all’oro
Le prestazioni stellari di Nvidia e le prospettive sbalorditive spingono i commentatori alla ricerca di un confronto storico appropriato.
È come il boom delle dot-com degli anni ’90? Quella è stata l’ultima volta che le azioni tecnologiche sembravano entusiasmare così tanto le persone. Ha scatenato un altro Roaring 20s, parallelo a quello che è successo nello stesso decennio del secolo scorso? Il rally che le azioni tecnologiche hanno acceso potrebbe diffondersi. Prima che Nvidia riportasse i guadagni, 10 degli 11 settori dell’S&P 500 sono aumentati mercoledì.
Forse la migliore analogia è la corsa all’oro della California nel XIX secolo. Come dice il proverbio, le persone che fanno più soldi sono quelle che vendono pale.
Questo è ciò che sta facendo Nvidia. L’intelligenza artificiale è la miniera d’oro. Non è ovvio quali aziende faranno le maggiori fortune con l’IA, ma avranno bisogno dei chip ad alta potenza che solo Nvidia offre per iniziare.
Ecco perché l’azione sembra essere un investimento così certo: l’unico problema che sembra trattenere Nvidia è se può fare abbastanza semiconduttori per soddisfare la domanda che sta ancora crescendo più velocemente delle aspettative. Anche se col tempo affronterà sicuramente una feroce concorrenza man mano che i rivali colmeranno il ritardo.
I risultati della società hanno di gran lunga oscurato le veline della Federal Reserve, che ha suggerito che i tagli ai tassi di interesse potrebbero essere ancora molto lontani. Se l’hype dell’IA e i tassi di interesse più alti degli ultimi decenni stanno avendo una partita di wrestling, l’IA sembra tenere la Fed per il collo.
Naturalmente, i riferimenti storici per l’attuale frenesia faranno confronti su come tutto finisce. Ovviamente, il boom delle dot-com ha portato a un crollo spettacolare. I ruggenti anni ’20 sono stati peggiori, culminando nella Grande Depressione.
Ma la fine della corsa all’oro della California non è stata così drammatica. È arrivato al termine quando l’argento è stato scoperto nel vicino Nevada, semplicemente inviando cercatori che cercavano di farlo diventare ricco in una destinazione diversa.
Cresce l’aspettativa che Chip Maker batteranno le attese
Nvidia ha dimostrato che lo slancio di un boom delle vendite stimolato dall’intelligenza artificiale è ancora forte, triplicando le vendite nell’ultimo trimestre e prevedendo entrate migliori del previsto per quello attuale. Il CEO Jensen Huang ha affermato che l’informatica accelerata e l’IA generativa hanno raggiunto un punto di svolta, con una domanda in aumento ovunque.
- Le entrate del quarto trimestre hanno raggiunto i 22 miliardi di dollari, superando le aspettative. Ha previsto 24 miliardi di dollari di vendite per il suo trimestre in corso e ha indicato l’aumento della domanda dalla sua attività di data center, dove le vendite sono salite di cinque volte rispetto all’anno precedente.
- Nvidia ha affermato che l’aumento dei risultati dei data center riflette maggiori spedizioni di chip Nvidia Hopper, che vengono utilizzati per la formazione e l’inferenza di modelli di intelligenza artificiale di grandi dimensioni e applicazioni di intelligenza artificiale generativa. I grandi fornitori di cloud computing hanno rappresentato oltre la metà delle entrate del centro dati per il trimestre.
- Il direttore finanziario Colette Kress ha dichiarato in un commento scritto che le vendite di chip per data center da parte di Nvidia in Cina sono diminuite in modo significativo nel quarto trimestre a causa del rafforzamento delle restrizioni statunitensi sulle vendite lì. Il commento non ha delineato le dimensioni del calo.
- Nel gioco, le entrate del quarto trimestre di Nvidia di 2,9 miliardi di dollari sono aumentate del 56% rispetto all’anno precedente. Nella sua sezione di visualizzazione professionale, che si occupa di sistemi che richiedono un’intensa elaborazione grafica, come la progettazione 3-D, le entrate sono raddoppiate a 463 milioni di dollari e nelle entrate della sua divisione automobilistica sono diminuite del 4% rispetto all’anno precedente a 281 milioni di dollari.
Cosa c’è dopo: Kress ha detto che la domanda per i futuri prodotti Nvidia è robusta. L’azienda si aspetta che i prodotti di prossima generazione siano limitati dall’offerta poiché la domanda supera di gran lunga l’offerta, ha detto agli analisti. Il prossimo chip AI, il B100, dovrebbe essere rilasciato nei prossimi trimestri.
— Tae Kim e Liz Moyer
05/02/24 Barron’s: Palantir sale dopo gli utili. Il CEO vede un mondo di “aumento del caos e del pericolo””.”
DaEric J. SavitzSegui
Le azioni di Palantir sono aumentate del 98% negli ultimi 12 mesi.
Forte rialzo di Palantir nel dopo mercato dopo che la società ha registrato una crescita dei ricavi del quarto trimestre migliore del previsto.
La forte domanda da parte dei clienti commerciali dell’azienda compensa le entrate governative più leggere del previsto.
Il titolo è aumentato fino al 18% nel tardo trading a seguito del rapporto sugli utili.
Per il trimestre, Palantir ha registrato entrate di 608 milioni di dollari, in aumento del 20% rispetto a un anno fa, e superiore alla stima di 603 milioni di dollari di Wall Street. I risultati suggeriscono un aumento degli affari recenti; le entrate sono cresciute del 17% nel terzo trimestre.
Su base rettificata, Palantir ha guadagnato 8 centesimi per azione, in linea con le stime del consenso di Wall Street tracciate da FactSet.
Le entrate commerciali di Palantir sono state di 284 milioni di dollari, in aumento del 32% rispetto a un anno fa, e in anticipo rispetto alla previsione di Wall Street di 271 milioni di dollari. Ciò include una crescita del 70% del business commerciale statunitense, una forte accelerazione dall’espansione del 33% nel terzo trimestre, a 131 milioni di dollari.
In un’intervista con Barron’s, il CEO Alex Karp ha detto che l’attività commerciale del trimestre è stata “roboante, ballerina, incomprensibile”.
Le entrate dal settore pubblico sono state di 324 milioni di dollari, in aumento dell’11%, ma timide rispetto alle previsioni degli analisti per 333 milioni di dollari. Karp dice che l’attuale situazione geopolitica, con disordini in Medio Oriente, guerra in Ucraina e una relazione controversa tra Stati Uniti e Cina, andrà a beneficio di Palantir a lungo termine.
“Il governo è un business complicato”, dice Karp. “Le parti del governo che si stanno preparando ad andare in guerra stanno usando Palantir o stanno per usare Palantir”.
Durante il quarto trimestre, Palantir ha chiuso 103 accordi tra clienti commerciali e governativi per un valore di oltre 1 milione di dollari, dice Karp, il doppio rispetto al trimestre di un anno fa.
Le azioni di Palantir sono aumentate del 98% negli ultimi 12 mesi, potenziate dall’eccitazione per l’intelligenza artificiale.
“I nostri risultati riflettono sia la forza del nostro software che la domanda crescente che stiamo vedendo in tutti i settori e settori per le piattaforme di intelligenza artificiale, compresi i grandi modelli linguistici, che sono in grado di integrarsi con il groviglio di infrastrutture tecniche esistenti che le organizzazioni stanno costruendo da anni”, ha detto Karp in una lettera agli azionisti.
Per alcuni investitori, l’acquisto di azioni Palantir porta sfumature politiche. Originariamente finanziata in parte da In-Q-Tel, il braccio di capitale di rischio della CIA, la società è rimasta un aperto sostenitore dell’esercito statunitense. Nel 2020, Palantir ha trasferito la sua sede centrale a Denver da Palo Alto, in parte a causa della sensazione dell’azienda che la sua attenzione commerciale non si adattasse alla Silicon Valley.
Karp è stato anche esplicito nel suo sostegno all’esercito israeliano, un cliente di Palantir, nella sua attuale guerra con Hamas a Gaza.
“Abbiamo costruito l’azienda attorno al presupposto che il mondo non fosse stabile, che i pregiudizi non stavano scomparendo”, ha detto Karp a Barron. “L’Occidente deve combattere per avere successo, e se l’Occidente combatte per avere successo, puoi vincere”.
“La ragione per cui il mondo è così pericoloso è perché la Cina sta ovviamente notando che l’America è l’unico paese al mondo con crescita del PIL. E accelererà a causa di questi progressi tecnologici che stanno praticamente accadendo esclusivamente in questo paese. Averai una massiccia crescita del PIL nel futuro dell’America e avrai una crescita del PIL in calo, o forse zero o appena al di sopra dell’inflazione, in Europa, che porterà a una massiccia instabilità”.
Karp vede rischi geopolitici in aumento intorno alla parola. “I nostri avversari presumono correttamente che l’America sarà ancora più forte domani di oggi. “Quindi sono razionali per agire””, dice.” “La situazione è molto più pericolosa a Taiwan di quanto la gente si renda conto, perché è razionale per la Cina agire. Ed è più pericoloso in Medio Oriente di quanto la gente pensi”.
Karp dice di capire perché ci sono scettici su Palantir.
“Perché se ho ragione, le loro attività e i loro investimenti falliranno tutti”, dice. “E se hanno ragione, è un mondo migliore” Ma, aggiunge Karp, “Sembra certamente che siamo in un mondo di caos e pericolo crescente”.
Per il trimestre di marzo, Palantir vede entrate che vanno da 612 milioni a 616 milioni di dollari, poco prima del consenso di Wall Street di 617 milioni di dollari. La società vede un reddito rettificato da operazioni compreso tra 196 e 200 milioni di dollari, al di sopra del consenso di 172 milioni di dollari.
Per il 2024, Palantir prevede entrate comprese tra 2,652 miliardi di dollari e 2,668 miliardi di dollari; gli analisti sono a 2,643 miliardi di dollari. La società vede un reddito rettificato per l’intero anno da operazioni comprese tra 834 milioni di dollari e 850 milioni di dollari, in anticipo del consenso a 747 milioni di dollari. La società prevede una crescita delle entrate commerciali degli Stati Uniti per l’anno di almeno il 40%. Palantir prevede un flusso di cassa libero rettificato per il 2024 compreso tra 800 milioni di dollari e 1 miliardo di dollari, al di sopra del consenso a 658 milioni di dollari.
Scrivi a Eric J. Savitz su eric.savitz@barrons.com
05/02/24 Barron’s: Nvidia e questo altro titolo sono le migliori scommesse sulla domanda di chip AI, dice l’analista
DaTae KimSegui
Gli strumenti di programmazione di Nvidia si aggiungono al fascino dei suoi chip.
Due titoli legati ai chip trarrrano il massimo dalla crescente domanda di semiconduttori di intelligenza artificiale, afferma Raymond James.
Venerdì, l’analista Srini Pajjuri ha ribadito le valutazioni Strong Buy su Nvidia e ASML, citando come le grandi aziende tecnologiche sembrano fare progressi nel guadagnare denaro da progetti di intelligenza artificiale generativa. Strong Buy è il punteggio più alto di Raymond James per le azioni.
“Rimaniamo rialzisti sull’adozione dell’IA in tutti i settori e vediamo una lunga strada per i fornitori di componenti”, ha scritto. “Stimiamo che le entrate semi relative all’IA della generazione siano cresciute del 200% nel 2023 e ci aspettiamo che raddoppi nel 2024”.
Nel trading di lunedì, le azioni Nvidia sono aumentate del 3,6% a 685,19 dollari, mentre le azioni ASML sono scese dello 0,2% a 887,78 dollari.
Nvidia è il principale produttore di chip AI per i centri dati. Sia le start-up che le aziende hanno preferito i suoi prodotti perché l’azienda ha una solida piattaforma di programmazione, CUDA, che fornisce strumenti che rendono più facile lo sviluppo di applicazioni AI.
ASML, nel frattempo, rende le macchine di litografia ultravioletta estrema fondamentali per la produzione di semiconduttori AI. I clienti dell’azienda olandese includono Taiwan Semiconductor Manufacturing, Samsung Electronics e Intel.
“L’impatto della monetizzazione dell’IA (sui guadagni dell’azienda hyperscaler) è stato molto più evidente in questa stagione degli utili”, ha scritto, riferendosi ai grandi fornitori di cloud computing.
L’analista ha notato che queste società di cloud-computing hanno commentato positivamente la spesa quando hanno riportato i loro guadagni la scorsa settimana. Microsoft ha detto che si aspetta che le spese in conto capitale “aumentino materialmente” nel trimestre in corso e che intende continuare a investire in modo aggressivo. Alphabet ha detto che il suo capex sarebbe “notevolmente più grande” nel 2024 che nel 2023.
Le tendenze nella domanda di intelligenza artificiale sono dietro quegli investimenti in infrastrutture, hanno detto le aziende.
25/01/24 Barron’s: Le azioni IBM saltano al massimo di 11 anni grazie alla scommessa sull’AI che inizia a pagare
DaEric J. SavitzSegui
Se vuoi vedere il vero potere dell’intelligenza artificiale, non guardare oltre il rally mozzafiato di giovedì in azioni di quel nuovo up dell’informatica di 113 anni, IBM
Mercoledì scorso, IBM ha pubblicato risultati finanziari del quarto trimestre che hanno leggermente superato le stime di Wall Street. Ma la vera notizia era altrove. IBM ha affermato che il suo “libro degli affari” per i carichi di lavoro di intelligenza artificiale è raddoppiato in sequenza nel trimestre rispetto alle “basse centinaia di milioni” che ha riportato nel terzo trimestre, implicando circa 400 milioni di dollari. Barron ha scritto ripetutamente che IBM è uno dei giocatori più sottovalutati sulla tendenza dell’IA e gli investitori ora sembrano prendere piede.
L’altra chiave della storia di IBM è il free cash flow. La società aveva previsto 10,5 miliardi di dollari di flusso di cassa libero per l’anno e ha superato quel numero, raggiungendo 11,2 miliardi di dollari. Inoltre, IBM ha previsto un aumento di 12 miliardi di dollari di flusso di cassa libero per il 2024, circa 1 miliardo di dollari in più di quanto la Street avesse previsto.
IBM ha anche detto che dovrebbe pubblicare entrate per il 2024 a metà una cifra – chiamalo dal 4% al 6% – che era al di sopra del consenso di Street al 3%. IBM sta raggiungendo i numeri di una previsione a lungo termine dell’ottobre 2021 che ha definito la strategia di turnaround dell’azienda, che includeva una doppia attenzione al cloud ibrido e all’intelligenza artificiale. Il piano dell’azienda ha richiesto una crescita ad alta cifra nella consulenza e una crescita a mezza cifra nel software. Ed è quello che sta offrendo.
IBM ha anche detto mercoledì che prevede di assumere alcuni costi aggiuntivi, riducendo la sua forza lavoro di un paio di per cento, poiché si adatta sia alle proprie efficienze dall’uso dell’IA che per aumentare gli esperti di intelligenza artificiale nei suoi bracci di consulenza e software.
The Street ha apprezzato quello che ha sentito da IBM: a loro è piaciuto molto. Le azioni IBM sono aumentate di quasi il 13% nelle recenti negoziazioni, a 196,43 dollari. Se quel prezzo rimane, sarebbe il livello di chiusura più alto del titolo da giugno 2013. IBM è ora entro il 5% del suo massimo record di chiusura di 206,12 dollari, raggiunto il 15 marzo 2013. Il rally di oggi è la più grande mossa di un giorno del titolo dal luglio 2000. Contribuendo con più di 140 punti alla Dow Jones Industrial Avwrage il titolo sta mantenendo da sola l’indice blue-chip nel verde.
C’erano alcuni punti delicati nel rapporto: le entrate del software in particolare erano leggermente al di sotto delle stime di Street. Ma gli analisti sono rimasti colpiti dai numeri in generale e dai risultati del free-cash-flow in particolare.
L’analista di BofA Global Research Wamsi Mohan ha ripetuto il suo rating Buy sulle azioni IBM e ha aumentato il suo prezzo obiettivo sul titolo a 200 dollari, da 170 dollari. Mohan ha osservato che la guida del 2024, in particolare sul flusso di cassa libero, era “molto migliore del previsto”, riflettendo una combinazione di maggiore redditività e minori esigenze di cassa per i suoi piani pensionistici, compensate in parte da maggiori spese in conto capitale. “L’inversione di tendenza di IBM continua, con un portafoglio difensivo, un rendimento dei dividendi attraente e un portafoglio di intelligenza artificiale sottovalutato”, ha scritto.
L’analista di Melius Research Ben Reitzes, che ha un rating Buy e un prezzo obiettivo di 224 dollari sul titolo, afferma che il trimestre era “tutto sul flusso di cassa”. Pensa che il titolo dovrebbe continuare a muoversi più in alto, notando in particolare che la società sta crescendo molto più velocemente nella sua attività di consulenza rispetto alla rivale Accenture
Egli osserva che IBM ha scambiato con uno sconto del 40% con Accenture su base multipla principe/guadagni del 2024.
“Gli investitori sono ancora nelle prime fasi di realizzazione di IBM ha remixato la sua attività per guidare l’accelerazione fino al 2025”, scrive Reitzes. “La crescita a una cifra media di Big Blue e la crescente rilevanza dell’IA dovrebbero renderla più vicina a un multiplo di mercato”.
Scrivi a Eric J. Savitz su eric.savitz@barrons.com
16/01/24 Forbes: Come una società di chip in difficoltà ha beneficiato delle ambizioni di intelligenza artificiale degli investitori mediorientali
Mentre gli Stati Uniti limitano le vendite di chip alla regione a causa delle preoccupazioni della Cina, Blaize, con sede in California, sta progettando di andare in pubblica attraverso uno SPAC sostenuto da investitori mediorientali.
Di David Jeans, Staff Forbes
Per più di un decennio, una società di semiconduttori con sede in California lanciata dagli ingegneri Intel ha operato nell’oscurità, sviluppando un chip che sperava potesse intaccare il business dell’edge computing di Nvidia. Ma anche dopo che la società, Blaize, ha raccolto più di 200 milioni di dollari da società di venture capital come GGV e l’investitore tecnologico Lane Bess, l’anno scorso aveva bisogno di più capitale e i suoi investitori esistenti non erano disposti a fornire di più. “Sono tornati da me e mi hanno detto: ‘Puoi mettere più soldi per farci andare avanti?'” Bess, che ha investito circa 25 milioni di dollari, ha detto a Forbes. “E o era quello o fondamentalmente scriviamo una perdita”.
Ma la scorsa estate, è emersa una terza opzione: un gruppo di investitori mediorientali con un crescente interesse per l’IA. Guidato da Shahal Khan, che ha curato l’acquisizione nel 2018 del Plaza Hotel di Manhattan, il gruppo stava investendo miliardi in iniziative di intelligenza artificiale con l’obiettivo di trasformare gli stati del Golfo in un hub tecnologico preminente. I chip di Blaize – che potrebbero fornire potenza di calcolo edge per qualsiasi cosa, dai filmati di droni militari ai veicoli autonomi – aiuterebbero a rafforzare queste ambizioni.
Ora, Blaize è destinata ad essere quotata attraverso una fusione SPAC con una società di assegni in bianco guidata da Khan, BurTech, con un valore aziendale di 894 milioni di dollari, e dovrebbe portare 71 milioni di dollari in nuovo capitale, ha detto la società il mese scorso; prevede di quotarsi sul NASDAQ nel secondo trimestre del 2024. “Il motivo per cui ci abbiamo investito è stato che molti dei miei LP provengono dal Medio Oriente”, ha detto Khan a Forbes, compresi i family office delle famiglie reali dell’Arabia Saudita, degli Emirati Arabi Uniti e del Qatar. “E stanno investendo un’enorme quantità di denaro nella costruzione di quello che pensano sarà probabilmente uno dei principali hub di supercomputer del pianeta”.
I fondi sovrani del Golfo sono stati a lungo finanziatori per le startup della Silicon Valley e le tecnologie di intelligenza artificiale. Ma come società di chip americana, i nuovi legami di Blaize con la regione potrebbero presentare sfide in un momento in cui il governo degli Stati Uniti sta rafforzando i controlli sulle esportazioni di semiconduttori in paesi come l’Arabia Saudita, il Qatar e gli Emirati Arabi Uniti tra le preoccupazioni che la Cina stia usando la regione per aggirare le restrizioni americane sull’ottenimento della tecnologia.
Altri produttori di chip, tra cui Nvidia e AMD, hanno subito pressioni da parte del governo: ad agosto i giganti della tecnologia hanno rivelato che gli Stati Uniti avevano limitato le esportazioni alle nazioni del Medio Oriente non divulgate (un portavoce del Dipartimento del Commercio ha negato a Reuters di aver limitato le vendite). E a novembre, secondo quanto riferito, la Casa Bianca ha espresso preoccupazioni per i legami della Cina con la più grande società di intelligenza artificiale degli Emirati Arabi Uniti, G42, che deteneva importanti contratti con società americane come OpenAI. Recentemente, Bloomberg ha riferito che l’amministrazione Biden ha costretto un braccio di venture di Saudi Aramco a vendere la sua posizione in una startup di intelligenza artificiale sostenuta da Sam Altman chiamata RainAI.
Blaize potrebbe trovarsi sotto un controllo simile. “Il governo degli Stati Uniti, comprese persone come [il Comitato per gli investimenti esteri negli Stati Uniti], avrebbe un interesse e darebbe un’occhiata abbastanza da vicino a ciò che sapevano di questa transazione”, ha detto Brian Egan, un avvocato di Skadden che consiglia le aziende sulla sicurezza nazionale e sulle questioni prima di CFIUS.
Il CEO di Blaize, Dinakar Munagala, ha sottolineato che l’azienda aderirebbe alle leggi americane: “Come azienda, abbiamo tutti i processi di controllo delle esportazioni in atto in modo che quando vendiamo i nostri chip ci assicuriamo di conformarci a tutte le regole”.
Il Dipartimento del Commercio non ha risposto a una richiesta di commento.
Blaize, che ha sede a El Dorado Hills, in California, e ha uffici nel Regno Unito e in India, è stato impegnato a firmare accordi in Medio Oriente. A settembre, la società ha annunciato di aver inserito un memorandum d’intesa con Mark AB Capital, un fondo controllato da membri della famiglia reale di Abu Dhabi. La società ha detto che si aspettava di generare 50 milioni di dollari di entrate annuali dalla partnership attraverso gli ordini del Consiglio di cooperazione del Golfo, che include gli Emirati Arabi Uniti e l’Arabia Saudita, e avrebbe formato 5.000 cittadini degli Emirati Arabi Uniti sulla sua piattaforma software di intelligenza artificiale. “Con questa partnership, non stiamo solo sfruttando il potenziale dell’IA, ma stiamo anche aprendo la strada verso una nazione alimentata dall’IA in cui il progresso non conosce limiti”, ha detto all’epoca Abdullah Mohamed Al Qubaisi, CEO di Mark AB Capital.
Tali accordi vengono fatti insieme a una raffica di altre partnership tecnologiche di intelligenza artificiale nella regione. All’inizio del 2023, la società di intelligenza artificiale con sede in California Cerebras ha firmato un accordo da 100 milioni di dollari per fornire supercomputer al G42 degli Emirati Arabi Uniti, che è stato seguito da una partnership per sviluppare un importante modello di grande lingua in lingua araba. Secondo quanto riferito, il mese scorso, il gruppo indiano Adani ha formato una fusione congiunta con l’International Holding Co. degli Emirati Arabi Uniti per “esplorare l’intelligenza artificiale e altre tecnologie”. E nei mesi precedenti la sua breve sostrazione come CEO di Open AI a novembre, Sam Altman era stato in trattative per raccogliere miliardi dall’Arabia Saudita e dagli Emirati Arabi Uniti per una società di semiconduttori per rivaleggiare con Nvidia.
Il CEO Munagala ha detto a Forbes che Blaize ha clienti oltre il Medio Oriente, tra cui Stati Uniti, Giappone e Germania, ma ha rifiutato di elaborare. Ha aggiunto che i chip e il software di Blaize vengono distribuiti in un aeroporto non divulgato dove vengono utilizzati per ordinare innumerevoli ore di filmati di sicurezza e che l’azienda sta anche prendendo di mira applicazioni di difesa, come la fornitura di calcolo per l’analisi video da filmati di droni; la società ha detto di aver fatto un’offerta su almeno uno degli Stati Uniti. Contratto del Dipartimento della Difesa, ma ha rifiutato di dire di più.
Lanciato nel 2011 come ThinCI, il team fondatore era composto da ex ingegneri dei semiconduttori Intel, guidati da Munagala, che hanno visto l’opportunità di fornire potenza di calcolo per applicazioni edge, come attività ad alta intensità di calcolo come l’analisi video. Investitori strategici come Daimler e il gigante giapponese dei ricambi auto Denso hanno guidato cicli di finanziamento nell’azienda, vedendo il potenziale nelle rivendicazioni dell’azienda di eseguire modelli di intelligenza artificiale in modo più efficiente sui suoi chip. Dopo aver rilasciato i suoi primi prodotti nel 2020 – tra cui uno “studio di intelligenza artificiale” che ha permesso agli utenti di costruire applicazioni di intelligenza artificiale senza codice e più piattaforme hardware – la società ha raccolto altri 70 milioni di dollari da investitori come Franklin Templeton, GGV e il fondo sovrano di Singapore Temasek.
Ora che Blaize si è assicurato una nuova ancora di salvezza, Munagala sta andando in un roadshow per scatenare l’hype in vista dell’imminente IPO. La sua prima tappa questo mese è l’Arabia Saudita, dove Blaize è attualmente in trattative per formare una joint venture per distribuire i suoi chip in un nuovo data center fuori Riyadh e nei droni utilizzati per l’agricoltura. (Un portavoce dell’appaltatore, Saudi National Projects Investments, non ha risposto a una richiesta di commento). “Dinakar sarà piuttosto impegnato questo mese”, ha detto Khan.
Bess, da parte sua, è sollevato dal fatto che il suo investimento abbia trovato nuovi sostenitori dopo le sue sfide di raccolta di denaro. “Dove l’azienda ha trovato la sua base”, ha detto, “è nella progressività dei governi mediorientali e delle famiglie reali nell’avere l’appetito di investire nel loro futuro”.
05/01/24 Barron’s: Nvidia può fare 100 miliardi di dollari in denaro extra nei prossimi 2 anni, dice l’analista
DaTae Kim
Nvidia genererà un enorme flusso di profitti dalla vendita dei suoi semiconduttori di intelligenza artificiale nei prossimi anni, afferma BofA Global Research.
Giovedì, l’analista Vivek Arya ha ribadito la sua valutazione di acquisto “Top Pick” per le azioni Nvidia, prevedendo che il produttore di chip farà 100 miliardi di dollari di flusso di cassa libero in totale nei prossimi due anni. Ha riaffermato il suo obiettivo di prezzo di 700 dollari per le azioni.
“La solida generazione di FCF [flusso di cassa libero] di NVDA crea opzionalità”, ha scritto. “Ci aspettiamo che NVDA consideri le risorse che la aiutano a creare un profilo di entrate ricorrenti più significativo”.
Arya stima che Nvidia possa utilizzare da 30 a 35 miliardi di dollari dei 100 miliardi di dollari di flusso di cassa libero per i riacquisti di azioni. La società ha acquistato 3,8 miliardi di dollari delle sue azioni nel suo ultimo trimestre riportato.
Con il resto dei soldi, il produttore di chip potrebbe investire in nuove opportunità di generazione di entrate. L’analista afferma che l’investimento aggiuntivo può aiutare ad espandere il multiplo della valutazione price-to-earnings di Nvidia alla sua media mediana storica da 35 volte a 40 volte, rispetto a 24 volte oggi.
“Ci figuramo NVDA considerare partnership/M&A più avanzate di aziende di software che stanno aiutando i clienti aziendali tradizionali a implementare, monitorare e analizzare le app genAI”, ha scritto.
Nvidia attualmente domina il mercato dei chip utilizzati per le applicazioni di intelligenza artificiale. Le start-up e le aziende preferiscono i prodotti dell’azienda a causa della sua robusta piattaforma di programmazione, CUDA, che fornisce strumenti relativi all’IA che rendono più facile lo sviluppo di progetti di intelligenza artificiale.
27/12/23 Briefing.com: Synopsys crolla per l’annuncio di una acquisizione
Gli investitori di Synopsys sono delusi dal potenziale prezzo che la società potrebbe pagare per acquisire Ansys (SNPS)
Synopsys (SNPS), un fornitore di software di automazione della progettazione elettronica utilizzato per testare e progettare chip, ha scesa l’ultima ora della sessione di venerdì su un rapporto del WSJ che stava cercando di acquisire Ansys (ANSS), uno sviluppatore di software di simulazione ingegneristica. Ulteriori dettagli della presunta transazione si sono materializzati dopo la chiusura di venerdì. Reuters ha riferito che Ansys stava ricevendo offerte di acquisizione per oltre 400 dollari per azione, un premio di circa il 17% rispetto al prezzo di apertura di venerdì.
Senza alcun accordo formalizzato, non vi è alcuna garanzia che Ansys sarà acquisita da Synopsys, o da qualsiasi società per quella materia, o se inchiostrerà un accordo a un prezzo superiore a 400 dollari/azione, sottolineato da Ansys che quota ancora ben al di sotto di quei livelli. Reuters ha notato che un annuncio formale dovrebbe essere fatto entro le prossime settimane.
- Perché un’acquisizione di Synopsys/Ansys dovrebbe avere senso? Ansys ha sviluppato un software di simulazione ingegneristica per decenni, espandendo costantemente il suo vantaggio competitivo penetrando numerose industrie attraverso l’ampia gamma di applicazioni del suo software. A causa dell’alto livello di formazione coinvolto, il software di simulazione di Ansys è costoso da disattivare, fornendo all’azienda un flusso di entrate difensivo. Mentre la linea superiore di Ansys ha fatto un underwhelm lo scorso trimestre, ciò era in gran parte dovuto agli Stati Uniti. Ulteriori restrizioni all’esportazione del Dipartimento del Commercio per alcune imprese cinesi, un probabile vento contrario a breve termine.
- Ansys comanda anche margini eccellenti, mantenendo margini lordi di oltre il 90% nel terzo trimestre, evidenziando la capacità della direzione di tenere sotto controllo le spese. Tuttavia, per lo stesso motivo, non lascia molto spazio a Synopsys per entrare e tagliare le spese gonfie, mantenendo un limite alle potenziali sinergie.
- Allora perché le azioni di Synopsys sono diminuite rapidamente sulle segnalazioni di un’acquisizione di Ansys? Il prezzo sospetto che Synopsys avrebbe pagato per aggiungere il software Ansys al suo arsenale era troppo alto. Se Synopsys dovesse acquistare Ansys per 400 dollari per azione, si tradurrebbe in circa 15x entrate stimate FY23 e 46x guadagni rettificati, significativamente al di sopra di molti altri giganti della tecnologia del software come ORCL, ADBE e CRM.
I rapporti che Synopsys potrebbe offrire formalmente almeno 400 dollari per azione per Ansys sono stati accolti da un contraccolpo immediato da parte degli investitori di Synopsys, principalmente a causa del prezzo elevato. Ansys vanta un bossato economico considerevole data la sua vasta storia, che si incorpora in numerose industrie e alti costi di commutazione. Tuttavia, le entrate di Ansys si sono recentemente raffreddate, scivolando in territorio negativo nel terzo trimestre mentre le restrizioni cinesi pesavano. Tuttavia, l’aggiunta di Ansys sarebbe una mossa eccellente per Synopsys nel lungo periodo, soprattutto perché il contenuto di semiconduttori aumenta, con fluttuazioni azionarie a breve termine che creano punti di ingresso interessanti.
22/12/23 Barron’s: Ecco un titolo sull’ intelligenza artificiale di cui probabilmente non hai sentito parlare. Sembra un acquisto interessante.
DaTae KimSegui
Nonostante il suo pedigree di quasi quattro decenni e un valore di mercato di 85 miliardi di dollari, Synopsys SNPSnon ottiene molta copertura da Wall Street o dai media, soprattutto rispetto ai suoi principali clienti: Nvidia, Advanced Micro Devices e Intel.
È un nome che vale la pena conoscere, però. Synopsys è il più grande fornitore di software di automazione della progettazione elettronica, o EDA, che viene utilizzato per progettare semiconduttori. L’azienda potrebbe essere il beneficiario più sottovalutato del boom dell’intelligenza artificiale.
Nell’ultimo decennio, Synopsys è cresciuta insieme alla proliferazione di chip nei prodotti di consumo, dalle auto agli elettrodomestici e all’elettronica. Ma l’era dell’IA ha il potenziale per innescare un altro livello di crescita.
Le azioni di Synopsys sono aumentate del 75% quest’anno, a un recente 560 dollari, anche se questo impallidisce rispetto ai beneficiari di intelligenza artificiale più noti come Nvidia, in aumento del 235% e Palantir Technologies, in aumento del 174%.
L’aumento della domanda di chip AI, dalle start-up ai giganti del cloud computing, e l’implementazione aggressiva dell’azienda delle proprie funzionalità basate sull’intelligenza artificiale potrebbero guidare un aumento della domanda di anni per il software Synopsys.
“L’IA è stata una grande opportunità per accelerare il time-to-market dei nostri clienti fornendo loro prodotti EDA e IP [proprietà intellettuale] più efficienti per sviluppare quei chip complessi”, ha recentemente detto il CEO entrante Sassine Ghazi a Barron.
Il dirigente prende le redini di Synopsys il 1° gennaio, sostituendo il fondatore dell’azienda, Aart de Geus, che sta passando al ruolo di presidente esecutivo. Ghazi è entrato a far parte di Synopsys nel 1998. Ha ricoperto vari ruoli dirigenziali, tra cui ingegneria e sviluppo del prodotto, prima di diventare direttore operativo dell’azienda nel 2020.
Ghazi afferma che l’interesse delle aziende per l’IA generativa sta in aumento, scatenando una maggiore domanda di chip avanzati che saranno progettati dal software Synopsys.
“Non mancano le idee per varie applicazioni di intelligenza artificiale nel centro dati o nel cloud”, afferma. “È a destra in termini di domanda”.
Ghazi aggiunge che Synopsys ha iniziato a esaminare come l’azienda può utilizzare l’intelligenza artificiale per migliorare l’efficienza, l’accuratezza e la sicurezza in tutti i suoi dipartimenti di marketing, risorse umane e legali. L’azienda ha già diversi progetti nelle prime fasi di adozione, dice, che migliorano drasticamente la produttività e i processi del flusso di lavoro.
Per i suoi clienti, l’azienda ha recentemente presentato Synopsys.ai Copilot attraverso una partnership con Microsoft. Sfrutta modelli linguistici di grandi dimensioni per formare ingegneri attraverso un’interfaccia simile a ChatGPT. “Pensalo come un assistente di intelligenza artificiale per la progettazione di chip”, dice Ghazi. ” Riduce significativamente il nostro carico di supporto e migliora il nostro aumento dei clienti”.
Il nuovo CEO vede la tecnologia evolversi dove l’IA può generare progetti di semiconduttori con una minima interazione da parte dei progettisti di chip. La nuova funzionalità di intelligenza artificiale verrà aggiunta al software Synopsys ogni nove mesi.
L’analista di KeyBanc Capital Markets Jason Celino è ottimista sul fatto che il passaggio di Synopsys verso una maggiore intelligenza artificiale pagherà dividendi all’azienda e ai suoi clienti.
“Il design abilitato all’intelligenza artificiale è la più grande svolta del prodotto nello sviluppo EDA in 30-40 anni”, afferma Celino. Ha un rating di sovrappeso sul titolo e un obiettivo di prezzo di 675 dollari, circa il 20% al di sopra dei livelli attuali.
I miglioramenti dell’IA dovrebbero significare che i clienti Synopsys hanno meno probabilità di cambiare fornitore. Ci sono poche scelte, comunque. Il design dei chip è dominato da Synopsys e rivaleggia Cadence Design Systems e Siemens EDA, un prodotto dell’acquisizione di Mentor Graphics da parte di Siemens nel 2017 per 4,5 miliardi di dollari. È un’area del mercato che è probabilmente altrettanto importante delle fonderie, dominate dalla Taiwan Semiconductor Manufacturing, e dalle apparecchiature per chip, guidate da ASML.
Insieme, le tre aziende EDA hanno circa il 90% della quota di mercato per gli strumenti software EDA, secondo KeyBanc. Synopsys è il più grande fornitore, con il 35%.
07/12/23 Barron’s: C3.ai è in una fase di investimenti accelerati . Il CEO Tom Siebel spiega perché.
“L’opportunità in Gen AI è semplicemente sbalorditiva”, ha detto il CEO di C3.ai Tom Siebel a Barron.
Il CEO di C3.ai Tom Siebel pensa di avere una tigre per la coda e non lascerà che le preoccupazioni di Wall Street si intromettano.
Alla fine di mercoledì C3.ai ha riportato utili per il trimestre di ottobre che ha lasciato i mercati delusi sia dai risultati che dalla stime della società.
Le azioni C3.ai di giovedì sono scese del 10,7% a 26,05 dollari, ma rimangono più alte del 133% per l’anno fino ad oggi. Siebel, per esempio, non si preoccupa del movimento di un giorno nelle azioni generalmente volatili della società.
Ecco la situazione. La crescita negli ultimi trimestri non è stata all’altezza di quella di due anni fa, una situazione che Siebel dice che riflette meno in parte una transizione del modello di business: l’azienda ora utilizza un modello di consumo, come molti fornitori di cloud, piuttosto che un modello di abbonamento.
Per il secondo trimestre fiscale conclusosi a ottobre. 31, C3.ai ha registrato un fatturato di 73,2 milioni di dollari, in aumento del 17% rispetto a un anno fa, verso la fascia più bassa della gamma di orientamento dell’azienda da 72,5 milioni a 76,5 milioni di dollari e al di sotto delle previsioni di consenso di Street tracciate da FactSet di 74,3 milioni di dollari.
Per il trimestre di gennaio, C3.ai prevede entrate comprese tra 74 e 78 milioni di dollari, con una perdita operativa non GAAP compresa tra 40 e 46 milioni di dollari. Il consenso di strada aveva precedentemente richiesto entrate di 77,7 milioni di dollari e una perdita operativa non GAAP di 21,1 milioni di dollari.
Il vero kicker sono state le prospettive per l’intero anno fiscale che termina ad aprile 2024. C3.ai ha ribadito la sua guida alle entrate, che richiede entrate comprese tra 295 e 320 milioni di dollari. Ma la società ora vede una perdita non GAAP da operazioni tra 115 milioni e 135 milioni di dollari, allargando da un precedente intervallo di previsioni che richiede una perdita da 70 milioni di dollari a 100 milioni di dollari.
C3.ai aveva avvertito il mercato nel riportare i risultati del trimestre di luglio che avrebbe accelerato il ritmo di spesa per muoversi in modo aggressivo per capitalizzare la crescita della domanda di software di intelligenza artificiale generativa da parte di aziende di ogni descrizione. C3.ai ha detto all’epoca che ulteriori investimenti avrebbero ritardato i tempi dell’azienda per raggiungere la redditività non GAAP.
A quel tempo, Siebel ha detto a Barron che la società ha deciso di spendere una parte dei suoi 800 milioni di dollari in contanti in vendite, marketing, pubblicità e scienziati dei dati per acquisire più quote di mercato nell’IA generativa. Ha descritto la strategia come “un’accaparramento della terra”, aggiungendo che sarebbe “pazzi non investire in questo mercato… lo stiamo facendo con gli occhi aperti”.
E ora il Siebel sta forzando la sua scommessa.
“L’opportunità in Gen AI è semplicemente sconcertante”, ha detto Siebel in un’intervista con Baron giovedì. “L’opportunità è più grande di qualsiasi cosa abbia visto nella mia carriera professionale”. Questa non è una dichiarazione da poco del fondatore di Siebel Systems, una società di software per la gestione delle relazioni con i clienti che è stata acquisita da Oracle per 5,6 miliardi di dollari nel 2006.
“Ho quasi 800 milioni di dollari in banca”, dice. “Cos’altro dovrei fare con esso? Lo sto investendo nel business. C’è un imperativo economico per farlo. Non farlo non sarebbe razionale.” Ha detto che l’azienda prevede di lanciare una campagna sul marchio, aggiungendo anche personale, costruendo più applicazioni e mettendo a punto più modelli. Dice che l’emergere nell’ultimo anno dell’IA generativa ha effettivamente raddoppiato l’opportunità di mercato dell’azienda.
Siebel afferma che la storia di C3.ai negli ultimi trimestri è stata la trasformazione dell’azienda del suo modello di business dagli abbonamenti ai prezzi di consumo. E in effetti, il tasso di crescita top-line di C3.ai è sceso dal 42% nel trimestre di luglio 2021 al -4% nel trimestre di gennaio 2023. Ma la crescita è migliorata da lì: piatta nel trimestre di aprile, in crescita dell’11% a luglio e in aumento del 17% in questo trimestre.
“Abbiamo detto alla gente che c’era un sistema a bassa pressione in arrivo, che avrebbe piovuto e poi sarebbe andato avanti”, ha detto. Siebel pensa che la crescita continuerà ad accelerare da qui e che l’azienda possa tornare ai giorni gloriosi con una crescita del 40%-plus alla fine.