Intelligenza Artificiale: ma ci si può guadagnare sopra?

Visto che tutti ne parlano e che – sembra – essere la prossima gallina dalle uova d’oro cercherò di inserire qui tutte le varie azioni che potrebbero avere uno slancio dalla AI… ricordo sempre che un conto e’ comperare Microsoft un conto una piccola società ma siccome siete tutti adulti e vaccinati….

28/05/23: Aggiornamento: sono stato 4 giorni a Trento a seguire gli incontri del Festival Economia partecipando a più eventi possibile: due i temi che ho portato a casa. Lo scontro che sta venendo avanti con la Cina con tutti gli effetti sulla globalizzazione e le filiere – e speriamo che resti a livello di guerra fredda se no… – e l’AI l’intelligenza artificiale e le sue infinite possibilità di applicazione.

Quelli che hanno la mia età ricorderanno sicuramente il film ” IL Laurato” (più per le “grazie” della signora Robinson – una favolosa Anne Bancroft – e la colonna sonora di Simon& Garfunkel che per le qualità di Dustin Hoffman penso) Beh durante il film girato negli anni 60 l’amico di famiglia prende da parte il protagonista neo laureato e “voglio dirti solo una sola parola: Plastica” consigliandolo di puntare per la sua carriera su questo settore allora in grande crescita.

Se dovessero rifare il film adesso il suggerimento sarebbe sicuramente “AI intelligenza artificiale”….



01/12/23 Barron’s: Le azioni Nvidia sono ancora sottovalutate. Così come queste 2 scommesse sull’Intelligenza Artificiale.

Nvidia è il chiaro – e più ovvio – beneficiario della buildout dell’IA, ma ci sono altre due società che sono meno conosciute dagli investitori che dovrebbero ugualmente beneficiare nell’anno a venire.

DiTae KimSegui

Una raffica di cattive notizie recenti dal mondo dei semiconduttori è stata una rara macchia durante un tratto altrimenti stellare per l’economia e per le azioni.

Alla fine di ottobre, due importanti fornitori di chip hanno dichiarato di aver visto per la prima volta una debolezza nella domanda di auto, con On Semiconductor incolpare l’impatto dei tassi di interesse più alti per i prestiti auto.Texas Instruments ha fornito una guida deludente, affermando che il settore industriale era particolarmente debole.

Per una serie di orsi in contrazione, quegli avvertimenti sono un’indicazione che l’economia non è su una base così forte come molti ora pensano. Nel frattempo, con l’S&P 500 ora al 5% di distanza da un massimo storico, lo stock-picking potrebbe diventare più complicato nei mesi a venire.

Ma anche se l’economia globale rallenterà l’anno prossimo, potrebbe esserci un’area tecnologica che sembra relativamente isolata: i chip e i prodotti necessari per costruire i data center che soddisfano l’impennata domanda di intelligenza artificiale.

È essenziale concentrarsi sulle aziende giuste per cavalcare la tendenza. I cambiamenti significativi dell’informatica, tra cui Internet, il mobile e il cloud computing, si sono rivelati “vincitore della maggior parte” dei mercati. I motori di ricerca rivali in competizione con Google hanno vacillato e l’iPhone di Apple ha preso quasi tutti i profitti dell’industria degli smartphone. L’IA probabilmente non sarà diversa.

Mentre i chatbot orientati al consumatore di uso generale come ChatGPT di OpenAI hanno attirato molta attenzione, l’opportunità più significativa potrebbe essere nell’azienda. Nvidia  che è il chiaro – e più ovvio – beneficiario della buildout dell’IA. Le sue azioni, nonostante un’enorme corsa quest’anno, rimangono a prezzi interessanti in base alle prospettive di crescita dell’azienda e degli analisti di Wall Street.

Ma ci sono altre due aziende che sono meno conosciute dagli investitori che dovrebbero beneficiare ugualmente nell’anno a venire: Super Micro Computer SMCI Vertiv HoldingsVRT. Sono pronti a cavalcare la scia di Nvidia.

Le indagini di Wall Street sugli acquirenti di tecnologia aziendale mostrano che l’infrastruttura AI e i progetti di IA sono la massima priorità per la spesa di bilancio nei prossimi tre anni. All’inizio di quest’anno, Piper Sandler ha pubblicato un rapporto che mostrava che il 75% dei responsabili dell’informazione stava testando o implementando progetti di intelligenza artificiale. Secondo un recente sondaggio condotto da Coatue su 600 dirigenti aziendali, oltre il 60% degli intervistati ha dichiarato di aver intenzione di adottare nuovi prodotti di intelligenza artificiale.

Gli amministratori delegati si sono resi conto che l’IA potrebbe essere una minaccia esistenziale per le loro attività se una start-up o un’altra azienda trova un modo per utilizzare la tecnologia contro di loro. Ecco perché stanno investendo freneticamente nella tecnologia per proteggere la loro posizione di mercato ed è un motivo per cui il passaggio strutturale all’IA potrebbe essere durevole e durare per diversi anni.

L’opportunità va ben oltre i chatbot. Il direttore finanziario di Nvidia, Colette Kress, dice a Barron che è recentemente iniziata una nuova ondata di adozione dell’IA aziendale. Dice che le aziende stanno sviluppando un’intelligenza artificiale personalizzata per i rispettivi settori utilizzando dati proprietari per migliorare la produttività dei dipendenti.

“Se le aziende costruiscono soluzioni generative-AI che sfruttano l’esperienza di dominio e combinano più set di dati (sia proprietari che pubblici), allora queste soluzioni dovrebbero generare significativi risparmi di tempo e costi”, ha scritto il team tecnologico di RBC Capital Markets in un recente rapporto.

L’opportunità per Nvidia è enorme. La società ha dichiarato che il trilione di dollari investito nell’infrastruttura globale del data center alla fine si sposterebbe dalle tradizionali unità di elaborazione centrale del server, o CPU, alle unità di elaborazione grafica o GPU, che sono meglio abilitate per alimentare i calcoli paralleli necessari per nuove applicazioni come l’intelligenza artificiale.

Nvidia domina il mercato delle GPU utilizzate per le applicazioni AI. L’analista di Jefferies Mark Lipacis ha analizzato i numeri di settembre dei sei principali fornitori di servizi basati su cloud e ha scoperto che Nvidia aveva una quota di mercato dell’86% per i carichi di lavoro dell’intelligenza artificiale, che è approssimativamente piatta rispetto all’anno precedente.

L’aggiunta di più potenza di calcolo e set di dati più grandi ha generalmente portato a prestazioni e risultati migliori. È di buon auspicio per la durata delle vendite di GPU Nvidia.

Nonostante la crescente concorrenza dei semiconduttori AI da parte di altre grandi aziende tecnologiche, tra cui MicrosoftAmazon.com, Google di AlphabetIntel Advanced Micro Devices, Nvidia probabilmente manterrà la sua leadership di mercato.

Una ragione significativa e spesso trascurata per il dominio di Nvidia è il suo ecosistema di programmazione software, noto come CUDA. Gli sviluppatori hanno costruito e condiviso strumenti e librerie software relativi all’intelligenza artificiale sulla piattaforma proprietaria di Nvidia per più di un decennio. Rende più facile costruire rapidamente applicazioni di intelligenza artificiale, il che è fondamentale per le start-up e le aziende per battere i loro concorrenti.

Pensate a CUDA come al sistema operativo per l’IA, non dissimile dal ruolo che Microsoft Windows ha svolto nel boom dei PC durante gli anni ’90.

A differenza di Microsoft, però, e più simile al suo rivale di lunga data Apple, Nvidia ha un modello “full stack”: controlla l’esperienza di intelligenza artificiale su hardware, reti e software. Riattrezzare l’infrastruttura tecnologica per eseguire diversi chip AI ha poco senso quando Nvidia fornisce il miglior pacchetto complessivo e prestazioni con il maggior numero di funzionalità.

Il titolo è aumentato di oltre il 200% quest’anno, eppure gli analisti continuano a sottovalutare il business. La società ha schiacciato le stime di vendita di Wall Street nei suoi ultimi tre rapporti trimestrali.

Nei tre mesi terminati a ottobre, Nvidia ha registrato un fatturato di 18,1 miliardi di dollari, al di sopra delle aspettative degli analisti di 16,2 miliardi di dollari e un aumento del 206% rispetto all’anno precedente.

“La nostra domanda continua ancora ad essere piuttosto forte”, dice Kress. “Allo stesso tempo, stiamo raccogliendo la fornitura”. L’esecutivo ha detto a Barron che l’offerta di chip di Nvidia sarebbe aumentata ogni trimestre fino all’anno fiscale 2025, affrontando un problema chiave che ha frenato le vendite di Nvidia negli ultimi trimestri, quando l’offerta non è riuscita a tenere il passo con l’impennata della domanda.

Forse la cosa più importante è che Nvidia inizierà a rilasciare chip a un ritmo più veloce, rendendo più difficile per i rivali recuperare. Il mese scorso, l’azienda ha annunciato la sua nuova GPU H200 Tensor Core, prevista per la disponibilità nel secondo trimestre del 2024, che promette un aumento fino al 90% delle prestazioni rispetto all’attuale H100 top-of-line.

Nvidia ha recentemente aggiornato la sua road map di prodotto, passando dal suo precedente ciclo di prodotto di due anni a una cadenza di un anno per i suoi chip AI. Una diapositiva in una presentazione aziendale mostra che Nvidia prevede di rilasciare ulteriori successori del prodotto H200 nel 2024 e nel 2025.

“Più grande diventa l’IA, più soluzioni saranno necessarie e più velocemente raggiungeremo quegli obiettivi e aspettative”, dice Kress.

A dire il vero, c’è incertezza sulle restrizioni all’esportazione del governo degli Stati Uniti su alcuni chip Nvidia AI verso la Cina. Kress ha dichiarato che le vendite di Nvidia in Cina diminuiranno significativamente nel trimestre in corso, ma il deficit sarà compensato da altre regioni.

La crescente domanda di intelligenza artificiale, ad esempio, sta aumentando la domanda di server di intelligenza artificiale che ospitano tutti quei chip Nvidia. Secondo TrendForce, le spedizioni di server AI sono stimate aumentare del 38% quest’anno e crescere di un altro 38% nel 2024.

E questa è una buona notizia per Super Micro. L’azienda è il principale produttore indipendente di server AI di fascia alta che riempiono i rack dei server all’interno dei data center. Più della metà delle sue entrate è legata all’IA. Tesla Meta Platforms sono tra i clienti Super Micro, secondo Barclays, oltre a una serie di start-up e fornitori di cloud computing.

Il CEO di Super Micro Charles Liang afferma che i clienti si affidano ai progetti personalizzati ad alte prestazioni e ai sistemi modulari dell’azienda che incorporano rapidamente le ultime tecnologie nei progetti dei server. La natura plug-and-play dei server significa che i server Super Micro possono incorporare nuovi chip AI da due a sei mesi più velocemente dei rivali, dice.

Nel frattempo, la stretta collaborazione dell’azienda con Nvidia è fondamentale, specialmente quando ogni azienda si sta affannando per ottenere l’accesso alla potenza di calcolo dell’intelligenza artificiale di Nvidia.

Liang dice che Super Micro ha lavorato con Nvidia da quando entrambe le società sono state fondate nel 1993. La sede centrale delle aziende si trova a soli 15 minuti di distanza nella Silicon Valley.

L’IA non è solo calda come tendenza metaforica. I data center che eseguono quei server AI generano cinque volte più calore rispetto ai server CPU tradizionali e richiedono 10 volte più raffreddamento per piede quadrato, afferma Vertiv.

Vertiv lavora per tenere sotto controllo quelle temperature. Le apparecchiature per l’infrastruttura di alimentazione e raffreddamento dell’azienda per i centri dati rappresentano ora il 75% dell’attività di Vertiv.

Il CEO di Vertiv Giordano Albertazzi afferma che la transizione dai tradizionali server incentrati sulla CPU ai server AI basati su GPU richiederà molto tempo e guiderà la crescita per il prossimo futuro.

Come per Nvidia, Wall Street potrebbe effettivamente sottovalutare l’opportunità. Gli analisti prevedono una crescita delle vendite di Vertiv del 20% quest’anno, scendendo a solo il 9% nel 2024.

“Crediamo fermamente che questa sarà un’ondata pluriennale”, dice Albertazzi. “Lo vediamo nelle nostre pipeline [dell’ordine] e nel nostro arretrato. Lo vediamo nell’intensità e nella frequenza delle conversazioni con i clienti dei centri dati”.

A dire il vero, nessuna di queste opportunità di intelligenza artificiale è passata inosservata agli investitori. Le azioni di Nvidia, Super Micro e Vertiv sono più che triplicate quest’anno a causa dell’eccitazione del mercato per le società legate all’IA.

Anche così, le azioni non vengono scambiate con valutazioni particolarmente aggressive, grazie alla crescita altrettanto esplosiva degli utili. La domanda ora è se le aziende possano continuare a crescere a lungo termine.

Gli stessi dirigenti, però, non sembrano preoccupati per il rallentamento della crescita “Questa rivoluzione dell’IA può essere più grande della rivoluzione industriale di 200 anni fa”, afferma Liang di Super Micro. “L’impatto è ovunque.”

Quando gli è stato chiesto nell’ultima chiamata agli utili se la sua attività di data center potrebbe continuare a crescere fino al 2025, il CEO di Nvidia Jensen Huang ha detto: “Assolutamente”, citando la crescente domanda da parte delle aziende per le sue nuove offerte.

Storicamente, le aziende in crescita guadagnano rapporti prezzo/guadagni ben superiori alla loro crescita degli utili, ma non è il caso di Nvidia, Super Micro o Vertiv.

Nvidia, ad esempio, negozia 24 volte le stime degli utili del prossimo anno, un numero modesto rispetto al tasso di crescita approssimativamente stimato del 75%.

Super Micro negozia a soli 15 volte gli utili di consenso del 2024, rispetto alla crescita degli utili del 28%.

Vertiv recupera 20 volte; l’analista di Deutsche Bank Nicole DeBlase prevede che Vertiv possa far crescere i suoi guadagni di oltre il 20% all’anno fino al 2025.

Man mano che gli investitori diventano più a loro agio con la crescita legata all’IA, è probabile che questi multipli di valutazione aumentino, suggerendo un rialzo significativo per tutte e tre le azioni.

Gli ultimi 12 mesi hanno messo l’IA in primo piano nella mente di ogni investitore. In qualche modo, molti di loro stanno ancora sottovalutando l’opportunità. Questo non vuol dire che tutti vinceranno dall’IA. La chiave è trovare i leader di mercato. Nvidia si adatta chiaramente al conto. Ma non è l’unico. Tra gli investitori di intelligenza artificiale, Super Micro e Vertiv potrebbero presto essere anche nomi familiari.


31/10/23 Financial Times: intervista a Vinod Klosla

La frenesia degli investitori sopravvaluta le start-up tecnologiche AI, dice il primo investitore in OpenAI Molti stanno “investendo perché tutti gli altri lo fanno” e la maggior parte perderà denaro, afferma Vinod Khosla

Vinod Khosla, uno dei primi venture capitalist a sostenere lo sviluppatore ChatGPT

Le start-up di intelligenza artificiale sono sopravvalutate e la maggior parte non riuscirà a fare soldi, secondo Vinod Khosla, uno dei primi finanziatori di OpenAI, in un avvertimento agli investitori che stanno versando miliardi nel settore vivace.

Dal lancio del chatbot ChatGPT di OpenAI un anno fa, gli investitori si sono affrettati a mettere i loro soldi nelle start-up di intelligenza artificiale, tra cui i produttori rivali di chatbot Inflection, Anthropic e Cohere, mandando valutazioni alle stelle. “La maggior parte degli investimenti nell’intelligenza artificiale oggi, gli investimenti di rischio, perderanno denaro”, ha detto Khosla questo mese in una conferenza tecnologica a Laguna Beach, in California.

Khosla, parlando al Financial Times a margine dell’evento Tech Live del Wall Street Journal, ha tracciato un parallelo tra l’hype sull’IA e la frenesia dello scorso anno di investimenti in start-up di criptovaluta, incluso l’exchange FTX fallito. Molti partecipanti successivi stanno “investendo perché tutti gli altri stanno investendo, questo è ciò che sta accadendo nell’IA”, ha detto.

Quest’anno, i venture capitalist hanno investito 21,5 miliardi di dollari in società di intelligenza artificiale a livello globale, rispetto ai 5,1 miliardi di dollari in tutto il 2022, secondo PitchBook. Molti sperano che le scommesse su aziende di grande valore pagheranno perché altri investiranno in seguito a una valutazione ancora maggiore – un fenomeno noto come “teoria del più grande sciocco”, ha detto Khosla al FT.

Khosla è fiducioso che l’IA cambierà radicalmente il mondo. Crede che l’IA abbia il potenziale per assumere l’80% del carico di lavoro nell’80% di tutti i ruoli umani nei prossimi due decenni e creerà un enorme valore economico.

Khosla Ventures è stata una delle prime società di venture capital a scommettere su OpenAI, investendo 50 milioni di dollari nella giovane azienda all’inizio del 2019 in un round che valutava la start-up a 1 miliardo di dollari, secondo le persone a conoscenza di tale investimento. OpenAI sta ora cercando altri investitori con una valutazione di circa 86 miliardi di dollari. Khosla Ventures ha rifiutato di commentare l’attuale valutazione di OpenAI, osservando che OpenAI non aveva confermato tale obiettivo.

Anche le valutazioni delle società di intelligenza artificiale rivali sono aumentate quest’anno. Anthropo è stato valutato a 5 miliardi di dollari in un accordo all’inizio di quest’anno, prima di raccogliere un round più ampio da Amazon, mentre Cohere è stato valutato a 2,1 miliardi di dollari quest’estate e Inflection a 4 miliardi di dollari.

Startup iniziali nell’AI si sono anche assicurate somme accattivanti. A giugno, la francese Mistral AI ha raccolto 105 milioni di euro nel più grande seed round di sempre in Europa quando l’azienda aveva solo un mese. Khosla ha suggerito che avrebbe fatto parte dei round di finanziamento in fase successiva perché ora le aspettative rischiano di superare il valore sottostante dell’attività. “

Siamo molto, molto attivi ma molto selettivi”, ha detto. Gli altri investimenti della sua azienda includono le società di consegna di generi alimentari online Instacart e DoorDash, nonché le società di tecnologia finanziaria Stripe, Block e Affirm. “Investiamo nei fondamenti… che è diverso dall’investire nel momentum, che è quello che fa la maggior parte della comunità di gestione”, ha detto Khosla.

Ha anche evidenziato le preoccupazioni che la potente tecnologia di intelligenza artificiale potrebbe essere utilizzata per minare le elezioni presidenziali statunitensi del prossimo anno. “Ci saranno milioni di bot che interferiranno con le nostre elezioni l’anno prossimo… stati nazionali – il che significa principalmente la Cina – che influenzeranno le elezioni del prossimo anno e tenteranno di rendere la democrazia disfunzionale”, ha detto.

Ha lodato gli sforzi dell’amministrazione Biden e del Congresso per mantenere il flusso di capitale e competenze statunitensi alle aziende cinesi che lavorano su intelligenza artificiale, semiconduttori o calcolo quantistico. Il presidente Joe Biden ha emesso un ordine esecutivo ad agosto che limiterebbe la capacità dei venture capitalist statunitensi di investire in quei settori. Un comitato del Congresso ha sondato gli investimenti storici di importanti aziende statunitensi che erano presenti in Cina, tra cui Sequoia Capital.

Gli Stati Uniti dovrebbero utilizzare tutti gli strumenti a loro disposizione per vincere la corsa all’IA con la Cina, tra cui l’importazione di ricercatori di talento dalla Russia, l’attrazione di capitali dal Medio Oriente e la creazione di un ambiente normativo attraente, ha affermato Khosla.

Gli strumenti di intelligenza artificiale homegrown potrebbero fornire medici gratuiti o tutor di intelligenza artificiale ai bambini di tutto il mondo, ha suggerito. “Quel tipo di capacità di portare servizi alle persone che ne hanno disperatamente bisogno si tradurrà nel fatto che i valori occidentali vincano… o che la Cina vinca. Penso che sia la chiave.”


11/10/23 Barron’s: Le azioni Nvidia possono ancora salire del 50%, dice un analista

DiEmily DattiloSegui

Gli analisti di TD Cowen hanno mantenuto che hanno aumentato il loro obiettivo di prezzo sulle azioni Nvidia a 700 dollari da 600 dollari.

Le azioni di Nvidia hanno ancora spazio per funzionare, ha sostenuto un team di analisti mentre alzavano il loro obiettivo di prezzo sul gigante dei chip.

Gli analisti di TD Cowen guidati da Matthew Ramsay hanno mantenuto il loro rating Outperform su Nvidia (ticker: NVDA) e hanno aumentato il loro obiettivo di prezzo a 700 dollari da 600 dollari in un rapporto di martedì.

Le azioni stavano spuntando dello 0,8% in più a 46,50 dollari nel trading pre-mercato. Il nuovo obiettivo di prezzo implica che le azioni abbiano circa il 50% in più di rialzo.

Gli analisti si sentono ottimisti sull’azienda dopo aver ospitato una settimana di incontri con gli investitori che includevano il fondatore e CEO Jensen Huang e il direttore finanziario Colette Kress.

“Crediamo che l’industria sia nei primi inning di due cambiamenti di paradigma di trasformazione verso l’accelerazione onnipresente e l’intelligenza artificiale generativa, con l’ampio fossato di Nvidia potenzialmente in espansione”, hanno scritto gli analisti di Cowen.

Il titolo è stato sugli scudi quest’anno, con un guadagno di oltre il 200% nella sessione di negoziazione di mercoledì, e alcuni investitori potrebbero chiedersi se quella traiettoria di crescita possa continuare, hanno osservato gli analisti.

“Tuttavia, a nostro avviso, la suite di tecnologia superiore, il lungo pedigree dell’innovazione e gli ampi investimenti orientati alla crescita dovrebbero continuare a consentire una crescita forte, sostenuta e superiore ai pari attraverso un insieme in espansione di verticali dell’IA”, ha continuato Cowen, aggiungendo che anche un aumento dei nuovi prodotti dovrebbe offrire una spinta.


09/10/23 Barron’s: Nvidia rimarrà dominante, dice Citi dopo il rapporto che OpenAI potrebbe cambiare i fornitori di chip

DaJack DentonSegui

Il produttore di chip Nvidia è stato un beneficiario chiave della frenesia degli investitori sull’IA.

Le azioni Nvidia sono sotto pressione dopo un recente rapporto secondo cui OpenAI sta esplorando piani che potrebbero tagliare il produttore di chip come fornitore. Ma rimangono buone ragioni per rimanere rialzisti su Nvidia.

OpenAI, leader nell’intelligenza artificiale sostenuta da Microsoft (MSFT) il cui lancio del chatbot ChatGPT ha dato il via a una frenesia di investimenti AI, sta esplorando la creazione dei propri chip AI, ha riferito Reuters giovedì scorso , citando fonti anonime. In mezzo a una carenza di chip per alimentare la crescita dell’IA, OpenAI sta anche prendendo in considerazione opzioni tra cui lavorare più a stretto contatto con produttori di chip come Nvidia (ticker: NVDA) o diversificare i suoi fornitori oltre l’azienda, afferma il rapporto.

OpenAI non ha risposto immediatamente a una richiesta di commento da parte di Barron’s.

Nvidia è un fornitore chiave di unità di elaborazione grafica (GPU) e circuiti integrati specifici per le applicazioni (ASIC), chip che sono fondamentali per alimentare l’elaborazione avanzata dietro l’intelligenza artificiale. L’esposizione del produttore di chip all’IA è stata una forza importante al suo successo finanziario quest’anno, che aveva fatto salire le azioni Nvidia di oltre il 210% dall’inizio di gennaio.

“Continuiamo ad aspettarci che Nvidia mantenga una quota di circa il 90% nel mercato delle GPU AI per i prossimi 2-3 anni”, hanno scritto gli analisti di Citi in una nota venerdì. Gli analisti hanno aggiunto che il rapporto Reuters, se vero, non sarebbe così sorprendente e coerente con l’opinione che saranno necessarie GPU e ASIC per aumentare l’infrastruttura necessaria nell’IA.

“Prevediamo che gli ASIC vengano utilizzati principalmente per modelli più piccoli e specializzati e GPU sia per l’addestramento che per l’inferenza di modelli più grandi/più complessi”, hanno detto gli analisti.


29/09/23 The Verge: Il CEO di AMD Lisa Su sulla rivoluzione dell’IA e la competizione con Nvidia

Alla Code Conference di quest’anno, il CEO di una delle più grandi aziende di chip per computer al mondo discute di competere con la GPU leader di Nvidia, la regolamentazione dell’IA e la catena di approvvigionamento globale.

Di Nilay Patel, caporedattore di The Verge, conduttore del podcast Decoder e co-conduttore di The Vergecast.

Oggi ti portiamo qualcosa di un po’ diverso. La Code Conference è stata questa settimana e ci siamo divertiti molto a parlare dal vivo sul palco con tutti i nostri ospiti. Condivideremo molte di queste conversazioni qui nei prossimi giorni, e la prima che stiamo condividendo è la mia chiacchierata con il dottor. Lisa Su, l’amministratore delegato di AMD.

Io e Lisa abbiamo parlato per mezz’ora e abbiamo trattato un numero incredibile di argomenti, in particolare sull’IA e sulla catena di fornitura dei chip. Questi ultimi anni hanno visto una carenza globale di chip, esacerbata dalla pandemia, e ora, uscendo da essa, c’è improvvisamente un altro grande picco di domanda grazie a tutti coloro che vogliono eseguire modelli di intelligenza artificiale. L’equilibrio tra domanda e offerta è nel complesso in un posto abbastanza buono in questo momento, ci ha detto Lisa, con la notevole eccezione di queste GPU high-end che alimentano tutti i grandi modelli di intelligenza artificiale che tutti stanno usando.

La GPU più in voga dell’AI è il chip H100 di Nvidia. Ma AMD sta lavorando per competere con un nuovo chip di cui Lisa ci ha parlato chiamato MI300 che dovrebbe essere veloce come l’H100. C’è anche molto lavoro in corso nel software per farlo in modo che gli sviluppatori possano spostarsi facilmente tra Nvidia e AMD. Così ci siamo inta.

Sentirai anche Lisa parlare di ciò che le aziende stanno facendo per aumentare la capacità produttiva. Il CHIPS and Science Act che è stato recentemente approvato è un grande passo verso la costruzione della produzione di chip qui negli Stati Uniti, ma Lisa ci ha detto che ci vuole molto tempo per portare quella fornitura. Quindi volevo sapere come AMD sta cercando di diversificare questa catena di approvvigionamento e assicurarsi che abbia una capacità sufficiente per soddisfare tutta questa nuova domanda.

Infine, Lisa ha risposto alle domande dell’incredibile pubblico di Code e ha parlato molto di quanto AMD stia usando l’IA all’interno dell’azienda in questo momento. È più di quanto pensi, anche se Lisa ha detto che l’IA non progetterà chip da sola presto.

Va bene, dottore. Lisa Su, CEO di AMD. Eccoci qui.

Piacere di vederti.

Grazie per avermi ospitato.

Ho un sacco di cui parlare: 500 pagine di domande. Saremo qui tutta la notte. Ma iniziamo con qualcosa di eccitante. AMD ha fatto alcuni annunci oggi nel mercato dell’IA. Che succede?

Beh, posso dire, prima di tutto, il tema di tutta questa conferenza, l’IA, è il tema di tutto nella tecnologia in questi giorni. E quando guardiamo a tutte le opportunità per l’informatica per far progredire davvero l’IA, è davvero quello su cui stiamo lavorando. Quindi sì, oggi abbiamo avuto un annuncio questa mattina da un’azienda, una startup chiamata Lamini, una grande azienda con cui abbiamo lavorato, alcuni dei migliori ricercatori in modelli linguistici di grandi dimensioni.

E la chiave per tutti è che, quando parlo con gli amministratori delegati, la gente chiede: “So che devo prestare attenzione all’IA. So che devo fare qualcosa. Ma che faccio? È così complicato. Ci sono così tanti fattori diversi”. E con questi modelli fondamentali come Llama, che sono grandi modelli fondamentali, molte aziende vogliono effettivamente personalizzare quei modelli con i propri dati e assicurarsi che tu possa farlo nel tuo ambiente privato e per la tua applicazione. Ed è quello che fa Lamini.

In realtà personalizzano i modelli, mettono a punto i modelli per le imprese e operano su GPU AMD. E quindi è stata una cosa interessante. E abbiamo trascorso un po’ di tempo con loro, un bel po’ di tempo con loro, ottimizzando davvero il software e le applicazioni per rendere il più facile possibile lo sviluppo di questi modelli aziendali, messi a punto.

Voglio parlare di quel software in modo approfondito. Penso che sia molto interessante dove stiamo astraendo i diversi livelli di sviluppo del software dall’hardware. Ma voglio tornare a questo.

Voglio iniziare in generale con il mercato dei chip. Stiamo uscendo da un periodo di vincoli piuttosto incredibili nei chip in ogni nodo di processo. Dove pensi che siamo adesso?

È interessante. Sono stata nel settore dei semiconduttori per, non lo so, gli ultimi 30 anni, e per il tempo più lungo, le persone non capivano nemmeno cosa fossero i semiconduttori o dove si inseriscono nella catena di approvvigionamento complessiva e dove erano necessari nelle applicazioni. Penso che negli ultimi anni, specialmente con la domanda guidata dalla pandemia e tutto ciò che stiamo facendo con l’intelligenza artificiale, le persone ora sono davvero concentrate sui semiconduttori.

Penso che ci sia stato un ciclo tremendo. Uno, un ciclo in cui avevamo bisogno di molti più chip di quelli che avevamo, e poi un ciclo in cui ne avevamo troppi. Ma alla fine della giornata, penso che il fatto è che i semiconduttori sono essenziali per così tante applicazioni. E in particolare per noi, ciò su cui ci concentriamo sono i più complessi, le prestazioni più elevate, l’avanguardia dei semiconduttori. E direi che c’è un’enorme crescita nel mercato.

Quale pensi che sia il collo di bottiglia ora? È all’avanguardia? È ai nodi di processo più vecchi, che è quello che stavamo sentendo nel bel mezzo della carenza di chip?

Penso che l’industria nel suo complesso si sia davvero riunita come un ecosistema su cui mettere molta capacità allo scopo di garantire che soddisfiamo la domanda complessiva. Quindi, in generale, direi che l’equilibrio domanda/offerta è in un posto abbastanza buono, con forse l’eccezione delle GPU. Se hai bisogno di GPU per la formazione e l’inferenza di modelli linguistici di grandi dimensioni, probabilmente sono strette in questo momento. Un po’ stretto.

Lisa ne ha un po’ sul retro se ne hai bisogno.

Ma guarda, la verità è che stiamo assolutamente facendo un enorme sforzo per aumentare l’intera catena di approvvigionamento. Questi sono alcuni dei dispositivi più complessi del mondo: centinaia di miliardi di transistor, molta tecnologia avanzata. Ma assolutamente aumentando l’offerta in generale.

Il CHIPS and Science Act è stato approvato l’anno scorso, un enorme investimento in questo paese in fabs. AMD è ovviamente la più grande azienda di semiconduttori fabless al mondo. Ha già avuto un effetto notevole, o stiamo ancora aspettando che si realizzi?

Penso che se si guarda al CHIPS e al Science Act e a ciò che sta facendo per l’industria dei semiconduttori negli Stati Uniti, è davvero una cosa fantastica. Devo dire, togliete il cappello a Gina Raimondo e a tutto ciò che il Dipartimento del Commercio sta facendo con l’industria. Queste sono cose a lungo termine. L’ecosistema dei semiconduttori negli Stati Uniti doveva essere costruito cinque anni fa. Si sta espandendo ora, specialmente in prima fase, ma ci vorrà del tempo.

Quindi non so se sentiamo gli effetti in questo momento. Ma una delle cose che crediamo sempre è che più investi a lungo termine, vedrai quegli effetti. Quindi sono entusiasta della capacità onshore. Sono anche molto entusiasta di alcuni degli investimenti nella nostra infrastruttura di ricerca nazionale perché è anche estremamente importante per la forza e la leadership dei semiconduttori a lungo termine.

I risultati di AMD parlano da soli. Stai vendendo molte più integrati di quante ne vendessi qualche anno fa. Dove ha trovato quella fornitura? Ti stai ancora affidando a TSMC mentre aspetti che arrivino questi nuovi fabs?

Ancora una volta, quando si guarda al business in cui ci troviamo, sta spingendo l’avanguardia della tecnologia. Quindi siamo sempre sul nodo più avanzato e cerchiamo di ottenere la prossima grande innovazione là fuori. E c’è una combinazione di entrambi la tecnologia di processo, la produzione, la progettazione, i sistemi di progettazione. Siamo molto soddisfatti della nostra partnership con TSMC. Sono i migliori al mondo con tecnologie avanzate e all’avanguardia.

Sono loro, giusto? Puoi diversificare lontano da loro?

Penso che la chiave sia la diversità geografica, Nilay. Quindi, quando si pensa alla diversità geografica, e a proposito, questo è vero, non importa cosa. Nessuno vuole essere nello stesso posto perché ci sono solo rischi naturali che accadono. Ed è qui che il CHIPS and Science Act è stato effettivamente utile perché ora ci sono un numero significativo di impianti di produzione in costruzione negli Stati Uniti. In realtà inizieranno la produzione nel prossimo numero di trimestri e saremo attivi nell’avere parte della nostra produzione qui negli Stati Uniti.

Ho parlato con il CEO di Intel Pat Gelsinger quando ha aperto la strada in Ohio. Stanno cercando di diventare una fonderia. Mi ha detto con molta fiducia: “Mi piacerebbe avere un logo AMD sul lato di uno di questi fabs”. Quanto è vicino a renderlo realtà?

Beh, direi questo. Direi che dalla produzione onshore, stiamo certamente esaminando molte e molte opportunità. Penso che Pat abbia un piano molto ambizioso, e penso che ci sia. Penso che guardiamo sempre a chi sono i migliori partner di produzione, e ciò che è più importante per noi è qualcuno che è davvero dedicato all’avanguardia della tecnologia.

C’è un concorrente sul mercato di TSMC su questo fronte?

C’è sempre concorrenza sul mercato. TSMC è certamente molto buono. Samsung sta certamente facendo molti investimenti. Hai menzionato Intel. Penso che ci siano anche alcune attività in Giappone per portare la produzione avanzata. Quindi ci sono molte opzioni diverse.

Ultima domanda su questo thread, e poi voglio parlarti dell’IA. Recentemente c’è stato molto rumore su Huawei. Hanno messo fuori un chip di sette nanometri. Questo è un evento geopolitico sconvolgente o è una stronzata. Che cos’è?

Vediamo. Non so se lo definirei un evento geopolitico sconvolgente. Guarda, penso che non ci sia dubbio che la tecnologia sia considerata un’importanza per la sicurezza nazionale. E dal punto di vista degli Stati Uniti, penso che vogliamo assicurarci di mantenere quel vantaggio. Ancora una volta, penso che il governo degli Stati Uniti abbia dedicato molto tempo a questo aspetto.

Il modo in cui guardo queste cose è che siamo un’azienda globale. La Cina è un mercato importante per noi. Vendiamo alla Cina più beni di consumo rispetto ad altre cose, e c’è l’opportunità per noi di avere davvero un approccio equilibrato al modo in cui affrontiamo alcune di queste questioni geopolitiche.

Pensi che ci fosse più fornitura disponibile al TSMC perché Huawei è stata cacciata dal gioco?

Penso che TSMC abbia messo una quantità enorme di fornitura sul tavolo. Voglio dire, se pensi al CapEx che è successo negli ultimi tre o quattro anni, è lì perché tutti abbiamo bisogno di più chip. E quando abbiamo bisogno di più chip, l’investimento c’è. Ora i chip sono più costosi di conseguenza, e questo fa parte dell’ecosistema che abbiamo costruito.

Parliamo di quella parte. Quindi hai detto che le GPU scarseggiano. La Nvidia H100, c’è effettivamente un mercato nero per l’accesso a questi chip. Hai dei chips, ne stai uscendo con alcune nuove. Hai appena annunciato l’allenamento di Lamini completamente sui tuoi chip. Hai visto l’opportunità di sconvolgere questo mercato perché l’offerta di Nvidia è così limitata?

Vorrei fare un passo indietro, Nilay, e parlare solo di quello che sta succedendo nel mercato dell’IA perché è incredibile quello che sta succedendo. Se pensi alle tendenze tecnologiche che abbiamo visto negli ultimi 10 o 20 anni – che tu stia parlando di Internet o della rivoluzione dei telefoni cellulari o di come i PC hanno cambiato le cose – l’IA è 10 volte, 100 volte, più di questo in termini di come sta influenzando tutto ciò che facciamo.

Quindi se parli di produttività aziendale, se parli di produttività personale o di società, cosa possiamo fare dal punto di vista della produttività, è così grande. Quindi il fatto che ci sia una carenza di GPU, penso che non sia sorprendente perché la gente riconosce quanto sia importante la tecnologia. Ora, siamo nei primi inning di come l’IA e soprattutto l’IA generativa sta arrivando sul mercato che lo vedo come un ciclo di 10 anni di cui stiamo parlando, non quante GPU puoi ottenere nei prossimi due o quattro trimestri.

Siamo entusiasti della nostra road map. Penso che con il calcolo ad alte prestazioni, chiamerei l’IA generativa l’app killer per il calcolo ad alte prestazioni. Hai bisogno sempre di sempre di più. E per quanto sia buono il grande modello linguistico di oggi, può ancora migliorare se si continua ad aumentare le prestazioni di allenamento e le prestazioni di inferenza.

E quindi è quello che facciamo. Costruiamo i chip più complessi. Ne abbiamo uno nuovo in uscita. Si chiama MI300 se vuoi il nome in codice lì, e sarà fantastico. È mirato alla formazione di modelli linguistici di grandi dimensioni e all’inferenza di modelli linguistici di grandi dimensioni. Vediamo un’opportunità? Sì. Vediamo opportunità significative, e non è solo in un posto. L’idea che i ragazzi del cloud sono gli unici utenti, non è vero. Ci sarà molta intelligenza artificiale aziendale. Molte startup hanno anche un enorme sostegno VC intorno all’IA. E così vediamo opportunità in tutti quegli spazi.

Quindi MI300?

MI300, ce l’hai.

In termini di prestazioni, questo sarà competitivo con l’H100 o supererà l’H100?

Sicuramente sarà competitivo dai carichi di lavoro di formazione, e nel mercato dell’IA, non esiste una taglia unica per quanto riguarda i chip. Ce ne sono alcuni che saranno eccezionali per la formazione. Ce ne sono alcuni che saranno eccezionali per l’inferenza, e questo dipende da come lo metti insieme.

Quello che abbiamo fatto con MI300 è che abbiamo costruito un prodotto eccezionale per l’inferenza, in particolare l’inferenza del modello di linguaggio di grandi dimensioni. Quindi, quando guardiamo al futuro, gran parte del lavoro che viene fatto in questo momento è la formazione delle aziende e la decisione di quali saranno i loro modelli. Ma andando avanti, in realtà pensiamo che l’inferenza sarà un mercato più grande, e questo gioca bene in alcuni di ciò per cui abbiamo progettato MI300.

Se guardi cosa pensa Wall Street sia la modalità di Nvidia, è CUDA, è lo stack di software proprietario, sono le relazioni di lunga durata con gli sviluppatori. Hai ROCm, che è un po’ diverso. Pensi che sia un fossato che puoi superare con prodotti migliori o con un approccio più aperto? Come stai andando ad attaccarlo?

Non credo nei fossati quando il mercato si muove così velocemente. Quando pensi ai fossati, sono mercati più maturi in cui le persone non vogliono davvero cambiare molto le cose. Quando guardi l’IA generativa, si muove a un ritmo incredibile. I progressi che stiamo facendo in pochi mesi in un ambiente di sviluppo regolare potrebbero aver richiesto alcuni anni. E il software in particolare, il nostro approccio è un approccio software aperto.

In realtà c’è una dicotomia. Se guardi le persone che hanno sviluppato software negli ultimi cinque, sette o otto anni, hanno avuto la tendenza a usare… chiamiamolo, più software specifico per l’hardware. Era comodo. Non c’erano così tante scelte là fuori, e quindi è quello che ha fatto la gente. Quando guardi ad andare avanti, in realtà quello che trovi è che tutti cercano la capacità di costruire software hardware-agnostico perché le persone vogliono la scelta. Francamente, la gente vuole la scelta. Le persone vogliono usare la loro vecchia infrastruttura. Le persone vogliono assicurarsi di essere in grado di passare da un’infrastruttura all’altra. E così stanno costruendo su questi livelli più alti di software. Cose come PyTorch, per esempio, che tende ad essere quella capacità hardware-agnostica.

Quindi penso che i prossimi 10 anni saranno diversi dagli ultimi 10 per quanto riguarda il modo in cui ti sviluppi all’interno dell’IA. E penso che lo stiamo vedendo in tutto il settore e l’ecosistema. E il vantaggio di un approccio aperto è che non c’è un’unica azienda che abbia tutte le idee. Quindi più siamo in grado di riunire l’ecosistema, possiamo approfittare di tutti quegli sviluppatori davvero, davvero intelligenti che vogliono accelerare l’apprendimento dell’IA.

PyTorch è un grosso problema, giusto? Questo è il linguaggio in cui tutti questi modelli sono effettivamente codificati. Parlo con un gruppo di amministratori delegati del cloud. Non amano la loro dipendenza da Nvidia tanto quanto chiunque non ama dipendere da un solo fornitore. È un posto dove puoi andare a lavorare con quei fornitori di cloud e dire: “Ottimeremo i nostri chip per PyTorch e non per CUDA”, e gli sviluppatori possono semplicemente eseguire su PyTorch e scegliere quello che è meglio ottimizzato?

È proprio così. Quindi, se pensi a ciò che PyTorch sta cercando di fare – e sta davvero cercando di essere quel tipo di livello indipendente dall’hardware – una delle principali pietre miliari che abbiamo escogitato è su PyTorch 2.0, AMD è stata qualificata il primo giorno. E ciò significa che chiunque esegua CUDA su PyTorch in questo momento, funzionerà su AMD fuori dalla scatola perché abbiamo fatto il lavoro lì. E francamente, funzionerà anche su altro hardware.

Ma il nostro obiettivo è “che il miglior chip vinca”. E il modo in cui lo fai è rendere il software molto più fluido. Ed è PyTorch, ma è anche Jax. Sono anche alcuni degli strumenti che OpenAI sta portando con Triton. Ci sono molti strumenti e framework diversi che le persone stanno portando avanti che sono hardware-agnostici. Ci sono un gruppo di persone che stanno anche facendo i tipi di cose “costruisci i tuoi”. Quindi penso che questa sia l’onda del futuro per il software AI.

Stai costruendo chip personalizzati per una di queste aziende?

Abbiamo la capacità di costruire chip personalizzati. E il modo in cui ci penso è il momento di costruire chip personalizzati è in realtà quando si ottengono applicazioni ad altissimo volume futuro. Quindi credo che ci saranno chip personalizzati nei prossimi anni. L’altro pezzo che è anche interessante è che hai bisogno di tutti i diversi tipi di motori per l’IA. Quindi passiamo molto tempo a parlare di grandi GPU perché è ciò che è necessario per scambiare modelli linguistici di grandi dimensioni. Ma vedrai anche ASIC per alcuni… chiamiamolo, applicazioni più ristrette. Vedrai anche l’IA nei chip client. Quindi sono piuttosto entusiasta anche di questo in termini di quanto ampia intelligenza artificiale sarà incorporata nei chip in tutti i segmenti di mercato.

Ho Kevin Scott, CTO di Microsoft, qui domani. Quindi ti farò questa domanda in modo da poterlo inseguire con essa. Se, diciamo, Microsoft volesse diversificare Azure e metterci più AMD ed essere invisibile ai clienti, è possibile in questo momento?

Beh, prima di tutto, amo Kevin Scott. È un bravo ragazzo e abbiamo una partnership straordinaria con Microsoft sia nel cloud che nell’ambiente Windows. Penso che dovresti fargli la domanda. Ma penso che se dovessi chiederlo o se dovessi chiedere a un gruppo di altri produttori di cloud, direbbero che è assolutamente possibile. Sì, ci vuole lavoro. Ci vuole del lavoro che ognuno di noi deve mettere, ma è molto meno lavoro di quanto si possa immaginare perché le persone stanno effettivamente scrivendo codice nei framework di livello superiore. E crediamo che questa sia l’onda del futuro per la programmazione AI.

Permettetemi di collegarlo a un’applicazione per l’utente finale solo per un secondo. Stiamo parlando di cose che stanno aumentando molto la curva dei costi: molte persone intelligenti che fanno molto lavoro per sviluppare GPU davvero di fascia alta sui nodi di processo all’avanguardia. Tutto sta diventando sempre più costoso e vedi quanto sono costose le applicazioni consumer: $ 25 al mese, $ 30 a posto per Microsoft Office con Copilot. Quando si scende la curva dei costi che abbassa i prezzi al consumo?

È una grande, grande domanda. Credo che il valore che si ottiene con l’IA di genere in termini di produttività sarà assolutamente dimostrato. Quindi sì, il costo di queste infrastrutture è alto in questo momento, ma anche la produttività che si ottiene dall’altra parte è eccitante. Stiamo implementando l’intelligenza artificiale internamente all’interno di AMD, ed è una priorità così alta perché, se riesco a far uscire i chip più velocemente, è un’enorme produttività.

Ti fidi di esso? Hai la tua gente che controlla il lavoro che sta facendo l’IA, o ti fidi di esso?

Certo. Guarda, stiamo tutti sperimentando, giusto? Siamo nelle prime fasi della costruzione degli strumenti e dell’infrastruttura in modo da poterli implementare. Ma il fatto è che ci fa risparmiare tempo – sia che stiamo progettando chip, dove stiamo testando chip, dove stiamo convalidando chip – ci fa risparmiare tempo e il tempo è denaro nel nostro mondo.

Ma torniamo alla tua domanda su quando arrivi dall’altra parte della curva. Penso che sia per questo che è così importante pensare all’IA in modo ampio e non solo nel cloud. Quindi, se pensi a come apparirà l’ecosistema tra qualche anno, immagineresti un posto in cui, sì, hai le infrastrutture cloud che addestrano questi più grandi modelli fondamentali, ma avrai anche un sacco di intelligenza artificiale ai margini. E che sia nel tuo PC o nel tuo telefono, sarai in grado di fare l’IA locale. E lì, è più economico, è più veloce, ed è in realtà più privato quando lo fai. E così, questa è questa idea di IA ovunque e come può davvero migliorare il modo in cui stiamo implementando.

Questo mi porta all’open source e, onestamente, all’idea di come lo regoleremo. Quindi c’è una riunione della Casa Bianca, tutti partecipano, fantastico. Tutti sono molto orgogliosi l’uno dell’altro. Pensi a come applicherai effettivamente la regolamentazione dell’IA. E va bene, probabilmente puoi dire ad AWS o Azure di non eseguire determinati flussi di lavoro. “Non fare queste cose.” E questo sembra andare bene. Puoi dire ad AMD di non lasciare che certe cose accadano sui chip per qualcuno che esegue un modello open-source su Linux sul suo portatile?

Penso che sia qualcosa che tutti prendiamo molto sul serio. La tecnologia ha così tanti vantaggi in termini di ciò che può fare dal punto di vista della produttività e della scoperta, ma c’è anche sicurezza nell’IA. E penso che, come grandi aziende, abbiamo una responsabilità. Se pensi alle due cose sulla privacy dei dati e solo nel complesso, assicurandoti che questi modelli siano sviluppati che siano sviluppati al meglio delle nostre capacità senza troppi pregiudizi. Faremo degli errori. L’industria nel suo complesso non sarà perfetta qui. Ma penso che ci sia chiarezza sulla sua importanza e che dobbiamo farlo insieme e che ci debba essere un partenariato pubblico/privato per farlo accadere.

Non ricordo il nome di nessuno, quindi sarei un politico orribile. Ma facciamo finta di essere un regolatore. Lo farò. E io dico: “Ragazzo, non voglio davvero che questi ragazzi usino alcun modello per sviluppare armi chimiche. E ho bisogno di capire dove far atterrare quell’applicazione”. Posso sicuramente dire ad Azure: “Non farlo”. Ma un ragazzo con un chip AMD in un portatile Dell che esegue Linux, non ho alcun meccanismo di applicazione se non per dirti di fare in modo che il chip non lo faccia. Accetteresti quel regolamento?

Non credo che ci sia un proiettile d’argento. Non è, “Posso fare in modo che il chip non lo faccia”. È “Posso fare la combinazione del chip e del modello e avere alcune salvaguardie in atto”. E siamo assolutamente disposti ad essere a quel tavolo per aiutare che ciò accada.

Accetteresti quel tipo di regolamentazione, che il chip sarà limitato?

Sì, accetterei l’opportunità per noi di esaminare quali sono le garanzie che dovremmo mettere in atto.

Penso che questo sarà uno dei più complicati… Non credo che ci aspettiamo che i nostri chip siano limitati in ciò che possiamo fare, e sembra che questa sia una domanda che dobbiamo porre e rispondere.

Lasciatemi dire di nuovo, non è il chip in sé. Perché in generale, i chip hanno un’ampia capacità. Sono i chip più il software e i modelli. In particolare sul lato modello, quello che si fa in termini di salvaguardie.

Potremmo iniziare a fare la fila per le domande. Ho solo un altro paio per te. Sei nella PS5; sei nella Xbox. C’è una visione del mondo che dice che il cloud gaming è il futuro di tutte le cose. Potrebbe essere fantastico per te perché sarai anche nei loro data center. Ma vedi quel cambiamento in corso? È per davvero, o stiamo ancora facendo generazioni di console?

È così interessante. Il gioco è ovunque. Il gioco è ovunque in ogni fattore di forma. C’è stata questa lunga conversazione su: è questa la fine del gioco per console? E non lo vedo. Vedo i giochi per PC forti, vedo i giochi per console forti e vedo anche i giochi cloud che hanno le gambe. E tutti hanno bisogno di tipi simili di tecnologia, ma ovviamente la usano in modi diversi.

Domande e risposte dal pubblico

Nilay Patel: Per favore, presentati.

Alan Lee: Ciao, Lisa. Alan Lee, Dispositivi analogici. Un anno e mezzo dopo l’acquisizione di Xilinx, come vedi l’informatica adattiva giocare nell’IA?

Lisa Su: Prima di tutto, è bello vederti, Alan. Penso che, prima di tutto, l’acquisizione di Xilinx sia stata un’acquisizione che abbiamo completato circa 18 mesi fa – un’acquisizione fantastica. Ha portato un sacco di IP ad alte prestazioni con IP di calcolo adattivo. E vedo che in particolare su questi motori AI, motori che sono ottimizzati per le architetture di flusso di dati, questa è una delle cose che siamo stati in grado di portare come parte di Xilinx. Questo è in realtà l’IP che ora sta entrando nei PC.

E così vediamo un utilizzo significativo dell’IP lì. E insieme, mentre andiamo avanti, ho questa convinzione che non c’è un computer che sia quello giusto. In realtà hai bisogno del giusto calcolo per le giuste applicazioni. Quindi, che si tratti di CPU o GPU o FPGA o SoC adattivi, hai bisogno di tutti questi. E questo è l’ecosistema che stiamo riunendo.

NP: Questo signore alto qui.

Casey Newton: Ciao, Casey Newton di Platformer. Volevo tornare alla domanda di Nilay sulla regolamentazione. Un giorno, è triste dirlo, ma qualcuno potrebbe provare ad acquisire un gruppo di tue GPU allo scopo esplicito di fare del male – addestrare un modello di linguaggio di grandi dimensioni per quello scopo. E quindi mi chiedo che tipo di regolamenti, se ce ne sono, pensi che il governo dovrebbe mettere intorno a chi ha accesso a un gran numero di GPU e quali dimensioni di corsi di formazione sono autorizzati a fare.

LS: Questa è una buona domanda. Non credo che conosciamo la risposta a questo, in particolare in termini di come regolamentare. Il nostro obiettivo è, ancora una volta, all’interno di tutti i controlli di esportazione che sono là fuori, perché le GPU sono controllate dall’esportazione, che seguiamo quei regolamenti. Ci sono il più grande e il livello successivo di GPU che ci sono. Penso che la chiave sia, ancora una volta, come ho detto, è una combinazione di sviluppo di chip e modelli che si presenta davvero. E siamo attivi a quei tavoli e parliamo di come fare quelle cose. Penso che vogliamo assicurarci di essere molto protettivi nei confronti delle GPU più performanti. Ma è anche un mercato importante dove molte persone vogliono l’accesso.

Daniel Vestergaard: Ciao, sono Daniel di DR [Danmarks Radio]. Tornare a qualcosa di cui hai parlato prima perché tutti qui stanno pensando di implementare l’IA nei loro flussi di lavoro interni – ed è così interessante sentire i tuoi pensieri perché hai accesso ai chip e alle profonde conoscenze di apprendimento automatico. Puoi specificare un po’, per cosa stai usando l’IA internamente nel processo di produzione dei chip? Perché questo potrebbe indicarci la giusta direzione.

LS: Grazie per la domanda. Penso che ogni azienda stia cercando come implementare l’IA. Quindi per noi, per esempio, ci sono le funzioni ingegneristiche e quelle non ingegneristiche: vendite, marketing, analisi dei dati, lead generation. Quelli sono tutti luoghi in cui l’IA può essere molto utile. Sul lato ingegneristico, lo guardiamo in termini di come possiamo costruire chip più velocemente. Quindi ci aiutano con la progettazione, ci aiutano con la generazione di test, ci aiutano con la diagnostica di produzione.

Tornando alla domanda di Nilay, mi fido che costruisca un chip senza esseri umani? No, certo che no. Abbiamo molti ingegneri. Penso che le funzioni di copilota in particolare siano in realtà abbastanza facili da adottare. Pura AI generativa, dobbiamo controllare e assicurarci che funzioni. Ma è un processo di apprendimento. E la chiave, direi, è che c’è molta sperimentazione, e i cicli veloci di apprendimento sono importanti. Quindi in realtà abbiamo team dedicati che stanno spendendo il loro tempo a guardare come portiamo l’IA nei nostri processi di sviluppo aziendale il più velocemente possibile.

Jay Peters: Ciao, Jay Peters con The Verge. Apple sembra fare una spinta molto più grande nel modo in cui i suoi dispositivi, e in particolare i suoi chip della serie M, sono davvero buoni per i giochi AAA. Sei preoccupato per Apple su quel fronte?

NP: Mi hanno detto che l’iPhone 15 Pro è la migliore console di gioco del mondo. Ed è per questo che è “Pro”. È una situazione molto confusa.

LS: Non lo so. Direi, guarda, come ho detto prima, il gioco è un’applicazione così importante quando pensi all’intrattenimento e a cosa ne stiamo facendo. Penso sempre a tutta la competizione. Ma dal mio punto di vista, è come otteremo… Non è solo l’hardware; è davvero come otteniamo l’ecosistema di gioco. Le persone vogliono essere in grado di portare i loro giochi ovunque e giocare con i loro amici e su piattaforme diverse. Queste sono le opzioni che abbiamo con l’ecosistema di gioco oggi. Continueremo a spingere la busta sui PC e sui chip per console più performanti. E penso che saremo abbastanza bravi.

NP: ne ho un altro per te. Se ascolti Decoder, sai che amo chiedere alle persone le decisioni. Gli amministratori delegati di Chip devono prendere le decisioni a più lunga distanza praticamente di chiunque mi venga in mente. Qual è la scommessa a più lungo termine che stai facendo in questo momento?

LS: Stiamo sicuramente progettando per il ciclo di oltre cinque anni. Oggi ti ho parlato dell’MI300. Abbiamo preso alcune di quelle decisioni architettoniche quattro o cinque anni fa. E il processo di pensiero c’era: “Ehi, dove sta andando il mondo? Di che tipo di informatica hai bisogno?” Essere molto ambiziosi nei nostri obiettivi e in quello che stavamo cercando di fare. Quindi siamo piuttosto entusiasti di ciò che stiamo costruendo per i prossimi cinque anni.

NP: Qual è una scommessa che stai facendo in questo momento?

LS: Stiamo scommettendo su quale sia la prossima grande cosa nell’IA.

NP: Va bene. Grazie, Lisa.


26/09/23 Briefing.com: Nvidia si espande nella pubblicità

I venti di coda legati all’intelligenza artificiale di NVIDIA sono pronti ad accelerare mentre guardano le agenzie pubblicitarie (NVDA)

NVIDIA (NVDA) sta cercando di migliorare ulteriormente il suo profilo di intelligenza artificiale dopo che Business Insider ha riferito che il gigante dei chip, le cui azioni sono in aumento di quasi il 200% nell’anno successivo a due trimestri consecutivi di prestazioni fuori misura, sta guardando l’industria pubblicitaria come il prossimo mercato affamato di intelligenza artificiale. Questa non è la prima volta che sentiamo parlare di NVDA che vende le sue GPU AI all’industria pubblicitaria, con la società che ha annunciato la sua partnership con WPP (WPP), la più grande agenzia pubblicitaria del mondo, a maggio. In effetti, non sembra che nessun settore sia off limits per quanto riguarda l’implementazione dell’IA in qualche forma. Tuttavia, al di fuori del campo tecnologico, gli inserzionisti sembrano essere il prossimo miglior mercato maturo per le interruzioni legate all’IA.

  • Una delle massime priorità di WPP è rafforzare WPP Open, il suo sistema operativo di agenzia basato sull’intelligenza artificiale. La società ha discusso a lungo i suoi piani relativi all’IA il mese scorso, osservando che con la spesa pubblicitaria prevista per aumentare a lungo termine, l’IA sbloccherà la capacità di affrontare progetti pubblicitari in crescita riducendo significativamente le spese.
  • WPP ha anche evidenziato il vantaggio dell’IA nella personalizzazione della pubblicità, uno dei fattori più significativi di complessità e costi. L’IA può generare script, musica, immagini e video personalizzati, consentendo una maggiore capacità di indirizzare annunci più personali.
  • Interpublic (IPG), un’altra società pubblicitaria, era altrettanto ottimista sulla personalizzazione che l’IA porta a fine luglio. Allo stesso tempo, IPG ha dichiarato che combinare l’IA e la creatività umana può risolvere meglio le sfide associate al marketing, cioè dove fare pubblicità, quali contenuti raccoglierebbero più attenzione, ecc.

Le tecnologie dirompenti devono possedere la capacità di ridurre i costi delle aziende. Con l’IA in grado di generare media, cambiare istantaneamente paesaggi e artefatti, eliminando la necessità di molti diversi set costosi e produzione in loco, la tecnologia potrebbe alterare rapidamente il panorama pubblicitario.

Tuttavia, l’IA generativa rimane nelle prime fasi di crescita, ancora non è non provato se i consumatori risponderanno agli annunci generati dall’IA più delle pubblicità tradizionali. Inoltre, sebbene l’IA generativa sia eccezionale nel creare media accattivanti, potrebbe non catturare le emozioni nella misura in cui gli esseri umani possono, mantenendo potenzialmente un coperchio sull’uso della tecnologia da parte delle agenzie pubblicitarie.

Tuttavia, quando NVDA ha collaborato con WPP, il CEO di NVDA Jensen Huang ha osservato che l’industria pubblicitaria digitale da 700 miliardi di dollari stava correndo per realizzare i benefici dell’IA. Come tale, questi rischi probabilmente non impediranno all’industria pubblicitaria di adottare i chip AI di NVDA, aggiungendo un altro vento di coda per il gigante tecnologico.


25/09/23 Briefing.com: Amazon investe in Anthropic

Anthropic dove essere la versione “buona” e politically correct dell’Intelligenza Artificiale e si sono venduti ad un pescecane anche loro…

Amazon intensifica la sua scommessa sull’intelligenza artificiale, investendo 4,0 miliardi di dollari nello sviluppatore di intelligenza artificiale generativo Anthropic (AMZN)

Amazon (AMZN +1%) si sta muovendo nello spazio dell’IA generativa in modo più aggressivo dopo la sua collaborazione strategica con Anthropic oggi. Amazon prevede di investire fino a 4,0 miliardi di dollari in Anthropic, dandogli una posizione di proprietà di minoranza. Anthropic, a sua volta, utilizzerà AWS come suo principale fornitore di cloud, addestrando i suoi futuri grandi modelli linguistici (LLM) sui chip AWS Trainium e Inferentia.

Anthropic è una startup di intelligenza artificiale fondata da ex membri di OpenAI, la società dietro la famosa tecnologia ChatGPT. L’investimento di Amazon mostra la sua spinta a competere meglio con i titani della tecnologia Microsoft (MSFT) Alphabet (GOOG), che hanno un investimento significativo in ChatGPT nel caso di Microsoft o offrono già un chatbot AI generative concorrente come Alphabet’s Bard.

  • Mentre Amazon potrebbe essere in ritardo nella scena dei chatbot basata sull’intelligenza artificiale, non è stata completamente addormentata al volante, investendo pesantemente nell’IA per anni. Il mese scorso, la direzione ha discusso di come ha lavorato su chip AI personalizzati per la formazione (Trainium e Inferentia) per diversi anni. Di conseguenza, Amazon ha notato che questi chip sono già nelle loro seconde versioni, commercializzandoli ai clienti per costruire ed eseguire LLM su AWS.
  • Inoltre, Amazon sta entrando nel campo dei chatbot basati sull’intelligenza artificiale mentre è ancora nelle sue prime fasi di crescita. Le organizzazioni stanno ancora cercando di capire come affrontare la tecnologia. Non aiuta il fatto che l’ambiente macroeconomico abbia soppresso la spesa tra i dipartimenti IT, costringendo i dirigenti a rimanere conservatori nel loro bilancio. Pertanto, anche se il 2023 ha visto un massiccio rally alimentato dall’IA, la tecnologia potrebbe non essere ampiamente implementata fino a quando le condizioni economiche non diventeranno più favorevoli.
  • L’e-commerce è favorevole all’IA generativa. Ad esempio, eBay (EBAY) utilizza la tecnologia per popolare le informazioni sulle inserzioni dei venditori. Nel frattempo, Shopify (SHOP) ha recentemente lanciato un assistente abilitato all’intelligenza artificiale creato appositamente per i commercianti per affrontare attività che richiedono più tempo. Amazon è nel punto debole di offrire alle aziende la possibilità di capitalizzare i suoi modelli di formazione AI e utilizzare la tecnologia per la sua attività di e-commerce dando ai clienti risultati di ricerca più perspicaci o aiutando i commercianti a commercializzare meglio i loro prodotti.

L’investimento antropico di Amazon potrebbe fare molto per mettere ulteriore distanza tra i suoi principali rivali di e-commerce. Dovrebbe anche aumentare il suo posizionamento nell’offrire LLM ai clienti. Tuttavia, ciò non significa che, data la prematura dell’IA generava, non ci saranno potenziali battute d’arresto. Amazon si è trovata in acqua calda per quanto riguarda il modo in cui metterebbe i suoi prodotti a marchio del distributore davanti alla concorrenza nei risultati di ricerca. Chiedere al suo futuro potenziale chatbot qual è il miglior prodotto per un particolare articolo solo perché tenda a raccomandare prodotti etichettati Amazon- potrebbe danneggiare la sua credibilità. Allo stesso tempo, l’economia attuale può impedire alle imprese di investire in modo significativo nell’IA nonostante i suoi potenziali benefici. Tuttavia, la crescente aggressività di Amazon nell’investire nell’intelligenza artificiale è giustificata, dato quanto feroci importanti giganti tecnologici abbiano rafforzato la loro attività di intelligenza artificiale.


07/09/23 Briefing.com: C3.ai scende dopo aver ritardato la redditività fino a un anno a causa degli investimenti generativi in AI (AI)

Nonostante l’IA generativa rimanga calda, illuminata dai risultati JulQ di NVIDIA (NVDA) il mese scorso, C3.ai (AI -12%), una società di applicazioni AI aziendale, si sta raffreddando oggi dopo i risultati del primo trimestre (luglio) di ieri dopo la chiusura. I risultati principali sono stati solidi; C3.ai ha superato le stime degli utili e delle entrate nel trimestre, offrendo una perdita netta minore di $ 0,09) per azione e giri di 72,36 milioni di dollari, un salto del 10,8% anno/anno.

Tuttavia, gli investitori sono stati scoraggiati dal fatto che la società ha ritirato il suo obiettivo di raggiungere la redditività non GAAP entro il 4Q24 (aprile), un rapido cambiamento rispetto allo scorso trimestre quando la direzione ha ribadito i suoi piani di redditività entro la fine del FY24. C3.ai ha dichiarato che data l’eccezionale domanda di intelligenza artificiale generativa, ha deciso di investire pesantemente nelle sue offerte di intelligenza artificiale generativa per diventare il leader nella tecnologia poiché più aziende competono per una fetta del redditizio mercato dell’intelligenza artificiale nei prossimi anni. Di conseguenza, la direzione ha commentato che la redditività potrebbe non materializzarsi fino a quando non si avvicina al Q2-Q4 dell’anno fiscale 25.

  • Sul lato positivo, C3.ai prevede ancora di fornire un flusso di cassa libero positivo nel 4Q24 e nel FY25. Ha anche ribadito le sue prospettive di entrate FY24 di 295-320 milioni di dollari.
  • Inoltre, è fondamentale capire che la mossa dell’azienda di versare capitale nella sua tecnologia AI generativa segue una vasta domanda.
  • Questa domanda è assistita dalla capacità unica di C3.ai di implementare tutte le sue applicazioni AI generative entro 12 settimane per 250.000 dollari, dopodiché il cliente paga per utilizzo con sconti sul volume.
    • A margine, a causa di questo modello, l’obbligo di prestazione residuo (RPO) e il valore medio del contratto (ACV) non sono più indicatori significativi delle prestazioni aziendali, poiché queste metriche inizieranno inevitabilmente a diminuire date le dimensioni degli accordi più piccole.
  • C3.ai ha anche menzionato come la sua suite AI abbia un vantaggio competitivo rispetto ai modelli standard di linguaggio di grandi dimensioni (LLM) come ChatGPT poiché le risposte generate dall’IA dell’azienda sono tracciabili e deterministiche, un problema che affligge molti chatbot concorrenti.

Tuttavia, la notizia di non raggiungere più la redditività quest’anno mette in ombra questi lati positivi. Sebbene C3.ai ritenga che il mercato generativo dell’IA potrebbe più che raddoppiare il suo mercato indirizzabile, indicando un rapporto di Bloomberg Intelligence che prevede che il mercato raggiungerà 1,3 trilioni di dollari entro il 2032, il termine immediato è ancora pieno di venti contrari macroeconomici. Come tale, agli investitori sono piaciuti i progressi delle aziende verso il raggiungimento e il miglioramento della redditività. Il perno di C3.ai verso investimenti aggressivi a scapito della redditività ci ricorda la decisione di Sea Limited (SE) del mese scorso di riportare l’attenzione alla crescita rispetto ai profitti, che ha innescato un sell-off.

In conclusione, l’IA porta un sostanziale potenziale al rialzo alle aziende che operano al centro di questo spazio, come C3.ai. Tuttavia, la tecnologia è ancora nelle sue fasi iniziali, il che significa che comporta un rischio significativo di non sconvolgere l’economia globale o di incontrare molti ostacoli sulla sua strada verso ambiziose stime TAM.


07/09/23 Barron’s: Il Ceo di C3.ai spiega il ritardo dei profitti mentre le azioni scendono

Eric J. Savitz

Thomas Siebel, fondatore, presidente e CEO di C3.ai

C3.ai .AI –11.87%  le azioni sono scese bruscamente giovedì dopo che la società di software AI ha pubblicato risultati solidi per il suo ultimo trimestre, prevedendo una perdita per l’intero anno maggiore di quanto previsto in precedenza.

La società ha anche ritirato una precedente previsione secondo cui avrebbe raggiunto la redditività non-GAAP entro la fine dell’anno fiscale 2024.

“Dopo un’attenta considerazione con la nostra leadership e i nostri partner di marketing, abbiamo preso la decisione di investire nella generazione di lead, nel branding, nella consapevolezza del mercato e nel successo dei clienti relativi alle nostre soluzioni di intelligenza artificiale generativa”, ha dichiarato il CEO Thomas Siebel in una nota. “L’opportunità di mercato è immediata e intendiamo coglierla. Mentre ci aspettiamo ancora di essere positivi in termini di liquidità nel Q4 FY 24 e nel FY 25, investiremo nelle nostre soluzioni di Generative AI e in questo momento non ci aspettiamo di essere redditizi non-GAAP nel Q4 FY 24”.

In un’intervista con Barron’s giovedì, Siebel ha dichiarato che “la società ha preso la decisione in base alle dimensioni dell’opportunità” di utilizzare alcuni dei suoi 800 milioni di dollari in contanti per aumentare la spesa in vendite, marketing, pubblicità e data scientist per acquisire più quote di mercato nel software applicativo generativo basato sull’intelligenza artificiale. Descrive la strategia come “un furto di terra”, aggiungendo che sarebbe “folle non investire in questo mercato … Lo stiamo facendo con gli occhi aperti”.

Siebel afferma che C3.ai ha già chiuso 12 accordi per applicazioni basate sull’intelligenza artificiale, da aziende come Koch Industries e Nucor, e che ci sono 147 “opportunità in coda”. Dice che l’azienda può portare un cliente operativo in 12 settimane per una tariffa fissa di $ 250.000, addestrando un modello linguistico di grandi dimensioni sui dati dei clienti, e quindi addebitare una commissione di utilizzo dopo.

Siebel afferma che C3.ai prevede di aumentare la spesa di circa $ 10 milioni a $ 20 milioni a trimestre per supportare le nuove applicazioni. Ma non vede il saldo di cassa della società scendere sotto i 700 milioni di dollari. “Abbiamo un sacco di quarti di denaro”, dice.

In un annuncio separato mercoledì, C3.ai ha presentato un gruppo di 28 suite software AI specifiche per dominio, per aree come aerospaziale, servizi finanziari e assistenza sanitaria, e prevede di aumentare la spesa per guidare le vendite.

Per il suo primo trimestre fiscale conclusosi il 31 luglio, C3.ai (ticker: AI) ha registrato un fatturato di $ 72,4 milioni, in crescita dell’11% rispetto al trimestre dell’anno precedente, verso la fascia alta dell’intervallo di riferimento della società di $ 70 milioni a $ 72,5 milioni e leggermente superiore alle previsioni di consenso di Wall Street a $ 71,6 milioni.

Su base rettificata, la società ha perso 9 centesimi per azione, più piccola della previsione di consenso di Street per una perdita di 17 centesimi. Secondo i principi contabili generalmente accettati, la società ha perso 56 centesimi per azione.

Per il trimestre di ottobre, C3.ai vede un fatturato compreso tra 72,5 e 76,5 milioni di dollari, con una perdita operativa non-GAAP compresa tra 27 e 40 milioni di dollari. Le stime di Wall Street prevedono un fatturato di 73,8 milioni di dollari e una perdita operativa di 26,6 milioni di dollari.

Per l’anno fiscale di aprile 2024, C3.ai continua a registrare entrate tra $ 295 milioni e $ 320 milioni, ma ora vede una perdita non GAAP dalle operazioni compresa tra $ 70 milioni e $ 100 milioni, rispetto a $ <> milioni, rispetto a $ <> milioni e $ <> milioni. una perdita prevista precedente da $ 50 milioni a $ 75 milioni. La stima di consenso di Wall Street prevedeva una perdita di 64 milioni di dollari.

“È difficile descrivere la portata del crescente interesse che stiamo vedendo a livello globale nell’adozione dell’IA aziendale”, ha detto Siebel in una dichiarazione che accompagna l’annuncio degli utili. “Stiamo vivendo una forte trazione con le nostre applicazioni di intelligenza artificiale aziendale e in particolare con l’intelligenza artificiale generativa C3”.

C3.ai azioni sono scese del 13% nel trading di giovedì.

Scrivi a Eric J. Savitz all’indirizzo eric.savitz@barrons.com


05/09/23 Barron’s: La CEO di AMD afferma che il mercato dell’IA sta “esplodendo”

Tae KimFollow

Il CEO di AMD Lisa Su ha ribadito la sua aspettativa che il mercato degli acceleratori di intelligenza artificiale nei data center raggiungerà i 150 miliardi di dollari entro il 2027.

Il CEO di Advanced Micro Devices afferma che la domanda di semiconduttori di intelligenza artificiale rimane robusta.

Martedì, durante una sessione alla Goldman Sachs Communacopia and Technology Conference a San Francisco, La CEO di  AMD (ticker: AMD) Lisa Su ha offerto una valutazione ottimistica della tendenza dell’IA.

“La prima, la seconda e la terza priorità sono intorno all’IA, all’IA, all’IA”, ha detto. “Negli ultimi trenta giorni, quello che abbiamo visto è una continua accelerazione degli impegni” per l’IA nel data center. Su ha aggiunto che il mercato sta ” salendo alle stelle”.

Le azioni AMD sono aumentate dell’1% nel trading pomeridiano di martedì a 110,55 dollari.

L’ultimo commento positivo di Su è degno di nota. Un mese fa, durante una chiamata agli utili il 1° agosto, ha detto che gli impegni dei clienti AI erano aumentati di più di sette volte nell’ultimo trimestre. Un ulteriore miglioramento dell’interesse sarebbe il segno che il mercato non ha ancora superato.

Alla conferenza Goldman, il CEO ha sottolineato che AMD è una delle poche aziende che offre un portafoglio completo di tecnologie AI attraverso chip e software. Ha detto che AMD ha anche le relazioni della catena di approvvigionamento per garantire la capacità richiesta, anche nei pacchetti di chip avanzati e nei chip di memoria avanzati, per essere un grande attore nel mercato dei semiconduttori AI.

Infine, l’esecutivo ha ribadito la sua aspettativa che il mercato degli acceleratori di intelligenza artificiale nei data center raggiungerà i 150 miliardi di dollari entro il 2027. E ha confermato che l’imminente acceleratore AI MI300 di AMD era sulla buona strada per il lancio durante il quarto trimestre.

Le azioni AMD sono aumentate di circa il 37% negli ultimi 12 mesi rispetto all’aumento del 43% dell’ETF theiShares SemiconductorSOXX + 0,21% (SOXX). L’ETF tiene traccia delle prestazioni dell’indice ICE Semiconductor.


02/09/23 Briefing.comm: MongoDB cerca di ritestare i massimi di 52 settimane dopo un massiccio beat-and-raise in JulQ (MDB)

MongoDB (MDB +4%) sta tornando verso i massimi di 52 settimane dopo un massiccio beat-and-raise nel secondo trimestre (luglio). Il fornitore di software di gestione del database ha mantenuto il suo slancio ottimista rispetto al trimestre precedente nonostante i venti contrari macroeconomici, superando i guadagni di un margine più ampio rispetto al primo trimestre (aprile), accelerando la crescita delle vendite e sollevando i suoi obiettivi FY24.

  • L’EPS rettificato è salito a 0,93 dollari, cancellando la previsione di 0,403-0,46 dollari di MDB, con una crescita massima del 39,6% anno/anno a 423,8 milioni di dollari, schiacciando la fascia alta della previsione di 388-392 dollari di MDB.
  • MDB ha vantato un sano trimestre di espansione aziendale nuova ed esistente, in qualche modo contrastando la tendenza di altre aziende B2B basate su software ultimamente, come Okta (OKTA), che ha menzionato come attrarre nuovi clienti si sia rivelato molto più impegnativo rispetto alla crescita delle relazioni esistenti. MDB ha aumentato la sua base di clienti del 4,4% in sequenza a oltre 45.000. I clienti più grandi con almeno 100.000 dollari di entrate ricorrenti annualizzate sono in aumento del 5,3% rispetto allo scorso trimestre.
  • MDB Atlas, l’offerta cloud principale dell’azienda, ha aumentato le vendite del 38% anno/anno nel secondo trimestre, comprendendo il 63% delle entrate totali, in calo rispetto al 65% dello scorso trimestre. Il lieve calo è stato attribuito alle impressionanti prestazioni del segmento legacy Enterprise Advanced (EA) di MDB, che riflette la solida domanda indipendentemente da dove si trovano i clienti nelle loro trasformazioni digitali. Le entrate di Atlas sono anche riconosciute sulla base dei consumi, che, come abbiamo visto da Snowflake (SNOW), possono fluttuare più spesso di un abbonamento statico, in particolare durante condizioni economiche difficili, come ciò che MDB ha sopportato durante il secondo trimestre.
  • La crescita dei consumi di Atlas rimarrà probabilmente influenzata negativamente dall’ambiente attuale per tutto il FY24 (gennaio). Tuttavia, dopo un rapporto del secondo trimestre, MDB era fiducioso nell’innalzare i suoi obiettivi FY24, aspettandosi utili rettificati per il FY24 di $2.27-2.35, in aumento da $1.42-1.56, e giri di $1.596-1.608 miliardi, in aumento da $1.522-1.542.

In passato, questo tipo di performance ha coinciso con ampi salti nel prezzo delle azioni di MDB. Allora perché la risposta di oggi, anche se abbastanza positiva, impallidisce rispetto alle reazioni precedenti, come la mossa di oltre il +28% dello scorso trimestre? MDB ha goduto di un trimestre un po’ una tantum, alimentato principalmente da EA, che non viene fatturato in base al consumo ma attraverso abbonamenti e licenze. A causa di un significativo apporto di entrate in licenza nel secondo trimestre, che non ha aggiunto molti costi aggiuntivi, le prestazioni eccezionali di EA hanno in gran parte guidato il miglioramento di 500 bp anno/anno di MDB nei margini lordi non GAAP al 78%, aiutando l’enorme ritmo di fondo di MDB. La direzione non si aspetta di ripetere questa performance nei trimestri successivi.

Tuttavia, continuiamo a piacerci MDB a lungo termine, soprattutto perché l’IA guadagna popolarità. Come sviluppatore di software di gestione di database, l’IA si inserisce perfettamente nel core business di MDB. Ad esempio, la flessibilità e la versatilità dei modelli di documenti li rende una misura naturale per l’applicazione AI. Inoltre, l’IA richiede la capacità di scalare l’elaborazione dei dati su un database in espansione, un attributo critico dell’offerta di MDB. L’IA è solo nelle sue fasi iniziali e, sebbene possa sperimentare dolori crescenti a breve termine se le aziende non realizzano guadagni di produttività significativi, ha il potenziale per aggiungere notevoli vantaggi a MDB nel lungo periodo.


01/09/23 Barron’s: Palantir Stock ha avuto più di un brutto mese. Cathie Wood compra sul calo.

Callum KeownFollow

1

Le azioni Palantir sono aumentate del 133% nel 2023.

Le azioni Palantir Technologies PLTR  hanno avuto un agosto difficile. Sembra che l’hype intorno all’intelligenza artificiale possa portarti solo così lontano.

Le azioni della società di analisi dei dati sono crollate di oltre l’8% giovedì per terminare il mese con un calo del 24,5%.

Palantir (ticker: PLTR) sta ancora avendo un grande anno: il titolo è aumentato del 133% nel 2023.

Un terribile agosto in un buon anno può essere in linea con le prestazioni del mercato azionario più ampio, ma per Palantir potrebbe riflettere un problema più preoccupante e duraturo: come monetizzare la sua piattaforma di intelligenza artificiale.

“stiano studiando come come guadagnarci”, ha detto il CEO Alexander Caedmon Karp nella chiamata agli utili dell’azienda il mese scorso. “In primo luogo, stiamo insegnando al mercato di cosa si tratta. Stiamo prendendo le persone a bordo … poi lo faremo pagare.”

Le domande su come farà effettivamente soldi dall’IA hanno riguardato Wall Street. Il cinquanta per cento degli analisti che coprono il titolo ora ha rating di vendita. Ma non ha scoraggiato Cathie Wood, poiché i suoi fondi ARK Invest hanno acquistato più azioni giovedì, secondo una notifica commerciale.

ARK Invest ha acquistato 673.002 azioni di Palantir, per un valore di 10,1 milioni di dollari in base al prezzo di chiusura di giovedì di 14,98 dollari. La maggior parte di questo – 525.292 azioni – è stata acquistata dall’ammiraglia ARK Innovation di WoodARKK +0,10% fondo negoziato in borsa (ARKK). La partecipazione Palantir dell’ETF vale ora 92,2 milioni di dollari, secondo i dati di ARK Invest.

La mossa di Palantir verso il basso giovedì è arrivata dopo che l’analista di Morgan Stanley Keith Weiss ha declassato il titolo a Underweight da Equal Weight. Weiss ha detto che la visibilità su come Palantir monetizzerà la sua piattaforma di intelligenza artificiale “rimane ancora bassa”.

Il mese scorso non è stato nemmeno il peggior agosto di Palantir, e ne ha avte solo tre da quando è diventato pubblico nel settembre 2020. Il titolo è crollato del 25,4% nell’agosto 2022 e ci è voluto fino a maggio di quest’anno, e la frenesia intorno all’IA, per recuperare quelle perdite.

L’hype dell’IA sarebbe durate solo fino a un certo punto, prima che gli investitori si aspettassero di iniziare a vedere prove dei suoi benefici. Palantir ha bisogno di rispondere a quella domanda scottante, e velocemente.


24/08/23 Barron’s: Nvidia stanno salendo. I suoi utili stellari hanno chiarito le preoccupazioni.

Di Adam ClarkFollow

Le azioni Nvidia erano più che triplicate di valore quest’anno finora nel rapporto sugli utili di mercoledì. (Foto di Justin Sullivan/Getty Images)

Nvidia Le azioni sono in aumento giovedì mentre gli analisti hanno accolto con favore i risultati che mostrano che il boom dell’intelligenza artificiale sta alimentando la sua crescita. Ha anche sollevato le preoccupazioni sui vincoli di offerta e sulla portata della domanda guidata dai clienti cinesi.

Le azioni Nvidia (ticker: NVDA) sono in aumento dell’8% a 508,87 dollari nel trading pre-mercato giovedì dopo che i suoi guadagni trimestrali e le sue prospettive sono arrivate ben al di sopra delle proiezioni degli analisti.

Nvidia non solo ha battuto le aspettative, ma ha anche affrontato diverse preoccupazioni sul fatto che il suo progresso sia sostenibile. La società ha detto che si aspetta che l’offerta di prodotti aumenti nel prossimo anno fiscale, alleviando la preoccupazione che non fosse in grado di soddisfare la crescente domanda di chip AI.

“Con la visibilità che si estende fino al 24, la direzione di [Nvidia] ha qualificato ulteriori fornitori… e prevede di aumentare l’offerta ogni trimestre fino al prossimo anno per soddisfare la domanda”, ha scritto l’analista di KeyBanc John Vinh in una nota di ricerca.

Vinh ha aumentato il suo prezzo obiettivo su Nvidia a 670 dollari da 620 dollari e ha mantenuto un rating di sovrappeso sul titolo. Il nuovo obiettivo si basa su un multiplo price-to-earnings previsto di 35 volte per il 2025.

Le entrate dalla Cina rientrava nell’intervallo storico dell’azienda tra il 20% e il 25%, indicando che il ritmo non era guidato dagli ordini cinesi che venivano tirati in avanti per paura di future restrizioni statunitensi. L’ampiezza della domanda ha sottolineato le aspettative di un cambiamento su larga scala nei data center verso l’utilizzo delle unità di elaborazione grafica di Nvidia per alimentare gli strumenti di intelligenza artificiale e lontano dai processori general-purpose.

“Ci aspettiamo che le azioni continuino a rivaluare più in alto mentre Nvidia offre [la] storia dell’IA… Nvidia rimane il gioco su scala più puro sull’adozione dell’IA”, ha scritto Rick Schafer di Oppenheimer in una nota di ricerca.

Schafer ha aumentato il suo prezzo obiettivo su Nvidia a 650 dollari da 500 dollari e ha mantenuto un rating Outperform sul titolo.

Nvidia non è stata l’unica azione che ha guadagnato sulla scia del suo rapporto, poiché gli investitori hanno scommesso che l’IA alimenterà la crescita per altre società di hardware e software. Il produttore di chipAMD  (AMD) è aumentato del 3,3% nel premercato, mentre Microsoft(MSFT) ha guadagnato il 2,2% e Google-parent Alphabet (GOOGL) è aumentato dell’1,4%.

“Una forte concorrenza è importante per un sano ecosistema di innovazione. Il mercato dovrebbe voler vedere un altro attore e dovrebbe voler vedere questo prossimo boom della trasformazione digitale essere più pervasivo e persistente rispetto a una bolla di esuberanza irrazionale”, ha affermato Daniel Newman, CEO della società di ricerca tecnologica Futurum Group.

Newman ha detto che il rapporto ha mostrato che ci dovrebbero essere opportunità per aziende come AMD e Intel (INTC) per fornire offerte di chip AI rivali. Tuttavia, ha notato che la finestra per le alternative per crescere potrebbe restringersi poiché Nvidia aumenta l’attrattiva della propria piattaforma attraverso lo sviluppo del software e le partnership del settore.


21/08/23 Are: Investire Nell’intelligenza Artificiale: Dove Emergereranno I Valori Azionari?

ARK Invest,

Questo articolo è stato scritto dal Client Portfolio Manager di ARK Thomas Hartmann-Boyce, CFA, Next Generation Internet Director of ResearchFrank Downing e Associate Portfolio Manager Daniel White, CFA.

INTRODUZIONE
L’intelligenza artificiale (AI) sta rimodellando le industrie e crediamo che potrebbe essere un motore di crescita a lungo termine più impattante di Internet. Durante il secondo trimestre, ChatGPT ha catturato l’immaginazione delle imprese e dei consumatori, scatenando l’eccitazione che ha scatenato un rally nelle azioni tecnologiche mega-cap. Apparentemente, molti investitori presumevano che gli operatori storici pesanti di benchmark che sono arrivati maggiorenni durante la rivoluzione di Internet avrebbero beneficiato in modo sproporzionato anche della rivoluzione dell’IA.

Dal 2014, con competenze di dominio specifiche per la tecnologia, gli analisti di ARK si sono concentrati sulle industrie, le aziende e le azioni che ARK ritiene possano essere i principali beneficiari della rivoluzione dell’IA. Data la comprensione degli analisti ARK di hardware, software e applicazioni, i portafogli ARK offrono un’esposizione significativa all’opportunità dell’IA. Mentre l’indice S&P 500[1] e l’indice Nasdaq 100[2] offrono ampio accesso alle azioni tecnologiche mega-cap, riteniamo che i nomi non benchmark possano accumulare più valore dall’IA nel tempo.

Questo documento esplora i potenziali meriti di investire in opportunità guidate dall’IA che non sono in benchmark ad ampia base come l’indice S&P 500 e l’indice Nasdaq 100 e sottolinea come il rally in benchmark ad ampia base quest’anno potrebbe essere il precursore di una mega tendenza più completa e produttiva.

1. IL RECENTE RALLY GUIDATO DALL’IA IN NOMI MEGA-CAP
Mentre le strategie dirompenti basate sull’innovazione sono rimbalzate e hanno sovraperformato gli indici azionari più ampi durante il primo trimestre, i benchmark ponderati per la capitalizzazione di mercato con esposizioni fuori misura alle azioni tecnologiche a mega-capitalizzazione sono decollati nel secondo trimestre. Al 30 giugno, ad esempio, Apple, Microsoft, Alphabet, Nvidia, Meta Platforms e Amazon costituivano il 51,0% della capitalizzazione di mercato dell’indice Nasdaq 100, rappresentata dal QQQ, ma rappresentavano il 68,8% del suo rally del 39,4% da inizio anno.[ 3] Rimuovendo quei nomi mega-cap[4] e normalizzando il peso delle restanti partecipazioni, il Nasdaq 100 avrebbe restituito non il 39,4%, ma il 27,9%.

Altrettanto sorprendente, l’indice S&P 500 ponderato per la capitalizzazione di mercato, come rappresentato dall’ETF SDPR S&P 500 (SPY), ha restituito il 16,8% mentre la versione ponderata uguale, rappresentata dall’ETF ponderato per l’Equale (RSP) Invesco S&P 500, ha restituito il 6,9%, un chiaro segno

Nonostante la minima sovrapposizione con le azioni “big tech” e l’esposizione relativamente elevata all’assistenza sanitaria e alle azioni a piccola capitalizzazione, la strategia di innovazione dirompente ARK Innovation ETF (ARKK) ha sovraperformato l’indice Nasdaq 100 (QQQ), come mostrato di seguito.[ 5] Fino a metà anno, ARKK ha restituito il 41,3% mentre il Next Generation Internet ETF (ARKW) ha restituito il 52,0%. A nostro avviso, la loro sovraperformance suggerisce che il rally che favorisce l’innovazione si sta allargare, un segnale sano che potrebbe mettere in discussione le valutazioni “big tech” che hanno beneficiato di un affollamento in azioni di riferimento “sicure”.

Fonte: ARK Investment Management LLC, 2023. Sulla base dei dati di YCharts e Bloomberg al 30 giugno 2023. Le prestazioni passate non garantiscono risultati futuri. I rendimenti mostrati sono al netto delle spese dell’ETF, ma non riflettono il pagamento di eventuali commissioni di intermediazione o costi di intermediazione sostenuti a seguito dell’acquisto o della vendita di azioni del fondo e non riflettono la detrazione delle imposte a cui un investitore sarebbe soggetto a seguito del possesso o della vendita di azioni del fondo. Se lo facessero, i rendimenti sarebbero inferiori a quelli mostrati. Gli ETF ARK sono gestiti attivamente, il che significa che non aderiscono rigorosamente alla composizione di un indice e possono investire in titoli che non sono inclusi in un indice. Al contrario, gli ETF Invesco e SPDR sono gestiti passivamente, il che significa che la composizione dei loro portafogli segue da vicino un indice.[ 6]

*Le prestazioni annualizzate sono state rappresentate per periodi superiori a un anno

Per i dati sulle prestazioni NAV per ARKK e ARKW, così come altri datapoint, si prega di visitare fare clic qui e navigare rispettivamente su ARKK e ARKW.

2. POTENZIALI RISCHI NEI POTENZIALI OPERATORI A MEGA-CAP

Mentre finora hanno beneficiato in modo sproporzionato del boom dell’IA, la nostra ricerca suggerisce che molte delle azioni blue-chip, mega-cap hanno un’alta valutazione relativa[7] e sono, a loro volta, a rischio di interruzione.[ 8]

Esposizioni concentrate ai nomi Mega-Cap: dal punto di vista della gestione del portafoglio, investire nei noti benchmark espone gli investitori al rischio concentrato in alcune società ben note le cui fortune influenzano fortemente la loro performance complessiva. Al contrario, dati i rapidi ed enormi progressi dell’IA, le strategie di innovazione dirompente più diversificate offrono esposizioni in una serie di titoli non di riferimento a più piccola capitalizzazione, mitigando, se non compensando, i rischi associati alla detenzione di grandi posizioni in alcuni nomi di mega-capitalizzazione in vari indici, come mostrato di seguito.[ 9] Detto questo, la selezione attiva di titoli a piccola capitalizzazione è importante, poiché questi nomi spesso comportano rischi potenziali come una maggiore volatilità, una minore liquidità e il fallimento aziendale dati i cicli di vita precedenti.

Fonte: ARK Investment Management LLC, 2023. Sulla base dei dati di Bloomberg al 30 giugno 2023. Solo a scopo informativo e non dovrebbe essere considerato un consiglio di investimento o una raccomandazione per acquistare, vendere o detenere un particolare titolo. Le partecipazioni e le caratteristiche degli ETF ARK sono soggette a modifiche.

Valutazioni relative elevate: molte azioni mega-tech stanno vendendo a valutazioni relativamente alte, a nostro avviso il risultato degli investitori che controllano la scatola e si aggiungono a indici ben noti per una rapida esposizione all’IA.[ 10] Nvidia (NVDA), ad esempio, sta scambiando a un multiplo prezzo-vendita di 40.5x[11] a causa della sua posizione dominante come fornitore di chip – i “picks and shovels” – per i carichi di lavoro di deep learning. Nel 2014, quando NVDA, split-adjusted, vendeva AT $5, ARK ha aumentato significativamente una posizione esistente in NVDA sulla base della ricerca sui veicoli autonomi.[ 12] Fin dall’inizio nel settembre 2014, NVDA è stato il quarto più grande contributore alle prestazioni di ARKK dopo Tesla (TSLA), Grayscale Bitcoin Trust (GBTC) e Invitae (NVTA) e il terzo e il secondo più grande contributore rispettivamente all’ARRK Autonomous Technology & Robotics ETF (ARKQ) e all’ARK Next Generation Internet ETF Mentre crediamo che Nvidia rimanga probabilmente un fattore principale e beneficiario di continue scoperte nell’IA, molti altri potenziali beneficiari non sono ben compresi, potrebbero vendere a valutazioni molto più basse e potenzialmente potrebbero fornire entrate e guadagni significativi sorprese sul lato elevato delle aspettative.

Storicamente, quando le aziende di hardware tecnologico hanno venduto oltre 25 volte dietro le entrate di dodici mesi, i rendimenti successivi hanno sofferto.Cisco Systems (CSCO) è un buon esempio. Dopo una crescita dei ricavi di circa 20 volte e 10 volte dal 1990 al 1994[13] e dal 1994 al 2000, rispettivamente, CSCO ha raggiunto il picco di 61 volte i ricavi di dodici mesi all’inizio del 2000.[ 14] Dall’inizio del secolo fino al 30 giugno 2023, il rendimento totale annualizzato di CSCO è stato in media dell’1,4% rispetto al 7,0% sia per l’indice Nasdaq 100 (determinato da QQQ) che per l’indice S&P 500 (come determinato da SPY).[ 15]

In genere, le società di software comandano multipli più alti rispetto alle società di hardware, grazie a una crescita e a margini più elevati e meno ciclici. CSCO è stato un esecutore eccezionale durante gli anni ’90 ma, in retrospettiva, gli investitori avrebbero dovuto ridistribuire parte, e alla fine tutto, di quel capitale mentre i personal computer erano in piena espansione, a beneficio di Wintel, sia software (Windows di Microsoft) che hardware (Intel), come mostrato di seguito.[ 16] Inoltre, è importante notare rispetto all’alba dell’era di Internet alla fine del 1994, CSCO rappresentava solo il 2,5% del settore Information Technology (IT) di S&P e solo lo 0,2% dell’indice complessivo S&P 500. Oggi, NVDA rappresenta il 4,7% del settore dell’Information Technology (IT) di S&P e il 2,8% dell’indice complessivo S&P 500 (così come il 6,9% dell’indice Nasdaq 100).

Fonte: ARK Investment Management LLC, 2023. Basato sui dati di Y-Charts. Dati fino al 30 giugno 2023. Solo a scopo informativo e non dovrebbe essere considerato un consiglio di investimento o una raccomandazione per acquistare, vendere o detenere un particolare titolo. Le prestazioni passate non sono indicative dei risultati futuri.

Rispetto a NVDA, molti potenziali beneficiari dell’IA nei portafogli di ARK sono valutati in modo più attraente, come mostrato nella tabella seguente. TSLA, ad esempio, commercia a 9,6 volte le vendite, ma a nostro avviso potrebbe essere il più grande beneficiario dell’IA – ed è la più grande esposizione all’IA tra le nostre strategie date le opportunità di entrate di 8-10 trilioni di dollari e i margini simili a SaaS – che, secondo la nostra ricerca, le piattaforme di taxi autonomi forniranno a livello globale intorno alla fine

Fonte: ARK Investment Management LLC, 2023. Sulla base dei dati di Bloomberg al 30 giugno 2023. Il multiplo price-to-sales rappresenta il prezzo corrente per azione delle azioni di una società diviso per le vendite per azione degli ultimi dodici mesi. Solo a scopo informativo e non dovrebbe essere considerato un consiglio di investimento o una raccomandazione per acquistare, vendere o detenere un particolare titolo. Le prestazioni passate non sono indicative dei risultati futuri.

Interruzione del prodotto: le società a mega-cap ampiamente diffuse in generale hanno goduto di una crescita sostanziale nell’ultimo decennio, ma potrebbero raggiungere un livello di saturazione del mercato che potrebbe sfatare le prospettive di crescita futura. Sulla base del calo del ~70% all’anno dei costi di formazione sull’IA,[17] la nostra ricerca suggerisce che le aziende più piccole e più focalizzate con team di gestione visionari, distribuzione ad ampia base e dati proprietari potrebbero essere importanti beneficiari. Mentre le società a mega-capitalizzazione assegneranno risorse significative all’IA, è probabile che i loro sforzi di innovazione siano diffusi tra progetti e divisioni incentrate su tecnologie più vecchie, spesso il motivo per cui le grandi aziende hanno perso le successive ondate di innovazione. Potrebbero anche affrontare ostacoli politici associati alla privacy e alle considerazioni antitrust. Intel ha perso la transizione tecnologica, ad esempio, dai personal computer al mobile computing e ai telefoni cellulari.

La nostra ricerca suggerisce che l’IA potrebbe interrompere le attività una volta affidabili, cash-cow, dei grandi operatori del mercato. ChatGPT di OpenAI potrebbe minacciare Apple Alphabet interrompendo rispettivamente l’App Store e la Ricerca Google. I plugin di prodotto di OpenAI per ChatGPT consentono ai chatbot di interagire con dati e servizi esterni: possono cercare informazioni in tempo reale sul web, ordinare generi alimentari da ristoranti locali e prenotare voli, hotel o auto a noleggio ai prezzi più bassi in qualsiasi parte del mondo. Chi ha bisogno di app per scopi speciali quando un’interfaccia general-purpose può fornire risposte su tutto il web aperto? In altre parole, i grandi modelli linguistici potrebbero diventare sistemi operativi, dando agli sviluppatori un modo per evitare la tassa sulla piattaforma del 15-30% che domina il flusso di entrate ricorrenti di Apple. Le entrate di Google dipendono anche dai consumatori e dalle aziende che cercano e si spostano da un sito web all’altro. Ora, i consumatori e le aziende possono sfruttare ChatGPT con i plugin per ottenere risposte prive di pubblicità, mettendo a rischio il principale fattore di entrate di Google.

In altre parole, il centro di gravità della tecnologia si sta spostando drasticamente. I grandi modelli linguistici presentano opportunità di crescita super-esponenziali che potrebbero lasciare le aziende tecnologiche mega-cap a terra.

3. LA PROSSIMA ONDATA DI VALORE DELL’IA

In risposta a ChatGPT, il potente rally azionario di Nvidia (NVDA) negli ultimi mesi ci ha dato l’opportunità di descrivere il posizionamento del portafoglio di ARK intorno all’IA sulla base di tre fattori:

  • Produttività: l’IA generativa può offrire sorprendenti guadagni di produttività in tutti i settori.
  • Domanda di hardware AI: l’IA generativa richiede nuovi stack hardware.
  • AI Software Pull-Through: l’investimento hardware precede la monetizzazione molto più ampia del software AI.

Produttività: le applicazioni di intelligenza artificiale generativa stanno aumentando drasticamente la produttività in uno spettro di classificazioni di lavoro. I grandi modelli linguistici, ad esempio, stanno trasformando lo sviluppo del software, secondo uno studio Github[18] che illustra che il suo assistente di codifica Copilot aumenta la soddisfazione lavorativa associata alla codifica e riduce il tempo necessario del 55% per completare lo sviluppo del software. Suggerendo che questo tipo di guadagno di produttività scalerà tra i settori, GPT-4[19] segna nel 90° percentile nell’Uniform Bar Exam, 9 volte meglio di GPT-3.5 di due anni, come mostrato di seguito.

Fonte: OpenAI. 2023. “GPT-4.” https://openai.com/research/gpt-4. Solo a scopo informativo e non dovrebbe essere considerato un consiglio di investimento o una raccomandazione per acquistare, vendere o detenere un particolare titolo. Le prestazioni passate non sono indicative dei risultati futuri.

Secondo la nostra ricerca, il software di intelligenza artificiale potrebbe aumentare la produttività dei lavoratori della conoscenza di circa quattro volte a livello globale entro il 2030. Su una base salariale dei lavoratori della conoscenza di 32 trilioni di dollari, la produttività globale potrebbe ridurre i costi di quasi la metà, come mostrato di seguito.

Nota: Product Uplift rappresenta 2.5X, 4.5X e 6.5X. Ad esempio, 2.5X sarebbe un aumento del 150%. Fonte: ARK Investment Management LLC, 2023. Sulla base dei dati di “Big Ideas 2023”—Ark Investment Management LLC, 2023. Le previsioni sono intrinsecamente limitate e non si può fare affidamento. Solo a scopo informativo e non dovrebbe essere considerato un consiglio di investimento o una raccomandazione per acquistare, vendere o detenere un particolare titolo.

Domanda di hardware AI: la rivoluzione generativa dell’IA richiede nuovi investimenti infrastrutturali in acceleratori di intelligenza artificiale appositamente costruiti per carichi di lavoro di rete neurale che funzionano su larga scala, come mostrato a destra qui sotto. La ricerca ARK suggerisce che la spesa per i data center basati sull’IA aumenterà del 53% a un tasso annuale, da 18,8 miliardi di dollari nel 2021[20] a 937 miliardi di dollari, entro il 2030 e a un tasso del 44% tra il 2025 e il 2030, un potenziale vantaggio per i produttori di chip come NVIDIA.

Come convalidato dalla recente guida di NVIDIA per il trimestre di luglio, la crescita accelerata sta iniziando con l’hardware AI. Non così ben compreso, tuttavia, è la concorrenza che NVIDIA potrebbe affrontare nei prossimi 3-5 anni. Le aziende di chip orizzontali come Advanced Micro Devices stanno entrando nel mercato mentre Amazon, Microsoft e Google stanno sviluppando il proprio hardware per i carichi di lavoro di formazione e inferenza. La concorrenza si evolverà anche da strategie di integrazione verticale più speciali su misura per particolari casi d’uso come il Dojo di Tesla[21] e l’MTIA di Meta.[ 22] Nel giugno 2023, ad esempio, Tesla prevede[23] che la sua capacità di addestramento AI aumenterebbe di oltre 20 volte da 4,5 exaflop divulgati durante l’AI Day nel 2022 a 100 exaflop nel quarto trimestre del 2024. A nostro avviso, mentre NVIDIA continuerà a crescere rapidamente, i concorrenti orizzontali e verticali sono ben armati per fornire una concorrenza che i modelli del settore finanziario non sembrano incorporare.

AI Software Pull-Through: secondo la nostra ricerca, ogni dollaro speso per l’hardware AI potrebbe sostenere fino a 21 dollari di entrate software per tutta la sua vita utile.[ 24] In ciò che potrebbe diventare “il vincitore prende la maggior parte delle opportunità”, le aziende con dati proprietari, vantaggi di distribuzione e una forte leadership dovrebbero essere nella posizione migliore per capitalizzare i guadagni di produttività e i nuovi mercati creati dall’intelligenza artificiale.

4. AI’S SLEEPER WAVE

Sulla base della nostra ricerca, le strategie di ARK offrono esposizioni promettenti all’intelligenza artificiale che non sembrano aver colpito schermate di ricerca quantitativa. Tra gli esempi di nomi ad alta convinzione in molte delle nostre strategie di equità pubblica, tra cui l’ARK Disruptive Innovation Strategy (ARKK) e l’ARK Next Generation Internet Strategy (ARKW), ci sono i seguenti:

UiPath. UiPath Inc. fornisce una piattaforma di automazione end-to-end con una gamma di soluzioni di automazione dei processi robotici (RPA) in tutti i settori. La piattaforma mira a consentire anche agli utenti finali non tecnici di creare un’automazione specifica dell’applicazione con competenze di codifica poco o nessuna. L’azienda si concentra anche sull’emulazione del comportamento umano sfruttando sia l’intelligenza artificiale/apprendimento automatico (AI)/ML) che le interfacce di programmazione delle applicazioni (API).[ 25] La nostra ricerca suggerisce che altre aziende in questo spazio si affidano troppo alle API che sono molto lontane dal comportamento umano naturale e dal processo decisionale. L’enfasi di UiPath sulle interfacce low-code no-code enfatizza la flessibilità, la scalabilità e la facilità, nonché le curve di basso apprendimento che non richiedono modelli AI/ML proprietari o modifiche all’infrastruttura del cliente. Manteniamo una forte convinzione nella capacità di UiPath di integrare l’automazione dei processi robotici (RPA) in molti processi aziendali in tutte le grandi aziende a livello globale.

Twilio. A nostro avviso, Twilio sta costruendo la principale piattaforma di comunicazione con i clienti, comprese le API di messaggistica di base e una suite di prodotti software. Sulla base del suo prodotto software Flex contact center e Segment, la sua piattaforma di dati dei clienti, Twilio sembra nella posizione migliore per introdurre l’intelligenza artificiale nei canali di comunicazione dei clienti. Con risorse di dati significative in miliardi di interazioni business-to-consumer, Twilio può addestrare modelli di intelligenza artificiale per servire una vasta gamma di casi d’uso e verticali. Nel corso del tempo, le sue entrate dal software applicativo dovrebbero aumentare i suoi margini lordi. ARK ha una convinzione a lungo termine in Twilio e apprezza il potenziale dell’azienda per alimentare le moderne comunicazioni enterprise-to-customer mentre l’adozione della telefonia mobile cresce a livello globale. Il modello di prezzo basato sul consumo di Twilio consente ai clienti di aumentare o diminuire facilmente la spesa, quindi le condizioni macroeconomiche hanno depresso i margini di recente. Man mano che i bilanci si normalizzano, crediamo che Twilio dovrebbe beneficiare in modo significativo dell’opportunità dell’IA.

L’ARK Venture Fund, un fondo a intervalli chiusi, investe in diverse entusiasmanti società private di intelligenza artificiale, tra cui Replit, MosaicML e Anthropic,[26] come discusso di seguito:

Replit. Replit è una moderna piattaforma di codifica basata su browser con un assistente di codifica AI incorporato utilizzato da milioni di sviluppatori in tutto il mondo. Bounty, un mercato per progetti di codifica, ha recentemente lanciato il prodotto. Con sede a San Francisco, Replit è stata co-fondata nel 2016 dai programmatori Amjad Masad, Faris Masad e dal designer Haya Odeh. A nostro avviso, la codifica è la prossima frontiera per gli strumenti collaborativi, dopo Google Docs e Figma nella scrittura e nel design. Crediamo che l’architettura, il supporto linguistico e la comunità di Replit lo abbiano messo in una posizione forte per guidare il movimento di sviluppo software collaborativo.

MosaicML. MosaicML fornisce infrastrutture e strumenti software che consentono ai clienti di addestrare modelli di intelligenza artificiale su larga scala in modo più efficiente rispetto ai modelli di linguaggio di grandi dimensioni. Il CEO dell’imprenditore seriale Naveen Rao ha fondato e guidato Nervana Systems, una startup di deep learning che Intel ha acquisito per 400 milioni di dollari nel 2016. Rao è stato poi vicepresidente aziendale e direttore generale dell’IA di Intel prima di fonda Mosaic. Attualmente, la formazione delle reti neurali è inefficiente, complessa e richiede una profonda esperienza di dominio. Basandosi sul suo popolare progetto open-source del compositore MosaicML, il MoasicML Cloud astrae la complessità dell’orchestrazione delle risorse e applica una varietà di metodi di accelerazione per migliorare l’efficienza delle reti neurali di allenamento. Come livello di software di formazione AI tra clienti e risorse di calcolo, crediamo che MosaicML probabilmente catturerà una quota significativa della spesa di calcolo AI. Da notare, a giugno, Databricks ha annunciato che pagherà 1,3 miliardi di dollari per acquisire MosaicML, rappresentando un rendimento approssimativo di 5 volte su questo nome dalla sua aggiunta al nostro Venture Fund come primo investimento nel settembre 2022.

Antropic. Anthropic è una startup di intelligenza artificiale co-fondata da Dario Amodei, l’ex vicepresidente della ricerca di OpenAI. L’azienda sta conducendo ricerche e costruendo prodotti di intelligenza artificiale che mettono la sicurezza al primo posto. Claude, il suo primo prodotto, è un modello di linguaggio di grandi dimensioni per scopi generali che sfrutta la ricerca di Anthropic sull’IA costituzionale per “allineare” il modello e prevenire gli abusi. Mentre alcune aziende potrebbero addestrare i propri modelli di intelligenza artificiale su dati proprietari, altre probabilmente sfrutteranno una combinazione di modelli proprietari e di terze parti. A nostro avviso, la ricerca di Anthropic sull’allineamento lo posiziona per il successo come fornitore di modelli di terze parti.

CONCLUSIONE

I veicoli di investimento che tracciano indici ad ampio raggio hanno fornito agli investitori esposizioni di facile accesso e diversificate storicamente. A nostro avviso, è probabile che il panorama dell’IA in rapida evoluzione sconvolga i principali segmenti dei benchmark ad ampia base. I costi di formazione dell’IA sono diminuiti a un tasso medio del 70%, circa 3 volte, all’anno.[ 27] A nostro avviso, i parametri di riferimento comuni potrebbero non cogliere efficacemente questo potenziale insieme di opportunità. Come tale, può essere prudente integrare, coprire o diversificare le esposizioni di riferimento di base investendo in esposizioni alternative. Le strategie di ARK Invest, come il Disruptive Innovation ETF (ARKK) il Next Generation Internet ETF (ARKW), dovrebbero posizionare gli investitori per evitare il rischio di concentrazione associato ai grandi benchmark, sfruttare le opportunità di intelligenza artificiale e sfruttare l’attenzione e l’agilità delle aziende più piccole. Dietro l’angolo dei benchmark, gli investitori hanno una potenziale opportunità di posizionarsi per raccogliere guadagni dalla crescita dell’intelligenza artificiale. Per ulteriori informazioni, si prega di visitare ark-funds.com per un elenco delle partecipazioni di ciascun ETF, comprese le esp


22/08/23 Sole 24 Ore:Intelligenza artificiale, in Borsa i titoli più coinvolti raddoppiano

di Vit­to­rio Car­li­ni


Le gran­di so­cie­tà con la for­za la­vo­ro più espo­sta al­le nuo­ve tec­no­lo­gie han­no rea­liz­za­to un ex­tra gua­da­gno me­dio gior­na­lie­ro del­lo 0,4%: su ba­se an­nua­liz­za­ta l’im­pat­to è mag­gio­re del 100%

Il National Bureau of Economic Research di Cambridge ( Boston) ha analizzato, tra i maggiori titoli dell’S& P 500, quelli più esposti all’impatto dell’Intelligenza artificiale. Gli studiosi, considerando il periodo tra il lancio di ChatGPT e il 31 marzo scorso, hanno scoperto che le società – nei portafogli massimizzati sull’Artificial intelligence – hanno un extra guadagno medio giornaliero dello 0,4%. Vale a dire: su base annualizzata oltre il 100%. Gli investitori, ovviamente al netto di tracolli dei mercati, premiano la probabile più alta produttività, e i possibili minori costi, conseguenti all’uso dell’Intelligenza artificiale.

Da una parte, l’Artificial intelligence ( Ai) come nuovo Graal tecnologico a Wall Street. Dall’altra, il boom in Borsa di diversi titoli legati all’Ai stessa. Sono due facce della stessa medaglia – l’avvento della nuova tecnologia – che inducono varie domande. Tra queste: chi è più avanti nella corsa all’Eldorado dell’hi tech? E poi: la recente enfasi sull’Ai ha veri legami con i business aziendali? Rispondere è complesso. Riguardo al secondo quesito, però, un tentativo arriva dal National bureau of economic research ( Nber) di Cambridge ( Boston). Gli economisti dell’istituto, attraverso approfondite analisi, hanno individuato la più alta ( o più bassa) esposizione della forza lavoro delle 100 maggiori capitalizzazioni dell’S& P 500 alle novità portate dall’Intelligenza artificiale. Poi, comparando i risultati con altre news inerenti a migliaia di conference call e twitter aventi ad oggetto l’Ai, hanno redatto la graduatoria dei titoli più “legati” ad essa. Azioni di imprese con cui sono stati costruiti dei portafogli. Il risultato? Le società, comprese in panieri “massimizzati sull’Artificial intelligence”, nell’arco di tempo tra il lancio di ChatGPT e il 31/ 3/ 2023, hanno avuto un guadagno aggiuntivo – rispetto alle aziende meno esposte – in media dello 0,4% al giorno. Cioè: traslato su base annualizzata oltre il 100%. Gli investitori, al netto di tracolli in Borsa, scommettono evidentemente su minori costi e maggiore produttività conseguente all’uso dell’Intelligenza artificiale.

Ciò detto, quali invece i big più avanti nella ricerca dell’oro dell’Ai? Rispondere citando, ad esempio, Nvidia è facile. L’azienda, da un lato, produce il chip ( la Gpu) più adatto proprio alla nuova tecnologia: l’intelligenza artificiale generativa; e, dall’altro, è entrata in orbita ( e in bolla) a Wall Street. Al netto, però, di simili casi l’analisi risulta meno immediata. Anche perché, come mostrano – salvo qualche eccezione – gli ultimi conti trimestrali dei “Fantastici 5” ( Alphabet, Amazon, Apple, Meta e Microsoft), l’Ai finora ha contribuito poco ai profitti. Ciononostante alcune suggestioni sono possibili. A partire da Microsoft. Il gruppo – a detta degli esperti – è tra i meglio posizionati. Da una parte ha avviato l’inserimento dell’Ai nei suoi prodotti; dall’altra, questi sono già ampiamente diffusi nelle famiglie e, soprattutto, nelle imprese. Così può ricordarsi la suite Microsoft 365 Copilot. Qui l’Intelligenza artificiale punta ( almeno nelle intenzioni) ad aumentare la produttività nell’uso di note App: da Windows a Excel fino a PowerPoint e Outlook. Non solo. La società di Redmond è proprietaria di GitHub, piattaforma che ospita milioni di progetti di sviluppo di software. Ebbene: qui saranno offerte soluzioni implementate con l’Ai ( GitHub copilot) per ottimizzare la creazione di codice. Senza dimenticare, infine, il progetto OpenAi rispetto al quale, da un lato, Microsoft ha finora investito circa 13 miliardi; e che, dall’altro, ha dato vita alla ben nota ChatGPT. Una tecnologia la quale sta diventando un vero e proprio eco- sistema tecnologico. Insomma: il gruppo è in pole position. Così come è in prima fila Amazon. L’azienda di Jeff Bezos ha soprattutto nel cloud computing ( Aws) la leva per sfruttare l’Artificial intelligence. Certo: la nuvola informatica di Aws, analogamente a quella di Microsoft ( Azure), ha battuto in testa. Inoltre l’Ai potrà efficientare lo stesso e- commerce. E, tuttavia, molti scommettono che i vantaggi arriveranno con Aws. In primisperché primis perché grazie alla nuova tecnologia aumenta la domanda di potenza di calcolo e di sistemi di allenamento della medesima ( ambito dove – con soluzioni quali Aws Trainium – il gruppo è presente). Poi perché la società offre vari servizi per l’Ai: da Amazon Lex ( per creare chatbot) ad Amazon Polly ( per convertire testo in voce naturale) fino ad Amazon Kendra ( service di ricerca che elabora il linguaggio umano). Infine perché ha diverse partnership con aziende specializzate nella Generative Ai. Già, l’intelligenza generativa. A ben guardare Alphabet ( che controlla Google) da parecchi anni è immersa nei sistemi neurali. DeepMind, che è focalizzata sull’Ai, è stata acquisita nel 2014. Al di là di ciò, un’area dove c’è spazio per “monetizzare” l’Artificial intelligence è la pubblicità digitale. In tal senso, tra le altre cose, può ricordarsi Performance Max. Questo è un servizio che, grazie anche all’Ai, consente la gestione automatica e ottimizzata delle inserzioni pubblicitarie. Una caratteristica la quale, come già conferma l’ultima trimestrale con i ricavi da advertising oltre le attese, attirerà maggiormente gli stessi inserzionisti, facendo salire la spesa per gli “spot”. Sennonché non può accennarsi ad Alphabet senza dire: motore di ricerca. Su questo fronte alcuni esperti, ricordando il rafforzamento con l’Artificial intelligence ad esempio di Bing ( Microsoft), dissertano di una nuova sfida tra i search engine. Potrà essere! E tuttavia, con la grande « G » che vanta più del 90% della quota di mercato globale, simili affermazioni paiono quantomeno premature.

Analogamente a come è stata prematura la scommessa sul metaverso. Meta, finora, ci ha perso un sacco di soldi. L’ex Facebook si è mossa per affrontare, soprattutto, i limiti alla raccolta e uso dei dati in scia al Tracking transparency di Apple e alle nuove regole Ue. E, però, la vera exit strategy pare essere l’ottimizzazione – tramite l’onnipresente Ai – delle informazioni sui comportamenti degli utenti. L’efficientare il “tradizionale” marketing ha dato i suoi frutti ( anche sull’ultima trimestrale), tanto che la società in Borsa è stata premiata per il ritorno alle origini ( agevolato dal deep learning).

Condividi via PressReader

Connettere le persone attraverso le notizie


18/08/23 Barron’s: Tavola rotonda che fa il punto sullo stato dell’arte e le prospettive future dell’AI

L’IA è il vero affare, se lo capisci. I nostri 5 professionisti della tavola rotonda sono qui per aiutarti. Cinque esperti discutono le opportunità e i rischi relativi all’intelligenza artificiale e le aziende che hanno maggiori probabilità di aprire la strada.

DiEric J. SavitzFollow

È passato meno di un anno da quando OpenAI ha cambiato il mondo da un giorno all’altro con il rilascio di ChatGPT. Dal suo lancio a novembre, la visualizzazione del chatbot del software di intelligenza artificiale generazionale ha innescato un rimescolamento delle priorità di investimento nella Silicon Valley, su Sand Hill Road e a Wall Street. Quasi tutte le aziende – e questo va ben oltre la tecnologia – hanno dato la priorità allo sviluppo e all’adozione dell’IA generativa.È passato meno di un anno da quando OpenAI ha cambiato il mondo da un giorno all’altro con il rilascio di ChatGPT. Dal suo lancio a novembre, la visualizzazione del chatbot del software di intelligenza artificiale generazionale ha innescato un rimescolamento delle priorità di investimento nella Silicon Valley, su Sand Hill Road e a Wall Street. Quasi tutte le aziende – e questo va ben oltre la tecnologia – hanno dato la priorità allo sviluppo e all’adozione dell’IA generativa.

La nozione di intelligenza artificiale, o computer che possono “pensare”, esiste dalla Guerra Fredda. Ciò che rende l’IA generativa così fresca è la capacità di rispondere alle domande poste come semplici richieste in linguaggio naturale e rispondere con contenuti ricchi e creativi sotto forma di testo, musica, video, immagini o persino poesia.

L’intelligenza artificiale generativa promette di democratizzare il potere dei grandi set di dati, rendendo notevolmente più facile per le persone e le aziende trovare informazioni, creare contenuti e analizzare i dati. Eppure, l’IA non è magia, nonostante tutte le apparenze contrarie. La tecnologia sta creando preoccupazioni diffuse per l’appropriazione indebita di informazioni personali, l’uso improprio di contenuti protetti da copyright e la creazione di dati falsi e fuorvianti. Alcune persone vedono persino l’IA come un rischio esistenziale per il futuro della vita sulla Terra: una recente copertina della rivista Time ha chiesto se l’IA alla fine porterà alla “La fine dell’umanità”.

Per considerare le prospettive per l’IA, come funziona, dove si trovano i rischi e chi guiderà la strada, Barron ha assemblato un gruppo di cinque esperti che si avvicinano all’IA da angolazioni divergenti. I nostri relatori della tavola rotonda sull’IA includevano Dario Gill, direttore della ricerca presso IBM, che ha trascorso decenni a lavorare su software e hardware di intelligenza artificiale; Irene Solaiman, direttore delle politiche presso Hugging Face, un mercato per modelli, set di dati e software AI; Cathy Gao, partner di Sapphire Ventures, che si è impegnata a investire almeno 1 miliardo di dollari in start

La conversazione si è svolta all’inizio di agosto su Zoom. Segue una versione modificata.

Barron’sIniziamo inquadrando quanto sia grande l’IA generativa. La cosa più grande dal Web? L’iPhone? L’elettricità? La ruota? Dario, IBM ha lavorato sull’IA per decenni: sono passati 12 anni dalla famosa apparizione di Watson su Jeopardy. Allora, cosa è cambiato?

Dario Gil: IBM è effettivamente coinvolta nell’IA dal 1956, l’anno di una famosa conferenza che abbiamo co-sponsorizzato chiamata Dartmouth Summer Project on Artificial Intelligence. Arthur Samuel, un informatico IBM che ha svolto un lavoro pionieristico nell’IA, ha coniato il termine “apprendimento automatico” nel 1959. Quindi, sì, l’idea dell’IA esiste da molto, molto tempo. L’ultimo decennio o giù di lì è stata l’era dell’apprendimento profondo delle reti neurali, dove abbiamo scoperto che se si potesse etichettare abbastanza dati, si potevano raggiungere livelli sovrumani di precisione.

Ma si è rivelato estremamente costoso.

Gil: Giusto. C’erano solo una manciata di istituzioni che potevano effettivamente accumulare abbastanza dati etichettati, ad esempio fotografie etichettate a mano, per generare un buon valore e un ragionevole ritorno sull’investimento. Il motivo fondamentale per cui c’è così tanta eccitazione intorno all’IA ora è questa transizione verso l'”auto-supervisione“.

Dario Gil, direttore della ricerca, IBM | FOTOGRAFIA DI JOSH GOLEMAN

Spiegalo per noi.

Gil: L’avvento dei modelli fondamentali, la base dell’IA generativa, ci consente di prendere grandi quantità di dati non etichettati e creare rappresentazioni molto potenti di linguaggio, codice, chimica e materiali, o anche immagini. E come conseguenza di ciò, una volta addestrati questi modelli, i casi d’uso a valle ti permettono di mettere a punto o sollecitarli o progettarli con una frazione dell’energia, dello sforzo e delle risorse che storicamente sarebbero stati necessari per creare quei casi d’uso. È ciò che sta sbloccando questo momento di produttività nell’IA.

Bill Gates ha detto che ChatGPT era la tecnologia più impressionante che avesse sperimentato da quando ha visto per la prima volta un’interfaccia utente grafica nel 1980, che era fondamentale quanto la creazione del microprocessore, del PC, di Internet o del telefono cellulare.Il CEO di  Nvidia [ticker: NVDA] Jensun Huang dice che l’IA sta avendo un momento iPhone. Sapphire ha appena annunciato un impegno a investire 1 miliardo di dollari in start-up di intelligenza artificiale. Questo momento sembra davvero così grande? Qual è l’opportunità che Sapphire vede?

Cathy Gao: Nell’IA, investiamo end to end, in tutto, dall’infrastruttura hardware a come i dati si spostano attraverso lo stack al livello applicativo. Con l’IA, stiamo sicuramente vedendo un arco simile ad altri cambiamenti di piattaforma. Riteniamo che questo sia un cambiamento significativo della piattaforma. Siamo nelle prime fasi di quell’esplosione, diretti alla fine verso l’ubiquità.

Cathy Gao, partner di Sapphire Ventures | FOTOGRAFIA DI RYAN YOUNG

Ma perché adesso? Cosa rende questo il momento?

Gao: È guidato da molte cose. Una delle chiavi è che l’immaginazione dei consumatori è stata catturata. ChatGPT ha raggiunto 100 milioni di utenti in due mesi rivoluzionari. Puoi vedere un futuro in cui l’IA diventa così onnipresente che le aziende non si commercializzano più come “aziende AI” perché sono diventate tutte aziende di intelligenza artificiale. In parte, si tratta di facilità d’uso, la capacità di sfruttare i modelli fondamentali tramite API [interfaccia del programma applicativo, un protocollo per la connessione dei programmi software], in modo da non doverli ricostruire ogni volta. Non devi costruire questi LLM [grandi modelli linguistici] da zero. E l’altro elemento è l’esperienza dell’utente finale, che ci porterà alla prossima fase dell’ubiquità.

Mark, hai conseguito un dottorato in intelligenza artificiale qualche decennio fa. Cosa c’è di diverso adesso?

Mark Moerdler: Sembra 100 anni fa. Stavamo imparando a fare cose molto basilari con l’IA. Da allora, abbiamo visto enormi miglioramenti nella tecnologia. Le capacità di elaborazione sottostanti si sono espanse in modo massiccio. Non potevi eseguire i tipi di modelli di apprendimento che puoi fare oggi, perché i computer non potevano far fronte a quella capacità. Stavamo usando computer molto più piccoli, con meno memoria, archiviazione e larghezza di banda.

E sarei d’accordo con Cathy che si tratta di IA conversazionale. Fino ad ora, è stato tutto sotto il cofano. Ora, puoi tenere una conversazione con il software nello stesso modo in cui potresti parlare con una persona, e il sistema ti risponderà, magari con un rapporto, o creando un’immagine, o semplicemente con una conversazione in corso.

Tutto questo è stato scatenato da ChatGPT e da un’esperienza di consumo, chat in lingua naturale. I consumatori, e la pubblicità, saranno in ultima fonte di entrate per questa azienda, o si tratta più di un mercato in crescita per le applicazioni aziendali?

Moerdler: alcune delle più grandi aziende del mondo, tra cui Microsoft [MSFT] e Alphabet [GOOGL]: sono coinvolti nel software di intelligenza artificiale sia per i consumatori che per le aziende. Ci saranno interruzioni dal lato del consumatore, in termini di dove si cercano informazioni. Ma probabilmente, la più grande creazione di valore sarà sbloccare i dati all’interno delle imprese, per sfruttare quei dati per aumentare l’efficienza all’interno delle organizzazioni, fare salti di intuizione nel trovare risposte, o prendere decisioni più velocemente, o in alcuni casi raggiungere conclusioni che in precedenza non potevi raggiungere perché non avevi un facile accesso ai dati.

Mark Moerdler, analista di software, Bernstein Research | FOTOGRAFIA DI YAAKOV ISRAEL

Gao: Cosa sta succedendo in Gen AI sul lato consumatore e sul lato B2B, o business-to-business, sono altamente simbiotici. Si stanno nutrendo l’un l’altro. C’è un’enorme opportunità per le aziende di software aziendale oggi, ed è per questo che stai vedendo molti investimenti. Gen AI è l’ultima spada a doppio taglio. Da un lato, rappresenta un enorme potenziale per essere trasformativi e la chiave della crescita futura. Ma può anche creare una nuova concorrenza che potrebbe essere difficile da battere, in alcuni casi creando un rischio esistenziale per gli operatori storici.

Gen AI può aumentare il mercato indirizzabile per molte aziende e industrie. Prendi un sistema di registrazione di base come ERP, o cartelle cliniche elettroniche, o un servizio di libro paga come ADP, che memorizza molti dati preziosi. Spesso, il livello di interfaccia cliente esistente limita molti potenziali casi d’uso. Gen AI può essere utilizzata per reimmaginare e reinventare i flussi di lavoro e per aprire i mercati indirizzabili in modo significativo.

Irene Solaiman: È importante fare un passo indietro e pensare a quali sistemi stiamo discutendo, perché ci sono così tanti modelli linguistici là fuori. Quando parliamo di intelligenza artificiale generativa, il modo in cui faresti ricerche o adatteresti a una determinata applicazione sarà diverso per modalità. Ci sono molte chiacchiere intorno ai chatbot, ma c’è molto che accade con le immagini e l’audio e persino il video che non è oggetto di tanta ricerca o letteratura quanto c’è per il linguaggio. Ci sono così tante opportunità.

Ricorda, inoltre, che questi sistemi di base spesso non sono sviluppati per un caso d’uso specifico. Possono essere ottimizzati per attività come la generazione di codice. Ma in generale, possono essere applicati a molti campi diversi, il che è eccitante. Ci sono anche rischi; dobbiamo capire di quali salvaguardie abbiamo bisogno.

Irene, stavo visitando il sito web Hugging Face e sono rimasto colpito dal numero di modelli e set di dati offerti dal tuo sito. Non si tratta solo di Microsoft, Meta Platforms META [META], o Alphabet.

Solaiman: Abbiamo quasi 300.000 modelli diversi, oltre 100.000 applicazioni e più di 50.000 set di dati. Non tutti i modelli sono focalizzati sull’elaborazione del linguaggio naturale. Ci sono modelli per campi più specifici, come l’IA biomedica. C’è molta discussione su modelli avanzati come il GPT4 di OpenAI. Ma non è quello che tutti useranno. I grandi modelli linguistici sono computazionalmente costosi da eseguire. A Hugging Face, stiamo vedendo che molti ricercatori usano modelli molto più piccoli che sono più economici da adattare e mettere a punto.

Irene Solaiman, direttore politico di Hugging Face, un mercato per modelli di intelligenza artificiale, set di dati e software |FOTO DI KYNA UWAEME

Ciò solleva domande su dove si trova il valore e chi saranno i vincitori. Brook, è tuo compito identificare i vincitori dell’IA. Vedi il valore che va a coloro che hanno i dati, o ai fornitori di applicazioni, o a qualcun altro? Come ci si avvicina quando si cercano aziende legate all’IA in cui investire?

Brook Dane: È incredibilmente all’inizio di questo viaggio, specialmente quando si guarda oltre i fornitori di semiconduttori e infrastrutture di rete, come Nvidia, che ha un quasi monopolio sui processori grafici utilizzati per addestrare i modelli. Quando si pensa al livello software, è TBD – da determinare – su alcune di queste cose. All’inizio, però, sembra che questa idea che i dati abbiano gravità e saranno la fonte di vantaggio competitivo sembra essere vera. Siamo concentrati su questo.

Al di là delle infrastrutture, stiamo spendendo la maggior parte del nostro tempo sui dati e su quali giocatori possono guidare il valore e catturare il valore nel tempo. L’altro problema è che, a differenza di altre grandi transizioni tecnologiche del passato, non devi riscrivere l’intero stack software. In altre parole, mi chiedo se ci saranno tante interruzioni per i leader del mercato come nei turni precedenti. Il passaggio al mobile e a Internet ha creato una classe completamente nuova di aziende che si è alzata e ha spostato gli operatori storici. Mi chiedo se questa volta gli operatori storici rafforzeranno effettivamente il loro potere, perché hanno già i dati.

Moerdler: Sono d’accordo. La velocità di costruzione dei modelli è molto alta. Stiamo parlando di mesi, non di anni. È solo una questione di soldi. La differenziazione creerà un valore sostenibile in cui è possibile creare qualcosa addestrato su dati e capacità unici e in cui l’unicità è sostenibile. Nel software tradizionale, il fossato è stato creato perché ci è voluto così tanto tempo per creare la tecnologia. Per un concorrente recuperare ci è voluto molto tempo. Qui, tutti stanno costruendo capacità. Se non riesci a differenziare, non sarai in grado di monetizzarlo.

Abbiamo parlato molto di modelli e set di dati. Cosa differenzia le due due?

Moerdler: Quando la gente parla di modelli, ce ne sono diversi tipi. Ci sono modelli generici addestrati su set di dati molto grandi, allo scopo di rispondere a query più generalizzate, come ChatGPT e Bing. Ci sono modelli specializzati per problemi molto specifici, ad esempio, in chimica o scienze dei materiali. E c’è un’enorme quantità di dati all’interno delle aziende. Le aziende possono scegliere di utilizzare un modello più generico e fondarlo con i loro dati aziendali.

Gao: Lascia che ti dia un esempio per illustrare cosa sta dicendo Mark. Una delle nostre società di portafoglio, MoveWorks, è un chatbot AI che taglia applicazioni aziendali come la tecnologia dell’informazione, la gestione dei servizi e le risorse umane, e aggiunge dati specifici dell’azienda. Se un cliente ha una sala conferenze chiamata Taylor Swift, per esempio, e chiedi a un chatbot pubblico se Taylor Swift è disponibile alle 9 del mattino, il modello si confonderà. Ma se il chatbot è infuso di informazioni sui nomi delle sale conferenze dell’azienda, può produrre una risposta accurata.

Gil: Il modello di consumo è essenziale per come l’IA viene utilizzata nel mondo reale. Quindi, inizi con il tuo modello di base e poi carichi i tuoi record, ad esempio, degli scambi di clienti passati e dei documenti di servizio intorno a questo: stai mettendo a punto il modello in modo che incorpori i tuoi dati locali. I guadagni di produttività sono legati a questa idea. Una volta che hai modelli di base per risolvere i problemi IT, all’improvviso il tuo team interno può fare 50 o 100 progetti all’anno. Nell’era del semplice apprendimento profondo, dovendo etichettare tutto a mano, dove ogni modello era personalizzato, si potevano fare solo quattro o cinque progetti.

Solaiman: Uso sempre il termine “sistema” al posto del modello. Ma sono così felice di sentire tutto questo parlare di dati. E quando pensiamo ai cicli di vita del sistema, c’è molto lavoro, come diceva Dario, che va nella raccolta dei dati, nella cura e nella governance. Un’organizzazione si allenerà su un set di dati aperti che potrebbe essere stato raccolto e curato da qualcun altro.

Questo ci porta alla domanda sul perché tutto questo sta accadendo ora. Abbiamo sistemi molto più impressionanti di quanto non avessimo solo qualche anno fa. Abbiamo tecniche migliori e infrastrutture migliori, tra cui un’elaborazione più efficiente, più elaborazione e più dati. E abbiamo una migliore ricerca sulla sicurezza, una migliore messa a punto delle informazioni e una migliore accessibilità, non solo tramite API, ma con modelli più efficienti dal punto di calcolo, che possono funzionare anche su hardware locale.

In un’intervista con Barron dopo l’ultima trimestrale di  Palantir PLTR] , il CEO Alex Karp ha detto che questa rivoluzione tecnologica favorisce gli operatori storici, a differenza della precedente interruzione tecnologica che ha avvantaggiato le nuove aziende. Pensa che i vincitori saranno giocatori familiari, non nuovi. Brook, hai già toccato questa idea. Cathy, come investitore in nuove società, lo trovi scoraggiante?

Gao: Questa è la domanda n. 1. Guarda, gli operatori storici hanno scala e capitale. Hanno le risorse informatiche, che sono scarse in questi giorni. E hanno dati tremendi. Hanno ingredienti chiave per avere molto, molto successo intorno a Gen AI. Gli operatori storici giocheranno sicuramente un ruolo fuori misura in questa era. Sto parlando di hyperscaler, come Google, Amazon.com [AMZN], Microsoft e altri, che stanno investendo aggressivamente in questa tecnologia. Nella sua ultima trimestrale , Microsoft ha menzionato l’IA 59 volte.

Sono ancora più volte delle 53 volte in cui Microsoft ha detto la parola “cloud”.

Gao: Per un investitore come me che sta cercando gli innovativi , la domanda più grande – e il rischio più grande – quando guardi la maggior parte delle società di software applicativi Gen AI è, cosa succede se Microsoft, Google o Adobe [ADBE] lo facesse in futuro? Questa nuova azienda sarà spazzata via? I differenziatori saranno gli stessi di qualsiasi applicazione software-as-a-service. Tutto si giocherà sul far si che l’esperienza del cliente e del prodotto sia profondamente radicata nei flussi di lavoro e quel fossato di dati di cui abbiamo parlato prima.

Molti dei fondatori con cui ho parlato negli ultimi due mesi, quando mi è stato chiesto di Gen AI che è improvvisamente esploso negli ultimi due trimestri, dicono sempre la stessa cosa. Dicono, da un lato, che è stato incredibile per il mercato, con una alluvione di query in entrata Ma allo stesso tempo, ha abbassato la barriera all’ingresso per i nuovi giocatori. Inoltre, gli hyperscaler come Amazon, Meta, Alphabet e Microsoft stanno ora prestando maggiore attenzione a questa opportunità.

Brook Dane, amministratore delegato di Goldman Sachs | FOTOGRAFIA DI CLARK HODGIN

Dane: Sono d’accordo con tutto ciò che Cathy ha appena detto. Ad ogni transizione emergono nuove aziende e alcune diventano grandi. Ma c’è davvero un potere di incumbency qui, a causa della necessità di dati, e perché è possibile sviluppare questi strumenti e tecniche in modo relativamente rapido, il modo in cui Microsoft ha annunciato il software AI attraverso il suo stack software. Gli operatori storici hanno un enorme vantaggio. Si ridirà alla leadership e all’esecuzione, come sempre, e soprattutto in un momento come questo in cui il mercato ha attraversato un periodo in cui si è concentrato sull’espansione dei margini. C’è un livello di investimento richiesto per farlo e alcuni degli operatori storici esiteranno a spendere ciò di cui hanno bisogno per essere attori rilevanti. Ma il vantaggio inizia con l’incaricarsi su questa transizione.

Mark, sei d’accordo?

Moerdler: Sì, ma lasciatemi aggiungere a questo. L’IA è un’esperienza di apprendimento basata sui dati. Più hai accesso ai dati, teoricamente, migliore diventa il tuo prodotto. E quindi, più velocemente puoi arrivare sul mercato, più puoi assorbire in termini di informazioni, più ampia è la portata: ha un effetto profezia che si autoavvera. Ma come ha giustamente detto Brook, si tratta di esecuzione, e ci sono molte aziende ora che stanno solo parlando dell’IA generativa senza l’attenzione e l’investimento significativi che potrebbero essere necessari per creare un fossato di difesa.

Dane: Mentre penso ai miei modelli e alle mie previsioni in tutto l’ecosistema software, quelli che eseguono bene in questo vedranno un tasso di abbandono più basso, una maggiore fidelizzazione dei clienti e un maggiore upsell e cross-sell nella loro base installata. Stai iniziando a vedere aziende per le quali il tuo grado di fiducia nelle prospettive di flusso di cassa libero di due, tre, quattro anni è strutturalmente più alto ora. Tutto questo è ancora super-presto, e non sono sicuro che abbia un impatto sui flussi di cassa dei prossimi 12 mesi in alcun modo materiale. Ma mentre penso oltre quell’orizzonte, ottengo una maggiore fiducia nella loro capacità di essere aziende più grandi, più forti e più veloci.

Brook Dane’s AI Picks

The Goldman Sachs portfolio manager says investors will need a long investment horizon to see the payoff from most AI plays—but it’s coming.

Company / TickerRecent PriceMarket Value (bil)Comment
Microsoft / MSFT$321.86$2,390Offers consumer and enterprise AI offerings, but revenue is minimal so far.
Nvidia / NVDA439.401,090Main AI winner to date, due to its graphics processors needed for AI training.
Adobe / ADBE518.70236Creative software market leader has announced plans to charge for new AI apps.
Marvell Technology / MRVL59.1251Chip maker’s components for communications applications play key role in AI clouds.

Note: Data as of August 16.

Source: FactSet

Sembra chiaro che non stiamo parlando solo dell’importanza dei dati detenuti dalle aziende tecnologiche. Anche le aziende legacy in settori come i servizi finanziari, i prodotti farmaceutici e i materiali hanno tonnellate di dati.

Gil: Capire il momento come un cambiamento nella rappresentazione dei dati è davvero importante. Può sembrare un po’ astratto, ma è profondo. Quando è stato inventato il database relazionale, c’era una forma di rappresentazione dei dati a cui siamo tutti abituati, di righe e colonne. I database sono stati inventati per farlo bene, i sistemi di elaborazione delle transazioni lo fanno bene, e ha avuto enormi implicazioni per il libro paga, la finanza e la contabilità. Ora, immagina invece una rappresentazione grafica dei dati. Si scopre che la rappresentazione grafica è essenziale per fare cose come la ricerca, i social media e così via. Prenderete i dati che avete oggi, i database relazionali, i grafici e così via, e li mapperete a questo nuovo modo di codificare le informazioni.

Quindi, chi diventa un creatore di valore? Le imprese e i governi di tutto il mondo hanno il maggior numero di dati. Al momento sembra che tutto questo sia concentrato in circa cinque aziende americane, ma non è così che si evolverà il futuro, perché contrariamente all’opinione popolare, e grazie alle iniziative open source, la democratizzazione dell’IA è forse la forza più importante al momento. Capire quanto diventerà più semplice sfruttare questi grandi modelli linguistici, adattarli, crearli, si rivelerà la tendenza determinante man mano che si internazionalizzerà e democratizzerà, e la creazione di valore diventerà più distribuita.

Solaiman: Questo è uno dei motivi per cui faccio questo lavoro. Ciò che stiamo costruendo ha molto potenziale, ma potenziale per chi? Ad esempio, a cosa servono le tastiere più ottimizzate? Alfabeti dei caratteri latini, come l’inglese. Quando lavoravo all’OpenAI, provavo molti dei modelli, non solo in inglese ma anche nell’unica lingua di carattere non latino che capisco, che è il bangla, la lingua nazionale del Bangladesh. Ho avuto modo di vedere ricercatori di lingua Bangla- che lavorano in una lingua profondamente sottorappresentata nell’elaborazione del linguaggio naturale. Quando fai funzionare i sistemi per molti gruppi diversi di persone, si aprono opportunità. La domanda dal punto di vista della governance è: come ci assicuriamo che la raccolta dei dati non sia sfruttatrice e rappresenti in modo appropriato ogni comunità.

Questo ci porta a un argomento importante, che è la regolamentazione e la mitigazione dei rischi e dei potenziali danni. Ci sono domande sulla perdita del lavoro, sulla protezione della proprietà intellettuale e sui falsi profondi. Il Congresso ha tenuto audizioni. Abbiamo bisogno di un nuovo regolatore? Nuove regole? E come facciamo a farlo senza ridurre la posizione competitiva delle aziende statunitensi rispetto a quelle in Cina o altrove?

Moerdler: Siamo in una nuova era. I regolatori non hanno necessariamente l’esperienza in questo settore. Stanno imparando come il resto di noi sta imparando esattamente come affrontarlo. La regolamentazione, come tutto, può essere un’arma a doppio taglio. Può essere usato per limitare le cattive azioni. Potrebbe anche limitare lo sviluppo. Ci deve essere un controllo per garantire la governance, la privacy e la sicurezza, che i sistemi non siano abusati da cattivi attori. Ci deve essere un certo livello di standardizzazione dei requisiti, di controllo e forse anche di regolamentazione. Ma deve essere fatto in modo ponderato, o ciò che finirà per accadere è che creerai un’opportunità per le aziende al di fuori degli Stati Uniti di prendere quote di mercato e trarne vantaggio.

Irene, qual è il tuo senso di questo?

Solaiman: Una buona regolamentazione è difficile da fare. I regolatori indossano così tanti cappelli. Non possono essere esperti in intelligenza artificiale. Ma ciò in cui sono esperti è l’interesse pubblico. Voglio imparare dai responsabili politici in quale direzione pensano che l’IA dovrebbe andare. Ma è immensamente difficile da regolamentare. E di quali sistemi stiamo effettivamente parlando? Non c’è un solo atto legislativo che influenzerà ogni aspetto dell’IA. I regolatori negli Stati Uniti, nell’Unione europea, nel Regno Unito e in Canada ci stanno provando. C’è un livello di attenzione senza precedenti al Congresso. Hugging Face è a favore della regolamentazione, ma vogliamo che sia in un modo che guidi l’innovazione nella giusta direzione. Ci devono essere standard migliori, ma questo significa lavorare insieme a stretto contatto. Ci sono incredibili esperti in tutti questi organismi di regolamentazione su come sarebbe e come può essere estrapolato anche ai sistemi di intelligenza artificiale non generativa.

Gil: Un quadro di regolamentazione di precisione servirebbe bene all’industria. Guarda il lavoro che l’UE ha fatto negli ultimi anni. Hanno sviluppato un approccio molto ponderato sui casi d’uso e sui quadri normativi aggiustati per il rischio. C’è un’enorme differenza tra l’applicazione dell’IA in un reattore nucleare e l’applicazione dell’IA per un sistema di raccomandazione della pizza. Giusto? E quindi risk-adjust, dove si categorizza quanto danno questo è probabile che causi, o quanto rischio questo indurrà nella società, e si usano gli organismi di regolamentazione appropriati per rafforzare le competenze.

Consentire a ogni agenzia di diventare un’agenzia di intelligenza artificiale, un elemento aggiuntivo che incorporano. Questo è in contrasto con l’avere un singolo regolatore di intelligenza artificiale che capirà il tutto. Regolare la tecnologia stessa, regolare la matematica, è davvero una cattiva idea. E ci sono persone che parlano di registrare i modelli: questa è la strada sbagliata da fare

Concentrati sui casi d’uso. Concentrati sul danno e sull’impatto che lo circonda, e regola l’uso dei corpi esistenti contro quelli rafforzando le loro conoscenze e competenze e sofisticazione dell’IA. A volte, la retorica iperbolica che è arrivata anche dall’industria tecnologica sta causando più danni che benefici. Abbassare il tono e concentrarsi sul danno e sui danni e sull’impatto, e su quegli organismi di regolamentazione e sulle persone che lo stanno facendo, sarebbe la strada giusta per una regolamentazione di precisione.

Cathy, in che modo il rischio di una regolamentazione aggiuntiva influisce sul tuo pensiero su dove mettere i soldi di Sapphire?

Gao: È qualcosa che consideriamo da vicino. Siamo ancora nei primissimi inning: ci sono molte incognite. Il capitale di rischio è una classe di attività ad alta beta per definizione. Ma vogliamo essere intelligenti sui rischi che ci corrono. Quando si tratta di IA, molti dei casi d’uso che stiamo esaminando in questo momento hanno meno probabilità di essere un bersaglio di controllo normativo. Non stiamo guardando alle aziende che riguardano la vita o la morte, come nel settore sanitario. Tuttavia, lo stiamo seguendo molto da vicino. Lo prendiamo sicuramente in considerazione, ma accettiamo anche che alcune delle incognite rimarranno quando faremo un investimento.

Moerdler: Questi sistemi potrebbero essere problematici dal punto di vista della privacy, da un punto di vista del pregiudizio, dal punto di vista della proprietà intellettuale. Gli investitori devono pensare a dove potrebbero essere esposti. Potrebbero non essere regolatori. Potrebbe essere il fatto che, sai cosa, hai addestrato queste soluzioni e le risposte che stanno dando incidano sull’IP di altre persone, e quindi i tuoi clienti – e tu – sarete citati in giudizio. Questo diventa parte della matematica che devi fare quando determini se questi sistemi diventeranno imprese buone e sostenibili che genereranno non solo entrate, ma anche profitti, per un lungo periodo. Gli investitori devono pensare attentamente a dove può essere l’esposizione, se attraverseranno una linea o creeranno un’esposizione legale, normativa o economica.

Un altro rischio che è stato ampiamente discusso è il potenziale che l’IA costerà posti di lavoro alle persone. L’IA sarà un creatore di lavoro in rete o un distruttore?

Gil: Abbiamo un paio di centinaia di anni di prove che la natura dei posti di lavoro cambia nel tempo. Cento anni fa, metà della popolazione degli Stati Uniti lavorava nei campi. Quindi, prima di tutto, questo fenomeno non è nuovo. Ogni volta che emerge una tecnologia davvero dirompente, la gente pensa che questa volta sarà diversa. Le prove suggeriscono che non sarà così. C’è molta buona analisi che i lavori sono composti da molti, molti compiti diversi, e alcuni saranno soggetti all’automazione mentre molti altri no. La metrica chiave su cui le persone si concentrano è se possiamo mantenere la promessa di produttività. Con una migliore produttività, possiamo generare più ricchezza e investire in cose a cui teniamo profondamente per creare istituzioni migliori, una società migliore e così via.

Sono più preoccupato se possiamo fornire soluzioni abbastanza velocemente da raggiungere i guadagni di produttività di cui abbiamo bisogno e scoprire soluzioni ai problemi che affrontiamo. Quando parlo con le persone dei progressi dell’IA, dei semiconduttori e dell’informatica quantistica, e sono stressate per il tasso di evoluzione tecnologica, mi piace dire, guardati intorno. Non credo che abbiamo finito i problemi da risolvere. E se possiamo usare queste tecnologie per accelerare la velocità con cui possiamo scoprire alcune di queste soluzioni, saremo tutti molto ben serviti. Una delle mie paure non è sicuramente che le persone non avranno un lavoro a causa dei progressi dell’IA. La storia ci dice che.

Solaiman: Solo cinque anni fa, una conversazione era su come i veicoli autonomi avrebbero sostituito i conducenti e costato i posti di lavoro dei camionisti e di altri. Ma si scopre che l’ambiente più contraddittorio è il mondo reale. Mi piacerebbe vedere più ricerche su come aumentiamo e non automatizziamo. Quale sarà l’impatto sulla distribuzione dei salari? I salari delle persone dovrebbero essere ridotti se sono aiutate dall’IA? Ci sono importanti questioni economiche.

OK, dobbiamo discutere l’idea che l’IA generativo sia una minaccia esistenziale per l’umanità, come alcuni hanno avvertito. Vale la pena ricordare qui che c’è una differenza tra l’IA generativo – cosa fanno i chatbot – e l’intelligenza artificiale generale, o AGI, l’idea che il software possa essere senziente e agire da solo, come HAL nel film 2001: Odissea nello spazio.

Gil: Sono molto contrario a quel linguaggio delle minacce esistenziali perché distorce le cose in modo significativo. Prima di tutto, fa impazzire i nostri concittadini. In una certa misura, alcune delle persone che sposano quel linguaggio sono dietro le quinte che mirano alla cattura normativa.

Solaiman: Un fatto divertente su di me che non è molto pubblico è che ho lavorato su AGI per un po’. Quando ci stavo lavorando, molto di ciò a cui stavo pensando attraverso la mia ricerca era, se stiamo costruendo questi sistemi incredibilmente potenti, di chi sono i valori che rappresentano? Il mio principale motivatore ora è far funzionare meglio i sistemi di intelligenza artificiale per le persone sottorappresentate nel mondo tecnico. Molti dei danni alle persone emarginate sono veramente esistenziali per quelle comunità.

Ma non serviremo presto i maestri di robot, giusto?

Moerdler: Il problema più immediato è come l’IA viene utilizzata e utilizzata in modo improprio, non se l’IA stessa deciderà di causare danni. Questo è il punto cruciale della questione. Preoccupati di come sarà usato o abusato, perché è un lungo orizzonte temporale prima di doversi preoccupare delle decisioni che l’IA prende. La gente sta cercando, come ha detto Dario, di far saltare questo fuori misura per altri scopi.

Prendiamoci qualche minuto per parlare delle azioni AI. Brook, quando abbiamo parlato l’ultima volta qualche mese fa, mi hai guidato attraverso un sacco di idee non ovvie per gli investimenti in IA. Stai ancora trovando cose interessanti da comprare, nonostante un grande rally nelle azioni?

Dane: In primo luogo, come ho detto, è molto presto. Siamo nell’emergere di questa tecnologia in questo momento. Il paesaggio cambierà drasticamente nel prossimo, tre, cinque anni. Gli investitori devono prestare attenzione a come stanno cambiando queste cose e dove emergono le opportunità. La seconda cosa è che, in generale, ci sarà una notevole differenziazione tra vincitori e perdenti. In questo momento, i giochi ovvi sono quelli che ottengono entrate oggi, i giocatori di picks-and-shovels, i componenti dei semiconduttori e le reti, e poi i grandi fornitori di cloud.

Siamo in un momento divertente, però, in cui il mercato si è reso conto che ci sarà un boom nelle applicazioni e che ci sarà un sacco di software per l’infrastruttura che verrà trascinato con questo. Ci sono opportunità entusiasmanti, ma questo non sposterà i numeri per l’anno solare 2023. Quindi, finché il tuo orizzonte di investimento è abbastanza lungo, è probabile che tu veda il profitto da questo. Se stai cercando di gestire un portafoglio da ora fino alla fine dell’anno solare, le aziende che stanno vedendo il beneficio sono le scelte molto ovvie che si sono già spostate, come Nvidia e Microsoft e Alphabet.

Quando Microsoft ha riportato gli utili del trimestre di giugno qualche settimana fa, la reazione del mercato è stata un po’ tiepida. I risultati non riflettevano davvero tutte le cose che hanno detto che stanno arrivando sul fronte dell’IA.

Dane: Mentre ci siamo spostati attraverso questo ultimo periodo di guadagni, hai visto molte aziende produrre risultati che sono stati in anticipo rispetto alle aspettative o in linea con le aspettative. Nessuno è diventato particolarmente aggressivo nell’aumentare le linee guida, e le azioni si sono vendute in questo, perché hanno avuto grandi mosse fino alla fine del trimestre fino a giugno e luglio. La gente si aspettava un po’ di eccitazione. L’eccitazione sta arrivando in molti di questi nomi, ma non nei prossimi 90 giorni.

Microsoft sembra incredibilmente ben posizionata dal nostro punto di vista, dato ciò che l’azienda sta facendo con Copilot e Azure. Per noi, questa sembra un’opportunità avvincente.

Dacci un paio di altre scelte. 

Dane: Sono ottimista su Marvell Technology [MRVL], che produce chip utilizzati nelle reti di data center. Crescerà proprio accanto a Nvidia. La sua attività legata all’IA ha un fatturato di circa 200 milioni di dollari e dovrebbe raddoppiare in ciascuno dei prossimi due anni. Il titolo si è spostato verso l’alto, ma anche le stime. Questo è un gioco di picks-and-shovels, dove i numeri stanno andando più in alto.

Un’altra azienda che ci piace è Adobe, che domina il mercato del software creativo. Abbiamo sentito cose positive sul beta test per la sua versione aziendale di Firefly, la raccolta di strumenti generative-AI di Adobe. Da quello che sentiamo dal canale di vendita, la versione beta sta andando eccezionalmente bene. Uno dei maggiori vantaggi che il software Adobe offre è che i clienti saranno protetti dalla violazione del copyright per il loro software text-to-image. C’è un po’ di TBD su quanto sia grande – non abbiamo ancora informazioni sui prezzi – ma questa è una di quelle situazioni in cui l’operatore storico ha un vantaggio.

E che dire di Nvidia?

Dane: L’abbiamo posseduto e continuiamo a possederlo nei nostri fondi a grande capitalizzazione e incentrati sulla tecnologia. Ma gestiamo sempre il rischio e la ricompensa con il dimensionamento della posizione; vuoi assicurarti di rimanere in equilibrio. Come leader nei processori grafici, sono in una posizione unica: stanno davvero beneficiando di questa ondata. Il business andrà eccezionalmente bene, ma la valutazione ha una serie di risultati.

Mark, di recente hai scritto un pezzo che ti chiedeva se siamo in una bolla di IA. Lo siamo?

Moerdler: Siamo stati in una bolla di aspettativa o ottimismo. La comunità degli investitori è diventata entusiasta delle entrate a breve termine che saranno generate dalla tecnologia. Ancora una volta, questa tecnologia è esplosa sul mercato. Gli investitori l’hanno guardato e sono andati, OK, genererà entrate significative in un periodo relativamente breve. Le aspettative sono aumentate e le valutazioni sono salete di conseguenza. Molti team di gestione hanno iniziato a parlare delle loro soluzioni di intelligenza artificiale. Potresti letteralmente guardare le valutazioni azionarie salire più parlavano di IA, anche se non ti stavano dando alcuna guida su quando e quanto. Abbiamo visto multipli salire a gamme relativamente alte, avvicinandoci a ciò che abbiamo visto ai multipli di picco negli ultimi tempi, senza quella linea di vista per la possibilità di generazione di entrate.

E così da quella prospettiva, c’è un po’ di bolla in corso. Ci vorrà più tempo di quanto molte persone credano perché l’IA guidi entrate significative. Ciò non significa nessuna entrate, ma abbastanza per spostare l’ago da una prospettiva di crescita delle entrate o da una prospettiva di guadagni. È probabile che nella maggior parte dei casi, le entrate guideranno i guadagni qui perché sono necessari molti investimenti per offrire strumenti di intelligenza artificiale. Li stai usando nel cloud. Stai pagando per quell’uso, anche se lo possiedi tu stesso. Probabilmente stai pagando un premio in questo momento, a causa della carenza di GPU [unità di elaborazione grafica]. E così, sì, siamo un po’ più avanti dei nostri sci.

Inoltre non credo che l’aumento della marea solleverà tutte le navi allo stesso modo. Si ridirà alle aziende che sono in grado di creare capacità differenziate, protette da minacce competitive e che hanno la capacità di monetizzarle. Molte aziende aggiungeranno capacità di intelligenza artificiale, e sarà, almeno nel breve termine, un costo per fare affari. Non sarà monetizzabile perché i tuoi concorrenti aggiungeranno capacità simili.

Come ha discusso Brook, devi pensare all’orizzonte temporale. Pensiamo a tre secchi. Ci sono le aziende in cui puoi vedere la differenziazione in ciò che stanno offrendo ora. Ci sono aziende che stanno aggiungendo l’IA, ma potrebbe significare solo un costo più elevato per fare affari, almeno per il breve termine. A lungo termine, tra anni, potrebbe diventare reale. E poi ci sono le aziende che saranno sconvolte. La maggior parte delle aziende è in quel secchio centrale oggi.

Quali aziende sarebbero nel primo secchio? E l’ultimo?

Moerdler: Due delle aziende che ho messo nel secchio dei vincitori sono state appena menzionate da Brook: Microsoft e Adobe. Ho inserito nella lista dei perdenti le aziende che offrono soluzioni software no-code e low-code; affronteranno una nuova concorrenza dal codice scritto dall’IA. Per i perdenti, vediamo una combinazione di maggiore logoramento dei clienti e pressione sui prezzi. Quasi tutto il resto è il secchio centrale. Per la maggior parte delle aziende, l’IA generativa non sarà un importante elemento di differenziazione, ma sarà necessaria da una prospettiva di posizionamento competitivo. La maggior parte di questi stanno saltando sul carro dell’IA e, sebbene dovrebbero essere in grado di portare rapidamente la funzionalità sul mercato, non sarà differenziata e, in molti casi, davvero preziosa per i clienti.

Dane: Una cosa da notare: le opportunità nelle aziende tecnologiche sono avvincenti in questo momento, con l’IA come opzione di fronte a loro. I fondamenti aziendali sono in gran parte stabili. L’economia è in forma migliore di quanto tutti pensavamo che sarebbe stata sei o nove mesi fa. Queste aziende si sono in gran parte orientate a guidare il flusso di cassa e il reddito operativo invece di inseguire la crescita per il bene della crescita. E poi hai questa opzionalità intorno all’IA.

Moerdler: D’accordo. Se la tua attenzione è sul valore del business e sul rialzo dell’IA, otterrai una migliore ricompensa di rischio in termini di profilo di investimento rispetto a se salti sulla nave all-about-AI, perché potrebbe volerci più tempo prima che quelle entrate si realizzasse.

Mentre le azioni tecnologiche hanno avuto un grande anno, e tutti parlano di IA, non ci sono state offerte pubbliche iniziali di IA, o davvero IPO nella tecnologia. Cathy, cosa dice questo su dove siamo nello sviluppo del settore dell’IA?

Gao: Quando i mercati generali dell’IPO si scongeleranno per la tecnologia è la domanda da un milione di dollari. Non ne ho idea. In ogni caso, ci vorrà un po’ prima di vedere le aziende di intelligenza artificiale pure-play diventare pubbliche. La velocità di adozione che stiamo vedendo in questo ciclo con l’IA ha superato tutto ciò che ho visto nei precedenti cambiamenti della piattaforma. Ma forse c’è qualcosa che possiamo imparare dalla rivoluzione di internet che potrebbe essere applicato all’era attuale. Nell’era di Internet, la prima ondata di aziende che sono uscite non sono state quelle che alla fine hanno avuto successo. Era più la seconda ondata e la terza ondata che guardavano i loro predecessori, imparavano dai loro errori, raffinavano, raffinavano e uscivano. Il mio istinto mi sta dicendo che ci vorrà un po’.

Tutti, grazie per una conversazione affascinante.


Adobe “Sta emergendo come leader dell’intelligenza artificiale”, afferma l’analista

Eric J. SavitzFollow

L’analista di BofA Brad Sills ha aggiornato lo stock Adobe a Buy from Neutral.

Adobe negli ultimi mesi ha lanciato in modo aggressivo nuovi strumenti di intelligenza artificiale generativa, mentre spinge a difendere una posizione dominante nel mercato del software creativo. Le mosse hanno contribuito a guidare un rally di oltre il 50% nelle azioni Adobe nel 2023.

Ma c’è motivo di aspettarsi più guadagni in futuro. L’analista di BofA Global Research Brad Sills giovedì ha aumentato il suo rating sul titolo Adobe (ticker: ADBE) a Buy from Neutral, con un nuovo obiettivo di prezzo di 630 dollari, rispetto ai 575 dollari, per un potenziale guadagno di oltre il 20%. La sua opinione, semplicemente, è che Adobe “sta emergendo come leader dell’IA”.

Sills scrive in una nota di ricerca che molte società di software trarranno beneficio dai lanci di software AI nei prossimi anni. Ma Adobe è “sulla cresta dell’onda” e gli strumenti di creazione di contenuti basati sull’IA guideranno entrate significative e il flusso di cassa libero al rialzo non appena l’anno fiscale termina a novembre 2024.

L’analista scrive che vede tre potenziali opportunità di monetizzazione dell’IA per Adobe. Una di queste sono le versioni a pagamento di Firefly, la crescente suite di strumenti generative-AI dell’azienda, per applicazioni come la generazione text-to-image e l’editing fotografico basato su AI-. L’azienda è già in beta testing su una versione a pagamento di Firefly per i clienti aziendali. Pensa anche che Adobe possa vendere “pacchetti di credito” per il consumo di Firefly: la generazione di immagini AI è intensiva e Adobe addebiterà di più all’aumentare dell’utilizzo. E tre, vede potenziali accordi con marchi globali per fondere i propri dati con i modelli large-language di Adobe.

Sills scrive che la sua “stima conservativa ” ha Adobe che genera 960 milioni di dollari di entrate AI entro l’anno fiscale 2026, ma che in uno “scenario blue-sky” il totale potrebbe arrivare fino a 2,9 miliardi di dollari, il che presuppone il 33% di penetrazione di Firefly da parte dei clienti del software Creative Cloud ed Express dell’azienda.

Un jolly è se l’azienda può effettivamente chiudere la sua acquisizione in sospeso della società di design-tool basata sul web Figma.

“Se l’accordo Figma fosse terminato, Adobe continuerebbe a sviluppare funzionalità organicamente per affrontare meglio le funzionalità collaborative critiche”, scrive. Ma Sills aggiunge di essere d’accordo con l’opinione di Adobe secondo cui i regolatori degli Stati Uniti, del Regno Unito e dell’Unione europea alla fine approveranno l’accordo.

Nonostante l’aggiornamento, lo stock Adobe di giovedì è sceso dello 0,4% a 512,62 dollari.


17/08/23 Barron’s: I chip AI di Nvidia stanno correndo avanti nel cloud. Perché il titolo è da acquistare.

Di Tae KimFollow

Jefferies si aspetta che Nvidia riporti entrate più elevate per i data center rispetto a Intel o Advanced Micro Devices la prossima settimana.

Nvidia sta rafforzando la sua posizione di leadership sulle principali piattaforme di cloud computing per progetti di intelligenza artificiale, afferma Jefferies.

L’analista Mark Lipacis ha analizzato i numeri di giugno di sei migliori fornitori di servizi basati su cloud. Ha trovato che la quota di mercato di Nvidia (ticker: NVDA) per i carichi di lavoro di intelligenza artificiale è aumentata di 3,5 punti percentuali nell’ultimo anno all’85%.

Presso i fornitori di cloud computing pubblico, “Nvidia domina le istanze di acceleratore [AI] dedicate”, ha scritto. “Nvidia ha costituito quasi tutte le implementazioni incrementali degli acceleratori complessivi dal febbraio 2022”. Gli acceleratori sono un termine per i semiconduttori legati all’IA.

Le azioni Nvidia sono scese dell’1,1% a 430,06 dollari giovedì, in linea con la perdita nelNasdaq  .

Dopo aver esaminato gli ultimi dati, l’analista ha ribadito il suo rating Buy per le azioni Nvidia. Si aspetta che le entrate dei data center del secondo trimestre di Nvidia supereranno quelle di Intel e Advanced Micro Devices per la prima volta nella storia quando il produttore di chip riferirà la prossima settimana.

L’elevata quota di mercato di Nvidia per i chip AI mette l’azienda in una solida posizione per beneficiare del software di intelligenza artificiale generativo che ingegnerizza testo, immagini e video per creare contenuti. Il rilascio di ChatGPT da parte di OpenAI alla fine dell’anno scorso ha suscitato interesse per questa forma di intelligenza artificiale.

I fornitori di servizi cloud monitorati da Jefferies sono Alibaba Aliyun, Amazon Web Services, Microsoft Azure, Google Cloud Platform, Oracle Cloud e Tencent Cloud. I fornitori vendono potenza di elaborazione dei centri dati ai propri clienti.

Gli esperti hanno affermato che le start-up e le aziende utilizzano i chip di Nvidia per le applicazioni AI a causa del suo robusto ecosistema di piattaforme di programmazione software, noto come CUDA. Gli sviluppatori hanno costruito e condiviso strumenti e librerie software relativi all’IA per oltre un decennio sulla piattaforma proprietaria di Nvidia, rendendo più facile costruire rapidamente applicazioni AI.

Il mese scorso, i dirigenti senior di Microsoft e Alphabet, la società madre di Google, hanno affermato che intendono investire in modo aggressivo nell’infrastruttura AI nel prossimo anno, rafforzando la fiducia di Lipacis sulle entrate future di Nvidia.


03/08/23 Barron’s: Le azioni AMD sono in aumento. L’analista lo vede come “il miglio posizionato” intelligenza artificiale .

Di Tae KimFollow

Le azioni AMD sono in ritardo rispetto alle prestazioni dell’ICE Semiconductor Index.Tempo dei sogni

Benchmark dice che Advanced Micro Devices sarà un grande vincitore dalla tendenza crescente verso l’intelligenza artificiale.

Mercoledì, l’analista Cody Acree ha riaffermato il suo rating Buy per AMD  (ticker: AMD) e ha aumentato il suo obiettivo di prezzo a 145 dollari da 108 dollari.

“Riteniamo che AMD sia tra le aziende meglio posizionate a beneficiare dell’ampia adozione macroeconomica dell’Intelligenza Artificiale da parte del settore tecnologico”, ha scritto.

Nel trading di giovedì, le azioni AMD sono in aumento del 3,8% a 113,53 dollari.

All’inizio di questa settimana, AMD ha riportato guadagni modestamente migliori del previsto per il trimestre di giugno, fornendo al contempo una prospettiva di entrate per il trimestre in corso leggermente inferiore al consenso al punto medio della sua gamma di orientamento.

Acree è disposto a trascurare il rapporto misto a causa del commento positivo di AMD sulla sua ultima trazione nel servire il mercato dell’IA. In una conference call con investitori e analisti, il CEO Lisa Su ha detto che AMD si aspetta che il mercato degli acceleratori nei data center raggiunga oltre 150 miliardi di dollari entro il 2027. L’analista ha anche notato che l’imminente acceleratore AI MI300 di AMD era sulla buona strada per essere lanciato durante il quarto trimestre.

Gli acceleratori AMD Instinct sono i chip del data center dell’azienda, che vengono spesso utilizzati per le applicazioni di intelligenza artificia

“L’interesse dei clienti per le GPU Instinct MI300A e MI300X dell’azienda è stato forte durante il trimestre, con impegni presso fornitori di cloud di alto livello, grandi imprese e numerose importanti società di intelligenza artificiale si sono espanse in modo significativo nel trimestre”, ha scritto.

Le azioni AMD sono aumentate di circa il 14% negli ultimi 12 mesi, rispetto all’aumento del 21% del fondo negoziato in borsa iShares Semiconductor (SOXX). L’ETF traccia la performance dell’ICE Semiconductor Index.


28/07/23 Barron’s: Le azioni Palantir aumentano dopo che l’analista dice di acquistare “The Messi of AI

Di Eric J. SavitzFollow

L’analista di Wedbush Dan Ives ha paragonato Palantir al grande calcio Lionel Messi.

Palantir technologies PLTR Le azioni stanno avendo un rialzo importante venerdì dopo che l’analista tecnologico Wedbush Dan Ives ha lanciato la copertura della società di software AI con un rating Outperform, fissando un prezzo obiettivo di 25 dollari. Ives sostiene che Palantir è ben posizionata per prendere quote di mercato sia nel mercato del software di analisi commerciale che in quello governativo.

Le azioni Palantir (ticker: PLTR) sono in aumento del 5% a 16,94 dollari.

“Palantir ha costruito una fortezza dell’IA che non ha eguali e pronto ad essere un attore importante in questa rivoluzione dell’IA nel prossimo decennio”, ha scritto Ives in una nota intitolata “Il Messi dell’IA”.

Ives ha detto che il suo prezzo obiettivo di 25 dollari si basa su 10 volte la sua stima delle entrate del caso rialzista 2027 di 5 miliardi di dollari.

“Riteniamo che Palantir abbia un’opportunità generazionale di guadagnare una quota significativa in quello che sarà un TAM [mercato totale indirizzabile totale] di 800 miliardi di dollari, mentre un numero illimitato di applicazioni AI ridefinisce i processi aziendali tra i verticali”, ha detto. Negli ultimi mesi, l’azienda ha sovrapposto al suo software esistente un nuovo livello di intelligenza artificiale, che chiama AIP, per la piattaforma di intelligenza artificiale.

Ives ha aggiunto: “Data la vasta esperienza dell’azienda nella gestione dei dati dei clienti, la transizione di Palantir verso un nome di intelligenza artificiale pure-play sfrutterà la sua esperienza esistente per guidare i progressi e fornire soluzioni di intelligenza artificiale basate su dati di alta qualità. Sfruttando la sua base basata sui dati, l’azienda può sfruttare la potenza degli LLM emergenti per migliorare le capacità della piattaforma”.


07/07/23 Barron’s: Le azioni Nvidia sono un ottimo modo per puntare sull’intelligenza artificiale e oltre, dice l’analista

Tae KimFollow

Un superchip Nvidia GH200 Grace presso la sede centrale dell’azienda a Santa Clara, in California.

Tigress Financial Partners sta diventando più ottimista sulla capacità di Nvidia di prosperare dalla tendenza dell’intelligenza artificiale.

Venerdì, l’analista Ivan Feinseth ha ribadito il suo rating Buy su Nvidia azioni (ticker: NVDA) e ha aumentato il suo obiettivo di prezzo a 560 dollari da 320 dollari.

“Nvidia è uno dei modi migliori per puntare sull’adozione accelerata dell’IA in tutti i tipi di tecnologie e applicazioni”, ha scritto Feinseth. La “capacabilità innovativa e la posizione di leader del settore del produttore di chip continueranno ad aumentare la penetrazione del mercato in molte tendenze tecnologiche secolari, tra cui l’intelligenza artificiale, la tecnologia dei veicoli autonomi e le opportunità emergenti nel settore sanitario”.

All’inizio del trading di venerdì, le azioni Nvidia sono in aumento dell’1,6% a 427,64 dollari.

I prodotti Nvidia hanno un’elevata esposizione all’IA generativa, che è stata di tendenza quest’anno. La tecnologia assimila testo, immagini e video in modo brute-force per creare contenuti. L’interesse per questa forma di intelligenza artificiale è stato suscitato dal rilascio di ChatGPT da parte di OpenAI alla fine dell’anno scorso.

L’analista ha detto che Nvidia beneficerà anche di un grande cambiamento nella spesa dell’infrastruttura tecnologica dai tradizionali processori server ai chip di Nvidia. I semiconduttori dell’azienda sono più adatti per eseguire i calcoli necessari per i prodotti advanced-AI.

Il “forte bilancio e il flusso di cassa di Nvidia le consentono di finanziare iniziative che guidano la crescita attraverso l’innovazione continua e le acquisizioni strategiche”, ha scritto Feinseth.

Wall Street è generalmente positiva sulle azioni Nvidia. Secondo FactSet, l’86% degli analisti che coprono la società ha rating Buy o l’equivalente sulle azioni, mentre il 12% ha rating Hold.

Scrivi a Tae Kim a tae.kim@barrons.com


03/07/23 WSJ: Softbank ha speso 140 miliardi di dollari per l’IA con poco da mostrare. Ora ci sta riprovando.

Il miliardario Masayoshi Son ha detto che avrebbe reso SoftBank “la società di investimento per la rivoluzione dell’IA”, ma ha perso la frenesia più recente

DiEliot BrownFollow

Dopo che l’investitore tecnologico globale Masayoshi Son ha lanciato il più grande fondo di investimento privato del mondo sei anni fa, ha detto che la sua SoftBank   stava seminando denaro in aziende sulla base di un’unica strategia.

“Non stiamo solo facendo investimenti incautamente”, ha detto Son agli investitori nel 2018. “Ci stiamo concentrando su un tema, che è l’IA”.

Dopo aver speso 140 miliardi di dollari spesi per oltre 400 startup Softbank è marginale negli ultimi sviluppi dell’intelligenza artificiale che sta facendo salire il mercato e arranca nel tentativo di recuperare.

Nonostante la spesa senza precedenti che Son nel 2020 ha detto che avrebbe reso SoftBank “la società di investimento per la rivoluzione dell’IA”, uno degli investitori tecnologici più prolifici al mondo ha perso la frenesia dell’IA generativa, il sottosettore rovente in cui prodotti come ChatGPT imparano da enormi set di dati per creare testo o immagini unici.

Il conglomerato con sede a Tokyo ha investito solo in una delle 26 startup di intelligenza artificiale generatrice del valore di oltre 1 miliardo di dollari, secondo PitchBook. L’area si è accesa negli ultimi mesi, con aziende private come ChatGPT-maker OpenAI che hanno raccolto nuovi cicli di denaro per gli investimenti che raddoppiano o triplicano le valutazioni precedenti delle società. I concorrenti di SoftBank tra cui Coatue, Lightspeed e Tiger Global Management hanno sostenuto ciascuno diverse società da miliardi di dollari nella zona.

Il CEO di SoftBank Masayoshi Son, presentando un robot durante una conferenza stampa nel 2014.

Alla riunione annuale dell’azienda a giugno, Son si è impegnato di nuovo ad essere in prima linea nel campo. Ha detto che l’IA rimodellerà l’umanità e che si era dedicato a diventare un architetto di quel futuro, ammettendo di aver pianto durante i momenti di introspezione l’anno scorso. Si vergognava “di aver commesso molti errori”, ha detto.

La mancanza di successo di Son con l’IA mostra le difficoltà che gli investitori devono affrontare nel tentativo di cavalcare l’attuale ondata di entusiasmo. Anche con una quantità gigantesca di denaro da distribuire in dozzine di aziende e aree del settore, scegliere i vincitori è un gioco sfuggente.

L’ondata di intelligenza artificiale che ha scosso numerose azioni tecnologiche ha anche avuto scarso effetto sul portafoglio di azioni tecnologiche quotate in borsa di SoftBank che ha sostenuto come startup, 36 società tra cui DoorDash e la società di e-commerce sudcoreanaCoupang.

Gran parte di quel fervore azionario è stato limitato ai giganti in carica come Microsoft Meta Platforms, piuttosto che alle start-up alle quali SoftBank si rivolge. SoftBank ha perso enormi guadagni al produttore di chip incentrato sull’IA Nvidia: l’investitore con sede a Tokyo ha messo circa 4 miliardi di dollari nella società nel 2017, solo per vendere le sue azioni nel 2019. Le azioni Nvidia sono in aumento di circa 10 volte da allora.

SoftBank ha beneficiato del boom dell’IA in una delle sue aziende: il chip designer Arm, che ha acquistato nel 2016 per 32 miliardi di dollari.

Gli analisti dicono che Arm sarà probabilmente valutato a più di 60 miliardi di dollari – una grande spinta rispetto alle stime precedenti – in un’offerta pubblica iniziale prevista nei prossimi mesi. Questo, insieme a uno yen giapponese più debole, ha contribuito a sollevare le azioni SoftBank di oltre il 33% dalla fine di maggio.

Amir Anvarzadeh, uno stratega della società di ricerca Asymmetric Advisors, ha affermato che la mancanza delle società di intelligenza artificiale di SoftBank rafforza la sua convinzione che la banca “non sia un grande investitore”. Tuttavia, ha detto, con una spinta alla valutazione di Arm, “potenzialmente questo salva davvero SoftBank dai suoi investimenti disastrosi del passato”.

Negli ultimi mesi, la febbre dell’IA si è solo intensificata nel settore del venture capital. I prezzi sono saliti alle stelle per le startup di intelligenza artificiale considerate calde e gli investitori stanno buttando soldi ai fondatori che sembrano promettenti. Una startup francese di intelligenza artificiale ha raccolto 113 milioni di dollari il mese scorso, meno di otto settimane dopo la sua fondazione.

SoftBank afferma che quasi il 90% delle aziende sostenute dal suo Vision Fund utilizza l’IA nelle loro operazioni quotidiane, in gran parte per compiti come l’analisi predittiva e i sistemi che formulano raccomandazioni basate sul comportamento passato e su altri fattori. In una riunione di giugno, Son ha detto che si aspetta che molte di queste aziende diventino grandi vincitrici man mano che l’ondata di intelligenza artificiale si espande.

Tuttavia, la mancanza da parte di Vision Fund della tendenza degli investimenti in IA è degna di nota dato quanto SoftBank abbia enfatizzato il settore.

Masayoshi Son ha detto che si aspetta vincitori tra le aziende che il Vision Fund finanzia.

Son ha menzionato “AI” più di 500 volte nelle presentazioni dei risultati trimestrali e annuali tra il 2017 e la metà del 2022. In bizzarre presentazioni degli investitori che presentavano diagrammi con dinosauri e motori a vapore, il CEO di SoftBank ha detto che l’IA avrebbe “ridefinito tutti i settori” e inaugurato una nuova potente ondata della rivoluzione dell’informazione iniziata con i computer, un linguaggio simile a quello che molti amministratori delegati hanno iniziato a utilizzare negli ultimi mesi. Ha detto che SoftBank avrebbe cercato le migliori startup in un campo, quello che ha chiamato il Cluster of No. 1 Strategia AI.

Parte del problema era il tempismo: per la maggior parte dei sei anni da quando Son ha raccolto il primo Vision Fund da 100 miliardi di dollari, le scelte erano scarse per le società di intelligenza artificiale generativa, che tendevano ad essere più piccole o precedenti nello sviluppo rispetto al tipo di startup SoftBank in genere.

All’inizio del 2022, SoftBank ha quasi completamente interrotto gli investimenti nelle startup quando il settore tecnologico era nel bel mezzo di un brivido e SoftBank è stata colpita da perdite record.

Fu allora che una serie di vivaci società di intelligenza artificiale generativa raccolse fondi e il settore iniziò a guadagnare attenzione tra gli investitori. Più tardi nel corso dell’anno, OpenAI ha rilasciato ChatGPT, facendo ribollire l’interesse bollente nell’area. I concorrenti di SoftBank hanno trascorso gli ultimi mesi a inondare le startup AI con finanziamenti, portando a un ampio aumento delle valutazioni al punto che molti investitori di venture capital avvertono di una bolla in crescita per chiunque entri nello spazio.

Durante gli anni in cui SoftBank stava investendo, generalmente evitava le aziende focalizzate specificamente sullo sviluppo della tecnologia AI. Invece, ha versato denaro in aziende che Son ha detto che stavano sfruttando l’IA e avrebbero beneficiato della sua crescita. Ad esempio, ha messo miliardi di dollari in numerose aziende tecnologiche di auto a guida autonoma, che tendono a usare l’intelligenza artificiale per aiutare a imparare come gli umani guidano e reagiscono agli oggetti sulla strada.

Altri investimenti SoftBank hanno goduto di vantaggi meno chiari dalla tecnologia, mostrando i pericoli di spingere il denaro in un settore con un tema così oscuro come l’IA, che include tutto, dai compiti banali come fare raccomandazioni sui social network alla generazione di codice ingegneristico complesso.

Son ha detto agli investitori che l’IA avrebbe alimentato enormi espansioni in numerose aziende dove, anni dopo, i benefici non sono chiari o inesistenti. Nel 2018, ha evidenziato l’IA presso l’agenzia immobiliare Compass, la società di costruzioni Katerra, ora in bancarotta, e la società di noleggio di uffici WeWork, che ha detto che avrebbe usato l’IA per analizzare come le persone comunicano e poi vendere loro prodotti.

Gli analisti si aspettano che il portafoglio SoftBank si apra ancora una volta. Son, alla sua riunione degli investitori, ha detto che la strategia difensiva dell’azienda dell’anno scorso si stava avvicinando alla fine. “Si sta avvicinando il momento per noi di andare alla controffensiva”, ha detto.

“È molto difficile vedere come tradurre i discorsi in fatti”, ha detto Victor Galliano, un analista indipendente che pubblica ricerche sulla piattaforma SmartKarma. “Arm potrebbe essere molto ben posizionato per beneficiare indirettamente”, ha detto del produttore di chip di SoftBank. Ma non ci sono altri chiari vincitori nel portafoglio SoftBank.

Scrivi a Eliot Brown all’indirizzo Eliot.Brown@wsj.com



01/07/23 Barron’s: Confessioni di uno scettico dell’IA

perché uno scrittore tecnologico di lunga data non sta bevendosi l’hype. (qualcuno di scettico ci vuole 🙂 )

Di Alex Eule Follow

Game-changers che non lo erano: testare i dispositivi VR durante il Mobile World Congress di Barcellona nel 2019 (a sinistra) e una struttura stampata in 3D.

La prima volta che ho usato ChatGPT, ho pensato di spingere il chatbot artificial-intelligence sull’orlo del baratro. Ho fatto una richiesta stupida sperando di ottenere una risposta intelligente: scrivimi una poesia sui Washington Capitals.

Si è scopreto che non stavo pensando abbastanza grande. Poche settimane dopo l’uscita di ChatGPT a novembre, un amico mi ha mandato un messaggio per dire: “Sono completamente dipendente… ti ho appena inviato un discorso dello Studio Ovale (il presidente Usa) sull’apocalisse zombie”.

“Ho offerto una risposta sarcastica, ma non è stato scoraggiato: “”Pensa a qualcosa di casuale e digli di scrivere una sceneggiatura.” Ho chiesto una sceneggiatura su due scimmie che scrivono una sceneggiatura”.

Sei mesi dopo, siamo andati ben oltre le scimmie che scrivono sceneggiature. L’IA generativa è stata discussa in ogni sala del consiglio aziendale, è stata oggetto di lunghe udienze del Congresso e ha scatenato disordini sindacali in tutta Hollywood.

L’emergere a sorpresa della tecnologia ha guidato quasi da solo il Nasdaq Composite in aumento del 32% nel 2023, il miglior inizio di sei mesi dell’indice tech-heavy a un anno dal 1983.

Sono più di 5 trilioni di dollari di creazione di valore. Eppure, quando si tratta di intelligenza artificiale generativa, mi sento ancora bloccato nella fase di novità. Il resto del mondo sta presumibilmente usando l’IA per scrivere saggi, codice software e salvare l’umanità, ma personalmente non ho trovato alcun uso produttivo per ChatGPT o i suoi cugini di chat: Bard di Alphabet (ticker: GOOGL) e Bing di Microsoft (MSFT).

Continuo a tornare ai chatbot sperando che mi venga l’entusiasmo, ma invece mi sento come un bambino di sei anni che fissa una calcolatrice grafica.

Non sono abituato a sentirmi lasciato indietro quando si tratta di tecnologia. Ho portato il mio giornale del liceo sul World Wide Web quando Mosaic era ancora il browser dominante. Ho aspettato in lunghe file per i primi iPhone. La gente di solito viene da me per consigli tecnici.

Forse sto solo invecchiando. O forse siamo in un altro ciclo di hype, destinato alla delusione, simile a quelli che hanno seguito la stampa 3-D, la guida autonoma, la blockchain e, più recentemente, il metaverso. Tutti quelli hanno scatenato le bolle del mini-stock-market, prima che la loro promessa scomparisse o si bloccasse.

Ho coperto il fulmineo aumento delle azioni della stampa 3-D per Barron’s nel 2014. C’è stato un tempo in cui le stampanti 3-D erano sul punto di sostituire i costruttori di case o di generare le lampadine di ricambio dai nostri salotti.

All’inizio del 2014, il leader di mercato 3D Systems (DDD) ha annunciato una partnership con Hershey (HSY) in cui le stampanti 3-D avrebbero rivoluzionato le caramelle: “Che si tratti di creare una forma completamente nuova di caramelle o di sviluppare un nuovo modo di produrle, abbracciamo nuove tecnologie come la stampa 3D come un modo per continuare a spostare i nostri dolcetti dolciari senza tempo nel futuro”.

Non c’è niente di sbagliato nella stampa 3-D o nel sognare in grande. Ma quasi un decennio dopo, la stampa 3-D è per lo più conosciuta come produzione aggregata, ed è un’applicazione industriale di nicchia. Allo stesso modo stiamo aspettando le rivoluzioni sociali portate dalla guida autonoma, dalla blockchain e dal metaverso.

Quindi perdonatemi se sono scettico nei confronti dei poteri rivoluzionari dell’IA, dei bombardamento di articoli e e dei massicci guadagni del mercato azionario.

Sono sempre stato incuriosito dalla nostra tendenza a superare il potenziale della tecnologia. Gartner, la società di consulenza e ricerca, ha trovato un’attività significativa nel consigliare le aziende su questo habitat.

Nel 1995, l’analista di Gartner Jackie Fenn ha presentato l’Hype Cycle, uno strumento ormai famoso per tracciare i progressi della tecnologia. Fenn ha adottato un approccio letterario per coniare le fasi della tecnologia, che includevano il “Picco delle aspettative gonfiate”, il “burrone della disillusione”, l'”accettazione della realtà” e l'”appiattirsi della produttività”.

Allora, le comunicazioni wireless erano ancora nuove di zecca, ben al di sotto delle aspettative di picco, e dietro tecnologie come “l’Information Superhighway”, la realtà virtuale e la videoconferenza, che avevano già raggiunto il picco, secondo Gartner.

“La maggior parte delle tecnologie avanzate segue un ciclo di vita prevedibile di clamore, disillusione, realismo e, alla fine, produttività”, ha scritto Fenn nella sua nota del 1995. “Monitorando i progressi di una tecnologia lungo il ciclo di hype, le organizzazioni possono determinare quando la maturità della tecnologia raggiunge un punto compatibile con la propria tolleranza al rischio”.

Non c’è dubbio che le aziende, inclusa la mia, stiano attualmente avendo queste stesse discussioni sull’IA. Il rischio di perdere è enorme, ma c’è anche un notevole pericolo nel trasferirsi troppo presto a scapito degli affari attuali.

Considera Facebook, che ha scommesso l’azienda sul metaverso, cambiando il suo nome in Meta Platforms (META) nel 2021. Il fondatore e CEO Mark Zuckerberg ha avuto ragione sui social network, ma è stato troppo ottimista sul potenziale a breve termine dei mondi virtuali.

Le azioni di Meta sono crollate del 71% nei 12 mesi successivi al cambio di nome. Da allora è in gran parte rimbalzato, con Zuckerberg più concentrato sul taglio dei costi che sul metaverso.

La scorsa settimana, ho chiesto a Mark Raskino, analista di Gartner e autore del libro “Mastering the Hype Cycle“, di offrire una prospettiva storica sull’impennata dell’IA.

“Come esseri umani, siamo attratti dalla novità”, dice Raskino. “E lo diciamo ai nostri amici, quindi c’è questo tipo di fattore di contagio sociale nelle prime fasi… si ottiene un forte aumento di eccitazione. Ma quello che sta effettivamente accadendo è che la crescita del numero di persone che applicano o usano la cosa è molto più lento.”

Quella disconnessione guida il ciclo di hype senza fine. “C’era il sociale. Poi c’era il mobile e c’era il cloud e c’era la blockchain. Ora c’è l’IA. Ed è come le onde che ti vengono ad arrivare su una spiaggia. Sembra ripetitivo.”

Dopo aver parlato con Raskino, mi sono sentito un po’ più giustificato per la mia attuale stanchezza da hype. “Abbiamo solo una giustapposizione insolita”, dice. “Abbiamo avuto l’hype generative-AI quest’anno, sulla scia del metaverso l’anno scorso”.

Raskino ha sottolineato che il ciclo dell’hype non è uno strumento di stock-picking, ma direi che la storia è maestra per gli investitori. “Il più delle volte, ma non sempre, il plateau di produttività o redditività non è alto come il picco originale di eccitazione”, dice.

Per quanto riguarda le eccezioni? Ha indicato la ricerca sul web e il software come servizio, o applicazioni basate su cloud.

Dove atterrerà ChatGPT? Ricontrolla con me tra 10 anni. Speriamo che non stia scrivendo questa rubrica.


30/06/23 Barron’s: La prossima grande opportunità di Nvidia è AI-as-a-Service. Ecco perché.

Tae KimFollow

Nvidia ha presentato il suo servizio cloud DGX all’inizio di quest’anno.

Raymond James ha detto che la nuova offerta cloud di intelligenza artificiale per le aziende di Nvidia potrebbe diventare un grande business nel tempo.

L’analista Srini Pajjuri ha riaffermato giovedì il suo rating Strong Buy per le azioni Nvidia (ticker: NVDA) e il suo obiettivo di prezzo di 450 dollari.

All’inizio di quest’anno, Nvidia ha presentato il suo servizio cloud DGX, che consente alle aziende di noleggiare capacità di elaborazione AI alimentata dai semiconduttori del produttore di chip.

L’AI-as-a-Service di Nvidia DGX Cloud è un’opportunità significativa a lungo termine, ha scritto. Il produttore di chip ha “modelli di intelligenza artificiale che le aziende possono sfruttare per costruire modelli di linguaggio di grandi dimensioni personalizzati con dati aziendali proprietari”.

All’inizio del trading di venerdì, le azioni Nvidia sono in aumento del 3,7% a 423,46 dollari.

Pajjuri ha notato come la direzione dell’azienda abbia detto che ci sono quattro milioni di sviluppatori che utilizzano la piattaforma di programmazione CUDA di Nvidia. CUDA, con i suoi utili strumenti software e le librerie relative all’IA, ha gettato le basi per il dominio dei chip di Nvidia nell’ultima ondata di applicazioni AI.

I prodotti Nvidia hanno un’elevata esposizione all’IA generativa, che è stata di tendenza quest’anno. La tecnologia ingegnerizza testo, immagini e video in modo brute-force per creare contenuti. L’interesse per questa forma di intelligenza artificiale è stato suscitato dal rilascio di ChatGPT da parte di OpenAI alla fine dell’anno scorso.

L’analista ha anche affermato di essere fiducioso sulla capacità di Nvidia di generare solidi risultati finanziari, citando i prossimi lanci di prodotti relativi all’IA entro la fine dell’anno.

Dopo un recente incontro con Simona Jankowski, responsabile delle relazioni con gli investitori e della finanza strategica di Nvidia, “ci siamo andati a nostro agio con la nostra opinione che l’adozione di Gen AI continuerà a guidare una forte crescita per i prossimi trimestri”, ha scritto.

Per quanto riguarda la potenziale concorrenza, il “vantaggio dell’ecosistema dell’IA di Nvidia sarebbe difficile da eguagliare”, ha aggiunto.


29/06/23 Barron’s: L’IA e altre “Mega-Forze” stanno rimodellando i mercati. Come cavalcarle con gli ETF.


Di Lauren FosterFollow

Dovresti aggiungere “mega forze” al tuo portafoglio? Si secondo BlackRock  perché questi temi stanno rimodellando i mercati globali, e guideranno i rendimenti degli investimenti.

Nella sua prospettiva di metà anno, il BlackRock (ticker: BLK) Investment Institute ha evidenziato cinque forze strutturali che ha detto essere “davvero ciò che devi sfruttare”, secondo Jean Boivin, capo dell’istituto, in una presentazione mercoledì. Gli investitori dovrebbero “forse cambiare la lente dalla classe di attività più verso una visione mega-forza per trovare e cogliere queste opportunità”, ha aggiunto.

Le cinque forze sono l’IA, la transizione verso un’economia a basse emissioni di carbonio, l’invecchiamento della popolazione, il futuro della finanza e la frammentazione geopolitica. “Le mega forze non sono nel lontano futuro, ma stanno giocando oggi”, ha scritto il team di BlackRock nella sua prospettiva di metà anno.

“Vogliamo davvero considerarli attivamente nel contesto dell’investimento per quest’anno, non solo come qualcosa che accade in un lontano futuro, perché se si guarda al mercato finora quest’anno, è stata in gran parte una storia tematica che è AI”, ha detto Wei Licapo stratega degli investimenti globale di BlackRock.

Li ha indicato la ristrettezza del rally del mercato azionario statunitense come prova di come l’IA stia alimentando i rendimenti. L’S&P 500 ha guadagnato quasi il 15% quest’anno, ma è stato guidato quasi interamente dalle azioni tecnologiche “Big Seven“: Tesla (ticker: TSLA), Nvidia (NVDA), Meta Platforms (META), Apple (AAPL), Microsoft (MSFT), Alphabet (GOOGL) e Amazon.com (AMZN).

ChatGPT è stato un importante catalizzatore che ha “turbocaricato” l’interesse per l’intelligenza artificiale e le aziende tecnologiche, ha detto Li. Ma non siamo in territorio di bolle, ha sostenuto. “Quello che sta succedendo in questo momento è molto, molto diverso dalla bolla delle dot-com in quanto i guadagni effettivi stanno arrivando”, ha detto.

BlackRock ha un interesse nella promozione di questi temi. La società è uno dei maggiori sponsor al mondo di fondi negoziati in borsa e offre diversi ETF tematici che mirano a capitalizzare queste tendenze.

Tali ETF includono l’ETF iShares Robotics and Artificial Intelligence Multisector (IRBO) e l’ETF BlackRock Future Tech (BTEK).

(Sono ETF americani qui in europa li trovate sotto il nome di iShare)

L’invecchiamento delle popolazioni e la contrazione della popolazione attiva nei mercati sviluppati sono altri due temi che BlackRock mette in evidenza. Le tendenze, insieme ai bassi tassi di natalità e all’aumento dell’aspettativa di vita a livello globale, “possono essere estremamente costose per le società, riducendo la produttività e gravando sulle finanze pubbliche con un costo totale più elevato dei programmi sanitari e pensionistici”, ha detto BlackRock nelle sue prospettive di metà anno iShares.

Un beneficiario potrebbe essere i mercati emergenti, che hanno popolazioni giovani e “potrebbero sentire impatti demografici positivi”, afferma il rapporto. Gli ETF dei mercati emergenti potrebbero beneficiare di questa “forza demografica secolare a lungo termine”, ha detto BlackRock.

Le opzioni includono iShares Core MSCI Emerging Markets ETF (IEMG), iShares MSCI Emerging Markets Min Vol Factor ETF (EEMV) e Vanguard Emerging Markets ETF (VWO).

Il futuro della finanza è piuttosto ampio. Potrebbe significare investire in pagamenti digitali, software, istituti di credito privati e un’infarinatura di aziende “fintech”. BlackRock ha anche un ETF lungo quelle linee chiamato BlackRock Future Financial and Technology ETF (BPAY), anche se è minuscolo con soli 4 milioni di dollari di attività.

Investire in un futuro a basse emissioni di carbonio è altrettanto aperto all’interpretazione. Si potrebbe possedere produttori di auto elettriche come Tesla (TSLA), società di pannelli solari o servizi pubblici che fortificano le reti e migliorano l’efficienza energetica. Si potrebbero anche possedere azioni che non sono altamente esposte al rischio climatico, l’approccio dell’iShares MSCI ACWI Low Carbon Target ETF (CRBN).

La frammentazione geopolitica è forse il tema più difficile da catturare. Non esiste un ETF che miri a sfruttare i crescenti rischi di guerra, disordini sociali o sconvolgimenti geopolitici. Se c’è un vincitore potrebbe essere un ETF dell’industria della difesa, il più grande dei quali è l’iShares U.S. ETF Aerospaziale e Difesa (ITA).

Una parola di cautela: nessuna di queste mega-forze si nasconde sotto una roccia. AI, mercati emergenti, energia pulita e fintech sono variazioni sui temi di crescita; gli appaltatori della difesa sono un gioco sulla globalizzazione che si sta complicando e la guerra in Ucraina alimenta la domanda di armi, tendenze che hanno già portato molte azioni della difesa a livelli quasi record.

Sì, queste potrebbero essere mega-forze a lungo termine. Ma la giuria è fuori sul fatto che batteranno i fondi indicizzati low-cost a lungo termine.


26/06/23: Barron’s: L’IA guiderà il rally delle Tech-Stock nel secondo tempo, dice Dan Ives di Wedbush

Eric J. SavitzFollow

Uno dei più grandi tori del settore tecnologico, l’analista di Wedbush Dan Ives, vede un avanzamento a due cifre in arrivo entro la fine dell’anno, guidato dall’intelligenza artificiale.

L’analista di Wedbush Dan Ives è uno degli analisti più costantemente rialzisti di Street sulle prospettive per le azioni tecnologiche. Lunedì, ha battuto il tavolo sul gruppo, proiettando un altro anticipo dal 12% al 15% nella seconda metà dell’anno.

In una nota di investimento lunedì, Ives osserva che verso quest’anno, il sentimento sulle azioni tecnologiche era “estremamente negativo”, tra i continui aumenti dei tassi della Federal Reserve, la diffusa preoccupazione per l’ambiente macroeconomico e l’ammorbidimento della domanda di beni sia per le imprese che per la tecnologia di consumo. Ma nota che le azioni si sono spostate nella direzione opposta finora quest’anno, guidate dalla forza delle megacaps tecnologiche e “come l’intelligenza artificiale ha cambiato il mondo tecnologico e il sentimento degli investitori”.

Pensa che le azioni tecnologiche abbiano molto spazio per salire da qui, “mentre gli investitori digeriscono ulteriormente le ramificazioni di questa ondata di spesa per l’IA da 800 miliardi di dollari all’orizzonte”. Prevede un rally tecnologico del secondo tempo, guidato dalle azioni di software e chip. Finora quest’anno, il Nasdaq Composite è aumentato di circa il 29%.

Ives afferma che le sue conversazioni con gli operatori del settore rilevano che la spesa aziendale sta reggendo, con particolare forza sulla spesa legata al cloud. “Il secondo, il terzo e il quarto derivati di questa corsa all’oro AI stanno appena iniziando ad evolversi per il panorama tecnologico”, afferma Ives. Pensa che il periodo attuale sia più simile alla prima evoluzione di Internet nel 1995, piuttosto che a una bolla in stile 1999.

Ives aggiunge che pensa che nel 2024, l’IA potrebbe rappresentare dall’8% al 10% dei budget IT complessivi, rispetto a circa l’1% nel 2023. La sua lista di probabili vincitori è lunga e include molti nomi familiari, a partire da Nvidia (NVDA) e Microsoft (MSFT), ma anche Oracle (ORCL), Amazon.com (AMZN), Salesforce (CRM), Palantir Technologies (PLTR), MongoDB (MDB), Apple (AAPL) International Business Machines (IBM), Meta Platforms  (META), Adobe (ADBE), Snowflake (SNOW) e C3.ai (AI).

Aggiunge Ives: “Mentre gli orsi continueranno a preoccuparsi delle valutazioni tecnologiche e dello sfondo macro incerto, crediamo che questo alla fine sia l’inizio di un nuovo mercato rialzista tecnologico che vediamo CORRERE verso il 2024 guidato da questa rivoluzione dell’IA unita a un ambiente di spesa IT stabilizzante”.


21/06/33 Reuters: SoftBank passerà alla “modalità aggressiva” mentre l’IA esplode

Di Sam Nussey Anton Bridge

L'uomo guarda il logo di SoftBank Group Corp presso la sede centrale della società a Tokyo
Un uomo guarda il logo di SoftBank Group Corp presso la sede centrale della società a Tokyo,

TOKYO, 21 giugno (Reuters) – Gruppo SoftBank (9984. T) Il CEO Masayoshi Son ha detto mercoledì che il suo conglomerato di investimento tecnologico prevede di spostare la sua posizione in “modalità assalto” in mezzo all’eccitazione per i progressi dell’intelligenza artificiale.

Il gruppo si era ritirato in una posizione difensiva, frenando l’attività di investimento mentre comulava pesanti perdite di investimento nel suo braccio di investimento Vision Fund.

“È giunto il momento di passare alla modalità offesa”, ha detto Son agli azionisti all’assemblea generale annuale del gruppo.

SoftBank ha registrato una perdita netta di 970 miliardi di yen (6,85 miliardi di dollari) per l’anno conclusosi il 31 marzo, ammortizzando le perdite presso l’unità Vision Fund vendendo la sua partecipazione in Alibaba (9988. HK).

Il direttore finanziario Yoshimitsu Goto il mese scorso ha detto che il gruppo vuole assicurarsi di non perdere opportunità di investimento, moderando la sua precedente enfasi sulla difesa.

Le attività liquide di SoftBank, che includono liquidità, mezzi equivalenti e una linea di impegno non emessa, sono salite a 5,1 trilioni di yen alla fine di marzo rispetto ai 2,9 trilioni di yen dell’anno precedente.

Son, che si era defilato negli ultimi mesi, ha trascorso gran parte della sua presentazione a una base di investitori al dettaglio fedeli mercoledì parlando del suo entusiasmo per l’IA.

Son ha detto di aver chiesto a ChatGPT, il chatbot basato sull’intelligenza artificiale della startup OpenAI, di scrivere nuove avventure per Astro Boy, la classica serie manga di Tezuka Osamu.

“Crea come se fosse umano”, disse.

Il miliardario ha detto di aver trascorso gli ultimi otto mesi a pensando applicazioni che crede possano essere realizzate attraverso il chip designer del conglomerato Arm.

“Vogliamo portare a compimento queste invenzioni passo dopo passo. ARM è la chiave”, ha detto.

SoftBank mira a quotare Arm sul Nasdaq entro la fine dell’anno e sta cercando di raccogliere tra 8 e 10 miliardi di dollari, ha riferito Reuters. Arm è in trattative con aziende tra cui Intel (INTC.O) sulla potenziale partecipazione all’IPO.

Le azioni SoftBank hanno chiuso il 3,7% e hanno guadagnato il 22,9% da un anno.

Gli osservatori discutono la capacità di Son, che ha subito inciampi di alto profilo come il suo sostegno alla società di office-sharing WeWork, di scegliere i vincitori in un’economia che dovrebbe essere sempre più alimentata dall’IA.

Son ha detto di aver investito in aziende che pensava avrebbero avuto successo in una società guidata dall’IA e, mentre ci sono stati fallimenti, crede che abbastanza società del suo portafoglio avranno successo.

“Se ne hai uno o due grandi vincenti su cento, questo ripagherà tutto”, ha detto Son.

“Penso che almeno ne abbia trovati più di molti di loro… Penso che sia abbastanza”.


20/06/23 Barron’s: Le migliori azioni di chip per cavalcare il boom dell’IA, dice l’analista

di Tae Kim

Chip Nvidia

Bernstein afferma che due azioni di chip sono il modo ideale per beneficiare della crescente domanda di semiconduttori di intelligenza artificiale: Nvidia e Broadcom.

Martedì, l’analista dei semiconduttori Stacy Rasgon ha ribadito i suoi rating Outperform per entrambe le società di chip.

“Se vuoi davvero investire nell’IA generativa, NVDA rimane la tua migliore opzione”, ha scritto. E “[Broadcom] è una vera storia di intelligenza artificiale qui poiché l’azienda beneficia sia del networking che del loro business ASIC personalizzato [circuiti integrati specifici per l’applicazione o chip personalizzati appositamente realizzati]”.

Nel trading di martedì, Nvidia +1,58% le azioni (ticker: NVDA) sono in aumento dello 0,6% a 429,44 dollari e Broadcom +0,27% Le azioni (AVGO) sono in aumento dello 0,3% a 870,72 dollari. Rasgon ha riaffermato i suoi obiettivi di prezzo di 475 dollari e 875 dollari rispettivamente per Nvidia e Broadcom.

I chip Nvidia hanno un’elevata esposizione all’IA generativa, che è stata di tendenza dal rilascio di ChatGPT da parte di OpenAI alla fine dello scorso anno. L’intelligenza artificiale generatrice ingegnerizza testo, immagini e video in modo brutale per creare contenuti.

L’analista ha detto che crede che ci sia un vantaggio nella guida finanziaria di Nvidia per il resto dell’anno. “A lungo termine [per Nvidia] crediamo che l’opportunità complessiva rimanga enorme, e [è] ancora presto”.

Per Broadcom, Rasgon ha citato come l’azienda stia superando il resto del settore sulla base della sua attività di chip personalizzati, che ritiene rappresenterà il 25% delle sue entrate in semiconduttori l’anno prossimo dal 15% di quest’anno.

“Broadcom beneficia di una migliore visibilità delle entrate… e di una valutazione attraente”, ha scritto.

Le azioni Nvidia sono aumentate di circa il 172% negli ultimi 12 mesi, mentre le azioni Broadcom sono aumentate del 74% nello stesso periodo di tempo. Questo si confronta con un aumento del 42% per l’iShares Semiconductor –1,13%  (SOXX), l’ETF che segue l’indice ICE Semiconductor Index.


20/06/23 Opera adotta l’AI nel suo nuovo browser e il mercato se ne è accorto…

È disponibile Opera One, il nuovo browser con l’intelligenza artificiale di Aria basata sul modello GPT di OpenAI: queste le novità.

Trascorso meno di un mese dalla presentazione del progetto Aria, lo sviluppatore norvegese annuncia il debutto di Opera One, definito come il primo browser a poter vantare un’integrazione nativa dell’intelligenza artificiale. Secondo i responsabili dell’iniziativa, l’esordio costituisce l’inizio di un nuovo ciclo evolutivo per il software.

L’IA di Aria (GPT) nel browser Opera One

È possibile richiamare l’IA attraverso una nuova riga di comando oppure mediante la barra laterale. Si attiva così uno strumento basato sul modello GPT di OpenAI (lo stesso che alimenta ChatGPT) e sul motore proprietario Composer AI, utile per accedere rapidamente alle informazioni online aggiornate oltre che per incrementare e la creatività. Riportiamo di seguito le parole attribuite a Joanna Czajka (Product Director) dal comunicato stampa giunto in redazione, seguite da un video che ne illustra le caratteristiche.

Come persone attentissime all’innovazione dei browser, abbiamo ritenuto opportuno ripensare il ruolo del nostro browser alla luce dei recenti sviluppi nel settore dell’IA. A differenza di altre aziende produttrici, Opera non ha semplicemente aggiunto servizi di intelligenza artificiale al suo browser. Siamo tornati al tavolo da disegno e abbiamo riprogettato il nostro browser di punta. Opera One è costruito attorno ad Aria, la nostra AI native, ed è il culmine del nostro lavoro fino ad ora.

L’utilizzo di Aria, l’intelligenza artificiale che prende vita all’interno di Opera One, è del tutto gratuito. Lo sviluppatore lo descrive come un esperto del Web che può affiancare l’utente durante la ricerca di informazioni sul web, la generazione di testo o codice o la risposta alle loro domande sui prodotti. Ancora, conosce l’intero database della documentazione di supporto per fornire risposte precise ed esaustive a proposito del browser e delle sue funzionalità.

La nuova riga di comando del browser Opera One

Abbiamo citato in precedenza la nuova riga di comando, visibile qui sopra. La si può richiamare con una scorciatoia da tastiera (ctrl+/ o cmd+/) per sottoporre velocemente una domanda o una richiesta all’attenzione dell’IA. Nella barra laterale trova posto anche un pulsante per l’accesso rapido a ChatGPT.

Gli utenti possono scegliere di aderire ai servizi di intelligenza artificiale o di non utilizzarli. Per utilizzare Aria, gli utenti devono aprire l’IA del browser nella barra laterale e accedere o registrarsi per un account Opera gratuito, se non ne hanno già uno.

Non si tratta dell’unica novità introdotta. Ci sono anche le Tab Islands per la gestione delle schede aperte e un design modulare studiata per adattarsi in modo dinamico alle esigenze di ognuno. Per maggiori informazioni e per il download rimandiamo al sito ufficiale. Le versioni di Opera One disponibili sono quelle destinate a Windows, macOS e Linux.


16/06/23 Barron’s: Oracle sta finalmente prosperando nel cloud. L’IA È La Prossima.

Di Eric J. SavitzFollow

Larry Ellison, co-fondatore e presidente di Oracle, è ora la terza persona più ricca del mondo grazie al rally delle azioni Oracle.

Per l’osservatore casuale, l’emergere di Oracle come attore serio nel cloud computing potrebbe essere venuto fuori dal nulla. Ma lettori di Barron non dovrebbero essere sorpresi.

All’inizio del 2021, ho scritto una storia di copertina intitola “Oracle si sta trasformando in un gigante del cloud“. All’epoca, Oracle (ticker: ORCL) stava spingendo le versioni basate su cloud del suo software di database e del suo portafoglio di applicazioni aziendali. Oracle stava anche costruendo in modo aggressivo un’attività di cloud-computing per affrontare i tre giganti del cloud: Amazon AMZN +0,55% Microsoft MSFT +1,19% , e Alphabet GOOGL +1.15% . C’erano notevoli dubbi da parte degli investitori sulle possibilità di successo di Oracle. Ma l’azienda ci credeva sicuramente.

Per quella storia, Clay Magouyrk, il vicepresidente esecutivo di Oracle Cloud, mi ha detto: “Non c’è modo che nei prossimi due o tre anni Oracle sia vista come tutt’altro che una società cloud”.

Si è scoperto che è stata una grande previsione da parte di Clay. Le azioni Oracle sono in aumento di circa il 110% dalla nostra storia. Lo scorso autunno, quando il titolo era sceso a circa 60 dollari da un picco vicino a 100 dollari, abbiamo scritto che il mercato aveva una seconda possibilità di acquistare a buon mercato investimento sul cloud Il titolo di giovedì ha chiuso a 126,55 dollari. Abbastanza sicuro, la storia di Oracle ora è tutta sul cloud.

L’unica ruga che Magouyrk non aveva previsto – nessuno lo ha fatto – è stata la rapida comparsa dell’intelligenza artificiale generativa come fattore importante per quasi tutte le aziende del settore tecnologico e in particolare per i fornitori di cloud computing. Il nuovo entusiasmo del mercato per Oracle ha spinto la società 47-year-old sotto i riflettori per la prima volta in molti anni, spingendo il prezzo delle azioni di Oracle ai massimi storici. Ha reso il fondatore Larry Ellison il terzo essere umano più ricco del mondo, dietro il suo amico Elon Musk e il CEO di LVMH Bernard Arnault.

Lunedì scorso, Oracle ha aggiunto carburante all’incendio, pubblicando risultati finanziari migliori del previsto per il trimestre e l’anno fiscale conclusosi a maggio. Durante il quarto trimestre, il business delle applicazioni cloud di Oracle è aumentato del 45% rispetto a un anno fa. La sua attività di infrastruttura cloud è in aumento del 76%, accelerando dalla crescita del 55% un trimestre prima.

Un giorno dopo i guadagni, Oracle ha annunciato che avrebbe aggiunto funzionalità di intelligenza artificiale generativa in tutta la sua gamma di software aziendali nelle prossime settimane. E ha svelato una nuova partnership con il grande modello linguistico start-up Cohere.

Il torrente di notizie ottimiste sta costringendo gli scettici del titolo a riconsiderare. Nel frattempo, i tori stanno aumentando i loro obiettivi di prezzo a un livello che sarebbe sembrato ridicolo solo pochi mesi fa. Dopo il rapporto sugli utili di Oracle la scorsa settimana, l’analista di Mizuho Siti Panigrahi e John DiFucci di Guggenheim hanno entrambi aumentato i loro obiettivo a 150 dollari, circa il 20% al di sopra dei livelli recenti. Finché il business cloud dell’azienda continua a guadagnare quote di mercato da rivali più grandi, il titolo potrebbe andare ancora più in alto.

La scorsa settimana, ho incontrato Magouyrk per discutere della sua visione aggiornata sul cloud e sul business dell’intelligenza artificiale di Oracle. È più rialzista che mai.

Magouyrk vede la strategia AI di Oracle in tre livelli. “In fondo all’intero stack”, dice, “l’IA generativa ha bisogno di infrastrutture su larga scala per la formazione e per l’inferenza”, guidando la domanda di capacità cloud di Oracle. Aiuta il fatto che l’azienda abbia un forte rapporto con Nvidia (NVDA), consentendo all’azienda di offrire ai clienti AI array di migliaia di GPU per addestrare nuovi modelli.

Un secondo strato, dice, combina grandi modelli linguistici con competenze in specifici mercati verticali e una grande base di clienti. È qui che entra in gioco Cohere. “Sono incredibili nel costruire questi grandi modelli linguistici; siamo abbastanza bravi nelle relazioni aziendali, nella sicurezza e nella privacy dei tuoi dati, oltre a costruire una buona infrastruttura”, dice Magouyrk.

La terza parte sono le applicazioni. La scorsa settimana Oracle ha dichiarato che intende utilizzare l’intelligenza artificiale generativa per espandere la portata del suo software aziendale. “Pensare a generare annunci di lavoro da [software HR], presentare automaticamente i rapporti di polizia basati sulle interazioni body-cam per i primi soccorritori o automatizzare e riassumere le note di dimissione del paziente nelle applicazioni sanitarie. Ci sono una miriade di usi.”

Magouyrk afferma che inizialmente, la maggior parte dell’opportunità è “in fondo alla piramide”, aiutando le aziende a formare i loro modelli di intelligenza artificiale. “Ma tra 15 anni, sarà una piramide invertita”, dice. “L’opportunità sarà di incorporare questa tecnologia nelle applicazioni”.

Naturalmente, Oracle non ha intenzione di dare via nessuna di queste cose gratuitamente.

Magouyrk afferma che le versioni abilitate all’intelligenza artificiale delle app di punta di Oracle arriveranno presto. “Stiamo parlando di mesi, non di anni. C’è molta domanda e molto valore in quella domanda.”

Per quanto riguarda l’accelerazione della crescita del business cloud complessivo di Oracle, Magouyrk, che una volta ha lavorato come ingegnere senior presso Amazon Web Services, dice che non è una sorpresa per lui.

“L’infrastruttura cloud è uno spazio molto ampio e ci vuole tempo perché la tua azienda cresca”, aggiunge. “Più persone lo stanno prendendo sul serio rispetto a due anni fa. Avevamo tutti gli ingredienti tranne uno: avevamo la forza vendita, avevamo la capacità di servire i clienti in 150 paesi, avevamo il capitale per espandere il business, avevamo la tecnologia. Quello che dovevamo fare era dimostrare che funzionava, costruire riferimenti e arrivare allo slancio. “Ora che sta accadendo, stiamo accelerando””.”


13/06/23 Barron’s: C3.ai, Palantir, AMD, Nvidia aumentano dopo che i guadagni di Oracle portano più ottimismo dell’IA

Callum KeownFollow

1 minuti minuti

Il CEO di Oracle Safra Catz ha affermato che la domanda di intelligenza artificiale lascia un vantaggio significativo per l’obiettivo di entrate dell’azienda per il 2026.

Oracle ORCL +5,99% Le azioni sembravano destinata a salire ai massimi storici martedì, mentre C3.ai IA +1,65% Palantir Technologies e anche altre azioni incentrate sull’IA hanno ricevuto una spinta dopo che la società di software aziendale ha riportato forti guadagni.

Le azioni di Oracle (ticker: ORCL) hanno chiuso ai massimi storici prima degli utili della società lunedì e sono aumentate di nuovo nel trading pre-mercato dopo che Oracle ha battuto le aspettative sugli utili nel quarto trimestre fiscale. Il titolo era in aumento del 4% nel trading pre-mercato.

La direzione ha anche esaltato l’impatto della domanda di intelligenza artificiale sul suo business cloud, qualcosa che gli investitori speravano di sentire. Oracle si è attenuto alle sue previsioni di 65 miliardi di dollari di vendite entro il 2026, ma il CEO Safra Catz ha affermato che “la domanda di AI ci lascia un rialzo significativo”.

I guadagni e le prospettive ottimisti sembravano dare alle azioni esposte all’IA un altro aumento prima dell’apertura del trading di martedì. Le azioni Palantir (PLTR) sono salite di oltre il 2% e i produttori di chip Advanced Micro Devices +3,42% (AMD) e Micron Technology (MU) hanno anche guadagnato circa il 2%. C3.ai (AI) è aumentato dell’1% e Nvidia +1,84% (NVDA) è salito dell’1,2%, mentre il rivale di Oracle Adobe +4,54% (ADBE) è aumentato di circa il 2,5%.

D.A. L’analista di Davidson Gil Luria ha affermato che i risultati del business cloud di Oracle erano “solidi”, ribadendo un rating neutro sul titolo con un obiettivo di prezzo di 115 dollari.

“Mentre la gestione si è concentrata sul ruolo di Oracle nell’aiutare le imprese a formare i propri LLM (modelli di apprendimento linguistico), la conversazione complessiva si è concentrata sui driver sottostanti della crescita del cloud di Oracle”, ha detto Luria. “È importante sottolineare che la direzione ha ribadito il suo impegno nei confronti degli obiettivi precedentemente stabiliti per il FY2026”, ha aggiunto.

Oracle ha registrato un fatturato di 13,8 miliardi di dollari nel quarto trimestre fiscale, prima delle stime degli analisti di 13,7 miliardi di dollari, secondo FactSet. Anche gli utili rettificati di 1,67 dollari per azione hanno battuto le aspettative di 1,58 dollari.


11/06/23 Sole 24 Ore: analisi di Nvidia


09/06/23 Barron’s: 20 scelte di azioni di intelligenza artificiale e 10 previsioni AI, da RBC

Eric J. SavitzFollow

RBC afferma che le valutazioni delle aziende che non riescono ad abbracciare l’IA diminuiranno.

Se c’è una cosa per cui il mercato sta sbavando , è la ricerca di azioni che possono crescere grazie aull’intelligenza artificiale, quindi molti analisti di Wall Street hanno pesato con lunghe note su quali azioni saranno vincitrici nella rivoluzione generativa dell’IA. Venerdì, il team di ricerca di RBC Capital si è aggiunto alla lista.

Gli analisti, tra cui Rishi Jaluria e Matthew Hedberg, che si occupa di software; Rishi Jaluria, che gestisce le azioni di Internet; e pochi altri hanno messo in scena un rapporto di 189 pagine sulle implicazioni dell’IA generativa e di ChatGPT. Hanno offerto un elenco dei loro 20 migliori investimenti su questa tecnologia.

Nel software, i nomi includono Microsoft (ticker: MSFT), HubSpot -0,09% (HUBS), Nice (NICE), Veeva Systems –0.29% (VEEV), MongoDB –0.04% (MDB), CrowdStrike Holdings (CRWD), Elastic (ESTC), GitLab (GTLB), Cloudflare +11,11% (NET), ServiceNow (NOW) e Adobe (ADBE).

Le azioni internet preferite di RBC sull’IA includono Alphabet (GOOGL), Amazon.com (AMZN), Meta Platforms (META), Snap (SNAP) e Pinterest (PINS), “e in misura minore”, Booking Holdings–1,56% (BKNG), Expedia Group (EXPE) e Airbnb (ABNB). Un’altra scelta, nel settore dei data center, è Digital Realty Trust (DLR).

Gli analisti hanno anche offerto 10 previsioni:

  1. Le aziende che non riescono ad abbracciare l’IA generativa “vedranno la compressione dei loro multipli del 50% nei prossimi cinque anni”.
  2. L’IA generativa sarà “negativa per le società di software e le azioni che hanno precedentemente beneficiato della frenesia sull’IA”. Ciò include le recenti scelte AI popolari come C3.ai (AI) BigBear.ai (BBAI) e SoundHound.ai (SOUN).
  3. L’adozione accelerata dell’IA guiderà la crescita nei settore del cloud, tra cui Amazon Web Services, Microsoft Azure e Google Cloud di Alphabet (GOOGL).
  4. I governi e gli organismi di regolamentazione esamineranno sempre più la tecnologia. “Crediamo che i governi di tutto il mondo creeranno una legislazione sull’IA generativa, incluso l’uso di sistemi di intelligenza artificiale generativa, la prevenzione dell’uso dannoso e l’uso dei dati dei clienti”.
  5. L’IA generativa porterà alla prossima generazione di start-up.
  6. Gli attacchi alla sicurezza diventeranno più complessi. “Crediamo che i gruppi malintenzionati saranno in grado di utilizzare l’intelligenza artificiale generativa per creare attacchi informatici più complessi e creativi, che possono fungere da vento in poppa per le società di sicurezza”.
  7. Le preoccupazioni del mercato su Alphabet svaniranno man mano che l’azienda rilascerà nuovi strumenti, mostrerà entrate incrementali dall’IA ed eviterà di aumentare la spesa in conto capitale in risposta a una potenziale impennata di query di intelligenza artificiale ad alta intensità di risorse.
  8. Amazon inizierà a pubblicizzare di più dei propri progressi generativa dell’IA; RBC nota che ha l’intelligenza artificiale integrata sul suo cloud molto più a lungo di Azure o Google Cloud.
  9. Meta porta sul mercato nuovi strumenti di intelligenza artificiale generazionale che si traducono in risparmi sui costi per gli inserzionisti.
  10. Le azioni dei viaggi online Airbnb, Booking ed Expedia si focalizzeranno di più sulle proprie soluzioni di intelligenza artificiale, “per uscire di fronte a qualsiasi narrazione negativa che possa sorgere intorno ai venti contrari dell’acquisizione dei clienti man mano che la reperibilità della ricerca diventa più impegnativa”.

05/06/23 Barron’s: Micron è la migliore scelta fra le azioni di chip in mezzo all’hype dell’IA, dice un analista

Di  Tae Kim

Un impianto giapponese gestito da una filiale di Micron Technology

Possedere azioni Micron è il modo migliore per sopravvivere a un pullback dei semiconduttori dopo il grande rally guidato dall’intelligenza artificiale del settore quest’anno, afferma Citi Research.

Micron Technology -1,93% (ticker: MU) è leader nei mercati dei semiconduttori per la memoria dinamica ad accesso casuale, che viene utilizzata nei computer desktop e nei server, e per la memoria flash, che si trova negli smartphone e nei dischi rigidi a stato solido.

Lunedì, l’analista Christopher Danely ha ribadito il suo rating Buy per le azioni Micron con un obiettivo di prezzo di 75 dollari.

“I semiconduttori sono pronti per un pullback”, ha scritto. “Ribadiamo la nostra posizione cauta sul gruppo dato la corsa agli acquisti guidata dall’hype dell’IA. Stiamo anche cambiando le nostre classifiche e spostando Micron al primo posto.”

Nei primi scambi di lunedì, le azioni Micron sono scese dell’1,7% a 67,99 dollari. Il titolo è aumentato del 36% quest’anno, rispetto al guadagno del 37% per iShares SemiconductorSOXX –1.68% fondo negoziato in borsa (SOXX), che tiene traccia delle prestazioni dell’indice ICE Semiconductor, durante lo stesso lasso di tempo.

Danely afferma che la spesa per i semiconduttori di intelligenza artificiale potrebbe cannibalizzare la spesa per altri tipi di chip, compresi i processori PC, poiché l’ambiente economico globale continua a rimanere difficile.

Micron è anche impigliato nelle crescenti tensioni geopolitiche tra Stati Uniti e Cina. Il mese scorso, la Cyberspace Administration of China (CAC) ha annunciato un divieto su alcuni prodotti di Micron dopo un’indagine di due mesi, sostenendo potenziali problemi di sicurezza della rete che potrebbero compromettere la sicurezza nazionale della Cina.

L’analista prevede che il governo degli Stati Uniti potrebbe ora essere più incline a offrire denaro CHIPS Act a Micron dopo l’azione della Cina. Nel 2022, il presidente Joe Biden ha firmato il CHIPS and Science Act, che includeva circa 50 miliardi di dollari di finanziamenti per aumentare la produzione di chip negli Stati Uniti.

“Crediamo che il divieto cinese di Micron dovrebbe mettere l’azienda in grado di ottenere più soldi dal CHIPS Act”, ha scritto.


03/06/23 Barron’s: Un protagonista dell’AI che si nasconde in bella vista. E paga anche un grande dividendo.

Eric J. Savitz

Nel 2011, il supercomputer Watson di IBM sconfisse i campioni umani di Jeopardy, incluso l’attuale conduttore dello show Ken Jennings. La società alla fine ha venduto gran parte della sua attività Watson, ma non ha rinunciato all’IA.

Una delle scommesse più allettanti sull’intelligenza artificiale è nascosta in bella vista. È un’azienda che tutti conoscono, un gigante tecnologico che ha concentrato la sua attività per anni sul cloud e sull’intelligenza artificiale. Ha anche uno dei più alti rendimenti da dividendi nel settore tecnologico.

Questa sorpresa AI è… IBM +2,00% .

Ci sono ragioni per cui il mercato è scettico sulla posizione di Big Blue nell’IA, ma l’omissione è miope. Azioni del produttore di chip Nvidia (ticker: NVDA) sono in aumento del 172% quest’anno, spinti dal successo dei suoi chip utilizzati nelle applicazioni di intelligenza artificiale generativa. Microsoft (MSFT) e Alphabet (GOOGL), i principali attori del software AI, hanno aggiunto il 40% a testa.

IBM (IBM)? È in calo dell’8%.

Quel sorprendente declino arriva anche se IBM si è rifatta negli ultimi tre anni sotto la mano ferma del CEO Arvind Krishna. IBM ha probabilmente una conoscenza dell’IA più profonda di quasi tutte le aziende, eppure le azioni vengono scambiate a meno di due volte le vendite , rispetto a Nvidia a quasi 20 volte. IBM ha anche un rendimento da dividendi superiore al 5%.

L’azienda lavora su applicazioni di intelligenza artificiale da almeno quattro decenni. Nel 1997, due anni prima che Nvidia andasse in borsa, un supercomputer IBM chiamato Deep Blue sconfisse il campione del mondo di scacchi Garry Kasparov in una partita di sei partite. Nel 2011, il supercomputer Watson di IBM ha notoriamente sconfitto i campioni umani su Jeopardy. Tra gli avversari di Watson c’era il leggendario Ken Jennings, ora conduttore dello spettacolo. “Io, per esempio, accolgo i nostri nuovi signori del computer”, ha scritto Jennings di seguito una delle sue risposte di FinalJeopardy.

A dire il vero, IBM ha fatto passi falsi. Dopo l’acrobazie di Jeopardy, ha fatto una grande spinta per usare Watson nell’assistenza sanitaria, per la scoperta di farmaci e altre applicazioni. Non ha mai funzionato e IBM ha venduto l’attività Watson Health per un miliardo di dollari nel 2022. Alcune persone sembrano aver interpretato la vendita di Watson Health come IBM che rinuncia all’IA, ma non è così.

La scorsa settimana, ho avuto una lunga conversazione con Krishna sull’approccio dell’azienda al business dell’IA. Aveva molto da dire.

Per prima cosa, IBM ha recentemente lanciato una nuova versione di Watson chiamata Watson X. La nuova offerta ha tre parti: Watson.ai lavora con i clienti per creare nuovi modelli o set di dati. Watson.data funge da data store, mettendo l’azienda in concorrenza con Snowflake (SNOW), tra gli altri. E Watson.governance monitora i modelli di intelligenza artificiale per assicurarsi che siano accurati e responsabili, non pieni di informazioni false o offensive.

Quello che IBM non farà è creare il prossimo ChatGPT. “I modelli pubblici sono incredibilmente potenti”, ha detto Krishna. “Quello che Google, Facebook, Microsoft stanno facendo si adatta assolutamente a quella modalità. Stanno costruendo modelli molto, molto grandi che servono tutti”.

Ma Krishna pensa che le applicazioni di intelligenza artificiale rivolte al pubblico siano solo una piccola parte dell’opportunità. “È come un iceberg”, dice, con chatbot come Microsoft Bing e Google Bard sopra la linea di galleggiamento. “Ci sono più casi d’uso che non trarranno beneficio da un grande modello pubblico”.

La strategia di IBM è quella di aiutare i clienti a creare applicazioni AI proprie, per spremere più valore dai loro dati. In alcuni casi, l’azienda fonde modelli open source con dati proprietari. Per alcuni clienti, IBM sta costruendo modelli privati specifici per i loro dati.

Mentre IBM non ha intenzione di costruire un modello generale di grandi dimensioni come ChatGPT, Krishna dice che sta costruendo una famiglia di set di dati specifici del dominio. Ad esempio, sta creando un modello di chimica, basato su informazioni di pubblico dominio.

“Se prendo uno dei miei partner dell’industria chimica, diciamo Dow, Mitsui Chemicals o BASF, hanno dati proprietari su come produrre prodotti chimici”, dice. “Chi di loro metterebbe i propri dati proprietari in un modello pubblico? Certo che no. Ma vorrebbero estendere il modello di chimica per includere i propri dati… potrebbero fornire risposte più rapide alle domande del cliente e interne e trovare nuove formulazioni. Sarà un accelerante per il loro modello di business.”

In un caso, dice Krishna, IBM sta lavorando con una banca per trovare migliori dati di conformità e audit per la propria gente, in parte per mostrare ai regolatori che ha i giusti controlli in atto.

IBM ha costruito 20 di questi modelli di dominio, al di là della chimica e delle banche, l’elenco include uno per scrivere codice, un altro per rendere le operazioni IT più efficienti. C’è un modello geospaziale che IBM si sta adattando per combinare con i dati climatici della NASA, per migliorare la modellazione meteorologica. L’azienda, che possiede il gigante del software open source Red Hat, non è timida nell’utilizzare modelli di formazione open-source. In particolare, IBM ha collaborato con Hugging Face, una start-up AI con una libreria di 130.000 modelli.

Il fattore di complicazione per gli investitori è che IBM non dirà quanto delle sue entrate è legato all’IA. Krishna dice che il numero è impossibile da calcolare. “I nostri mainframe hanno circuiti di intelligenza artificiale, così come lo è l’intelligenza artificiale aziendale del mainframe? Farò il backup dello storage in futuro con l’IA: il backup dello storage è l’IA? Le applicazioni di manutenzione utilizzano l’intelligenza artificiale. Tutta la sicurezza informatica utilizzerà l’IA. Prima che i prossimi cinque anni siano finiti, tutto avrà l’IA fusa al suo interno”.

Krishna cita una stima di PwC che mostra che l’IA potrebbe generare 16 trilioni di dollari di valore per l’economia entro il 2030. E Krishna ha una visione di lunga data che IBM nel tempo dovrebbe far crescere le entrate a una cifra media.

Quello che il CEO non dirà direttamente è che l’IA apre nuove opportunità per IBM e potrebbe essere additivo alle vendite. “È un potenziale accelerante”, dice.


02/06/23 briefing.com: MongoDB mostra la sua capacità di capitalizzare le tendenze dell’IA; pubblica un solido beat-and-raise in AprQ (MDB)

Con l’IA rimasta in cima alla mente delle aziende, MongoDB (MDB +26%) sta vedendo un numero crescente di clienti scegliere la sua piattaforma Atlas come una per costruire ed eseguire nuove applicazioni AI. Questa dinamica ha contribuito a migliorare gli eccellenti risultati dello sviluppatore del software di gestione del database Q1 (aprile) e ha portato al suo aumento delle prospettive FY24 (gennaio).

  • I risultati complessivi del primo trimestre sono stati robusti, con i giri che sono aumentati del 29% anno a 368,28 milioni di dollari, contribuendo a guidare la crescita della linea di fondo dal 180% a 0,56 dollari per azione; entrambe le metriche hanno superato le stime in modo comodo. MDB ha vantato un quarto sano di acquisizione di nuove attività, aggiungendo circa 2.300 clienti, un salto del 22% anno/anno e il numero più alto dell’azienda in oltre due anni. MDB ha anche acquisito un numero record di nuovi carichi di lavoro dai clienti esistenti nel trimestre.
  • La piattaforma Atlas basata su cloud di MDB è rimasta la star dello spettacolo, con tendenze di consumo davanti alle aspettative. Tuttavia, i consumi rimangono al di sotto dei livelli visti prima del rallentamento macro iniziato l’anno scorso mentre i clienti continuano a esaminare la loro spesa IT. Tuttavia, i giri di Atlas hanno ancora superato la crescita totale delle vendite, saltando del 40% anno/anno e comprendendo il 65% dei giri complessivi, 5 punti in più rispetto al periodo di un anno fa.
  • L’IA sta alimentando una parte significativa della crescita delle vendite di Atlas nel primo trimestre. Ad esempio, oltre 200 nuovi clienti Atlas erano organizzazioni AI o ML (machine learning). La direzione era anche ottimista sul fatto che molte applicazioni esistenti alla fine saranno ri-platformed per essere abilitate all’IA, una ragione convincente per i clienti di migrare ad Atlas.
  • Non sorprende che un punto debole nel primo trimestre derivi dal segmento Enterprise Advanced (EA) di MDB. EA si trova di fronte a confronti anno/anno impegnativi per tutto il FY24, e Q1 non ha fatto eccezione, con i giri EA che rallentano anno/anno. Sul lato positivo, EA ha visto una crescita positiva in sequenza, meglio di quanto MDB previsto nella sua guida del primo trimestre. Tuttavia, la società si aspetta che EA rimanga influenzata negativamente dai confronti sfavorevoli anno/anno per il resto dell’anno.
  • Le ottimistiche proiezioni del secondo trimestre (luglio) e del FY24 di MDB hanno più che compensato il rallentamento della crescita di EA dell’azienda. MDB prevede un EPS rettificato di 0,43-0,46 dollari nel secondo trimestre con una crescita top-line del +28-29% anno/anno. Nel frattempo, MDB ha aumentato i suoi obiettivi FY24, prevedendo guadagni di 1,42-1,56 dollari, da 0,96-1,10 dollari, e giri di 1,52–1,542 miliardi di dollari, da 1,48 dollari-1,51 miliardi di dollari.

MDB ha consegnato un trimestre straordinario, mostrando il suo ruolo significativo nel boom dell’IA. La direzione ha avvertito che l’ambiente macroeconomico rimane volatile e rimarrà consapevole delle condizioni attuali. Tuttavia, come abbiamo detto lo scorso trimestre, MDB si sta posizionando per il successo a lungo termine, specialmente se l’IA offre la prossima frontiera della produttività degli sviluppatori, poiché MDB può capitalizzare su un arretrato di progetti che le organizzazioni vorrebbero intraprendere ma attualmente non hanno la capacità di perseguire.


01/06/23 Fugnoli (kairos partners) un invito alla prudenza

SATURNO Fascino e rischi della tecnologia

La Rivoluzione è come Saturno. Essa divora i suoi figli. Pierre Victurnien Vergniaud, brillante avvocato rivoluzionario e deputato girondino alla Convenzione, pronunciò questa celebre frase durante il processo per tradimento che gli fu intentato nel 1793 e che lo portò, quarantenne, alla ghigliottina.

Anche la tecnologia è come Saturno. Anche la tecnologia divora i suoi figli. Circolano da qualche settimana in Cina le prime Hua Xianzi, auto elettriche alimentate con batterie agli ioni di sodio. Sono più ingombranti delle batterie al litio e permettono un’autonomia limitata a 250-300 chilometri, ma funzionano meglio del litio nei climi freddi. Il punto decisivo, in ogni caso, è che il sodio costa un centesimo del litio.

Il litio non uscirà subito di scena e la transizione sarà graduale. Le attese createsi negli anni scorsi, tuttavia, andranno ridimensionate. Sul litio ci sono state due ondate rialziste, alimentate dalla domanda industriale e da quella speculativa. La prima, nel 2016-17, ha portato al raddoppio del prezzo ed è poi rientrata completamente. La seconda, nel 2020-21, ha decuplicato il prezzo, portandolo a 1200 dollari alla tonnellata. Oggi la quotazione è di 736 dollari.

Non è infrequente che le bolle legate all’innovazione abbiano due o più fasi. Queste fasi sono a volte intervallate da pochi anni (litio, Internet) ma in altri casi le ondate rialziste sono molto più distanziate tra loro, come è stato il caso per le energie rinnovabili.

Nel caso dell’intelligenza artificiale, tutto fa pensare alla possibilità di un processo ancora più lungo e ampio, ma, di nuovo, non lineare. Non lineare, del resto, è stata la stessa storia dell’intelligenza artificiale, che da settant’anni procede per strappi entusiasmanti seguiti, finora, da lunghi inverni di stagnazione.

Rispetto alle bolle tecnologiche del passato, l’intelligenza artificiale ha indubbiamente più potenzialità, sia nel mondo reale sia nella visione dei mercati. La sua caratteristica più interessante non è la pervasività, ovvero il fatto che la sua influenza si eserciterà su tutte le attività produttive. Anche le ferrovie furono pervasive, perché accelerarono l’urbanizzazione e influenzarono l’agricoltura, l’industria e il commercio. Anche Internet è stato pervasivo e lo stesso si può dire per la transizione energetica.

La differenza, questa volta, sta nelle possibilità di sviluppo, che per la scala umana sono praticamente infinite, che il passaggio all’intelligenza artificiale forte e alla superintelligenza, se mai avverrà, potrà comportare.

La Railway Mania, la bolla delle ferrovie, si esaurì nel 1847 non solo perché tutte le bolle, fisiologicamente, si ripiegano su se stesse, ma anche perché, dopo il boom delle costruzioni, di linee ferroviarie in Gran Bretagna cominciavano a essercene troppe. Dal 1850 a oggi sono più le linee ferroviarie inglesi che sono state chiuse di quelle che sono rimaste in esercizio. Anche Internet, una volta portato il collegamento negli angoli più sperduti, sarà destinato a normalizzarsi.

Tutte le bolle legate all’innovazione del passato (commercio coloniale, canali navigabili, ferrovie, scoperte minerarie, telegrafo, radio, energia nucleare, internet, metalli rari) hanno provocato un’allocazione subottimale del capitale e un successivo rapido ridimensionamento dei ritmi di crescita del settore interessato.

Per l’intelligenza artificiale ci sarà sicuramente un’allocazione subottimale del capitale, ma difficilmente ci sarà una fine della sua crescita. Per questo l’AI si presta a fare da madre di tutte le bolle. Anche senza invocare la Singolarità (la teoria dell’accelerazione irreversibile della tecnologia), tutto fa pensare a un forte e duraturo sviluppo.

Non tenere in portafoglio una quota investita su questo tema è molto probabilmente un errore. Buttarsi in modo acritico può essere però un errore ancora maggiore. Per varie ragioni.

  1. I titoli coinvolti dalle bolle, anche sul più affascinante dei temi, restano sensibili a questioni strutturali come la liquidità e il livello dei tassi. Lo sono anzi più degli altri titoli e scendono più della media nelle fasi acute del bear market
  2. Anche un superchip molto potente prodotto da una società può essere un giorno scalzato da un concorrente con migliori prestazioni o minore costo. Lo stesso vale per un linguaggio o, in generale, per un software
  3. Le bolle sono soldi facili e veloci. Si può mettere un gettone a qualsiasi prezzo se si pensa che abbiano ancora delle possibilità. Se però si vogliono investire soldi seri bisogna che le valutazioni, anche volendo accomodare tassi di crescita molto alti, mantengano una logica. Non ci sono regole rigide, ma prima di pagare una società decine di volte il fatturato non sarebbe male rileggere quello che Scott McNealy, fondatore di Sun Microsystems, scrisse nel 2002, due anni dopo lo scoppio della bolla. Due anni fa, dice, quotavamo 10 volte i ricavi. A quel prezzo, per restituirvi il vostro investimento, dovrei pagarvi in dividendi, per 10 anni, il 100 per cento dei ricavi. Dovrei avere zero costi, cosa difficile avendo da pagare 39mila dipendenti. Non dovrei spendere nulla in ricerca e non pagare tasse. Non capite, conclude, quanto siano ridicole queste premesse?

Sun Microsystems, che nel 2000 era arrivata a valere 200 miliardi dell’epoca, fu ceduta a Oracle nel 2009 per 7 miliardi. Era stata un gioiello, aveva spaziato dai supercomputer a Java. Siamo il dot delle dot.com era il suo motto.

Venendo al breve termine, la Fed sta facendo capire in tutti i modi che salterà il rialzo di giugno. Capire che cosa stia succedendo all’economia è difficile. La Germania, alla fine, ha avuto sei mesi di recessione. Lo stesso per l’America, se si guarda al reddito lordo (GDI). Se però si guarda al prodotto lordo (GDP) l’America ha avuto sei mesi di crescita. GDI e GDP dovrebbero essere identici, ma non lo sono. Nel dubbio, la Fed si mette alla finestra, mentre i mercati appaiono incerti. Non ci sono però (ancora) forti ragioni né per scendere né per salire.


01/06/23 Barron’s: Perché il CEO di C3.ai Tom Siebel sta “dichiarando la vittoria” nonostante il calo delle azioni dopo la trimestrale

Eric J. SavitzFollow

Thomas Siebel, amministratore delegato di C3.ai.

Per avere davvero un’idea dell’entusiasmo del mercato – e delle preoccupazioni – sul futuro dell’intelligenza artificiale, non guardare oltre C3.ai -12,62% , che ha il ticker AI.

Il titolo è stato un’astronave quest’anno, terminando il 2022 poco più di 11 dollari, e solo questa settimana scambiato fino a 44 dollari. Anche dopo aver dato indietro alcuni recenti guadagni giovedì mattina, il titolo è più che triplicato finora quest’anno.

Ma, oh, la volatilità. Martedì, C3.ai è aumentato del 33% su una combinazione di mania azionaria dell’IA, un annuncio che il software dell’azienda sarà venduto su un mercato gestito da Amazon +2,15% (AMZN) Servizi Web e alcune brevi coperture.

Poi mercoledì, il titolo ha comprensibilmente rinunciato ad alcuni di quei guadagni, e poi è scivolato del 13% in più giovedì, il giorno dopo che la società ha riportato i risultati finanziari per il trimestre di aprile. Per la settimana, il titolo è circa piatto.

I risultati effettivi del trimestre di aprile hanno offerto poche sorprese: la società aveva pre-annunciato a metà maggio. La guida per l’intero anno di C3.ai è arrivata al di sotto delle stime di Street e le azioni nel trading aftermarket mercoledì sono scese fino al 20%. Ma il CEO Tom Siebel è preoccupato? Sicuramente no.

“Sto dichiarando la vittoria qui”, ha detto Siebel in un’intervista di giovedì mattina con Barron.

“Il nostro business è buono”, ha detto. “Tutti modificano le aspettative. Il titolo non aveva giustificazione di essere dov’era. Il prezzo delle azioni è stato ripristinato a un livello ragionevole. Ora siamo in grado di battere-and-raise, beat-and-raise e beat-and-raise.”

La questione chiave con il rapporto sugli utili è che le prospettive per l’anno fiscale 2024 richiedono una crescita dei ricavi di circa il 15% a metà dell’intervallo, e gli investitori sembrano pensare che l’azienda dovrebbe crescere più velocemente di così. Siebel dice di non preoccuparsi.

“Stiamo mostrando una crescita più veloce di quella del passato? Assolutamente”, dice.

Un altro importante per il settore dell’IA è se Washington fa una grande spinta per regolamentare il software di intelligenza artificiale. Alcuni leader hanno affermato che sarebbe utile per l’industria ottenere una regolamentazione chiara: il CEO di OpenAI Sam Altman lo ha detto in un’audizione del Congresso. Ma Siebel dice che un tale approccio è solo “boxare alle corde” con il Congresso.

Siebel sostiene che cercare di regolamentare i modelli di intelligenza artificiale è l’equivalente di “criminalizzare o fermare la scienza”. Ma Siebel non si oppone a una legislazione ristretta che si concentrerebbe su specifici tipi di abuso dell’IA, affrontando l’uso dei dati personali. Potrebbe esserci una legge specifica contro la “propagazione dei pregiudizi culturali”, per esempio, o per la pubblicazione di un algoritmo che interferisce con le elezioni, dice.

Sul tema della concorrenza, Siebel dice che la maggior parte delle grandi aziende commerciali che lavorano sull’IA generatrice stanno producendo modelli che non sono realmente applicabili alle applicazioni commerciali, dati frequenti errori e altri problemi. L’approccio di C3.ai, nel frattempo, è quello di utilizzare modelli di linguaggio di grandi dimensioni open source: usano un modello dell’unità di AI di Alphabet +0,30%  e combinandoli con dati interni tratti da app aziendali comunemente utilizzate che contengono dati su clienti, prestazioni finanziarie e prodotti.

Siebel ha anche affrontato la questione se stiamo vedendo una bolla nello spazio dell’IA. Il CEO ha sottolineato che quasi tutte le principali innovazioni tecnologiche hanno portato a un periodo di bolla, non solo l’alba dell’era di Internet, ma anche cose come lo sviluppo delle ferrovie continentali nel 19° secolo.

“Le azioni possono essere temporaneamente sopravvalutate”, dice. “C’è un sacco di panna montata in giro. Ma siamo nella prima metà del primo inning con il primo ragazzo alla battuta.”


31/05/23 Forbes: Lisa Su ha salvato AMD. Ora vuole la corona AI di Nvidia

Il CEO di AMD Lisa Su è al numero 34 nella classifica annuale di Forbes delle donne self-made più ricche d’America.

Iain Martin Sono il Forbes Europe News Editor e mi occupo di tecnologia.Richard Nieva Sono uno scrittore senior che si occupa di aziende tecnologiche.

Il CEO di AMD ha orchestrato una dei grandi tournaround nella storia della Silicon Valley, facendo salire il prezzo delle azioni del produttore di semiconduttori morente di quasi 30 volte in meno di un decennio. Adesso si sta preparando per la battaglia nella prossima rivoluzione dell’IA e si aspetta di continuare a vincere.


Da una sala conferenze in cima alla sede centrale di AMD a Santa Clara, in California, un tratto di autostrada 101 che corre all’esterno, Lisa Su presiede un’azienda più vecchia del termine “Silicon Valley”. Lungo la strada c’è un collegamento con il passato dell’azienda, una vecchia fonderia a Sunnyvale dove AMD premeva i suoi chip. Ma dalla sua finestra può vedere una recente pietra miliare nel presente in rapida evoluzione dell’azienda: gli uffici dell’arcinemico Intel, la cui capitalizzazione di mercato (120,3 miliardi di dollari) di AMD ora eclissa (153,5 miliardi di dollari).

Non è sempre stato così. Nel 2014, quando Su, ora 53 anni, ha preso le redini del CEO di AMD (Advanced Micro Devices), il produttore di chip stava affondando. La società aveva licenziato circa un quarto del suo personale e il prezzo delle sue azioni si aggirava intorno ai 2 dollari. Patrick Moorhead, un ex dirigente AMD, lo ricorda come “deader than dead”. Poi Intel ha iniziato a inciampare, trascinata verso il basso dai ritardi di produzione e dalla decisione di Apple di non usare i suoi chip negli iPhone. Svelta nel cogliere le opportunità, Su è stata in grado di capitalizzare i passi falsi del suo rivale, firmando accordi con produttori di laptop come Lenovo e il gigante dei giochi Sony, oltre a Google e Amazon, i cui enormi data center hanno generato 6 miliardi di dollari delle vendite del produttore di chip l’anno scorso.

A 63 miliardi di dollari, le entrate annuali di Intel fanno ancora impallidire i 23,6 miliardi di dollari di AMD. Ma strappando l’ambito quota di mercato dei chip server dal suo vicino della Silicon Valley, oltre a raccogliere la società di semiconduttori Xilinx, ha aumentato le azioni di AMD quasi 30 volte nei nove anni da quando Su ha assunto l’incarico. Ora, con l’integrazione dell’intelligenza artificiale che alimenta la domanda per i cervelli di silicio dietro l’apprendimento automatico, sta affrontando un’opportunità che definisce l’eredità e una sfida incoraggiante: AMD può produrre un chip abbastanza potente da rompere il quasi monopolio di Nvidia sui processori che sostengono la prossima ondata di tecnologia di intelligenza artificiale generativa? “Se guardi a cinque anni”, dice, ” Vedrai l’IA in ogni singolo prodotto di AMD, e sarà il più grande fattore di crescita”.

Su ha overcloccato AMD negli ultimi nove anni, proprio come un giocatore che spinge un processore a funzionare oltre i suoi limiti specificati dal produttore. A differenza di molti dirigenti tecnologici, è una ricercatrice di livello mondiale, con un dottorato di ricerca in ingegneria elettrica presso il MIT. La sua combinazione unica di genio tecnico, competenze umane ed esperienza aziendale l’ha resa tra gli amministratori delegati S&P 500 più pagati negli ultimi anni (compensazione totale 2022: 30,2 milioni di dollari). Nel complesso, ha accumulato una fortuna di 740 milioni di dollari (in gran parte in azioni AMD), ottenendola al 34° posto nella nostra classifica annuale delle donne d’affari più ricche d’America. “Parla di appoggiarsi e ucciderlo”, meraviglia Panos Panay, chief product officer di Microsoft, che ha incontrato per la prima volta Su nel 2014 quando ha iniziato la svolta di AMD.

A differenza di Intel, tuttavia, le cui entrate hanno visto un calo del 12% a 63,1 miliardi di dollari in tre anni, Nvidia appare al top del suo gioco. Oltre a rendere immagini mozzafiato in giochi come Cyberpunk 2077, le sue GPU (unità di elaborazione grafica) sono diventate il motore preferito per le società di intelligenza artificiale come OpenAI, il cui chatbot ChatGPT ha deliziato e disturbato il pubblico rispondendo a domande e comandi con risposte sorprendentemente dettagliate da sembrare umane.
Questi cosiddetti modelli di grandi dimensioni sono davvero solo trucchi da salotto sbalorditivi, ma sono l’atto di apertura per una trasformazione dell’IA che i grandi guru come Bill Gates dicono saranno significativi come l’alba di Internet. C’è già un’enorme domanda per le GPU che le alimentano, e almeno una società di ricerca prevede una bonanza di 400 miliardi di dollari entro il prossimo decennio per le aziende che le producono. Ma in questo momento ce n’è davvero solo uno. “L’AI è uguale a Nvidia”, afferma Glenn O’Donnell, un analista di Forrester. “Questo è abbastanza ben radicato e AMD deve davvero intensificare il suo gioco per superarlo”.
Nel frattempo, lo spettro di Intel incombe ancora in tutta l’autostrada 101, anche se l’O.G. dei PC ha dovuto affrontare ulteriori ritardi di produzione, difetti dei chip e cambiamenti di leadership. “Ci sono molte grandi cose su AMD, ma la cosa brutta è che abbiamo due concorrenti di livello mondiale”, afferma il dirigente AMD Forrest Norrod, che ha aiutato Dell a costruire la sua attività di data center da circa 10 miliardi di dollari (entrate 2014) in parte su chip AMD e aggiunge che l’azienda non presume mai che il suo principale rivale lascerà che i problemi si in “Presumomo sempre che Intel lo risolverà”

QUANDO SU È STATA promossa Ceo di AMD nel 2014, gli analisti definivano l’azienda “non investibile”, con 2,2 miliardi di dollari di debito. Alcuni dei suoi beni pregiati venivano già venduti per parti. Il suo stabilimento di fabbricazione dove vengono incisi i chip (“fabs”, in termini di settore) era stato scorporato nel 2009, un colpo al famigerato vanto del cofondatore di AMD Jerry San­ders secondo cui “gli uomini veri hanno fabs”. Ha anche dovuto vendere e affittare il suo campus aziendale, ad Austin, in Texas, l’attuale base di Su, nel 2013.

Più preoccupante, AMD stava lottando per l’esecuzione. Non poteva rispettare le scadenze dei prodotti e Intel ha dominato tutto tranne la fine dell’affare del mercato dei laptop con Nvi­dia, Qualcomm e Samsung che si sono ritagliati il nuovo business degli smartphone. “La nostra tecnologia non era competitiva all’epoca”, ammette Su.

AMD non era sempre stato un tale mal di testa per gli investitori. Sanders ha fatto irruzione nel settore dei microprocessori producendo chip per IBM nei primi anni ’80, ma le cose hanno iniziato a cambiare alla fine degli anni ’90 e all’inizio degli anni 2000. AMD, che era stata una perenne seconda scelta, ha iniziato a generare profitti record costruendo i propri processori che battevano Intel sulla velocità.

Nel 2014, quei giorni di gloria erano lontani. Come circa un quarto del personale di AMD, licenziato dal predecessore di Su, Rory Read (Sanders si è dimesso da CEO nel 2002). AMD una volta aveva comandato circa un quarto del mercato dei chip server da 24 miliardi di dollari, ma la sua quota è svanita al 2% nel 2014. Il suo secondo giorno come CEO, Su h parlato ai dipendenti demoralizzati di AMD: “Credo che possiamo costruire il meglio”, ricorda di aver detto al suo staff. “Potresti pensare che fosse ovvio, ma non era per l’azienda in quel momento”.

A quell’incontro annunciò il suo piano su tre fronti per risolvere AMD: creare ottimi prodotti, approfondire la fiducia dei clienti e semplificare l’azienda. “Tre cose, solo per mantenerlo semplice”, dice. “Perché se sono cinque o dieci, è difficile”.

Su ha rifocalizzato i suoi ingegneri sulla costruzione di chip Intel-beating, ma possono volerci anni ai progettisti di chip per elaborare un progetto finale praticabile. La quota di AMD nel mercato dei server è scesa ulteriormente, a mezzo percento, mentre i ricercatori lavoravano in laboratorio. “All’epoca, l’azienda non stava andando bene, ma santo, stavano lavorando al design più eccitante del settore”, dice. “Gli ingegneri sono motivati dai prodotti e mi piace tenerlo davanti e al centro”.

La sua decisione di dare la priorità a una nuova architettura di chip chiamata Zen ha dato i suoi frutti quando è stata finalmente lanciata nel 2017. “È stato davvero buono”, dice con orgoglio palpabile, aggiungendo che Zen potrebbe calcolare più del 50% più velocemente dei progetti precedenti dell’azienda. Ancora più importante, ha segnalato all’industria che AMD aveva girato l’ angolo. Con la terza generazione di Zen, rilasciata nel 2020, è stata leader di mercato in termini di velocità. L’architettura Zen ora è alla base di tutti i processori AMD.

Con il suo team che guida una nuova generazione di chip, Su ha fatto la strada per venderli duramente ai clienti del centro dati stanchi. Aveva già trascorso anni a costruire relazioni anche quando AMD non aveva chip da vendere, una volta guidando più di quattro ore attraverso una tempesta di ghiaccio del Texas per incantare Antonio Neri, ora CEO di Hewlett Packard Enterprise. “Eri, diciamo, disincantato dalla generazione precedente di AMD”, dice Neri. “Mi ha mostrato di avere la convinzione di ciò che doveva essere fatto”.

Gran parte della strategia di Su era firmare nuovi accordi con i giganti della tecnologia, che avevano bisogno di un sacco di CPU per alimentare le loro attività cloud in crescita esplosiva. “Per noi, ci sono davvero tre partner di microprocessori. Abbiamo Nvidia, Intel, AMD”, afferma Thomas Kurian, CEO di Google Cloud. “AMD, quando mi sono unito, non era affatto una parte significativa del nostro ecosistema. Ed è un merito a Lisa che siano un partner molto importante per noi ora.”

Lo scorso febbraio, quando la capitalizzazione di mercato di AMD ha superato per la prima volta quella di Intel, il cofondatore della società Sanders, ora 86 anni, era estatico. “Ho chiamato tutti quelli che conosco!” lui dice. “Eri delirio. Mi dispiace solo che Andy Grove non sia più’ n giro, quindi non gli posso dire “ti ho battuto!” ” (Grove, il leggendario ex CEO di Intel, è morto nel 2016.)

SU, LA FIGLIA di un matematico e di un contabile diventato imprenditore, è nata a Tainan, Taiwan, nel 1969, lo stesso anno in cui Sanders ha fondato AMD. La sua famiglia è emigrata a New York quando aveva 3 anni. Ha scelto l’ingegneria elettrica al Massachusetts Institute of Technology perché sembrava essere la specializzazione più difficile. Per qualcuno così tecnicamente talentuoso, era anche brava con le persone, facendo la paciera quando sono divamparsi i disaccordi tra altri studenti, dice Hank Smith, che all’epoca gestiva il laboratorio di nanostrutture del MIT.

Su ride dopo essersi sentita descritta come una persona socievole. “Beh, questo è rispetto ad altre persone del MIT”, scherza. “Non credo che nessuno direbbe che sono una estroversa, ma la comunicazione è una parte enorme del mio lavoro”.

Dopo un breve periodo alla Texas Instruments, nel 1995 è stata assunta come ricercatrice del personale presso IBM, dove ha contribuito a progettare chip che funzionano il 20% più velocemente utilizzando semiconduttori con circuiti in rame invece del tradizionale alluminio. I pezzi grossi hanno rapidamente individuato il suo talento: nel 1999, un anno dopo il lancio della tecnologia del rame, l’allora CEO di IBM, Lou Gerstner, l’ha scelta come suo assistente tecnico. Nella sua prima intervista in 20 anni, Gerstner dice a Forbes che inizialmente temeva che Su fosse troppo giovane per il lavoro, ma i suoi dubbi sono stati rapidamente seduti. “Ha dimostrato di essere una delle dipendenti più eccezionali che hanno lavorato nel mio ufficio. Lisa non segue schemi normali: li ha fatti saltare in aria per tutta la sua carriera.”

Quella nomina ha dato a Su un posto in prima fila per una svolta aziendale che ora è un classico caso di studio della business school, un ringiovanimento acceso, in parte, appoggiandosi alla scala dell’azienda e creando una cultura dedicata ai clienti. Gerstner ha fatto crescere la capitalizzazione di mercato di IBM in stallo di quasi sei volte nella sua corsa di quasi nove anni. Su ha anche avuto un gusto per l’accordo, aiutando IBM a firmare un accordo congiunto con Sony e Toshiba nel 2001 per mettere i suoi chip nella PlayStation 3 di Sony.

All’inizio, a volte si preoccupava di non essere qualificata per sedersi a tavoli pieni di pesi massimi aziendali, ma Su si rese presto conto che il suo acume tecnico duramente imparato le dava un vantaggio rispetto ai tipi di executive-track. “Ho visto che il dottorato del MIT ha lavorato per gli MBA di Harvard, e la verità è che non aveva assolutamente senso per me”, ha detto in un discorso di laurea del 2017 alla sua alma mater, il cui nuovo laboratorio nanotecnologio ora porta il suo nome.

Alla fine del 2011, Nick Donofrio, all’epoca membro del consiglio di amministrazione di AMD che Su aveva incontrato presso IBM, ha chiamato il suo vecchio protetto, che da allora era vicepresidente senior di Free-scale, il produttore di chip con sede ad Austin che ora fa parte di NXP Semiconductors. I due si sono incontrati per cena, e sopra una bottiglia di Brunello, ha fatto il suo passo: un’opportunità non solo per inseguire miglioramenti incrementali, ma per reinventare e innovare, con la copertura del terreno per farlo davvero.

Pochi giorni dopo, Su ha accettato un ruolo come vicepresidente senior delle business unit globali di AMD. Due anni dopo l’inizio, gestiva l’intera azienda, rendendola la prima donna amministratore delegato di una grande azienda di semiconduttori.

“Camminavo in stanze dove c’erano, tipo, 25 persone, e avrei potuto essere l’unica donna”, ricorda dei suoi primi giorni di ingegneria. “Quello di cui sono veramente entusiasta sono le giovani donne ingegnere, dando loro responsabilità in progettazione”.

Quando Su ha preso il sopravvento per la prima volta, è volata a Beverly Hills e ha chiesto personalmente a Sanders di AMD di parlare con la sua squadra. Sanders dice di essere stato toccato dall’offerta di Su, ma ha rifiutato. “Non è la mia squadra ora. È la tua squadra”, le ricorda di averle detto. Sempre il venditore, però, ha anche fatto una controofferta: avrebbe fatto la visita una volta che l’azienda aveva raggiunto due anni di redditività. Nel 2019, in coincidenza con il 50° anniversario dell’azienda, Sanders ha mantenuto quella promessa.

Il genio dei semiconduttori Mark Papermaster, che ha guidato i team di ingegneria di iPhone e iPod di Apple e che era entrato in AMD più o meno nello stesso periodo di Su, è stato un acuto osservatore del notevole ritorno dell’azienda sotto la sua guida. In Apple, Papermaster aveva lavorato per un altro abile artista di turnaround: il cofondatore Steve Jobs, che ha salvato l’azienda dalla catastrofe e l’ha messa sul percorso che l’avrebbe reso l’azienda più preziosa del mondo. “Quello che Lisa aveva, in diversi modi, era un compito ancora più difficile”, dice Papermaster. “Quando non sei un fondatore, devi stabilire la tua credibilità e la tua visione e portare con te l’intera azienda, i tuoi clienti e i tuoi investitori”.

Il successo di Su in AMD l’ha resa un’ispirazione per i giovani ingegneri e un’eroina per gli investitori. L’ha anche trasformata in un meme: alcuni anni fa, le animazioni a 8 bit in cui Su utilizza i chip Ryzen di AMD per trasformarsi in un supereroe o sparare laser dai suoi occhi sono diventate virali su Twitter. Una sua statuetta vestita di armatura arancione-and-red, casco al suo fianco, appare in modo prominente sul suo scaffale dell’ufficio, un regalo di un fan alla conferenza di gioco E3. “Questo è probabilmente uno dei momenti più divertenti della mia carriera”, dice Su, che, pur essendo un appassionato utente di Twitter e Reddit, non è “grande di meme. Non fa per me.”

ORA CHE SU ha rinnovato e dato energia ad AMD, si concentra sul garantire il suo futuro in un mercato altamente competitivo. Mentre ricostruiva diligentemente la sua attività, il cofondatore e CEO di Nvidia Jensen Huang stava lavorando duramente per rendere la sua azienda il fornitore di riferimento per la potenza di calcolo dell’intelligenza artificiale.

Huang, che è un lontano parente di Su, vede una miniera d’oro nella vendita dei chip a strumenti di intelligenza artificiale come Chat­GPT. La domanda ha già catapultato il prezzo delle azioni di Nvidia al massim storici coon un P/E in avanti di circa 64x, quasi il doppio di AMD. “È per questo che gli investitori stanno guardando AMD: perché vogliono la Nvidia del povero”, dice Stacy Rasgon, analista di Bernstein. “Forse il mercato è così grande che non hanno bisogno di essere competitivi”.

Ma Su intende che lo sia. E spera di affrontare le GPU H100 incentrate sull’IA di Nvidia scommettendo su aggiornamenti annuali del chip destinati a rendere la posizione di AMD. Sotto la sua guida, la spesa per R&S è aumentata di quasi quattro volte, a 5 miliardi di dollari, quasi quanto l’intera entrata di AMD quando è subentrata.

Un nuovo supercomputer all’Eak Ridge National Laboratory del Tennessee, il più veloce al mondo quando è stato completato nel 2022, è il progetto di passione di Su. La macchina rivoluzionaria è stata costruita per avere la potenza di elaborazione di almeno un quintillion di calcoli al secondo ed è una vetrina per i chip AI di AMD. Sta anche lanciando una palla curva: il chip MI300, che fonde le CPU con le GPU nel tentativo di contrastare il nuovo superchip di Nvidia, verrà spedito entro la fine dell’anno.

Ha anche manovrato contro Nvidia con acquisizioni, come la sua acquisizione da 48,8 miliardi di dollari nel 2022 di Xilinx, una società che produce processori programmabili che aiutano ad accelerare attività come la compressione video. Come parte dell’accordo, Victor Peng, ex CEO di Xilinx, è diventato presidente di AMD e leader della strategia AI.

Oltre a Nvidia nascondono altre minacce emergenti: alcuni dei clienti di AMD hanno iniziato a fare il proprio sviluppo di chip, una mossa progettata per mitigare la loro dipendenza dai giganti dei semiconduttori. Amazon, per esempio, ha progettato un chip server nel 2018 per la sua attività AWS. Google ha trascorso quasi un decennio a sviluppare i propri chip AI, soprannominati Tensor Processing Units, per aiutare a “leggere” i nomi dei cartelli catturati dalle sue telecamere Street View itineranti e fornire la potenza dietro il chatbot Bard dell’azienda. Anche Meta ha in programma di costruire il proprio hardware AI.

Su si scrolla di dosso le preoccupazioni che i suoi clienti potrebbero un giorno essere concorrenti. “È naturale”, dice, che le aziende vogliano costruire i propri componenti mentre cercano efficienze nelle loro operazioni. Ma pensa che possano fare solo così tanto senza l’esperienza tecnica che AMD ha costruito nel corso dei decenni. “Penso che sia improbabile che qualcuno dei nostri clienti replichi quell’intero ecosistema”.

Su è in una buona posizione per fare una corsa al mercato dei chip AI. Ma sa bene quanto velocemente i turnaround possono diventare delle cadute. C’è ancora molto lavoro da fare per garantire che AMD resista: “Penso che ci sia un’altra fase per AMD. Abbiamo dovuto dimostrare che eravamo una buona compagnia. Penso che l’abbiamo fatto. Dimostrando, ancora una volta, che sei grande e che hai un’eredità duratura di ciò che stai contribuendo al mondo, questi sono problemi interessanti per me.”


30/05/23 Twitter di Gary Black su NVIDIA

Gary Black è il famoso gestore di un fondo tecnologico


29/05/23 The Economist: Nvidia non è l’unica azienda che guadagna per la corsa all’oro dell’IA

Un edificio RETTANGOLARE GRIGIO alla periferia di San Jose ospita file su file di macchine lampeggianti. Grovigli di fili colorati collegano server di fascia alta, apparecchiature di rete e sistemi di archiviazione dati. Le ingombranti unità di aria condizionata ronziono sopra la testa. Il rumore costringe i visitatori a gridare.

L’edificio appartiene a Equinix, una società che affitta lo spazio del data center. L’attrezzatura all’interno appartiene alle aziende, dai giganti aziendali alle startup, che la usano sempre più per gestire i loro sistemi di intelligenza artificiale (AI). La corsa all’oro dell’IA, stimolata dalla sorprendente sofisticazione di sistemi “generativi” come ChatGPT, un conversatore virtuale di successo, promette di generare ricchi profitti per coloro che sfruttano il potenziale della tecnologia. Come nei primi giorni di qualsiasi corsa all’oro, però, sta già coniando fortune per i venditori delle scelte e delle pale richieste.

Il 24 maggio Nvidia, che progetta i semiconduttori di scelta per molti server AI, ha battuto le previsioni di entrate e profitto degli analisti per i tre mesi fino ad aprile. Si aspetta vendite di 11 miliardi di dollari nel suo trimestre attuale, la metà di quanto previsto da Wall Street. Mentre il suo prezzo delle azioni è sferato del 30% il giorno successivo, il valore di mercato dell’azienda ha flirtato con 1 trilione di dollari. L’amministratore delegato di Nvidia, Jensen Huang, ha dichiarato il 29 maggio che il mondo è “il punto di svolta di una nuova era informatica”.

Altre aziende di chip, da colleghi designer come AMD a produttori come TSMC di Taiwan, sono state travolto dall’eccitazione dell’IA. Quindi hanno i fornitori di altre infrastrutture informatiche, che includono tutto, da quei cavi colorati, unità di aria condizionata rumorose e spazio del data-center al software che aiuta a eseguire i modelli di intelligenza artificiale e a organizzare i dati. Un indice ugualmente ponderato di 30-odd tali società è aumentato del 40% dal lancio di ChatGPT a novembre, rispetto al 13% dell’indice NASDAQ tech-heavy (vedi grafico). “Sta emergendo un nuovo stack tecnologico”, riassume Daniel Jeffries della AI Infrastructure Alliance, un gruppo di lobby.

A prima vista, i gadget dell’IA sembrano molto meno eccitanti degli intelligenti “grandi modelli linguistici” dietro ChatGPT e la sua serie di rivali in rapida espansione. Ma mentre i modellisti e i creatori di applicazioni che si arrovellano su quei modelli si contendono una fetta della futura torta AI, hanno tutti bisogno di potenza di calcolo nel qui e ora, e molto di esso.

Gli ultimi sistemi di intelligenza artificiale, incluso il tipo generativo, sono molto più intensivi di calcolo rispetto a quelli più vecchi, per non parlare delle applicazioni non AI. Amin Vahdat, capo dell’infrastruttura AI di Google Cloud Platform, il braccio cloud-computing del gigante di Internet, osserva che le dimensioni dei modelli sono cresciute in modo esponenziale ogni anno negli ultimi sei anni. GPT-4, l’ultima versione di quella che alimenta ChatGPT, analizza i dati utilizzando forse parametri 1trn, più di cinque volte il suo predecessore. Man mano che i modelli crescono in complessità, le esigenze computazionali per addestrarli aumentano di conseguenza.

Una volta addestrate, le IA richiedono meno capacità di number-crunching per essere utilizzate in un processo chiamato inferenza. Ma data la gamma di applicazioni in offerta, l’inferenza richiederà, cumulativamente, anche un sacco di oomph di elaborazione. Microsoft ha più di 2.500 clienti per un servizio che utilizza la tecnologia di OpenAI, il creatore di ChatGPT, di cui il gigante del software ne possiede quasi la metà. Questo è aumentato di dieci volte dal trimestre precedente. La società madre di Google, Alphabet, ha sei prodotti con 2 miliardi o più utenti a livello globale e prevede di potenziarli con l’IA generativa.

I vincitori più ovvi dell’emergente domanda di potenza di calcolo sono i produttori di chip. Aziende come Nvidia e AMD ottengono un commissione di licenza ogni volta che i loro progetti vengono incisi sul silicio da produttori come TSMC per conto dei clienti finali, in particolare i grandi fornitori di cloud computing che alimentano la maggior parte delle applicazioni di intelligenza artificiale. L’IA è quindi un vantaggio per i progettisti di chip, poiché beneficia di chip più potenti (che tendono a generare margini più elevati) e più di loro. UBS, una banca, prevede che nei prossimi uno o due anni l’IA aumenterà la domanda di chip specializzati noti come unità di elaborazione grafica (GPU) di 10 miliardi di dollari-15 miliardi di dollari.

Di conseguenza, le entrate annuali dei data center di Nvidia, che rappresentano il 56% delle sue vendite, potrebbero raddoppiare. AMD rilarà fuori una nuova GPU entro la fine dell’anno. Sebbene sia un giocatore molto più piccolo nel gioco di progettazione GPU rispetto a Nvidia, la portata del boom dell’IA significa che l’azienda è pronta a beneficiare “anche se ottiene solo la feccia” del mercato, afferma Stacy Rasgon di Bernstein, un broker. Le startup di chip-design focalizzate sull’intelligenza artificiale, come Cerebras e Graphcore, stanno cercando di farsi un nome. PitchBook, un fornitore di dati, conta circa 300 di queste aziende.

Naturalmente, parte della manna si poserà anche sui produttori. Ad aprile il capo del TSMC, C.C. Wei, ha parlato con cautela di “aumento incrementale della domanda legata all’IA”. Gli investitori sono stati piuttosto più entusiasti. Il prezzo delle azioni della società è aumentato del 10% dopo gli ultimi guadagni di Nvidia, aggiungendo circa 20 miliardi di dollari alla sua capitalizzazione di mercato. I beneficiari meno evidenti includono anche le aziende che consentono di confezionare più chip in un’unica unità di elaborazione. Besi, un’azienda olandese, produce gli strumenti che aiutano a legare insieme i chip. Secondo Pierre Ferragu di New Street Research, un’altra società di analisti, la società olandese controlla tre quarti del mercato per il bonding ad alta precisione. Il prezzo delle sue azioni è salito di oltre la metà quest’anno.

UBS stima che le gpus costituiscono circa la metà del costo dei server AI specializzati, rispetto a un decimo per i server standard. Ma non sono l’unico equipaggiamento necessario. Per funzionare come un singolo computer, anche le GPU di un centro dati devono parlare tra loro.

Questo, a sua volta, richiede apparecchiature di rete sempre più avanzate, come switch, router e chip specializzati. Il mercato di tali kit dovrebbe crescere del 40% all’anno nei prossimi anni, a quasi 9 miliardi di dollari entro il 2027, secondo 650 Group, una società di ricerca. Nvidia, che concede anche la licenza di tale kit, rappresenta il 78% delle vendite globali. Ma anche concorrenti come Arista Networks, un’azienda californiana, stanno ricevendo uno sguardo dagli investitori: il suo prezzo delle azioni è aumentato di quasi il 70% nell’ultimo anno. Broadcom, che vende chip specializzati che aiutano le reti a funzionare, ha affermato che le sue vendite annuali di tali semiconduttori quadruplicherebbero nel 2023, a 800 milioni di dollari.

Il boom dell’IA è anche una buona notizia per le aziende che assemblano i server che vanno nei data center, osserva Peter Rutten di IDC, un’altra società di ricerca. Dell’Oro Group, un’altra società di analisti, prevede che i data center di tutto il mondo aumenteranno la quota di server dedicati all’intelligenza artificiale da meno del 10% oggi a circa il 20% entro cinque anni, e che la quota del kit della spesa in conto capitale dei data center per i server aumenterà da circa il 20% di oggi al 45%.

Ciò andrà a beneficio di produttori di server come Wistron e Inventec, entrambi di Taiwan, che producono server personalizzati principalmente per fornitori di cloud giganti come Amazon Web Services (AWS) e Azure di Microsoft. Anche i produttori più piccoli dovrebbero fare bene. I capi di Wiwynn, un altro produttore di server taiwanese, hanno recentemente affermato che i progetti relativi all’IA rappresentano più della metà del loro attuale portafoglio ordini. Super Micro, un’azienda americana, ha affermato che nei tre mesi fino ad aprile i prodotti AI hanno rappresentato il 29% delle sue vendite, rispetto a una media del 20% nei 12 mesi precedenti.

Tutto questo hardware AI richiede un software specializzato per funzionare. Alcuni di questi programmi provengono dalle aziende hardware; la piattaforma software di Nvidia, chiamata CUDA, consente ai clienti di sfruttare al meglio le sue GPU, per esempio. Altre aziende creano applicazioni che consentono alle aziende AI di gestire i dati (Datagen, Pinecone, Scale AI) o di ospitare modelli linguistici di grandi dimensioni (HuggingFace, Replicate). PitchBook conta circa 80 startup di questo tipo. Più di 20 hanno raccolto nuovo capitale finora quest’anno; Pinecone conta Andreessen Horowitz e Tiger Global, due giganti del capitale di rischio, come investitori.

Come per l’hardware, i principali clienti di molto di questo software sono i giganti del cloud. Insieme Amazon, Alphabet e Microsoft prevedono di intraprendere una spesa di capitale di circa 120 miliardi di dollari quest’anno, rispetto ai 78 miliardi di dollari del 2022. Gran parte di questo andrà all’espansione della loro capacità cloud. Anche così, la domanda di calcolo dell’IA è così alta che anche loro stanno lottando per tenere il passo.

Ciò ha creato un’apertura per gli sfidanti. Negli ultimi anni IBM, Nvidia ed Equinix hanno iniziato a offrire l’accesso alle GPU “come servizio”. Anche le startup cloud incentrate sull’IA stanno proliferando. A marzo uno di loro, Lambda, ha raccolto 44 milioni di dollari da investitori come Gradient Ventures, una delle armi venture di Google, e Greg Brockman, cofondatore di OpenAI. L’accordo ha valutato l’azienda a circa 200 milioni di dollari. Una società simile, CoreWeave, ha raccolto 221 milioni di dollari ad aprile, anche da Nvidia, con una valutazione di 2 miliardi di dollari. Brannin McBee, co-fondatore di CoreWeave, sostiene che un focus sul servizio clienti e sull’infrastruttura progettata attorno all’IA lo aiutano a competere con i giganti del cloud.

L’ultimo gruppo di vincitori di AI-infrastructure è più vicino a fornire pale reali: i proprietari di data-center. Con l’aumento della domanda di cloud computing, le loro proprietà si stanno riempiendo. Nella seconda metà del 2022 i tassi di posti vacanti nei data center si sono attestati al 3%, un minimo record. Specialisti come Equinix o il suo rivale, Digital Realty, competono sempre più con i grandi gestori patrimoniali, che sono desiderosi di aggiungere data center ai loro portafogli immobiliari. Nel 2021 Blackstone, un gigante dei mercati privati, ha pagato 10 miliardi di dollari per QTS Realty Trust, uno dei più grandi operatori di data center americani. Ad aprile Brookfield, il rivale canadese di Blackstone che ha investito molto nei data center, ha acquistato Data4, una società francese di data center.

La continua crescita dello stack dell’infrastruttura AI potrebbe ancora scontrarsi con vincoli. Uno è l’energia. Un grande investitore nei data center osserva che l’accesso all’elettricità, di cui i data center sono utenti prodigiosi, dovrebbe rallentare lo sviluppo di nuovi data center in hub come la Virginia settentrionale e la Silicon Valley. Un altro potenziale blocco è un passaggio da vasti modelli di intelligenza artificiale e inferenza basata su cloud a sistemi più piccoli che richiedono meno potenza di calcolo per allenarsi e possono eseguire inferenza su uno smartphone, come nel caso della versione ridimensionata del suo modello PaLM recentemente svelata da Google.

Il più grande punto interrogativo incombe sulla permanenza del boom dell’IA stesso. Nonostante la popolarità di ChatGPT e dei suoi altri, i casi d’uso redditizi per la tecnologia rimangono poco chiari. Nella Silicon Valley, l’hype può trasformarsi in delusione su un centesimo. Il valore di mercato di Nvidia è aumentato nel 2021, poiché le sue GPU si sono rivelate perfette per il mining di bitcoin e altre criptovalute, poi sono crollate mentre il boom delle criptovalute si è trasformato in un fallimento.

E se la tecnologia è all’altezza della sua fatturazione trasformativa, i regolatori potrebbero reprimere. I responsabili politici di tutto il mondo, preoccupati per il potenziale dell’IA generativa di eliminare i posti di lavoro o diffondere disinformazione, stanno già rimuginando sui guardrail. In effetti, l’11 maggio i legislatori dell’UE hanno proposto una serie di regole che limiterebbero i chatbot.

Tutti questi fattori limitanti possono rallentare l’implementazione dell’IA e, così facendo, smorzare le prospettive per le aziende di infrastruttura AI. Ma probabilmente solo un po’. Anche se l’IA generativa non si rivela così trasformativa come sostengono i suoi booster, sarà quasi certamente più utile delle criptovalute. E ci sono molte altre IA non-generative che hanno anche bisogno di molta potenza di calcolo. A dir poco un divieto globale sull’IA generativa, che non è all’orizzonte, rischia di fermare la corsa all’oro. E finché tutti si affrettano, i venditori ambulanti di picche e pale incasseranno.

Per rimanere aggiornato sulle più grandi storie del mondo degli affari e della tecnologia, iscriviti a Bottom Line, la nostra newsletter settimanale per soli abbonati.


29/05/23 Barron’s: Il nuovo supercomputer AI di Nvidia è un punto di svolta. Google, Meta e Microsoft saranno i primi utenti.

Tae KimFollow

L’ultimo supercomputer AI di Nvidia è alimentato da 256 di questi chip Grace Hopper.

Le applicazioni di intelligenza artificiale generativa riceveranno presto un enorme aumento della potenza di calcolo.

Lunedì, Nvidia (ticker: NVDA) ha annunciato il suo nuovo supercomputer DGX GH200 AI alimentato da 256 GH200 Grace Hopper Superchips. Sono un sacco di lettere e numeri, ma le specifiche sono ciò che conta di più.

Il nuovo sistema DGX consentirà la prossima generazione di applicazioni di intelligenza artificiale generativa grazie alle sue dimensioni di memoria più grandi e alle capacità di modello su larga scala. Un dirigente ha detto durante una videoconferenza con i giornalisti venerdì. Il DGX GH200 avrà quasi 500 volte la memoria del sistema DGX A100 di Nvidia.

“I supercomputer DGX GH200 AI integrano le più avanzate tecnologie di elaborazione accelerata e di rete di NVIDIA per espandere la frontiera dell’IA”, ha detto il CEO di Nvidia Jensen Huang durante il suo discorso di apertura COMPUTEX a Taiwan.

I chip Nvidia hanno un’elevata esposizione all’IA generativa, che è stata di tendenza dal rilascio di ChatGPT da parte di OpenAI alla fine dello scorso anno. La tecnologia assorbe testo, immagini e video in modo brute-force per creare contenuti.

I chatbot come ChatGPT usano un modello linguistico che genera risposte umane, o le loro migliori ipotesi, basate sulle relazioni di parole trovate digerendo ciò che è stato precedentemente scritto su Internet o da altre forme di testo.

Nvidia si aspetta che il suo nuovo supercomputer consentirà agli sviluppatori di costruire modelli linguistici migliori per chatbot AI, algoritmi di suggerimento complessi e creare un rilevamento delle frodi e analisi dei dati più efficaci.

Il DGX GH200 incorpora 256 Superchip GH200. Ogni Superchip ha una GPU, il che significa che il DGX GH200 avrà 256 GPU rispetto a 8 GPU del modello precedente.

Esistono due tipi di chip logici: unità di elaborazione centrale (CPU) che fungono da principali cervelli di calcolo per PC/server e unità di elaborazione grafica (GPU) che vengono utilizzate per i giochi e i calcoli AI.

Nvidia ha detto che Google Cloud, Meta (META) e Microsoft (MSFT) di Alphabet (GOOGL) saranno tra le prime aziende ad accedere al DGX GH200 per esplorare le sue capacità per l’IA generazionale. Il sistema dovrebbe essere disponibile entro la fine del 2023. L’azienda non ha fornito un prezzo.

Nvidia ha anche annunciato che il GH200 Grace Hopper Superchip era entrato in piena produzione. Il Superchip collega la CPU Grace di Nvidia e la GPU Hopper utilizzando la sua tecnologia di connessione NVLink.

Giovedì, le azioni Nvidia sono balse del 24% al giorno dopo che la società ha fornito una previsione delle entrate per il trimestre in corso che era nettamente al di sopra delle aspettative di Wall Street. La direzione dell’azienda ha affermato che il rialzo è venuto dalla domanda sostanziale dei suoi prodotti per centri dati AI da parte di fornitori di cloud computing, grandi società di Internet di consumo, start-up e altre imprese.


25/05/23 IBM mostra che la sua offerta di intelligenza artificiale generativa Full-Stack potrebbe essere una forza da cui fare i conti

Patrick Moorhead

Quando pensi alle aziende leader nell’IA, IBM potrebbe non essere il primo nome che ti viene in mente perché, finora, non è stata coinvolta nella frenesia dell’IA rivolta ai consumatori guidata da OpenAI, Microsoft, Google e altri. Tuttavia, nel corso degli anni, IBM ha contribuito in modo significativo al campo, il più famoso con la piattaforma di calcolo cognitivo IBM Watson. Per un’analisi dettagliata delle abilità di IBM in questo campo, guarda un precedente blog di Moor Insights & Strategy qui.

La recente conferenza annuale Think dell’azienda ha permesso a IBM di mostrare il suo cloud ibrido e le innovazioni di intelligenza artificiale, in particolare l’IA generativa (GAI) di livello aziendale. Questo articolo si tuffa nei punti salienti chiave e nelle mie osservazioni dell’evento.

Immagine1
Arvind Krishna, presidente e CEO di IBM PATRICK MOORHEAD

Cos’è l’IA generazionale?

Restiamo con i piedi per terra in mezzo a tutto il clamore. L’IA generativa (GAI) è una forma di intelligenza artificiale che impiega modelli di apprendimento profondo per generare contenuti basati sull’input dell’utente. GAI utilizza l’apprendimento automatico e gli algoritmi di deep learning per creare vari tipi di contenuti, come testo, immagini, video, audio, musica e codice.

L’ormai famoso ChatGPT, sviluppato da OpenAI, è un esempio di GAI che può fornire risposte scritte dettagliate alle query degli utenti e impegnarsi in conversazioni in corso. Altre aziende come Google e Facebook hanno anche sviluppato strumenti di intelligenza artificiale generativa che producono testo, immagini o codice dall’aspetto autentico.

L’IA generativa funziona addestrandosi su un grande set di dati. I ricercatori inseriscono enormi quantità di dati, come parole, immagini, musica o altri contenuti, in un sistema di apprendimento profondo. Ad esempio, i dati di formazione originali di ChatGPT, il Codice OpenAI, sono costituiti da oltre 700 GB di dati raccolti da varie fonti come libri, siti web e manuali tecnici. Il sistema impara a identificare e comprendere relazioni complesse attraverso una rete neurale supervisionata premiando i successi e penalizzando gli errori. Nel corso del tempo, con la supervisione umana, il sistema diventa abile nel generare nuovi contenuti.

ChatGPT è uno strumento molto utilizzato dai consumatori; le imprese devono applicare l’IA generazionale con diverse considerazioni chiave in mente. L’accuratezza è fondamentale, poiché le risposte errate dei sistemi di intelligenza artificiale possono essere costose. La scalabilità è un’altra considerazione perché i modelli di intelligenza artificiale di livello aziendale devono essere distribuiti su centinaia o migliaia di endpoint mantenendo la precisione. Una forte governance è anche essenziale per garantire trasparenza e responsabilità e per ridurre al minimo i pregiudizi nei modelli di intelligenza artificiale.

Nel suo keynote, Arvind Krishna, presidente e CEO di IBM, si è concentrato sul cloud ibrido e sull’intelligenza artificiale come due tecnologie trasformative che possono portare un valore aziendale significativo.

Il cloud ibrido è diventato la scelta predominante per le imprese

Krishna ha menzionato uno studio dell’IBM Institute for Business Value (IBV) che ha rilevato che oltre il 75% dei clienti IBM prevede di sfruttare un modello ibrido. Questa scoperta è coerente con la mia previsione di lunga data che l’architettura cloud ibrida sarà la scelta predominante per la maggior parte delle organizzazioni.

La chiave per un cloud ibrido di successo è una piattaforma comune in tutti i cloud, ambienti locali ed edge, che porta a un unico set di competenze, costruito una volta e gestito da un unica consolle. Il nucleo della strategia di IBM è Red Hat OpenShift. Red Hat OpenShift di IBM affronta la sfida creando un livello di contenitore logico che rende i dati e i carichi di lavoro portatili attraverso i cloud.

Man mano che l’approccio del cloud ibrido guadagna slancio e le organizzazioni riconoscono il valore di sfruttare sia i cloud pubblici che quelli privati, Red Hat OpenShift diventerà cruciale per raggiungere la coerenza su più cloud e guidare la crescita di IBM nel mercato del cloud.

L’IA è stata al centro della scena all’evento

Mentre il cloud ibrido è cruciale per la strategia di IBM, l’IA è stata al centro della scena di questo evento. Krishna ha discusso di come l’IA potrebbe migliorare varie aree come le risorse umane, la configurazione dei preventivi, i prezzi, la catena di approvvigionamento e la gestione dell’inventario. L’IA può anche avere un impatto significativo sulle operazioni IT, migliorando lo sviluppo del codice e aumentando la produttività del 40-80%. L’assistenza clienti può essere automatizzata per gestire molte query, fornendo disponibilità e scalabilità 24 ore su 24, 7 giorni su 7. In alcuni casi, fino al 90% del volume dell’assistenza clienti è gestito da agenti AI.

L’IA è anche cruciale nella sicurezza informatica, in quanto può aiutare a classificare e affrontare il grande volume di attacchi che le organizzazioni devono affrontare. Altri tipi di lavoro digitale, tra cui promozioni, movimento dei dipendenti, onboarding e attività di approvvigionamento, possono anche essere automatizzati con l’IA, consentendo alle imprese di scalare le operazioni in modo efficiente.

Krishna ha anche evidenziato i computer quantistici di IBM e la potenziale capacità di affrontare problemi complessi nella tecnologia delle batterie, nel sequestro del carbonio, nel routing del traffico e in altre aree. Ha predetto che l’informatica quantistica sarebbe stata mainstream entro tre o cinque anni.

Una festa di presentazione per l’IA generativa e i modelli fondamentali

Mentre la storia di IBM sul cloud ibrido è ben consolidata, la sua attenzione all’IA è rimasta poco chiara. IBM Think 2023 è stata la festa di coming-out per l’IA generativa e i modelli fondamentali di IBM. Per ulteriori informazioni sull’importanza dei modelli fondamentali, guarda qui.

La piattaforma watsonx, sviluppata negli ultimi tre anni, combina le capacità di intelligenza artificiale, tra cui l’apprendimento automatico, l’apprendimento profondo e i modelli di base. Krishna ha propagandato la sua capacità di consentire alle aziende di sfruttare il potere dell’IA generazionale. La piattaforma è costruita su Red Hat OpenShift, consentendo opzioni di distribuzione flessibili.

watsonx ha tre componenti chiave:

  1. watsonx.ai è un nuovo studio che fornisce un set completo di strumenti per creare nuovi modelli di base, intelligenza artificiale generativa e apprendimento automatico. Offre una maggiore produttività rispetto agli approcci tradizionali, consentendo agli utenti di lavorare con i modelli AI in modo efficiente.
  2. La watsonx.data lake house combina la flessibilità di un data lake e le prestazioni di un data warehouse. Questo componente è un repository centralizzato per archiviare vari tipi di dati, inclusi dati strutturati, non strutturati, semistrutturati e multimodali.
  3. Il toolkit watsonx.governance consente flussi di lavoro AI con responsabilità e trasparenza. Aiuta gli utenti a tenere traccia dei dati utilizzati per addestrare i modelli, comprendere il lignaggio del modello, identificare i pregiudizi e monitorare la deriva del modello. Le aziende possono garantire implementazioni dell’IA affidabili e responsabili consolidando i processi di governance in un’unica piattaforma.

Le imprese devono adottare un approccio AI-first

L’era dell’IA generativa e dei modelli fondamentali costringerà le imprese ad affrontare l’IA in modo diverso. In effetti, il passaggio dalla visione dell’IA come un componente aggiuntivo o un nice-to-have a diventare un’azienda AI-first sarà cruciale per il continuo successo sul mercato. Ogni azienda ora affronta una decisione: diventare AI-first o lasciare che la concorrenza prenda l’iniziativa.

Come esempio di approccio diverso all’IA, l’integrazione delle interfacce AI in applicazioni come SAP consente agli utenti di accedere facilmente alle informazioni attraverso query di linguaggio naturale assistite dall’IA. Sto già vedendo modelli fondamentali che sfruttano i dati aziendali per generare previsioni accurate e che migliorano nel tempo combinando i dati proprietari di un’azienda con informazioni più ampie del settore.

Che tu sia parte di un’azienda di 500 o 50.000 persone, credo che l’attenzione dovrebbe essere sul lavoro digitale (lavoro eseguito da sistemi di automazione dei processi robotici (RPA)) e sfruttare l’IA per attività che possono beneficiare dell’automazione e di una maggiore efficienza.

Concludendo

Il sentimento generale che emerge da Think 2023 è che IBM viene rinnovata e rinvigorita. Seguo IBM da decenni e l’eccitazione che circonda i recenti sviluppi dell’azienda è senza precedenti.

Guarderemo indietro a Think 2023 come un momento cruciale per IBM, evidenziando la leadership in due importanti settori in crescita, il cloud ibrido e l’intelligenza artificiale, proprio come ha promesso Arvind Krishna quando è entrato a far parte di IBM.

Mentre la parte del cloud ibrido aveva più senso, grazie all’acquisizione di Red Hat, avevo ancora domande sulla parte AI. Think 2023 ha ora fatto luce su questo con i suoi riflettori sull’IA generativa e sui modelli fondamentali per l’impresa.

IBM vuole essere il tuo fornitore di riferimento per l’IA generazionale aziendale. L’azienda offre gli strumenti necessari, il livello di dati, la governance e il fabric per costruire i flussi di lavoro necessari, ma la sua velocità di commercializzazione rimane una questione critica.

In conclusione, questo evento è stato una pietra miliare significativa per IBM. Monitorerò da vicino i progressi, soprattutto per quanto riguarda la velocità e la capacità dell’azienda di fornire i miglioramenti della produttività offerti dal cloud ibrido e dall’IA.


25/05/23 Forbes: Perché Oracle è il miglior modo subdolo per cavalcare gli straordinari utili di Nvidia

Jon Markman

Microprocessore AI sul circuito del computer della scheda madre
Le azioni di Nvidia sono aumentate dopo che la società ha riportato forti utili del primo trimestre.GETTY

L’hype dell’intelligenza artificiale (AI) è reale e avrà un impatto duraturo sull’intero settore tecnologico.

I dirigenti di Nvidia (NVDA) martedì hanno riportato forti risultati finanziari del primo trimestre mentre i clienti dei data center chiedevano a gran voce di acquistare i suoi chip AI di fascia alta. Le azioni sono aumentate del 27% questa mattina e non si sono guardate indietro.

La brillante scommessa iniziale di Nvidia sull’IA un decennio fa l’ha resa il leader in questa nuova nicchia estremamente importante, ma ci sono molti altri modi per giocare a questo gioco. Per uno, gli investitori dovrebbero acquistare Oracle . Lascia che ti spieghi.

In questa fase gli investitori capiscono la maggior parte della storia dell’IA Nvidia. L’azienda con sede a Santa Clara, in California, costruisce i chip AI più avanzati al mondo. Ancora più importante, l’azienda governa CUDA, una piattaforma utilizzata sia dagli accademici che dagli sviluppatori di software per costruire complessi modelli di intelligenza artificiale. L’ultima parte è spesso trascurata.

Il potere della presa di Nvidia sullo sviluppo dell’IA all’avanguardia è CUDA. Le menti più brillanti dell’IA si stanno sviluppando sul CUDA. Quella piattaforma dipende dal silicio intelligente Nvidia.

La stima per il secondo trimestre di Nvidia riflette questa realtà.

I dirigenti hanno detto in una dichiarazione mercoledì che le vendite per il prossimo trimestre dovrebbero raggiungere circa 11 miliardi di dollari. Questo numero sorprendente, al di là della sua enorme scala, è del 50% superiore alle aspettative. La guida è una esplosione assoluta, superiore anche alla prospettiva più rialzista di Wall Street.

La chiave è che i clienti dei datacenter non ne hanno mai abbastanza di Nvidia H100, un chip AI di fascia alta. Meglio ancora, non c’è un concorrente attuale a causa di CUDA. C’è una corsa all’oro dell’IA e Nvidia sta vendendo gli unici picconi e pale in città. L’azienda ha un monopolio virtuale.

Questo è ottimo per Nvidia e si riflette nell’aggressivo aumento delle azioni dopo la chiusura di mercoledì. Il titolo è stato scambiato a 394 dollari, il suo livello più alto di sempre e un salto del 164% dal 1° gennaio di quest’anno.

La tesi di investimento di Oracle riguarda i suoi clienti hold-over, l’emergere dell’IA e il suo nuovo rapporto con Nvidia.

Oracle è meglio conosciuta per la sua grande attività di database legacy. Questo software è fondamentale per la tecnologia dell’informazione nella maggior parte delle più grandi imprese del mondo, dalle aziende Fortune 500 ai governi e alle fondazioni private.

Un grande ecosistema di sviluppo di software aziendale e di terze parti si è evoluto negli ultimi cinque decenni. Oracle Cloud Infrastructure consente a questi sviluppatori di creare potenti applicazioni software as a service che vengono eseguite su Oracle Cloud, cloud ibridi dei clienti o ambienti IT on-premise.

Questo ecosistema è il collante che lega i clienti legacy a Oracle.

I dirigenti di Oracle a marzo hanno annunciato un colpo da maestro. La società con sede ad Austin, in Texas, ha collaborato con Nvidia sui cloud AI di prossima generazione. Oltre a portare il silicio Nvidia all’avanguardia all’OCI, l’accordo consentirà a Oracle di rivendere servizi supportati da Nvidia, incluso lo storage ad alte prestazioni alle imprese per le loro esigenze locali.

Tieni presente che Oracle ha una considerevole morsa aziendale e una forza vendita aggressiva. L’azienda dovrebbe essere in grado di sfruttare queste relazioni in nuove significative vendite di intelligenza artificiale.

ORCL_SPXTR_chart
Oracle YCHARTS

Ad un prezzo delle azioni di 98,32 dollari Oracle negozia a 17,6 volte gli utili a termine. Il rapporto prezzo/vendite è 5,5x, ben all’interno della gamma storica. Il titolo è aumentato del 20,2% nel 2023.

Sulla base di un nuovo ciclo di vendita dell’IA, le azioni potrebbero essere scambiate a 122,50 dollari durante i prossimi sei mesi, un guadagno del 24% rispetto ai livelli attuali.


25/05/23 Ferragu: le sue valutazioni su Nvidia

Ricordo che Pierre Ferragu è uno dei più autorevoli analisti del settore tecnologico Usa: mitici i suoi report sulla Tesla dove ne preannunciava il boom. Traduco alcuni suoi Twitter che oggi ha dedicato a Nvidia:

.

$NVDA – alza le stime il prossimo trimestre del 53%, e apre in borsa con un più 25% – dove può andare il titolo da qui? Peccato che non possa dare consigli di investimento qui! Tuttavia, posso ancora parlare di come vediamo l’opportunità di operare sulle azioni dell’azienda.

Le GPU per data center di Nvidia sono nella posizione migliore per catturare la prossima ondata di investimenti nelle infrastrutture per l’ AI. . Hanno una quota di mercato > del 90% oggi e la concorrenza, da giocatori più piccoli o chip interni, può catturare solo una piccola quota dell’opportunità, in quanto mancano dell’ecosistema e delle dimensioni di Nvidia

A nostro avviso, la spesa per le infrastrutture iperscalari dovrebbe aumentare del 20-25% all’anno nel periodo 2022-2027. All’interno di questo, il 65% della spesa incrementale che vediamo va all’intelligenza artificiale, ovvero principalmente alle GPU. Ciò significa che Nvidia Datacenter può crescere del 30-40% annuo in questi 5 anni.

Ciò significa entrate di gruppo di $ 85-100 miliardi nel 2027, con un utile per azione di $ 15-20 . Supponendo che il titolo venga scambiato a 30-35 volte gli utili a termine, significa che potrebbe essere quotare tra $ 450 e 700 nel 2026.

Tutto questo è solo articolare scenari e non incorpora nessuna raccomandazione. Fai le tue ricerche e prendi le tue decisioni…. della serie: siete adulti e vaccinati ergo…


25/05/23 Barron’s: Le azioni Marvell volano sulle stime dei guadagni dell’IA

Tae KimFollow

Le azioni di Marvell sono ammirate del 20% nel trading fuori orario giovedì.Tempo dei sogni

MeravigliaMRVL +7,59% Le azioni tecnologiche sono aumentate dopo aver pubblicato solidi risultati sugli utili e aver fornito una guida leggermente al di sopra delle aspettative di Wall Street.

La società di semiconduttori ha riportato un utile rettificato per azione di 31 centesimi per il trimestre di aprile, rispetto alla stima di consenso di 29 centesimi tra gli analisti di Wall Street monitorata da FactSet. Le entrate sono arrivate a 1,32 miliardi di dollari, che erano al di sopra delle aspettative degli analisti di 1,3 miliardi di dollari.

Anche le prospettive finanziarie della direzione erano solide. Marvell (ticker: MRVL) prevede una gamma di entrate potenziali per il trimestre in corso con un punto medio di 1,33 miliardi di dollari, rispetto alla visione di consenso che le entrate saranno di 1,31 miliardi di dollari.

“L’IA è emersa come un fattore chiave di crescita per Marvell, che stiamo abilitando con i nostri principali prodotti di connettività di rete e l’emergente piattaforma di silicio ottimizzata per il cloud”, ha detto il CEO di Marvell Matt Murphy nel comunicato. “Mentre siamo ancora nelle prime fasi della nostra rampa di intelligenza artificiale, prevediamo che le nostre entrate di intelligenza artificiale nell’anno fiscale 2024 almeno raddoppino rispetto all’anno precedente e continueranno a crescere rapidamente nei prossimi anni”.

Marvell vende un portafoglio di chip e prodotti hardware per i mercati dei centri dati, dell’infrastruttura 5G, delle reti e dello storage.

Le azioni Marvell sono schizzate fino al 20% dopo l’orario di negoziazione di giovedì.


25/05/23 Barron’s: Le azioni Nvidia salgono per le previsioni sulla forte crescita dell’ intelligenza artificiale

Tae Kim

Nvidia –0.49% ha fornito una previsione delle entrate per il trimestre di luglio molto al di sopra delle aspettative, citando l’emergente domanda per i suoi chip che consentono applicazioni di intelligenza artificiale.

Le sue azioni sono schizzate nelle negoziazioni fuori orario.

La società di semiconduttori ha riportato un utile per azione rettificato del trimestre di aprile di 1,09 dollari, rispetto alla stima di consenso di Wall Street di 92 centesimi, secondo FactSet. Le entrate sono arrivate a 7,2 miliardi di dollari, il che era migliore delle aspettative degli analisti di 6,5 miliardi di dollari. Per il trimestre, le entrate di gioco sono diminuite del 38% rispetto a un anno fa, ma le vendite per il suo segmento di data center sono aumentate del 14% grazie alla domanda dell’IA.

La grande notizia sta nelle previsioni. Per il trimestre in corso, Nvidia ha dato un intervallo di previsione delle entrate di 11 miliardi di dollari al punto medio, ben al di sopra del consenso degli analisti di 7,2 miliardi di dollari.

Le azioni Nvidia sono aumentate fino al 24% a 378 dollari dopo il rilascio.

“L’industria informatica sta attraversando due transizioni simultanee: calcolo accelerato e intelligenza artificiale generativa”, ha detto il CEO di Nvidia Jensen Huang nel comunicato stampa. “L’intera famiglia di prodotti per centri dati (H100, Grace CPU, Grace Hopper Superchip, NVLink, Quantum 400 InfiniBand e BlueField-3 DPU) è in produzione. Stiamo aumentando significativamente la nostra offerta per soddisfare la crescente domanda per loro.”

Questi prodotti sono utilizzati per alimentare le ultime applicazioni di intelligenza artificiale che hanno affascinato sia gli investitori che i consumatori.

Nvidia è un produttore leader di chip utilizzati per videogiochi, intelligenza artificiale e applicazioni di cloud computing all’interno dell’hardware di PC e server.

I chip dell’azienda hanno un’elevata esposizione all’IA generatrice, che è stata di tendenza quest’anno. La tecnologia ingeria testo, immagini e video in modo brute-force per creare contenuti. L’interesse per questa forma di intelligenza artificiale è stato suscitato dal rilascio di ChatGPT da parte di OpenAI alla fine dell’anno scorso.

In una conference call con investitori e analisti, la direzione di Nvidia ha affermato di aver visto un’ampia domanda di progetti di intelligenza artificiale generazionale da fornitori di cloud computing, grandi società di Internet di consumo, startup e imprese. La società ha anche affermato di aver ottenuto impegni di approvvigionamento “sostanzialmente più grandi” dai suoi fornitori per la seconda metà del suo anno fiscale per soddisfare la domanda più elevata, rispetto alla prima metà.

In un’intervista telefonica con Barron’s dopo la chiamata, il direttore finanziario Colette Kress ha affermato che la visibilità degli ordini è migliorata durante il trimestre. I clienti stanno dando a Nvidia i loro piani a lungo termine mentre costruiscono nuovi data center, ha detto.

Gli analisti di Wall Street hanno una visione positiva di Nvidia. Circa il 74% ha valutazioni Buy o equivalenti sul titolo, secondo FactSet.

Le azioni Nvidia sono aumentate di oltre il 100% finora quest’anno e di circa il 90% negli ultimi 12 mesi.


22/05/23 Barron’s: Oltre Nvidia: Wall Street offre altri modi per investire nell’IA

Eric J. Savitz

Wall Street sta facendo gli straordinari per sognare più modi per puntare sulla rapida comparsa del software di intelligenza artificiale, che è diventato il nuovo motore principale per le azioni tecnologiche.

Il gestore di portafoglio Brook Dane ha esposto le sue scelte AI preferite durante il fine settimana. Alcune erano scelte sorprendenti come i produttori di chip Marvell Technology +1,70% (ticker: MRVL) e Micron Technology –3.18% (MU), la società di data warehouse cloud Snowflake (SNOW) e il gigante del software di sicurezza Palo Alto Networks +1,91% (PANW).

Ma ci sono molte altre teorie su chi saranno i vincitori. Lunedì, tre società di ricerca di Wall Street hanno valutato i possibili vincitori – e perdenti – dall’IA.

Il più completo di questi nuovi rapporti, con 184 pagine, proviene dall’analista di TD Cowen John Blackledge. Scrive che la tendenza generativa-AI sarà “un cambiamento monumentale”, alla pari con l’adozione di Internet. Cowen sta modellando 81 miliardi di dollari di spesa per software di intelligenza artificiale generazionale nel 2027, un tasso di crescita composto del 190% a 5 anni.

I primi tre investitori in intelligenza artificiale di Cowen sono ovvi: Alphabet (GOOGL), Microsoft (MSFT) e Nvidia +0,22% (NVDA). Alphabet e Microsoft hanno un vantaggio chiaro e precoce nel mercato del software di intelligenza artificiale ed entrambi hanno iniziato ad adottare funzionalità di intelligenza artificiale in tutti i loro portafogli software, andando ben oltre la ricerca. E Nvidia è il chiaro leader nei chip usati per addestrare grandi modelli linguistici. Tutti sono aumentati di più quest’anno.

Blackledge aggiunge altri nomi alla lista, però.

Amazon (AMZN), che sta lavorando su grandi modelli linguistici propri, fornisce un set completo di strumenti di intelligenza artificiale ai clienti di Amazon Web Services e dovrebbe beneficiare dell’aumento della domanda di servizi di cloud computing che l’adozione ampliata dell’IA dovrebbe innescare. E Meta (META) dovrebbe essere un beneficiario, poiché il genitore di Facebook aumenta la spesa per il software generative-AI. In particolare, l’analista ritiene che l’IA dovrebbe aumentare l’efficienza delle vendite pubblicitarie di Meta sui social network dell’azienda.

Blackledge si aspetta anche una spinta per Adobe (ADBE), che sta già mostrando nuovi strumenti di creazione di contenuti generative-AI. La piattaforma di cloud computing di Oracle (ORCL), ha scritto, “ha alcuni vantaggi competitivi rispetto agli operatori storici nel catturare questa prossima ondata di crescita del carico di lavoro cloud” guidata dall’intelligenza artificiale e dall’apprendimento automatico. Altre scelte includono i produttori di chip Advanced Micro Devices (AMD) e Micron, gli operatori di data center Digital Realty Trust (DLR) ed Equinix (EQX) e le azioni di software di sicurezza CrowdStrike (CRWD) e SentinelOne (S).

Analista di Needham N. Quinn Bolton ha offerto una lista diversificata di potenziali vincitori.

Facendo eco a un tema che Dane di Goldman ha sottolineato la scorsa settimana su Barron’s Live, la nota di Needham posiziona l’industria dei chip come “i picconi e le pale” dell’informatica AI. La tendenza dovrebbe guidare la domanda non solo per le GPU di Nvidia, ma anche per sensori, memoria, chip di rete e varie altre parti.

L’elenco dei vincitori di Needham include non solo Nvidia, che considera “l’azienda meglio posizionata” nell’IA, ma anche Micron, Cerence (CRNC), che produce prodotti di assistenza vocale utilizzati nelle auto; la gestione dell’alimentazione gioca Vicor (VICR) e Monolithic Power (MPWR); e produttori dichip di rete Marvell e Credo Technology Group (CRDO)

Bolton è anche rialzista su Taiwan Semiconductor (TSM), “l’unica fonderia pratica… per produrre i chip più avanzati come gli acceleratori AI”. E vede una spinta al settore degli strumenti di automazione della progettazione elettronica, tra cui Cadence Design Systems (CDNS) e Synopsys (SNPS).

Nel settore delle reti, Bolton chiama Arista Networks (ANET) come “forse uno dei principali beneficiari della costruzione di infrastrutture AI”. Pensa che la forte posizione dell’azienda con i grandi attori del cloud “da loro un chiaro vantaggio in questa arena in rapida crescita”. Needham stima che l’IA, nel tempo, aggiungerà dal 5% al 10% al tasso di crescita a lungo termine di Arista.

Bolton è anche rialzista su Cognex (CGNX), “un leader mondiale nella tecnologia della visione artificiale”. Ha osservato che l’azienda ha “procedimento dell’implementazione” della tecnologia basata sull’apprendimento profondo in tutto il suo portafoglio di prodotti.

Anche l’analista di JMP Andrew Boone aveva dei pensieri, affermando che la tecnologia aumenterà le dinamiche del “vincitore che prende la maggior parte” (è la teoria del Gorilla: ne ho parlato QUI) su Internet. Ad esempio, pensa che la tendenza dovrebbe essere una spinta per le piattaforme di social media. “I modelli AI accelerano il processo di brainstorming per i creatori, mentre gli strumenti di editing stanno diventando più potenti e più facili da usare”, ha scritto Boone. “Pensiamo che questo democratizzi ulteriormente il processo creativo, che dovrebbe avvantaggiare direttamente i social network man mano che i contenuti a coda lunga proliferano”.

Una delle conclusioni di Boone è che l’emergere di chatbot come Bard, Bing e OpenAI rischia di “influenzare negativamente il web aperto”, con più ricerche a cui ha risposto l’IA. La sua opinione è che la capacità dei chatbot basati sull’intelligenza artificiale di rispondere alle domande ridurrà il numero di volte in cui i cercatori di informazioni procederanno ad altri siti web.

“In parole povere, questo aumenta l’importanza dell’app e del traffico diretto, o in altre parole, del marchio, riducendo probabilmente l’opportunità di business per la lunga coda del web”, ha scritto. In particolare, Boone pensa che la tendenza “si metta male per la lunga coda degli editori”. vede potenziali rischi per Taboola (TBLA) e Outbrain (OB), che tra le altre cose vendono annunci destinati a indirizzare il traffico verso i siti web degli editori di contenuti.


20/05/23 Barron’s: È ora di pensare più in grande all’IA. Queste 8 azioni potrebbero essere i prossimi vincitori.

Di Eric J. Savitz

Le azioni di Nvidia sono più che raddoppiate quest’anno, come vincitore del consenso nella corsa all’IA.

Gli investitori continuano a cercare nuovi modi per cavalcare la mania sul software di intelligenza artificiale. Da qui, dovranno pensare un po’ di più fuori dagli schemi.

Le scommesse ovvie sono così conosciute che sembra che tutti le possiedano. Il grande vincitore del consenso è Nvidia -1,31% (ticker: NVDA), che produce processori grafici utilizzati per addestrare i grandi modelli linguistici al centro dell’IA generativa. Le azioni Nvidia sono già più che raddoppiate quest’anno, e la società ora si classifica come il quinto titolo tecnologico più prezioso, davanti a Meta Platforms -0.49% (META) e Tesla +1,84% (TSLA).

MicrosoftMSFT –0.06% (MSFT) è stata la prima scelta del mercato sul software AI, data la sua grande partecipazione nel creatore di ChatGPT OpenAI e l’introduzione di funzionalità AI in una serie di applicazioni Microsoft. Il titolo è aumentato del 33% quest’anno e ha un valore di mercato di 2,4 trilioni di dollari, dietro solo ad Apple.

Alphabet  -0.06% Le azioni (GOOGL) sono state evitate all’inizio di quest’anno dopo che Microsoft ha presentato una versione basata sull’intelligenza artificiale del suo motore di ricerca Bing. Ma Alphabet ha investito nell’IA per almeno un decennio e ha recentemente annunciato i propri progressi dell’IA. Il titolo è aumentato del 39% nel 2023. Anche strisciando nella discussione: Oracle (ORCL), che ha un accordo per ospitare servizi di supercalcolo basati su Nvidia su Oracle Cloud. Le azioni Oracle sono pochi centesimi da un massimo storico, in aumento del 26% per l’anno.

Poi ci sono le scommesse sull’intelligenza artificiale preferiti dalla folla ma speculativi: il produttore di software aziendale C3.ai (AI) è aumentato del 30% la scorsa settimana; la società di analisi dei dati Palantir Technologies (PLTR) è aumentato del 23% nella settimana, mentre l’azione AI abilitato alla voce SoundHound (SOUN) è salito del 10%.

Ma se l’IA sarà una tecnologia che cambierà il mondo sulla falsariga di internet, il cloud, lo smartphone, l’elettricità e i viaggi aerei, ci devono essere altri modi per puntarci , giusto?

Ho sollevato questa domanda con Brook Dane, un manager del portafoglio tecnologico di Goldman Sachs, che è stato ospite la scorsa settimana su Barron’s Live, il nostro webcast e podcast quotidiano.

“Sono stato un investitore tecnologico per più di 30 anni. “Questo è uno degli sviluppi, se non il più eccitante, che abbia mai visto”“, ha detto.” “Il potere di questi modelli e come cambieranno la produttività dei lavoratori della conoscenza… è profondo… siamo completamente concentrati sulla ricerca dei prossimi vincitori dell’IA”.

Detto questo, Dane sottolinea che è “super presto”. Microsoft ha detto nella sua più recente chiamata sugli utili che i carichi di lavoro generativi relativi all’IA potrebbero aggiungere l’1% alla crescita trimestrale della sua attività cloud Azure nel trimestre di giugno. Ciò implica 150 milioni di dollari di entrate incrementali, per una società che genera circa 55 miliardi di dollari per un quarto di entrate complessive. È a malapena un errore di arrotondamento.

Dane vede quattro modi fondamentali per giocare l’opportunità nell’IA. Ci sono giochi pick-and-shovel, che consentono ai data center di eseguire questi carichi di lavoro AI. Ci sono esigenze infrastrutturali intorno all’IA, “dato che i dati sono la chiave di tutto questo”. Ci sono società di sicurezza. E ci sono applicazioni che beneficeranno dell’aggiunta dell’IA.

Nella categoria pick-and-shovel, la scelta preferita di Dane è Marvell Technology (MRVL), che produce chip utilizzati nella connettività del centro dati. I loro chip, dice, assicurano che i carichi di lavoro siano distribuiti in modo rapido ed efficiente.

Pensa anche che la tendenza dell’IA sarà una spinta per le aziende di software focalizzate sull’automazione della progettazione elettronica, o EDA. In particolare, Dane è rialzista su Cadence Design Systems (CDNS). Nota anche che i carichi di lavoro AI sono ad alta intensità di memoria, il che è rialzista per il gigante della memoria DRAM e flash Micron Technology (MU).

Per quanto riguarda la tecnologia dei dati, Dane dice di aver parlato con molte aziende di come pensano di implementare l’IA e che sono emersi un paio di temi comuni. Dice che le aziende vogliono addestrare i modelli sui propri dati interni, senza condividere l’intelligenza con il mondo. Ciò richiede dati di “pulizia e sandboxing”, dice, il che è una spinta per aziende come Snowflake (SNOW) e Datadog (DDOG) che aiutano le aziende a immagazzino e analizzare le informazioni.

In materia di sicurezza: “Ogni volta che ottieni un grande cambiamento nel panorama delle minacce, è molto buono per le aziende di sicurezza informatica”, dice Dane. “Questo introdurrà un regno completamente nuovo di caos nel mondo mentre i cattivi attori approfittano di questa tecnologia e fanno cose a cui io e te non possiamo nemmeno pensare in questo momento. Ma sta arrivando… Avremo bisogno di nuove forme di protezione.”

La sua prima scelta per proteggersi dalla nuova minaccia è Palo Alto Networks (PANW). Dane dice che Palo Alto ha dati sui “veterati di legge” che fanno impallidire tutto ciò che i loro clienti potrebbero compilare. “Essi eseguiranno modelli di intelligenza artificiale su quei dati per identificare le minacce prima, più velocemente e meglio di qualsiasi altra azienda”. È anche rialzista su ZScaler (ZS), una società di software per la sicurezza cloud.

Infine, ci sono applicazioni: “Questa è la prima area, ma sarà la più grande nel tempo”, dice Dane. “Stiamo cercando i luoghi ovvi in cui questi strumenti possono essere distribuiti in modo responsabile e sicuro”. Un titolo che gli piace è HubSpot (HUBS), che fornisce software di relazione con i clienti per le piccole e medie imprese. Pensa che HubSpot possa utilizzare l’intelligenza artificiale per rendere i suoi clienti più produttivi ed efficienti nella loro spesa di marketing. Se HubSpot può farlo, dice Dane, i clienti pagheranno di più. E il titolo dovrebbe essere più alto.

Per essere chiari, questo non è certo un elenco esaustivo. Ho scritto prima di altre aziende che distribuiscono software AI, tra cui Adobe (ADBE) e Duolingo (DUOL).ServiceNow(NOW) ha appena stabilito una nuova partnership con Nvidia per guidare un migliore software di gestione del flusso di lavoro per l’azienda.

Internet ha cambiato ogni attività. E così farà l’IA.

Scrivi a Eric J. Savitz all’indirizzo eric.savitz@barrons.com


17/05/23 Barron’s: L’IA Sta Rimodellando i posti di lavoro. Ecco le aziende da tenere d’occhio.

Janet H. Cho Stevie Rosignol-Cortez

La tecnologia dell’intelligenza artificiale continua a progredire a una velocità vertiginosa.

Le capacità di intelligenza artificiale continuano a progredire a una velocità vertiginosa. L’arrivo di ChatGPT in particolare sembra aver solo accelerato l’adozione della tecnologia AI nelle operazioni quotidiane delle aziende. Ma quantificare gli effetti dell’IA sul business è stata un’ipotesi di chiunque. Fino ad ora.

Una nuova ricerca che confronta quanto la forza lavoro delle più grandi aziende statunitensi esposte all’intelligenza artificiale generatrice ha rilevato che le aziende con la maggiore esposizione potrebbero vedere maggiori flussi di cassa, minori costi del lavoro e maggiori valutazioni di mercato.

Le aziende i cui costi del lavoro sono più complementari all’IA generativo vedranno flussi di cassa più elevati a causa dei miglioramenti tecnologici complementari alla loro forza lavoro.

International Business Machines Corp. (ticker: IBM) è in cima alla lista dei ricercatori delle 15 più grandi aziende con la più alta esposizione a ChatGPT, il chatbot AI rilasciato a novembre dal laboratorio di ricerca OpenAI.

I prossimi quattro sono IntuitQualcommFiserv Nvidia.

Il CEO di IBM Arvind Krishna riconosce una grande esposizione, dicendo a Bloomberg News questo mese che dei 26.000 dipendenti non rivolti ai clienti dell’azienda, “Potrei facilmente vedere il 30% di questo essere sostituito da AI e automazione per un periodo di cinque anni”.

Microsoft (MSFT), è nono nella lista dei più esposti. Il CEO Satya Nadella sta congelando gli stipendi dei suoi dipendenti a tempo pieno quest’anno, citando la necessità di investire in un “importante cambiamento di piattaforma in questa nuova era dell’IA”, secondo una nota pubblicata da Business Insider.

Delle 15 più grandi aziende statunitensi con la più alta esposizione all’IA, sulla base della valutazione di ChatGPT dei compiti svolti in varie occupazioni, otto sono nel settore dell’informazione e sei sono aziende manifatturiere. S&P Global, BroadcomAVGO +2,50% Verizon CommunicationsVZ +0.36% , e 3M completano la top 10.

Delle 15 aziende meno esposte, due sono nel settore dei servizi di ristorazione, sette nel settore del commercio al dettaglio, tre nel settore dei trasporti e del magazzino e due nel settore manifatturiero.

Starbucks, McDonald’s, Dollar GeneralDG +0.65% Target Walmart sono i primi cinque nel gruppo meno esposto.

“La nostra premessa è che i compiti eseguiti dalle forze di lavoro delle aziende più esposte possono essere eseguiti più facilmente dalle applicazioni di intelligenza artificiale generatrice rispetto ai compiti eseguiti dalla forza lavoro delle aziende (e delle industrie) meno esposte”, hanno scritto tre professori di finanza nel rapporto di ricerca, che è stato pubblicato la scorsa settimana.

“A livello aziendale, se l’IA è positiva o negativa per il valore dipende da quanto sono esposte le loro forze di lavoro e da quanto le aziende in carica rispetto ai nuovi entranti siano in grado di sfruttare i miglioramenti tecnologici”, Andrea L. Eisfeldt, la cattedra di finanza e professore di finanza all’U.C.L.A. Anderson School of Management, ha detto a Barron.

Alcuni dei risultati sono stati confrontati con le ricerche e le ipotesi precedenti sull’IA e sul lavoro: lo studio ha rilevato che le occupazioni più colpite sono in realtà quelle con un’alta percentuale di compiti analitici cognitivi non di routine o compiti cognitivi di routine, mentre i compiti fisici manuali sono relativamente inalterati.

IBM ha detto a Barron che sta assumendo attivamente per migliaia di posizioni. “IBM è deliberata e premurosa nelle nostre assunzioni con particolare attenzione ai ruoli che generano entrate e siamo molto selettivi quando riempiamo lavori che non toccano direttamente i nostri clienti o la tecnologia”.

Intuit (INTU), NVIDIA (NVDA) e Microsoft hanno rifiutato di commentare lo studio. Starbucks (SBUX), McDonald’s (MCD) e Dollar General (DG) non hanno potuto essere immediatamente raggiunti per un commento.

Oltre a Eisfeldt, lo studio è stato condotto da Gregor Schubert, assistente professore di finanza alla Anderson School; e Miao Ben Zhang, assistente professore di finanza ed economia aziendale presso la U.S.C. Marshall School of Business.

“Mentre non prendiamo posizione sul fatto che l’IA generativa sia un sostituto o complementare al lavoro con esposizioni più elevate, il nostro lavoro mostra che le aziende che hanno una quota maggiore di occupazioni esposte all’esperienza dell’IA generativa guadagnano valore in un’ampia varietà di settori”, hanno scritto.

Questa nuova ricerca suggerisce che l’IA è buona per le aziende con più esposizione. Ma se sia buono o meno per i lavoratori, cioè se può effettivamente sostituire o meno il lavoro in queste industrie, resta da vedere.

Alla domanda su cosa dovrebbero togliere dallo studio i dipendenti di aziende come IBM, Eisfeldt ha detto che l’IA potrebbe aiutare a rendere i lavoratori più produttivi. “Anche se queste aziende potrebbero ristrutturare la loro forza lavoro, l’impatto finale sul lavoro in generale può ancora essere positivo”, ha detto a Barron.

“Per molti lavori, gli strumenti di intelligenza artificiale possono assumere attività di memoria o ripetitive, consentendo ai dipendenti di concentrare i loro sforzi su aree in cui la creatività e l’intuizione umane sono particolarmente preziose. Di conseguenza, alcuni lavori possono diventare sia più coinvolgenti per il lavoratore che più preziosi per l’azienda, purché i lavoratori siano disposti ad adattarsi al cambiamento delle responsabilità”, ha detto.


17/05/23 Barron’s: Nvidia e ServiceNow uniscono le forze per costruire l’intelligenza artificiale per le imprese. È una grande idea.

di Tae Kim

La piattaforma ServiceNow utilizzerà il software e gli strumenti Nvidia AI, insieme all’infrastruttura hardware Nvidia DGX per applicazioni di intelligenza artificiale.Tempo dei sogni

Nvidia NVDA +3,30% ServiceNow NOW +5,27% potrebbe aver trovato l’applicazione killer per l’intelligenza artificiale generativa: l’automazione dei sistemi IT aziendali interni.

Potrebbe significare che la promessa della tecnologia per generare rendimenti aziendali non è più un sogno per il futuro, ma qualcosa dietro l’angolo.

Martedì, durante una sessione di videoconferenza con i giornalisti, il dirigente di Nvidia (ticker: NVDA) Rama Akkiraju, vicepresidente dell’IA per l’IT dell’azienda, ha parlato con ottimismo della sua nuova partnership con la società di software per il flusso di lavoro ServiceNow (NOW).

“Questa partnership è quella di sviluppare modelli di generativa AI specifici per il dominio per le più grandi funzioni delle imprese”, ha detto.

I chip Nvidia hanno un’elevata esposizione all’IA generativa, che è stata di tendenza quest’anno. La tecnologia ingeria testo, immagini e video in modo brute-force per creare contenuti. L’interesse per questa forma di intelligenza artificiale è stato suscitato dal rilascio di ChatGPT da parte di OpenAI alla fine dell’anno scorso. I chatbot come ChatGPT usano un modello linguistico che genera risposte umane, o le loro migliori ipotesi, basate su relazioni di parole trovate digerindo ciò che è stato precedentemente scritto su Internet o da altre forme di testo.

Secondo Akkiraju, le due società lavoreranno insieme per sviluppare modelli personalizzati in linguaggio di grandi dimensioni per estendere la funzionalità dell’IA a nuovi usi in tutta l’azienda, anche per i dipartimenti IT, il servizio clienti e le risorse umane.

“Vediamo molte opportunità per applicare l’IA generativa a molti di questi casi d’uso e per automatizzarli”, ha detto Akkiraju.

Ha spiegato come un chatbot AI addestrato sui documenti di conoscenza all’interno dei sistemi interni di un’azienda potrebbe essere più efficiente nel risolvere i problemi delle risorse umane e dell’IT senza la necessità di un agente del servizio clienti.

I modelli di intelligenza artificiale possono anche essere utilizzati per riassumere e inserire i dati sui ticket del servizio clienti, che attualmente richiedono in media da sette a otto minuti per chiamata. Gli agenti possono quindi utilizzare il risparmio di tempo per lavorare su problemi più complessi, ha detto l’esecutivo.

La tecnologia Generative-AI sembra adatta per le ripetute richieste delle risorse umane e per automatizzare le attività del servizio clienti. A differenza dei chatbot di uso generale a cui si può chiedere qualsiasi cosa, le domande comunemente poste dai dipendenti sono limitate e con una risposta o un processo corretto verificabile. Significa che c’è una maggiore probabilità che i modelli di intelligenza artificiale incentrati sull’impresa possano essere sintonizzati per funzionare in modo efficace.

La piattaforma ServiceNow utilizzerà il software e gli strumenti Nvidia AI, insieme all’infrastruttura hardware Nvidia DGX nel cloud e nei sistemi locali.


15/05/23 Barron’s: Le azioni C3.ai in rialzo sull’aggiornamento degli utili. La domanda sta “esplodendo” per l’intelligenza artificiale aziendale, afferma il CEO

Adam Clark ed Eric J. Savitz

Il CEO Thomas Siebel .

Le azioni C3.ai sono salite lunedì dopo che la società ha detto che avrebbe battuto le sue precedenti previsioni finanziarie per il suo quarto trimestre fiscale, conclusosi il 30 aprile, con il picco della domanda aziendale di software AI.

Le azioni C3.ai (ticker: AI) sono aumentate del 16% lunedì a 22,48 dollari. Il titolo è raddoppiato finora quest’anno, nonostante sia stato colpito da un rapporto di un venditore allo scoperto, perché il lancio alla fine dello scorso anno del chatbot ChatGPT di OpenAI ha innescato un’impennata di interesse per l’intelligenza artificiale tra gli investitori.

“Non c’è un CEO, nessun consiglio aziendale, dove la questione dell’applicazione dell’analisi predittiva ai processi aziendali non è una delle prime tre cose sulla loro agenda”, ha detto il CEO di C3.ai Tom Siebel in un’intervista con Barron’s. “Il mercato è cambiato per l’IA aziendale. Sta solo esplodendo, e lo stiamo vedendo nella nostra pipeline aziendale. Siamo in una posizione abbastanza buona qui. Abbiamo il prodotto, il canale e l’organizzazione di vendita.”

C3.ai +20.87% (ticker: AI) ha detto che ora prevede di segnalare una perdita operativa rettificata per il trimestre di aprile tra 23,7 milioni di dollari e 23,9 milioni di dollari, rispetto a un precedente intervallo di previsione da 24 milioni di dollari a 28 milioni di dollari.

La società ora prevede un fatturato del trimestre di aprile compreso tra 72,1 milioni e 72,4 milioni di dollari, rispetto ai 77,0 milioni di dollari a 72,2 milioni di dollari che aveva previsto.

Nel suo terzo trimestre fiscale conclusosi a gennaio, C3.ai ha registrato un fatturato di 66,7 milioni di dollari e una perdita operativa rettificata di 15,0 milioni di dollari.

C3.ai ha detto di aver chiuso 43 offerte nel trimestre e che il suo modello di prezzi basato sul consumo continua ad essere ben accolto dai clienti. Il passaggio da un modello basato su abbonamento è stato al centro dello scetticismo per alcuni analisti, che hanno affermato che probabilmente avrebbe sconfermato la crescita delle entrate.

Siebel ha detto che la società è sulla buona strada per essere redditizia su base non GAAP, o rettificata, entro la fine dell’anno fiscale 2024. Ha detto che la società si aspettava una crescita più rapida nell’anno fiscale 2024, ma ha rifiutato di fornire una previsione più specifica.

Il capo di C3.ai ha affermato che l’intelligenza artificiale cambia la natura dei motori di ricerca aziendali. “Prendiamo il loro ERP, CRM, le applicazioni di produzione e le applicazioni della supply chain e le rendiamo predittive”, ha detto. “Pacciamo prevedere i guasti del sistema o del dispositivo prima che si verifichino”.

“L’interesse aziendale per l’intelligenza artificiale rimane elevato con C3.ai che commenta una crescita sana nella sua pipeline. Ci aspettiamo che un 10K verificato [depositamento annuale] sarà l’ultima spinta di fiducia nel titolo a breve termine”, gli analisti di D.A. Davidson guidato da Gil Luria ha scritto in una nota di ricerca lunedì. D.A. Davidson ha un rating Buy e un prezzo obiettivo di 30 dollari sul titolo.

La società riferirà i suoi utili fiscali del quarto trimestre il 31 maggio.


08/05/23 Barron’s: Il rallentamento del Cloud di Amazon è transitorio. L’IA Potrebbe Guidare La Crescita.

Angela Palumbo

Il servizio di cloud computing di Amazon.com non sarà lasciato nella polvere durante la grande corsa all’IA tecnologica, secondo un analista di Loop Capital.

Mentre Amazon AMZN +0.17% (ticker: AMZN) ha recentemente riportato un rallentamento nella crescita della sua divisione Amazon Web Services, l’analista Rob Sanderson ha scritto in una nota di ricerca che questo è transitorio. Ha fiducia che la decelerazione della crescita dei ricavi di AWS rallenterà e poi si invertirà.

Amazon ha riportato guadagni e vendite del primo trimestre che hanno battuto le stime di Wall Street il 27 aprile, ma ha avvertito che la spesa per il cloud dei clienti era rallentata.

Uno dei motivi per cui Sanderson, che valuta il titolo come un Buy con un obiettivo di prezzo di 140 dollari, crede che AWS crescerà da qui è il futuro dell’intelligenza artificiale.

“vista l’eccitazione che circonda l’IA generativa è stata incentrata su Microsoft e Google, molti investitori si chiedono se AWS si trovi in una posizione svantaggiata”, ha scritto Sanderson. “Pensiamo che più investitori riconosceranno presto che l’IA guiderà un’espansione significativa della domanda di cloud e AWS sarà un partecipante importante”.

Ma non tutti gli analisti sono così rialzisti sulla crescita del cloud di Amazon. L’analista di Itaú BBA Thiago Alves Kapulskis ha scritto in una nota di ricerca dopo i guadagni di Amazon che la concorrenza tra Amazon e I servizi cloud di ‘MSFT sono una preoccupazione.

“Con così tanta incertezza su AMZN e dopo la significativa divergenza in Azure rispetto ad AWS, crediamo che il mercato favorirà il primo e il suo possessore, piuttosto che il secondo”, ha scritto l’analista. Valuta Amazon come Outperform con un obiettivo di prezzo di 124 dollari.

Microsoft ha riportato forti prestazioni da Azure, la sua piattaforma cloud, durante i suoi guadagni trimestrali.

Le azioni di Amazon sono scesi dello 0,4% lunedì a 105,19 dollari mentre l’S&P 500SPX +0.05% diminuito dello 0,1%. Il titolo è salito del 25% quest’anno.


08/05/23 Barron’s: Le migliori stime dei guadagni di Palantir. Il CEO Karp vede un’enorme opportunità nell’IA

di Eric J. Savitz

Le azioni di Palantir sono in aumento di circa il 20% finora quest’anno.

Palantir PLTR +4,45% ha pubblicato risultati migliori del previsto per il primo trimestre, ed aumenta la sua stima per tutto il 2023. Nel frattempo, l’azienda continua a fare una grande spinta per la sua piattaforma di intelligenza artificiale recentemente annunciata, che chiama AIP.

Il titolo è salito bruscamente nel tardo trading di lunedì.

“Stiamo usando tutte le nostre risorse per catturare una delle più grandi opportunità del mondo”, ha detto Karp in un’intervista con Barron’s. E ha detto che intendono farlo pur rimanendo redditizi secondo le regole contabili generalmente accettate.

Karp ha aggiunto in una lettera trimestrale agli azionisti che i grandi modelli linguistici, che sono al centro degli strumenti di intelligenza artificiale generativa, “trasformeranno” il software aziendale.

“La profondità dell’impegno e della domanda per la nostra nuova piattaforma di intelligenza artificiale è senza precedenti”, scrive. La prima versione di AIP sarà resa disponibile a clienti selezionati questo mese, afferma Palantir (ticker: PLTR).

Palantir, che fornisce software di analisi sia ai clienti commerciali che governativi, ha registrato un fatturato del primo trimestre di 525 milioni di dollari, in aumento del 18% rispetto a un anno fa, superando sia la previsione dell’azienda da 503 a $507 milioni di dollari, sia il consenso di Wall Street di 650 milioni di dollari. Su base rettificata, la società ha guadagnato 5 centesimi per azione, un centesimo meglio delle stime di Wall Street.

La società aveva 17 milioni di dollari di reddito netto GAAP, o un centesimo per azione, il secondo trimestre consecutivo che Palantir è stato redditizio GAAP. L’utile rettificato da operazioni di 125 milioni di dollari era superiore all’intervallo di previsione della società da 91 a 95 milioni di dollari. Il flusso di cassa libero rettificato è stato di 189 milioni di dollari, un record trimestrale per Palantir.

Le entrate commerciali nel trimestre sono state di 236 milioni di dollari, in aumento del 15% rispetto all’anno precedente, e prima della previsione di consenso di Wall Street di 217 milioni di dollari come monitorato da FactSet. Il CFO David Glazer ha detto in un’intervista che le entrate commerciali degli Stati Uniti sono salite del 39% in sequenza rispetto al trimestre di dicembre, superando per la prima volta il livello di 100 milioni di dollari.

Le entrate da commesse governative sono state di 289 milioni di dollari, in aumento del 20%, in linea con le stime di Wall Street, inclusi 230 milioni di dollari di entrate del governo degli Stati Uniti, in aumento del 22%. Glazer ha detto che i risultati riflettono anche “la disciplina dal lato delle spese”.

La società ha affermato che il numero di clienti è aumentato del 41% rispetto a un anno fa e del 7% in sequenza.

Per il secondo trimestre, Palantir vede entrate da 528 milioni di dollari a 532 milioni di dollari, leggermente al di sotto della previsione di consenso di 537 milioni di dollari, con un reddito rettificato da operazioni da 118 milioni di dollari a 122 milioni di dollari. La società prevede di essere di nuovo redditizia GAAP nel trimestre di giugno e di rimanere redditizia su tale base nel terzo e quarto trimestre.

Palantir ora si aspetta un fatturato per l’intero anno da 2,185 miliardi di dollari a 2,235 miliardi di dollari, un leggero aumento rispetto alle precedenti previsioni dell’azienda da 2,18 miliardi di dollari a 2,23 miliardi di dollari. La società ora vede un reddito rettificato per l’intero anno da operazioni da 506 milioni di dollari a 556 milioni di dollari, rispetto a un precedente intervallo di 481 milioni di dollari a 531 milioni di dollari.

Nella sua lettera, Karp ha affrontato alcune delle attuali preoccupazioni per la sicurezza e la privacy relative all’intelligenza artificiale generativa e ai grandi modelli linguistici. “Abbiamo intenzionalmente progettato il nostro software attorno al coinvolgimento e alla supervisione degli operatori umani prima che l’azione nel mondo reale, inclusa, ad esempio, le operazioni di targeting nel contesto militare, possa essere intrapresa”, scrive. “La macchina deve rimanere subordinata al suo creatore”.

Parlando con Barron, Karp ha affermato che la piattaforma di Palantir sarà agnostica rispetto a quale grande modello linguistico i clienti vogliono utilizzare e che il software dell’azienda aiuterà sia i clienti commerciali che governativi a sbloccare il valore dei loro dati, “sia cambiare la catena di approvvigionamento che togliendo la vita a qualcuno”, un riferimento alla notevole attività dell’azienda con le agenzie

Karp, che stava facendo mosse Tai Chi durante un’intervista via videoconferenza dalla sede centrale dell’azienda a Denver, ha detto che l’IA è “un’unica generazionalmente”, ma che “nessuno sa dove andrà a finire e quando diventa pericoloso”.

Afferma anche che “pochissime persone hanno un prodotto utile in questo settore” e che c’è un “sottoinsieme di persone che vogliono rallentarlo”. Non è uno di loro.

Le azioni Palantir sono aumentate del 14% nel dopo mercato poco dopo l’annuncio dei guadagni. Erano in aumento di circa il 4% nella sessione regolare di lunedì. Il titolo è aumentato del 20% finora quest’anno.


25/02/23 Forbes: Aziende di Intelligenza Artificiale in cui potresti voler investire ora

Q.ai – Potenziare un movimento di ricchezza personale

Intelligenza artificiale del cervello del computer
GETTY

Punti chiave da valutare

  • Aziende come Microsoft e Alphabet sono già pesantemente investite nell’IA e sono ben posizionate per crescere in tandem con la nuova tecnologia
  • I produttori di microchip e i servizi di sicurezza informatica saranno più ricercati con l’ascesa dell’IA, quindi investire in queste aziende presto potrebbe essere una scelta intelligente
  • La tecnologia si sta evolvendo a un ritmo vertiginoso e le aziende con scarso coinvolgimento nell’IA, nelle tecnologie blockchain o nel metaverso potrebbero diventare irrilevanti nel tempo

Se hai seguito le notizie negli ultimi mesi, probabilmente hai sentito parlare di almeno una società di intelligenza artificiale. Il rilascio di ChatGPT da parte di OpenAI e la sua incorporazione in corso in Bing hanno dominato i titoli. Anche se in qualche modo hai evitato quella notizia, le offerte di intelligenza artificiale sono ovunque.

Esamineremo alcune società di intelligenza artificiale ben posizionate per ingrandire i guadagni nei prossimi anni. Se sei un investitore esperto, probabilmente avrai sentito parlare della maggior parte di queste azioni, ma abbiamo anche incluso alcune opzioni meno conosciute.

Inoltre, se vuoi rendere l’investimento in questo campo ancora più semplice utilizzando effettivamente l’IA per costruire un portafoglio, puoi scaricare Q.ai oggi per togliere le congetture dagli investimenti.

Azioni AI e potenziale di crescita

È importante ricordare che investire comporta sempre potenziali rischi e il livello di rischio aumenta quando si investe in un’azienda coinvolta nelle nuove tecnologie. Solo perché un’azienda usa l’IA non significa che sia un buon investimento.

Le aziende più consolidate con fonti alternative di reddito saranno investimenti meno rischiosi. Di conseguenza, se il tuo obiettivo è quello di entrare al piano terra e investire in una nuova azienda con un alto potenziale di crescita, assicurati di comprendere i rischi di ciò che stai facendo.

Microsoft Corp (MSFT)

Questo è un gioco da ragazzi da quando Microsoft ha recentemente confermato il suo investimento di 10 miliardi di dollari in OpenAI, la società dietro ChatGPT. L’accordo dovrebbe essere redditizio per Microsoft, in quanto otterrà una quota del 75% dei profitti di OpenAI fino a quando la società di intelligenza artificiale non potrà ripagare l’investimento di Microsoft. A quel punto, Microsoft assumerà una partecipazione del 49% nell’azienda.

Microsoft sta progettando di rilasciare una nuova versione di Bing che utilizzerà il chatbot di OpenAI per rispondere alle domande scritte dagli utenti. Il prodotto potrebbe rendere Microsoft un rivale più legittimo di Google nello spazio dei motori di ricerca.

Oltre a ciò, la partnership di Microsoft con OpenAI le ha permesso di integrare generatori d’arte come DALL•E 2 e traduttori language-to-code come Codex in prodotti preesistenti.

Alcuni analisti prevedono che il titolo, che ha chiuso il 23 febbraio 2023, a 254,77 dollari, salterà oltre i 300 dollari entro i prossimi 12 mesi.

Nvidia Corporation (NVDA)

Nvidia produce microchip ad alte prestazioni in grado di eseguire applicazioni AI avanzate. Attualmente c’è molta domanda per questo servizio poiché Nvidia ha collaborato con aziende come Meta e Oracle per integrare l’IA nelle loro attività.

Lo scorso settembre, il governo degli Stati Uniti ha ordinato a Nvidia di smettere di esportare due dei suoi principali chip informatici, l’A100 e l’H100, in Cina. Mentre il divieto ha danneggiato il business di Nvidia, ha significato l’alta qualità del suo prodotto e quanto saranno essenziali questi microchip per il futuro dell’IA.

Taiwan Semiconductor Mfg. Co. (TSM)

Un’azienda con un focus simile a Nvidia è TSMC, che fa la maggior parte del lavoro di produzione per le principali aziende di semiconduttori fabless come Apple, Qualcomm e Nvidia. Nonostante sia il leader mondiale in questo settore al momento, il titolo ha recentemente fatto notizia dopo che Berkshire Hathaway ha ridotto significativamente la sua partecipazione in TSMC.

Le ragioni del disinvestimento non sono del tutto note, ma gli esperti sospettano che sia perché il business dei semiconduttori è ad alta intensità di capitale e i profitti sono raramente garantiti. Anche se questo potrebbe dissuadere alcuni investitori dall’acquistare azioni TSM, gli analisti rimangono ottimisti, con alcuni che suggeriscono che TSM potrebbe aumentare il prezzo di oltre il 500% nei prossimi 12 mesi.

Alphabet Inc (GOOGL)

Alphabet utilizza già l’intelligenza artificiale nella maggior parte dei suoi aspetti della sua attività, dagli annunci mirati su YouTube ai filtri antispam su Gmail. La società britannica di intelligenza artificiale DeepMind è stata acquisita da Alphabet (allora Google) nel 2014. Sebbene DeepMind non sia diventato redditizio per l’azienda fino a ottobre 2021, la dedizione di Alphabet alla tecnologia AI l’ha messa in una buona posizione.

Secondo quanto riferito, Alphabet ha emesso un “codice rosso” dopo l’annuncio dell’investimento di Microsoft in ChatGPT. Google ha recentemente lanciato una versione pilota del proprio chatbot AI, Bard. Anche se il lancio di Bard è andato storto, Alphabet ha ancora un potenziale eccellente.

Tra un nuovo chatbot e i servizi di intelligenza artificiale di Google Cloud, si spera che l’azienda sia in grado di far bene la previsione degli analisti di un aumento dei prezzi del 37% il prossimo anno.

Amazon (AMZN)

La maggior parte degli americani conosce Alexa, il popolare assistente virtuale di Amazon, ma potrebbero non conoscere le molte altre offerte di intelligenza artificiale di Amazon. Amazon Web Services fornisce ai clienti vari strumenti di intelligenza artificiale, tra cui l’analisi delle immagini, la capacità di identificare i componenti dei prodotti mancanti, l’identificazione dei colli di bottiglia delle operazioni e altro ancora.

Lo scorso novembre, Amazon ha introdotto Sparrow, un braccio robotico intelligente che aiuta a semplificare il processo di adempimento di Amazon spostando i singoli prodotti prima che vengano confezionati. Amazon non è rimasta indietro nell’integrazione dell’IA nella sua attività, quindi prevediamo che l’azienda vedrà una crescita negli anni futuri.

Anche le azioni Amazon sono sottovalutate per il momento, principalmente a causa di un deludente rapporto sugli utili del quarto trimestre, quindi acquistare ora potrebbe essere una scelta intelligente per i nuovi investitori. Gli analisti si aspettano che le azioni Amazon crescano di circa il 40% nel prossimo anno.

Palantir Technologies (PLTR)

Palantir è una società di software di analisi dei dati che inizialmente ha lavorato con i servizi di intelligence degli Stati Uniti. Da allora la loro lista di clienti si è ampliata per includere i governi statali e locali e le aziende private. Palantir ha vinto un contratto da 85,1 milioni di dollari con . l’esercito degli Stati Uniti lo scorso ottobre e le loro collaborazioni con il settore della difesa probabilmente continueranno.

Le azioni di Palantir sono scese di recente dopo l’aumento dei rendimenti obbligazionari a lungo termine e le forze macroeconomiche hanno danneggiato in modo significativo l’azienda nell’ultimo anno. Gli analisti sono confusi sulle previsioni per Palantir mentre l’azienda spera di raggiungere un anno intero di redditività GAAP.

Tuttavia, resta il fatto che le capacità di data mining e storage saranno essenziali sia per i governi che per le aziende private nei prossimi anni.

Cloudflare Inc (NET)

Questa società globale di rete e sicurezza informatica offre ai clienti una maggiore privacy e prestazioni del sito web. Cloudflare utilizza l’apprendimento automatico per il rilevamento dei bot, l’identificazione delle anomalie e l’assistenza clienti.

Cloudflare potrebbe essere un buon acquisto per gli investitori che credono che i loro servizi continueranno a crescere nei prossimi anni. Cloudflare è stata in grado di ridurre le perdite man mano che è cresciuta negli ultimi anni e ha visto un aumento del 42% delle entrate per il quarto trimestre del 2022. Questo arriva tra i titoli di una partnership con Nvidia e la leadership che prevede 5 miliardi di dollari di entrate annuali entro la fine del 2027.

Altre aziende di intelligenza artificiale che potrebbero interessarti

  • Intuitive Surgical, Inc (ISRG): Intuitive vende tecnologia di visualizzazione e assistenti robotici di intelligenza artificiale per interventi chirurgici minimamente invasivi.
  • Adobe Inc (ADBE): Adobe ha annunciato nuove funzionalità di apprendimento automatico per il suo prodotto Experience Cloud l’anno scorso, parte delle quali miravano ad aiutare i team di marketing a ottimizzare le loro campagne.
  • Micron Technology Inc (MU): simile a Nvidia, Micron è un produttore su larga scala di chip per computer ad alte prestazioni.

Se sei un investitore interessato al mondo della tecnologia ma non vuoi tenere traccia dei titoli, considera di scaricare Q.ai. Q.ai sfrutta il potere dell’IA per aiutarti a diversificare il tuo portafoglio proteggendo i tuoi guadagni. L’Emerging Tech Kit ti permetterà di investire in ETF tecnologici, società tecnologiche e criptovalute. NON DISPONIBILE PER I RESIDENTI IN ITALIA

La linea di fondo

L’intelligenza artificiale si sta diffondendo nella maggior parte delle sfaccettature della nostra vita. Le aziende all’avanguardia e l’integrazione della tecnologia AI nelle loro attività stanno cercando di ingrandire i loro guadagni.

Se vuoi sfruttare i potenziali guadagni che questo settore può avere, considera di investire in una delle società sopra elencate. Mentre comportano dei rischi, le proiezioni indicano che potrebbero essere buoni investimenti in futuro.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.