Il CEO di Microsoft Nadella: "Aspettatevi che incorporiamo l'intelligenza artificiale in ogni livello dello stack"

Microsoft-ChatGPT

Jakub Porzycki / NurPhoto tramite Getty Images

Martedì sera, durante la teleconferenza sugli utili del secondo trimestre fiscale di Microsoft con gli analisti di Wall Street, il CEO Satya Nadella ha offerto forse la sua visione più ampia fino ad oggi su ciò che l'investimento dell'azienda nella startup OpenAI con sede a San Francisco, creatori del popolarissimo ChatGPT, significa per Microsoft. 

OpenAI, ha affermato, rappresenta parte della prossima ondata di informatica. "La prossima grande ondata di piattaforma, come ho detto, sarà l'intelligenza artificiale, e crediamo fermamente che gran parte del valore aziendale venga creato semplicemente essendo in grado di catturare queste onde e quindi avere un impatto su ogni parte del nostro stack tecnologico e creare anche nuove soluzioni e nuove opportunità”, ha affermato Nadella.

Inoltre: Come iniziare a usare ChatGPT

A tal fine, Microsoft "si aspetta pienamente di incorporare l'intelligenza artificiale in ogni livello dello stack, sia che si tratti di produttività, sia che si tratti dei nostri servizi per i consumatori, e quindi ne siamo entusiasti".

Della partnership con OpenAI, Nadella ha osservato: "C'è una parte di investimento e c'è una partnership commerciale, ma, fondamentalmente, sarà qualcosa che guiderà, credo, l'innovazione e la differenziazione competitiva in ognuno dei Microsoft soluzioni guidando l'intelligenza artificiale". 

Al momento, le applicazioni esemplari sviluppate con OpenAI sono GitHub CoPilot, in cui le reti neurali aiutano i programmatori a completare le attività di codifica. "GitHub Copilot è, infatti, si potrebbe dire il LLM più su larga scala", ha affermato Nadella, utilizzando il gergo del settore per le reti neurali che gestiscono il linguaggio, i cosiddetti Large Language Models, "basato sul prodotto disponibile oggi sul mercato. " 

Il GPT-3 di OpenAI, che fa parte del funzionamento di ChatGPT, è uno dei modelli di linguaggio di grandi dimensioni più grandi al mondo, misurato in base al numero di parametri o "pesi" neurali.

Inoltre: ChatGPT "non è particolarmente innovativo" e "niente di rivoluzionario", afferma il capo scienziato AI di Meta

Microsoft, ha detto Nadella, “lo farà soon aggiungere il supporto per ChatGPT", ha affermato, "consentendo ai clienti di utilizzarlo per la prima volta nelle proprie applicazioni".

Azure ha recentemente reso disponibile qualcosa chiamato Azure OpenAI Service, un modo per gli sviluppatori di accedere ai programmi di OpenAI e "oltre 200 clienti da KPMG ad Al Jazeera lo stanno utilizzando", ha osservato.

Nadella ha suggerito che la società integrerà ulteriormente la tecnologia nei prodotti Microsoft, incluso qualcosa chiamato Synapse. Synapse è l'approccio al database catch-all di Microsoft che consente cose come un "data warehouse" e un "data lake", modi comuni di raggruppare i dati per l'analisi e quindi l'esecuzione di query su quei database curati.

"Puoi vederci con servizi dati oltre il servizio Azure OpenAI", ha detto Nadella agli analisti, "pensa a cosa possono fare Synapse più le API OpenAI", senza elaborare.

Inoltre: L'interruzione di Microsoft 365 colpisce i team e gli utenti di Outlook: cosa sappiamo finora

Dopo aver detto agli analisti che i clienti stanno stringendo la cinghia rispetto alla spesa per il cloud, ha fatto perno e ha affermato che ci sono investimenti in corso da parte di Microsoft in OpenAI e altre funzionalità di intelligenza artificiale.

In particolare, Microsoft Azure deve investire per costruire non solo la parte delle sue strutture informatiche che sviluppano il codice OpenAI, ciò che è noto come "formazione", ma anche la vasta infrastruttura per rispondere a milioni di domande da parte degli utenti del software, conosciuto nel commercio come “inferenza."

"Stiamo lavorando molto, molto duramente per costruire sia i supercomputer di addestramento che ora, ovviamente, l'infrastruttura di inferenza", ha affermato. "Perché una volta che usi l'IA all'interno delle tue applicazioni, passa dall'essere solo un allenamento pesante all'inferenza."

Inoltre: I migliori autori di AI: ChatGPT e altre interessanti alternative da provare

Questo cambiamento nel design, ha affermato Nadella, spingerà ulteriormente i clienti verso Azure. "Non credo che l'avvio successivo di un'applicazione assomiglierà all'avvio dell'applicazione del 2019 o del 2020", ha affermato.

"Avranno tutti considerazioni su come sarà la mia inferenza AI, prestazioni, costi, modello, ed è qui che siamo di nuovo ben posizionati."

Come risultato della diffusione pervasiva dell'intelligenza artificiale, ha affermato Nadella, "penso che lo stesso core Azure si stia trasformando, il business delle infrastrutture si stia trasformando".

Fonte