Nadella, PDG de Microsoft : "Attendez-vous à ce que nous incorporions l'IA dans chaque couche de la pile"

Microsoft-ChatGPT

Jakub Porzycki / NurPhoto via Getty Images

Mardi soir, lors de la conférence téléphonique sur les résultats du deuxième trimestre fiscal de Microsoft avec les analystes de Wall Street, le PDG Satya Nadella a peut-être présenté sa vision la plus large à ce jour sur ce que l'investissement de l'entreprise dans la startup OpenAI basée à San Francisco, créateurs du très populaire ChatGPT, signifie pour Microsoft. 

OpenAI, a-t-il dit, représente une partie de la prochaine vague informatique. "La prochaine grande vague de plate-forme, comme je l'ai dit, sera l'IA, et nous sommes également convaincus qu'une grande partie de la valeur de l'entreprise est créée en étant simplement capable de capter ces vagues et ensuite de faire en sorte que ces vagues affectent chaque partie de notre pile technologique. et également créer de nouvelles solutions et de nouvelles opportunités », a déclaré Nadella.

Aussi: Comment commencer à utiliser ChatGPT

À cette fin, Microsoft "s'attend pleinement, en quelque sorte, à incorporer l'IA dans chaque couche de la pile, que ce soit dans la productivité, que ce soit dans nos services aux consommateurs, et nous en sommes donc ravis".

À propos du partenariat avec OpenAI, Nadella a fait remarquer : « Il y a une part d'investissement, et il y a un partenariat commercial, mais, fondamentalement, ce sera quelque chose qui va stimuler, je pense, l'innovation et la différenciation concurrentielle dans chacun des secteurs Microsoft. solutions en étant leader en IA. 

À l'heure actuelle, les exemples d'applications développées avec OpenAI sont GitHub CoPilot, où les réseaux de neurones aident les programmeurs à effectuer des tâches de codage. "GitHub Copilot est, en fait, on pourrait dire le LLM le plus à l'échelle", a déclaré Nadella, utilisant le jargon de l'industrie pour les réseaux de neurones qui gèrent le langage, les soi-disant grands modèles de langage, "basés sur les produits disponibles sur le marché aujourd'hui. ” 

Le GPT-3 d'OpenAI, qui fait partie du fonctionnement de ChatGPT, est l'un des plus grands modèles de grande langue au monde, tel que mesuré par le nombre de paramètres, ou « poids » neuronaux.

Aussi: ChatGPT n'est «pas particulièrement innovant» et «rien de révolutionnaire», déclare le scientifique en chef de l'IA chez Meta

Microsoft, a déclaré Nadella, "va soon ajoutez la prise en charge de ChatGPT », a-t-il déclaré, « permettant aux clients de l'utiliser dans leurs propres applications pour la première fois ».

Azure a récemment mis à disposition quelque chose appelé Azure OpenAI Service, un moyen pour les développeurs d'accéder aux programmes d'OpenAI, et "plus de 200 clients de KPMG à Al Jazeera l'utilisent", a-t-il noté.

Nadella a suggéré que la société intégrera davantage la technologie dans les produits de Microsoft, y compris quelque chose appelé Synapse. Synapse est l'approche de base de données fourre-tout de Microsoft qui permet des éléments tels qu'un "entrepôt de données" et un "lac de données", des moyens courants de regrouper les données à analyser, puis la performance des requêtes sur ces bases de données organisées.

"Vous pouvez nous voir avec des services de données au-delà du service Azure OpenAI", a déclaré Nadella aux analystes, "Pensez à ce que Synapse plus les API OpenAI peuvent faire", sans donner plus de détails.

Aussi: La panne de Microsoft 365 frappe les utilisateurs de Teams et d'Outlook : ce que nous savons jusqu'à présent

Après avoir dit aux analystes que les clients se serraient la ceinture en ce qui concerne les dépenses liées au cloud, il a pivoté et a déclaré que Microsoft continuait d'investir dans OpenAI et d'autres capacités d'IA.

En particulier, Microsoft Azure doit investir pour développer non seulement la partie de ses installations informatiques qui développent le code OpenAI, ce qu'on appelle la "formation", mais aussi la vaste infrastructure pour répondre aux millions de requêtes des utilisateurs du logiciel, connu dans le commerce sous le nom de « inférence."

"Nous travaillons très, très dur pour construire à la fois les supercalculateurs de formation et maintenant, bien sûr, l'infrastructure d'inférence", a-t-il déclaré. "Parce qu'une fois que vous utilisez l'IA dans vos applications, cela passe de la simple formation lourde à l'inférence."

Aussi: Les meilleurs rédacteurs d'IA : ChatGPT et d'autres alternatives intéressantes à essayer

Ce changement de conception, a déclaré Nadella, incitera davantage les clients à Azure. "Je ne pense pas qu'un démarrage d'application qui se produira ensuite ressemblera au démarrage d'application de 2019 ou 2020", a-t-il déclaré.

"Ils vont tous avoir des considérations sur la façon dont mon inférence d'IA, mes performances, mon coût, mon modèle vont ressembler, et c'est là que nous sommes à nouveau bien positionnés."

En raison du fluage omniprésent de l'IA, a déclaré Nadella, "je pense que le cœur d'Azure lui-même est en train de se transformer, l'activité d'infrastructure est en train de se transformer."

Identifier