Microsoft CEO Nadella: 'Asahan na isasama namin ang AI sa bawat layer ng stack'

Microsoft-ChatGPT

Jakub Porzycki / NurPhoto sa pamamagitan ng Getty Images

Martes ng gabi, sa kumperensyang tawag sa fiscal second-quarter earnings ng Microsoft kasama ang mga analyst ng Wall Street, ang CEO na si Satya Nadella ay nag-alok marahil ng kanyang pinakamalawak na pananaw hanggang ngayon tungkol sa kung ano ang ibig sabihin ng pamumuhunan ng kumpanya sa startup na OpenAI na nakabase sa San Francisco, mga tagalikha ng napakasikat na ChatGPT, para sa Microsoft. 

Ang OpenAI, aniya, ay kumakatawan sa bahagi ng susunod na alon sa computing. "Ang susunod na malaking platform wave, tulad ng sinabi ko, ay magiging AI, at lubos din kaming naniniwala na maraming halaga ng enterprise ang nalilikha sa pamamagitan lamang ng kakayahang mahuli ang mga alon na ito at pagkatapos ay magkaroon ng epekto ang mga alon na iyon sa bawat bahagi ng aming tech stack at lumikha din ng mga bagong solusyon at bagong pagkakataon,” ani Nadella.

Ito: Paano magsimula sa paggamit ng ChatGPT

Sa layuning iyon, ang Microsoft ay "ganap na umaasa na, uri ng, isama ang AI sa bawat layer ng stack, maging ito sa pagiging produktibo, maging ito sa aming mga serbisyo sa consumer, at kaya kami ay nasasabik tungkol dito."

Tungkol sa pakikipagsosyo sa OpenAI, sinabi ni Nadella, "May bahagi ng pamumuhunan dito, at mayroong isang komersyal na pakikipagsosyo, ngunit, sa panimula, ito ay magiging isang bagay na magtutulak, sa palagay ko, ang pagbabago at mapagkumpitensyang pagkakaiba sa bawat isa sa Microsoft mga solusyon sa pamamagitan ng pangunguna sa AI." 

Sa ngayon, ang mga huwarang application na binuo gamit ang OpenAI ay ang GitHub CoPilot, kung saan tinutulungan ng mga neural net ang mga programmer sa pagkumpleto ng mga gawain sa coding. "Ang GitHub Copilot ay, sa katunayan, maaari mong sabihin ang pinaka-mahusay na LLM," sabi ni Nadella, gamit ang jargon ng industriya para sa mga neural net na humahawak ng wika, na tinatawag na Large Language Models, "batay sa produkto na nasa marketplace ngayon. ” 

Ang GPT-3 ng OpenAI, na bahagi ng paggana ng ChatGPT, ay isa sa pinakamalaking Large Language Models sa mundo, na sinusukat sa bilang ng mga parameter, o neural na “weights.”

Ito: Ang ChatGPT ay 'hindi partikular na makabago,' at 'walang rebolusyonaryo', sabi ng punong AI scientist ng Meta

Microsoft, sabi ni Nadella, “will soon magdagdag ng suporta para sa ChatGPT," aniya, "na nagbibigay-daan sa mga customer na gamitin ito sa kanilang sariling mga application sa unang pagkakataon."

Kamakailan ay ginawang available ng Azure ang isang bagay na tinatawag na Azure OpenAI Service, isang paraan para makakuha ng access ang mga developer sa mga programa ng OpenAI, at “mahigit 200 customer mula KPMG hanggang Al Jazeera ang gumagamit nito,” sabi niya.

Iminungkahi ni Nadella na higit pang i-embed ng kumpanya ang teknolohiya sa mga paninda ng Microsoft, kabilang ang isang bagay na tinatawag na Synapse. Ang Synapse ay ang catch-all database approach ng Microsoft na nagbibigay-daan para sa mga bagay tulad ng "data warehouse" at "data lake," mga karaniwang paraan ng pagpapangkat ng data para sa pagsusuri, at pagkatapos ay ang pagganap ng mga query laban sa mga na-curate na database na iyon.

"Maaari mo kaming makita sa mga serbisyo ng data na lampas sa Azure OpenAI Service," sinabi ni Nadella sa mga analyst, "Isipin kung ano ang magagawa ng Synapse plus OpenAI API," nang hindi nagpaliwanag.

Ito: Ang pagkawala ng Microsoft 365 ay tumama sa Mga Koponan at mga gumagamit ng Outlook: Ang alam natin sa ngayon

Matapos sabihin sa mga analyst na hinihigpitan ng mga customer ang kanilang mga sinturon patungkol sa paggasta sa ulap, nag-pivote siya at sinabing may patuloy na pamumuhunan ng Microsoft sa OpenAI at iba pang mga kakayahan ng AI.

Sa partikular, ang Microsoft Azure ay kailangang mamuhunan upang mabuo hindi lamang ang bahagi ng mga pasilidad ng computing nito na bubuo ng OpenAI code, kung ano ang kilala bilang "pagsasanay," kundi pati na rin ang malawak na imprastraktura upang tumugon sa milyun-milyong query ng mga user ng software, kilala sa kalakalan bilang “hinuha."

"Kami ay nagtatrabaho nang husto, napakahirap na bumuo ng parehong mga supercomputer ng pagsasanay at ngayon, siyempre, ang imprastraktura ng hinuha," sabi niya. "Dahil kapag ginamit mo ang AI sa loob ng iyong mga application, mula sa pagiging mabigat sa pagsasanay ay nagiging inference."

Ito: Ang pinakamahusay na mga manunulat ng AI: ChatGPT at iba pang mga kawili-wiling alternatibo upang subukan

Ang pagbabagong iyon sa disenyo, sabi ni Nadella, ay higit na magdadala sa mga customer sa Azure. "Sa palagay ko, ang anumang pagsisimula ng aplikasyon na susunod na mangyayari ay magiging hitsura ng pagsisimula ng aplikasyon sa 2019 o 2020," sabi niya.

"Lahat sila ay magkakaroon ng mga pagsasaalang-alang tungkol sa kung paano ang aking AI inference, pagganap, gastos, modelo ay magiging hitsura, at doon tayo muling nakaposisyon."

Bilang resulta ng malawakang kilabot ng AI, sabi ni Nadella, "Sa tingin ko, ang core Azure mismo ay binabago, ang negosyo sa imprastraktura ay binabago."

pinagmulan