Microsoft-CEO Nadella: „Erwarten Sie, dass wir KI in jede Schicht des Stacks integrieren“

Microsoft-ChatGPT

Jakub Porzycki / NurPhoto über Getty Images

Dienstagabend bot CEO Satya Nadella bei Microsofts Telefonkonferenz zu den Ergebnissen des zweiten Quartals mit Wall-Street-Analysten seine vielleicht bisher umfassendste Vision darüber an, was die Investition des Unternehmens in das in San Francisco ansässige Startup OpenAI, Schöpfer des äußerst beliebten ChatGPT, bedeutet Microsoft. 

OpenAI, sagte er, repräsentiert einen Teil der nächsten Welle im Computing. „Die nächste große Plattformwelle wird, wie ich bereits sagte, KI sein, und wir sind fest davon überzeugt, dass ein Großteil des Unternehmenswerts dadurch geschaffen wird, dass wir diese Wellen einfach abfangen und diese Wellen dann jeden Teil unseres Tech-Stacks beeinflussen können und auch neue Lösungen und neue Möglichkeiten schaffen“, sagte Nadella.

Außerdem: Erste Schritte mit ChatGPT

Zu diesem Zweck erwartet Microsoft „voll und ganz, KI in jede Schicht des Stacks zu integrieren, sei es in der Produktivität, ob in unseren Verbraucherdiensten, und deshalb freuen wir uns darauf.“

Über die Partnerschaft mit OpenAI bemerkte Nadella: „Es gibt einen Investitionsteil und eine kommerzielle Partnerschaft, aber im Grunde wird es etwas sein, das meiner Meinung nach Innovation und Wettbewerbsdifferenzierung in jedem einzelnen von Microsoft vorantreiben wird Lösungen durch führende KI.“ 

Derzeit sind die beispielhaften Anwendungen, die mit OpenAI entwickelt wurden, GitHub CoPilot, wo die neuronalen Netze Programmierer bei der Durchführung von Codierungsaufgaben unterstützen. „GitHub Copilot ist in der Tat das am besten skalierbare LLM“, sagte Nadella und verwendete den Branchenjargon für neuronale Netze, die Sprache verarbeiten, sogenannte Large Language Models, „basierend auf Produkten, die heute auf dem Markt erhältlich sind. ” 

GPT-3 von OpenAI, das Teil der Funktionsweise von ChatGPT ist, ist eines der weltweit größten Large Language Models, gemessen an der Anzahl der Parameter oder neuronalen „Gewichte“.

Außerdem: ChatGPT ist „nicht besonders innovativ“ und „nichts Revolutionäres“, sagt der leitende KI-Wissenschaftler von Meta

Microsoft, sagte Nadella, „wird soon Unterstützung für ChatGPT hinzufügen“, sagte er, „so dass Kunden es zum ersten Mal in ihren eigenen Anwendungen verwenden können.“

Azure hat kürzlich einen sogenannten Azure OpenAI Service zur Verfügung gestellt, eine Möglichkeit für Entwickler, Zugriff auf die Programme von OpenAI zu erhalten, und „über 200 Kunden von KPMG bis Al Jazeera nutzen ihn“, bemerkte er.

Nadella schlug vor, dass das Unternehmen die Technologie weiter in Microsofts Waren einbetten wird, einschließlich etwas namens Synapse. Synapse ist der umfassende Datenbankansatz von Microsoft, der Dinge wie ein „Data Warehouse“ und einen „Data Lake“, gängige Methoden zum Gruppieren von Daten für die Analyse und dann die Durchführung von Abfragen für diese kuratierten Datenbanken ermöglicht.

„Sie können uns mit Datendiensten sehen, die über Azure OpenAI Service hinausgehen“, sagte Nadella den Analysten, „denken Sie darüber nach, was Synapse plus OpenAI-APIs leisten können“, ohne näher darauf einzugehen.

Außerdem: Microsoft 365-Ausfall trifft Teams und Outlook-Benutzer: Was wir bisher wissen

Nachdem er Analysten mitgeteilt hatte, dass Kunden in Bezug auf Cloud-Ausgaben den Gürtel enger schnallen, drehte er sich um und sagte, dass Microsoft laufend in OpenAI und andere KI-Funktionen investiert.

Insbesondere muss Microsoft Azure investieren, um nicht nur den Teil seiner Rechenanlagen auszubauen, der den OpenAI-Code entwickelt, was als „Training“ bekannt ist, sondern auch die riesige Infrastruktur, um auf Millionen von Anfragen von Benutzern der Software zu reagieren. im Fachjargon als „Inferenz“ bekannt."

„Wir arbeiten sehr, sehr hart daran, sowohl die Trainings-Supercomputer als auch jetzt natürlich die Inferenzinfrastruktur zu bauen“, sagte er. „Denn sobald Sie KI in Ihren Anwendungen verwenden, geht es von einem einfachen Training zu Inferenzen über.“

Außerdem: Die besten KI-Autoren: ChatGPT und andere interessante Alternativen zum Ausprobieren

Diese Designänderung, sagte Nadella, wird die Kunden weiter zu Azure treiben. „Ich glaube nicht, dass ein Bewerbungsstart, der als nächstes stattfindet, so aussehen wird wie die Bewerbungsstarts von 2019 oder 2020“, sagte er.

„Sie werden alle Überlegungen anstellen, wie meine KI-Inferenz, Leistung, Kosten und mein Modell aussehen werden, und da sind wir wieder gut positioniert.“

Als Ergebnis des allgegenwärtigen Schleichens von KI, sagte Nadella, „ich denke, dass Core Azure selbst transformiert wird, das Infrastrukturgeschäft wird transformiert.“

Quelle