Meta's AI guru LeCun: Väčšina dnešných prístupov AI nikdy nepovedie k skutočnej inteligencii

yann-lecun-sept-2022-1

„Myslím si, že systémy AI musia byť schopné uvažovať,“ hovorí Yann LeCun, hlavný vedec AI spoločnosti Meta. Dnešné populárne prístupy AI, ako sú Transformers, z ktorých mnohé stavajú na jeho vlastnej priekopníckej práci v tejto oblasti, nebudú postačujúce. „Musíte urobiť krok späť a povedať: Dobre, postavili sme tento rebrík, ale chceme ísť na Mesiac a neexistuje spôsob, ako by nás tam tento rebrík dostal,“ hovorí LeCun.

Yann LeCun, hlavný vedec AI z Meta Properties, vlastníka Facebooku, Instagramu a WhatsAppu, si pravdepodobne odškrtne veľa ľudí vo svojom odbore. 

S júnovým zverejnením myšlienky na serveri Open ReviewLeCun ponúkol široký prehľad o prístupe, ktorý je podľa neho prísľubom na dosiahnutie inteligencie na úrovni ľudí v strojoch. 

Tvrdenie, že väčšina dnešných veľkých projektov v oblasti AI nebude nikdy schopná dosiahnuť tento cieľ na ľudskej úrovni, je naznačené, ak nie je vyslovené v dokumente.

V diskusii tento mesiac s ZDNet prostredníctvom programu Zoom dal LeCun jasne najavo, že na mnohé z najúspešnejších smerov výskumu v oblasti hlbokého učenia sa v súčasnosti pozerá s veľkým skepticizmom.

"Myslím si, že sú potrebné, ale nie dostatočné," povedal víťaz Turingovej ceny ZDNet prenasledovania jeho rovesníkov. 

Patria medzi ne veľké jazykové modely, ako napríklad GPT-3 založený na transformátore a im podobné. Ako to charakterizuje LeCun, oddaní Transformera veria: „Všetko tokenizujeme a trénujeme gigantickémodely na vytváranie diskrétnych predpovedí a nejako z toho vzíde AI.“

"Nemýlia sa," hovorí, "v tom zmysle, že to môže byť súčasť budúceho inteligentného systému, ale myslím si, že mu chýbajú podstatné časti."

Tiež: Umelá inteligencia spoločnosti Meta LeCun skúma energetickú hranicu hlbokého učenia

Je to prekvapujúca kritika toho, čo sa javí ako fungujúce, pochádzajúce od vedca, ktorý zdokonalil používanie konvolučných neurónových sietí, praktickej techniky, ktorá bola neuveriteľne produktívna v programoch hlbokého učenia. 

LeCun vidí nedostatky a obmedzenia v mnohých ďalších veľmi úspešných oblastiach disciplíny. 

Posilňovacie učenie tiež nikdy nebude dosť, tvrdí. Výskumníci ako David Silver z DeepMind, ktorý vyvinul program AlphaZero, ktorý ovládal šach, Shogi a Go, sa zameriavajú na programy, ktoré sú „veľmi založené na akcii“, poznamenáva LeCun, ale „väčšina učenia, ktoré robíme, nie je robte to tak, že skutočne konáte, my to robíme pozorovaním.“ 

Lecun, 62, z pohľadu desaťročí úspechov, napriek tomu vyjadruje naliehavosť konfrontovať to, čo považuje za slepé uličky, ku ktorým sa mnohí možno ponáhľajú, a pokúsiť sa naviesť svoje pole smerom, ktorým by sa podľa neho veci mali uberať. 

„Vidíme veľa tvrdení o tom, čo by sme mali urobiť, aby sme sa posunuli vpred smerom k AI na ľudskej úrovni,“ hovorí. "A sú myšlienky, o ktorých si myslím, že sú nesprávne nasmerované."

„Nie sme v bode, kde by naše inteligentné stroje mali toľko zdravého rozumu ako mačka,“ poznamenáva Lecun. "Tak prečo nezačneme tam?" 

Opustil svoju predchádzajúcu vieru v používanie generatívnych sietí vo veciach, ako je predpovedanie ďalšej snímky vo videu. "Bolo to úplné zlyhanie," hovorí. 

LeCun kritizuje tých, ktorých nazýva „náboženskými pravdepodobnostami“, ktorí si „myslia, že teória pravdepodobnosti je jediným rámcom, ktorý môžete použiť na vysvetlenie strojového učenia“. 

Čisto štatistický prístup je neriešiteľný, hovorí. „Je príliš veľa žiadať, aby bol svetový model úplne pravdepodobný; nevieme ako na to."

Nielen akademici, ale aj priemyselná AI potrebuje hlboké prehodnotenie, tvrdí LeCun. Dav samoriadiacich áut, startupy ako Wayve, boli „trochu príliš optimistické,“ hovorí, pretože si mysleli, že môžu „hodiť dáta do“ veľkých neurónových sietí „a môžete sa naučiť takmer čokoľvek.

„Viete, myslím si, že je celkom možné, že budeme mať autonómne autá piatej úrovne bez zdravého rozumu,“ hovorí s odkazom na „ADAS“. pokročilý asistenčný systém vodiča výrazy pre samoriadenie, „ale budete si to musieť sakra pripraviť.“

Verí, že takáto prepracovaná technológia s vlastným pohonom bude niečo také vŕzgajúce a krehké ako všetky programy počítačového videnia, ktoré boli zastarané hlbokým učením.

"V konečnom dôsledku bude existovať uspokojivejšie a možno aj lepšie riešenie, ktoré bude zahŕňať systémy, ktoré lepšie pochopia, ako svet funguje."

Popri tom LeCun ponúka niektoré zničujúce názory svojich najväčších kritikov, ako napríklad profesora NYU Garyho Marcusa – „nikdy ničím neprispel k AI“ – a Jürgena Schmidhubera, spoluriaditeľa Inštitútu Dalle Molle pre výskum umelej inteligencie – „je to veľmi jednoduché zasadiť vlajky.“

Okrem kritiky je dôležitejším bodom, ktorý uviedol LeCun, to, že určité základné problémy čelia všetkým AI, najmä ako merať informácie.

"Musíte urobiť krok späť a povedať: Dobre, postavili sme tento rebrík, ale chceme ísť na Mesiac a neexistuje spôsob, ako by nás tento rebrík tam dostal," hovorí LeCun o svojej túžbe podnietiť prehodnotenie. základných pojmov. "V podstate to, čo tu píšem, je, že musíme postaviť rakety, nemôžem vám poskytnúť podrobnosti o tom, ako rakety staviame, ale tu sú základné princípy."

Noviny a LeCunove myšlienky v rozhovore možno lepšie pochopiť, keď si prečítate LeCunov rozhovor zo začiatku tohto roka s ZDNet v ktorej argumentuje za samokontrolované učenie založené na energii ako cestu vpred k hlbokému učeniu. Tieto úvahy dávajú zmysel pre základný prístup k tomu, čo dúfa, že postaví ako alternatívu k veciam, o ktorých tvrdí, že sa nedostanú do cieľa. 

Nasleduje mierne upravený prepis rozhovoru.

ZDNet: Predmetom nášho rozhovoru je tento dokument „Cesta k inteligencii autonómnych strojov“, ktorého verzia 0.9.2 je existujúcou verziou, áno?

Yann LeCun: Áno, považujem to za pracovný dokument. Zverejnil som to na Open Review a čakal som, kým ľudia vyjadria pripomienky a návrhy, prípadne ďalšie referencie, a potom vytvorím revidovanú verziu. 

ZDNet: Vidím, že Juergen Schmidhuber už pridal nejaké komentáre do Open Review.

YL: No áno, vždy to robí. V mojom článku citujem jeden z jeho dokumentov. Myslím si, že argumenty, ktoré uviedol na sociálnych sieťach, že toto všetko v podstate vymyslel v roku 1991, ako to urobil v iných prípadoch, jednoducho nie sú. Chcem tým povedať, že je to veľmi jednoduchévlajkovanie a napísať nápad bez akýchkoľvek experimentov, bez akejkoľvek teórie, len navrhnúť, že by ste to mohli urobiť týmto spôsobom. Ale viete, je veľký rozdiel medzi tým, keď máte nápad, a potom ho prinútite pracovať na probléme s hračkami, a potom to prinútite pracovať na skutočnom probléme, a potom robiť teóriu, ktorá ukazuje, prečo to funguje, a potom jeho nasadením. Je tu celý reťazec a jeho predstava o vedeckom kredite je taká, že je to úplne prvý človek, ktorý tak trochu, viete, dostal nápad, ktorý by mal získať všetky uznania. A to je smiešne. 

ZDNet: Neverte všetkému, čo počujete na sociálnych sieťach. 

YL: Myslím tým, že hlavný dokument, ktorý by som mal citovať, nemá žiadnu z hlavných myšlienok, o ktorých v novinách hovorím. Urobil to aj s GAN a inými vecami, čo sa neukázalo ako pravda. Je ľahké zasadiť vlajky, oveľa ťažšie je prispieť. A mimochodom, v tomto konkrétnom článku som výslovne povedal, že to nie je vedecký článok v obvyklom zmysle slova. Je to skôr pozičný dokument o tom, kam by sa táto vec mala uberať. A je tam pár nápadov, ktoré môžu byť nové, ale väčšina z nich nie je. V podstate si nenárokujem žiadnu prioritu na väčšinu toho, čo som napísal v tom papieri.

yann-lecun-sept-2022-2

Posilňovacie učenie tiež nikdy nebude dosť, tvrdí LeCun. Výskumníci ako David Silver z DeepMind, ktorý vyvinul program AlphaZero, ktorý ovládal šachy, šógi a choď, sú „veľmi založené na akcii“, poznamenáva LeCun, ale „väčšinu učenia, ktoré robíme, nerobíme tak, že akcie, robíme to pozorovaním.“ 

ZDNet: A to je možno dobré miesto, kde začať, pretože som zvedavý, prečo ste sa teraz vydali touto cestou? Čo ťa napadlo o tomto? Prečo si to chcel napísať?

YL: Nuž, veľmi dlho som o tom premýšľal, o ceste k inteligencii na úrovni ľudí alebo zvierat alebo k učeniu a schopnostiam. A vo svojich prejavoch som o celej tejto veci dosť hovoril, že ani učenie pod dohľadom, ani učenie s posilňovaním nestačia na to, aby napodobnili druh učenia, ktorý pozorujeme u zvierat a ľudí. Robím to už asi sedem alebo osem rokov. Takže to nie je nedávne. Pred mnohými rokmi som mal na NeurIPS kľúčovú prednášku, kde som to v podstate uviedol a rôzne prednášky, nahrávky. Prečo teraz písať prácu? Prišiel som k veci – [výskumník Google Brain] Geoff Hinton urobil niečo podobné – myslím, určite, jemu viac ako mne, vidíme, ako sa kráti čas. Nie sme mladí.

ZDNet: Šesťdesiatka je nová päťdesiatka. 

YL: To je pravda, ale ide o to, že vidíme veľa tvrdení o tom, čo by sme mali urobiť, aby sme sa posunuli vpred smerom k ľudskej úrovni AI. A sú myšlienky, ktoré sú podľa mňa nesprávne smerované. Takže jedna myšlienka je, Oh, mali by sme pridať symbolické zdôvodnenie na vrchol neurónových sietí. A ja neviem ako na to. Takže to, čo som vysvetlil v tomto článku, môže byť jedným z prístupov, ktorý by urobil to isté bez explicitnej manipulácie so symbolmi. Toto je typ tradične Garyho Marcusesa na svete. Gary Marcus nie je človek AI, mimochodom, je to psychológ. Nikdy nič neprispel k AI. Odviedol naozaj dobrú prácu v experimentálnej psychológii, ale nikdy nenapísal recenzovanú prácu o AI. Takže sú tu tí ľudia. 

Existuje [výskumný vedec DeepMind] David Silvers z celého sveta, ktorý hovorí, viete, odmena je dosť, v podstate je to všetko o posilňovaní učenia, len to musíme trochu zefektívniť, dobre? A myslím si, že sa nemýlia, ale myslím si, že potrebné kroky na zefektívnenie posilňovacieho učenia by v podstate posunuli posilňovacie učenie na akúsi čerešničku na torte. A hlavnou chýbajúcou časťou je učenie sa, ako svet funguje, väčšinou pozorovaním bez akcie. Posilňovacie učenie je veľmi založené na akcii, naučíte sa veci o svete tým, že budete konať a vidieť výsledky.

ZDNet: A je zameraná na odmenu.

YL: Je zameraná na odmenu a je zameraná aj na akciu. Takže musíte konať vo svete, aby ste sa mohli o svete niečo dozvedieť. A hlavné tvrdenie, ktoré v tomto článku uvádzam o učení sa vlastným dozorom, je, že väčšina učenia, ktoré robíme, nerobíme tak, že by sme skutočne konali, ale pozorovaním. A je to veľmi neortodoxné, najmä pre ľudí, ktorí sa posilňujú, ale aj pre mnohých psychológov a kognitívnych vedcov, ktorí si myslia, že, viete, akcia je – nehovorím, že akcia nie je nevyhnutná. is nevyhnutné. Ale myslím si, že väčšina toho, čo sa učíme, je väčšinou o štruktúre sveta a zahŕňa, samozrejme, interakciu, akciu a hru a podobné veci, ale veľa z toho je pozorovanie.

ZDNet: Zároveň sa vám podarí odškrtnúť ľudí z Transformerov, jazykovo prvotriednych ľudí. Ako to môžete vytvoriť bez jazyka? Možno sa vám podarí odškrtnúť veľa ľudí. 

YL: Áno, som na to zvyknutý. Takže áno, sú tu ľudia, ktorí sú na prvom mieste v jazyku, ktorí hovoria, viete, inteligencia je o jazyku, substrátom inteligencie je jazyk, bla, bla, bla. Ale to, akosi, odmieta inteligenciu zvierat. Viete, ešte nie sme v bode, kedy by naše inteligentné stroje mali toľko rozumu ako mačka. Tak prečo nezačneme tam? Čo je to, čo mačke umožňuje vnímať okolitý svet, robiť veľmi inteligentné veci a plánovať a podobne, a psy ešte lepšie? 

Potom sú tu všetci ľudia, ktorí hovoria: Ach, inteligencia je spoločenská záležitosť, však? Sme inteligentní, pretože sa spolu rozprávame a vymieňame si informácie a bla, bla, bla. Existujú všetky druhy nesociálnych druhov, ktoré nikdy nestretnú svojich rodičov, ktorí sú veľmi inteligentní, ako chobotnice alebo orangutany.Myslím, že oni [orangutani] sú určite vychovávaní svojou matkou, ale nie sú to spoločenské zvieratá. 

Ale ďalšia kategória ľudí, ktorú by som mohol zaškrtnúť, sú ľudia, ktorí hovoria, že škálovanie je dosť. Takže v podstate používame len gigantické Transformery, trénujeme ich na multimodálnych dátach, ktoré zahŕňajú, viete, video, text, bla, bla, bla. My, akosi, skamenímevšetko a tokenizujte všetko a potom trénujte gigantickémodely na vytváranie diskrétnych predpovedí v podstate a nejako z toho vzíde AI. Nemýlia sa v tom zmysle, že to môže byť súčasť budúceho inteligentného systému. Ale myslím, že mu chýbajú podstatné časti. 

Je tu ešte jedna kategória ľudí, ktorých týmto papierom zaškrtnem. A sú to pravdepodobnosti, náboženskí pravdepodobnosti. Takže ľudia, ktorí si myslia, že teória pravdepodobnosti je jediným rámcom, ktorý môžete použiť na vysvetlenie strojového učenia. A ako som sa pokúsil v príspevku vysvetliť, je v podstate príliš veľa žiadať od svetového modelu, aby bol úplne pravdepodobný. Nevieme ako na to. Je tu výpočtová nezvládnuteľnosť. Takže navrhujem zahodiť celú túto myšlienku. A, samozrejme, viete, toto je obrovský pilier nielen strojového učenia, ale všetkých štatistík, ktoré tvrdia, že sú normálnym formalizmom strojového učenia. 

Ďalšia vec — 

ZDNet: Ste v kurze…

YL: — to sa nazýva generatívne modely. Takže myšlienka, že sa môžete naučiť predpovedať a možno sa pomocou predpovedí môžete dozvedieť veľa o svete. Takže, dávam vám kúsok videa a žiadam systém, aby predpovedal, čo sa vo videu stane ďalej. A môžem vás požiadať, aby ste predpovedali skutočné snímky videa so všetkými podrobnosťami. Ale o čom v novinách polemizujem je, že to je v skutočnosti príliš veľa na to, aby som sa pýtala a príliš komplikované. A toto je niečo, na čo som zmenil názor. Asi pred dvoma rokmi som býval zástancom toho, čo nazývam generatívne modely latentných premenných, modely, ktoré predpovedajú, čo sa stane ďalej, alebo chýbajúce informácie, prípadne pomocou latentnej premennej, ak predikcia nemôže byť deterministický. A na toto som rezignoval. A dôvod, prečo som to vzdal, je založený na empirických výsledkoch, kde sa ľudia pokúšali aplikovať, druh, predikciu alebo rekonštrukciu založený tréning typu, ktorý sa používa v BERTa veľké jazykové modely, pokúsili sa to aplikovať na obrázky a úplne zlyhali. A dôvod, prečo je to úplné zlyhanie, je opäť kvôli obmedzeniam pravdepodobnostných modelov, kde je relatívne ľahké predpovedať diskrétne tokeny, ako sú slová, pretože môžeme vypočítať rozdelenie pravdepodobnosti pre všetky slová v slovníku. To je ľahké. Ale ak požiadame systém, aby vytvoril rozdelenie pravdepodobnosti na všetky možné snímky videa, nemáme poňatia, ako ho parametrizovať, alebo máme nejakú predstavu, ako ho parametrizovať, ale nevieme, ako ho normalizovať. Naráža na neriešiteľný matematický problém, ktorý nevieme vyriešiť. 

yann-lecun-sept-2022-3

„Nie sme v bode, kde by naše inteligentné stroje mali toľko zdravého rozumu ako mačka,“ poznamenáva Lecun. „Tak prečo nezačneme tam? Čo umožňuje mačke vnímať okolitý svet, robiť veľmi inteligentné veci a plánovať a podobne, a psy ešte lepšie?

Preto hovorím, že zanechajme teóriu pravdepodobnosti alebo rámec pre podobné veci, ten slabší, modely založené na energii. Zastávam sa za to aj celé desaťročia, takže to nie je nič nové. Ale zároveň opustenie myšlienky generatívnych modelov, pretože na svete je veľa vecí, ktoré nie sú pochopiteľné a nepredvídateľné. Ak ste inžinier, hovoríte tomu hluk. Ak ste fyzik, nazývate to teplo. A ak ste človek strojového učenia, nazývate to, viete, nepodstatné detaily alebo akokoľvek.

Takže príklad, ktorý som použil v novinách alebo ktorý som použil v rozhovoroch, je, že chcete systém predpovedania sveta, ktorý by pomohol v samoriadiacom aute, však? Chce to vedieť vopred predpovedať trajektórie všetkých ostatných áut, čo sa stane s inými predmetmi, ktoré sa môžu pohybovať, chodcami, bicyklami, dieťaťom bežiacim za futbalovou loptou a podobne. Takže, všetky druhy vecí o svete. Ale na hranici cesty môžu byť stromy a dnes je vietor, takže listy sa pohybujú vo vetre a za stromami je rybník a v rybníku sú vlnky. A to sú v podstate nepredvídateľné javy. A nechcete, aby váš model minul značné množstvo zdrojov na predpovedanie vecí, ktoré sú ťažko predvídateľné a irelevantné. Preto obhajujem spoločnú architektúru vkladania, tie veci, kde sa premenná, ktorú sa snažíte modelovať, nepokúšate predpovedať, snažíte sa ju modelovať, ale prechádza cez kódovač a tento kodér dokáže eliminovať množstvo detailov o vstupe, ktoré sú irelevantné alebo príliš komplikované – v podstate ekvivalentné šumu.

ZDNet: Začiatkom tohto roka sme diskutovali o modeloch založených na energii, JEPA a H-JEPA. Mám pocit, že ak vám správne rozumiem, nachádzate bod nízkej energie, kde sú tieto dve predpovede zabudovania X a Y najviac podobné, čo znamená, že ak je v jednom holub na strome a v jednom je niečo pozadia scény, nemusia to byť podstatné body, vďaka ktorým sú tieto vsadenia blízko seba.

YL: Správny. Architektúra JEPA sa teda v skutočnosti snaží nájsť kompromis, kompromis medzi extrahovaním reprezentácií, ktoré sú maximálne informatívne o vstupoch, ale zároveň sú navzájom predvídateľné s určitou úrovňou presnosti alebo spoľahlivosti. Nájde kompromis. Ak má teda na výber medzi vynaložením obrovského množstva zdrojov vrátane podrobností o pohybe listov, a potom modelovaním dynamiky, ktorá rozhodne o tom, ako sa listy budú o sekundu pohybovať, alebo len tak, že to pustí na podlahu len v podstate spustenie premennej Y cez prediktor, ktorý eliminuje všetky tieto detaily, pravdepodobne to odstráni, pretože je príliš ťažké modelovať a zachytiť.

ZDNet: Jedna vec, ktorá vás prekvapuje, je, že ste boli veľkým zástancom výroku: „Funguje to, neskôr prídeme na teóriu termodynamiky, aby sme to vysvetlili.“ Tu ste zvolili prístup: „Neviem, ako to nevyhnutne vyriešime, ale chcem predložiť niekoľko nápadov, aby som o tom premýšľal,“ a možno sa dokonca priblížite k teórii alebo hypotéze. najmenej. To je zaujímavé, pretože veľa ľudí míňa veľa peňazí na prácu na aute, ktoré vidí chodca bez ohľadu na to, či má auto zdravý rozum. A predstavujem si, že niektorí z týchto ľudí nebudú zaškrtnutí, ale povedia: „To je v poriadku, je nám jedno, či to nemá zdravý rozum, vytvorili sme simuláciu, tá simulácia je úžasná, a budeme sa neustále zlepšovať, budeme pokračovať v škálovaní simulácie.“ 

A preto je zaujímavé, že ste v pozícii, že teraz môžete povedať, poďme o krok späť a zamyslime sa nad tým, čo robíme. A priemysel hovorí, že budeme len škálovať, škálovať, škálovať, škálovať, pretože tá kľuka naozaj funguje. Myslím tým, že polovodičová kľuka GPU naozaj funguje.

YL: Je tam asi päť otázok. Takže, myslím, škálovanie je nevyhnutné. Nekritizujem skutočnosť, že by sme mali škálovať. Mali by sme mieriť. Tieto neurónové siete sa zlepšujú, keď sa zväčšujú. Niet pochýb o tom, že by sme mali škálovať. A tie, ktoré budú mať určitú úroveň zdravého rozumu, budú veľké. Podľa mňa sa to nedá obísť. Takže škálovanie je dobré, je potrebné, ale nie dostatočné. To je pointa, o ktorej hovorím. Nie je to len škálovanie. To je prvý bod. 

Druhý bod, či je na prvom mieste teória a podobné veci. Takže si myslím, že existujú koncepty, ktoré sú na prvom mieste, že musíte urobiť krok späť a povedať, dobre, postavili sme tento rebrík, ale chceme ísť na Mesiac a neexistuje spôsob, ako by nás tam tento rebrík dostal. Takže v podstate to, čo tu píšem, je, že musíme postaviť rakety. Nemôžem vám poskytnúť podrobnosti o tom, ako staviame rakety, ale tu sú základné princípy. A nepíšem na to teóriu alebo niečo také, ale, bude to raketa, dobre? Alebo vesmírny výťah alebo čokoľvek iné. Možno nemáme všetky podrobnosti o všetkých technológiách. Snažíme sa, aby niektoré z týchto vecí fungovali, ako keby som pracoval na JEPA. Spoločné vkladanie funguje naozaj dobre na rozpoznávanie obrázkov, ale jeho použitie na trénovanie svetového modelu je problematické. Pracujeme na tom, dúfame, že sa nám to podarí soon, ale môžeme tam naraziť na prekážky, ktoré nedokážeme prekonať. 

Potom je v článku kľúčová myšlienka o uvažovaní, kde ak chceme, aby systémy boli schopné plánovať, čo si môžete predstaviť ako jednoduchú formu uvažovania, musia mať latentné premenné. Inými slovami, veci, ktoré nie sú vypočítané žiadnou neurónovou sieťou, ale veci, ktoré sú – ktorých hodnota je odvodená tak, aby sa minimalizovala nejaká objektívna funkcia, nejaká nákladová funkcia. A potom môžete použiť túto nákladovú funkciu na riadenie správania systému. A to vôbec nie je nová myšlienka, však? Toto je veľmi klasické, optimálne ovládanie, ktorého základ siaha do konca 50-tych a začiatku 60-tych rokov. Nenárokujeme si tu teda žiadnu novinku. Ale hovorím, že tento typ záverov musí byť súčasťou inteligentného systému, ktorý je schopný plánovať a ktorého správanie môže byť špecifikované alebo kontrolované nie napevno nastaveným správaním, nie imitáciou sklonu, ale objektívnou funkciou, ktorá riadi správanie – nutne neriadi učenie, ale riadi správanie. Viete, máme to v mozgu a každé zviera má pre veci vnútornú cenu alebo vnútornú motiváciu. To vedie deväťmesačné deti k tomu, aby sa chceli postaviť. Náklady na radosť, keď vstanete, tento pojem vo funkcii nákladov je pevne daný. Ale to, ako sa postavíš, nie, to je učenie.

yann-lecun-sept-2022-4

„Škálovanie je dobré, je to potrebné, ale nie dostatočné,“ hovorí LeCun o obrovských jazykových modeloch, ako sú programy založené na Transformeroch typu GPT-3. Oddaní Transformera veria: „Všetko tokenizujeme a trénujeme gigantickymodely na vytváranie diskrétnych predpovedí a nejako z toho vzíde AI... ale myslím si, že jej chýbajú podstatné časti.“

ZDNet: Len na zavŕšenie tohto bodu, veľká časť komunity hlbokého učenia sa zdá byť v poriadku pokračovať v niečom, čo nemá zdravý rozum. Zdá sa, že tu uvádzate celkom jasný argument, že v určitom bode sa to stane slepou uličkou. Niektorí ľudia hovoria, že nepotrebujeme autonómne auto so zdravým rozumom, pretože to zvládne škálovanie. Znie to, akoby ste povedali, že nie je v poriadku pokračovať v tejto ceste?

YL: Viete, myslím si, že je celkom možné, že budeme mať autonómne autá piatej úrovne bez zdravého rozumu. Ale problém s týmto prístupom, toto bude dočasný, pretože si to budete musieť sakra pripraviť. Takže, viete, zmapujte celý svet, napevno zapojte všetky druhy špecifického správania, zbierajte dostatok údajov, aby ste mali všetky, také zvláštne situácie, s ktorými sa môžete na cestách stretnúť, bla, bla, bla. A myslím si, že s dostatočnými investíciami a časom to dokážete vyprojektovať. Ale v konečnom dôsledku bude existovať uspokojivejšie a možno aj lepšie riešenie, ktoré bude zahŕňať systémy, ktoré dokážu lepšie pochopiť, ako svet funguje, a majú, viete, určitú úroveň toho, čo by sme nazvali zdravý rozum. Nemusí to byť zdravý rozum na ľudskej úrovni, ale nejaký druh vedomostí, ktoré môže systém získať sledovaním, ale nie sledovaním niekoho šoférovať, len sledovať veci, ktoré sa pohybujú a rozumieť mnohým veciam o svete, budovať základy na pozadí znalosti o fungovaní sveta, na ktorých sa môžete naučiť šoférovať. 

Dovoľte mi uviesť historický príklad. Klasické počítačové videnie bolo založené na množstve pevne zapojených, skonštruovaných modulov, nad ktorými by ste mali, akosi tenkú vrstvu učenia. Takže veci, ktoré AlexNet porazil v roku 2012, mali v podstate prvú fázu, druh, ručne robené extrakcie funkcií, ako napríklad SIFT [Scale-Invariant Feature Transform (SIFT), klasická technika videnia na identifikáciu najdôležitejších objektov na obrázku] a HOG [Histogram orientovaných gradientov, ďalšia klasická technika] a rôzne iné veci. A potom druhá vrstva, akési funkcie strednej úrovne založené na jadrách funkcií a podobne, a nejaký druh metódy bez dozoru. A potom na to dáte podporný vektorový stroj alebo relatívne jednoduchý klasifikátor. A to bol akýsi štandardný plynovod od polovice roku 2000 do roku 2012. A to bolo nahradené koncovými konvolučnými sieťami, kde nič z toho nepripájate, máte len veľa údajov, a trénujete vec od konca do konca, čo je prístup, ktorý som obhajoval už dlho, ale viete, že dovtedy to nebolo praktické pri veľkých problémoch. 

Podobný príbeh bol aj v rozpoznávaní reči, kde opäť existovalo obrovské množstvo detailného inžinierstva, ako predspracovať údaje, extrahovať cepstrum vo veľkom meradle [inverzná funkcia rýchlej Fourierovej transformácie na spracovanie signálu] a potom máte skryté Markovove modely s akousi prednastavenou architektúrou, bla, bla, bla, so zmesou Gaussovcov. A tak je to trochu rovnaká architektúra ako vízia, kde máte ručne vytvorený front-end a potom trochu bez dozoru, vyškolenú strednú vrstvu a potom vrstvu pod dohľadom navrchu. A teraz to bolo v podstate zničené end-to-end neurónovými sieťami. Takže tam vidím niečo podobné, keď sa snažím všetko naučiť, ale musíte mať správny predchádzajúci, správnu architektúru, správnu štruktúru.

yann-lecun-sept-2022-5

Dav samoriadiacich áut, startupy ako Waymo a Wayve, boli „trochu príliš optimistickí,“ hovorí, pretože si mysleli, že by „do toho mohli hodiť dáta a môžete sa naučiť takmer čokoľvek“. Samoriadiace autá na úrovni 5 ADAS sú možné, „ale budete to musieť sakra skonštruovať“ a budú „krehké“ ako prvé modely počítačového videnia.

ZDNet: Hovoríte, že niektorí ľudia sa pokúsia skonštruovať niečo, čo v súčasnosti nefunguje pomocou hlbokého učenia, aby sa to dalo použiť, povedzme, v priemysle, a začnú vytvárať niečo, čo je v počítačovom videní zastarané?

YL: Správny. A čiastočne je to dôvod, prečo boli ľudia pracujúci na autonómnom riadení za posledných pár rokov príliš optimistickí, pretože viete, že máte také, akési všeobecné veci, ako sú konvolučné siete a transformátory, že na to môžete hádzať dáta. a môže sa naučiť takmer čokoľvek. Takže poviete: Dobre, mám riešenie tohto problému. Prvá vec, ktorú urobíte, je vytvoriť demo, kde auto niekoľko minút jazdí bez toho, aby niekomu ublížilo. A potom si uvedomíte, že existuje veľa rohových puzdier a pokúsite sa nakresliť krivku toho, o koľko som lepší, keď zdvojnásobím tréningovú súpravu, a uvedomíte si, že sa tam nikdy nedostanete, pretože existujú všetky druhy rohových puzdier. . A treba mať auto, ktoré spôsobí smrteľnú nehodu menej ako každých 200 miliónov kilometrov, však? Tak čo robíš? No, kráčaš dvoma smermi. 

Prvým smerom je, ako môžem znížiť množstvo údajov, ktoré sú potrebné na to, aby sa môj systém naučil? A to je miesto, kde prichádza na scénu samokontrolné učenie. Takže veľa samoriadiacich áut má veľký záujem o samoobslužné učenie, pretože je to spôsob, ako stále využívať obrovské množstvo údajov z dohľadu na učenie sa napodobňovaním, ale dosiahnuť lepší výkon v podstate predtréning. A ešte to celkom nevyšlo, ale bude. A potom je tu ďalšia možnosť, ktorú väčšina spoločností, ktoré sú v tomto bode pokročilejšie, prijala, čo je, dobre, môžeme absolvovať komplexné školenie, ale existuje veľa prípadov, ktoré môžeme. t handle, takže ideme len navrhnúť systémy, ktoré sa postarajú o tie rohové puzdrá, a v podstate s nimi zaobchádzať ako so špeciálnymi prípadmi a napevno prepojiť ovládanie a potom napevno prepojiť množstvo základného správania na zvládnutie špeciálnych situácií. A ak máte dostatočne veľký tím inžinierov, možno sa vám to podarí. Bude to však trvať dlho a nakoniec to bude stále trochu krehké, možno dostatočne spoľahlivé na to, aby ste ho mohli nasadiť, ale s určitou úrovňou krehkosti, ktorá sa pri prístupe viac založenom na učení, ktorý by sa mohol objaviť v v budúcnosti autá nebudú mať, pretože môžu mať určitú úroveň zdravého rozumu a pochopenia toho, ako svet funguje. 

V krátkodobom horizonte zvíťazí, akýsi, inžiniersky prístup – už vyhráva. To je Waymo a Cruise sveta a Wayvea čokoľvek, to je to, čo robia. Potom je tu samokontrolovaný vzdelávací prístup, ktorý pravdepodobne pomôže inžinierskemu prístupu dosiahnuť pokrok. Ale potom, z dlhodobého hľadiska, ktoré môže byť príliš dlho na to, aby tieto spoločnosti čakali, by pravdepodobne bol, akosi, integrovanejší systém autonómneho inteligentného riadenia.

ZDNet: Hovoríme za investičným horizontom väčšiny investorov.

YL: To je správne. Otázkou teda je, či ľudia stratia trpezlivosť alebo sa minú peniaze skôr, ako výkon dosiahne požadovanú úroveň.

ZDNet: Dá sa niečo zaujímavé povedať o tom, prečo ste si vybrali niektoré prvky, ktoré ste si vybrali v modeli? Pretože citujete Kennetha Craika [1943,Povaha vysvetlenia] a citujete Brysona a Ho [1969, Aplikované optimálne ovládanie] a zaujímalo by ma, prečo ste začali s týmito vplyvmi, ak ste verili najmä tomu, že títo ľudia to dotiahli tak ďaleko, ako to, čo urobili. Prečo ste tam začali?

YL: No, nemyslím si, určite, že mali všetky detaily pribité. Takže, Bryson a Ho, toto je kniha, ktorú som čítal v roku 1987, keď som bol postdoktorandom u Geoffreyho Hintona v Toronte. Ale o tejto línii práce som vedel už predtým, keď som písal doktorát, a v podstate som vytvoril spojenie medzi optimálnou kontrolou a podporou. Ak by ste naozaj chceli byť, viete, ďalším Schmidhuberom, povedali by ste, že skutočnými vynálezcami backprop boli v skutočnosti teoretici optimálneho riadenia Henry J. Kelley, Arthur Bryson a možno aj Lev Pontryagin, ktorý je ruský teoretik optimálneho riadenia. koncom 50-tych rokov. 

Takže na to prišli a v skutočnosti môžete vidieť koreň toho, matematiku pod tým, Lagrangovu mechaniku. Takže sa v skutočnosti môžete vrátiť k Eulerovi a Lagrangeovi a nájsť závan tohto v ich definícii klasickej Lagrangeovej mechaniky. Takže v kontexte optimálneho riadenia sa títo chlapci zaujímali v podstate o výpočet trajektórií rakiet. Viete, toto bol raný vesmírny vek. A ak máte model rakety, tu vám povie, v akom stave sa raketa v danom čase nachádza ta tu je akcia, ktorú urobím, takže ťah a ovládače rôznych druhov, tu je stav rakety v čase t + 1.

ZDNet: Stavovo-akčný model, hodnotový model.

YL: Presne tak, základ kontroly. Takže teraz môžete simulovať streľbu vašej rakety predstavením si postupnosti príkazov a potom máte nejakú nákladovú funkciu, ktorou je vzdialenosť rakety od jej cieľa, vesmírnej stanice alebo čohokoľvek iného. A potom nejakým gradientom klesania môžete zistiť, ako môžem aktualizovať svoju postupnosť akcií, aby sa moja raketa skutočne dostala čo najbližšie k cieľu. A to musí prísť spätným šírením signálov späť v čase. A to je spätné šírenie, gradientné spätné šírenie. Tieto signály sa v Lagrangeovej mechanike nazývajú konjugované premenné, ale v skutočnosti sú to gradienty. Takže vynašli backprop, ale neuvedomili si, že tento princíp by sa dal použiť na trénovanie viacstupňového systému, ktorý dokáže rozpoznávať vzory alebo niečo podobné. Toto sa v skutočnosti neuskutočnilo až do konca 70-tych rokov, začiatkom 80-tych rokov, a potom to nebolo v skutočnosti implementované a fungovalo až v polovici 80-tych rokov. Dobre, takže toto je miesto, kde sa backprop skutočne, tak trochu, rozbehol, pretože ľudia tu ukázali niekoľko riadkov kódu, pomocou ktorých môžete trénovať neurónovú sieť, od konca po koniec, viacvrstvovú. A to ruší obmedzenia perceptrónu. A áno, existujú spojenia s optimálnym ovládaním, ale to je v poriadku.

ZDNet: Takže, to je dlhá cesta k tomu, aby som povedal, že tieto vplyvy, s ktorými si začínal, sa vracali späť do backpropu a to bolo pre teba dôležité ako východiskový bod?

YL: Áno, ale myslím si, že na čo ľudia trochu zabudli, bolo na tom dosť veľa práce, viete, v 90. alebo dokonca 80. rokoch, vrátane ľudí ako Michael Jordan [MIT Dept. of Brain and Cognitive Sciences] a takých ľudí, ktorí už nerobia neurónové siete, ale myšlienku, že môžete použiť neurónové siete na ovládanie a môžete použiť klasické myšlienky optimálneho ovládania. Takže veci ako to, čo sa nazýva modelovo-prediktívne riadenie, čo sa teraz nazýva modelovo-prediktívne riadenie, tento nápad, ktorý môžete simulovať alebo si predstaviť výsledok postupnosti akcií, ak máte dobrý model systému, ktorý sa pokúšate ovládať. a prostredie, v ktorom sa nachádza. A potom pomocou gradientu, v podstate – toto nie je učenie, to je odvodenie – môžete zistiť, aká je najlepšia postupnosť akcií, ktoré minimalizujú môj cieľ. Takže použitie nákladovej funkcie s latentnou premennou na odvodenie je podľa mňa niečo, na čo súčasná úroda veľkých neurónových sietí zabudla. Dlho to však bola veľmi klasická súčasť strojového učenia. Takže každá Bayesovská sieť alebo grafický model alebo pravdepodobnostný grafický model používal tento typ odvodenia. Máte model, ktorý zachytáva závislosti medzi množstvom premenných, je vám povedané hodnota niektorých premenných a potom musíte odvodiť najpravdepodobnejšiu hodnotu zvyšku premenných. To je základný princíp inferencie v grafických modeloch a Bayesovských sieťach a podobných veciach. A myslím si, že o tom by v zásade malo byť uvažovanie, uvažovanie a plánovanie.

ZDNet: Si skriňový Bayesian.

YL: Som nepravdepodobný Bayesian. Ten vtip som si robil predtým. V skutočnosti som bol na NeurIPS pred niekoľkými rokmi, myslím, že to bolo v roku 2018 alebo 2019, a na videu ma zachytil Bayesian, ktorý sa ma spýtal, či som Bayesian, a povedal som: Áno, som Bayesian, ale Ak chcete, som nepravdepodobný Bayesian, akýsi bayesiánsky založený na energii. 

ZDNet: Čo určite znie ako niečo z star Trek. Na konci tohto dokumentu ste spomenuli, že realizácia toho, čo si predstavujete, bude trvať roky skutočne tvrdej práce. Povedzte mi, v čom spočíva časť tejto práce v súčasnosti.

YL: Takže v novinách vysvetľujem, ako trénujete a budujete JEPA. A kritérium, ktoré obhajujem, je mať nejaký spôsob maximalizácie informačného obsahu, ktorý majú extrahované reprezentácie o vstupe. A potom druhým je minimalizácia chyby predikcie. A ak máte v prediktore latentnú premennú, ktorá umožňuje, aby prediktor nebol deterministický, musíte regulovať aj túto latentnú premennú minimalizovaním jej informačného obsahu. Takže máte teraz dva problémy, a to, ako maximalizovať informačný obsah výstupu nejakej neurónovej siete, a druhý je, ako minimalizovať informačný obsah nejakej latentnej premennej? A ak neurobíte tieto dve veci, systém sa zrúti. Nedozvie sa nič zaujímavé. Dá nulovú energiu všetkému, niečomu takému, čo nie je dobrý model závislosti. Je to problém prevencie kolapsu, ktorý spomínam. 

A hovorím o všetkých veciach, ktoré ľudia kedy urobili, že existujú len dve kategórie metód, ako zabrániť kolapsu. Jednou z nich sú kontrastné metódy a druhou sú regulované metódy. Takže táto myšlienka maximalizácie informačného obsahu reprezentácií dvoch vstupov a minimalizácie informačného obsahu latentnej premennej patrí k regularizovaným metódam. Ale veľa práce v týchto architektúrach spoločného vkladania používa kontrastné metódy. V skutočnosti sú momentálne asi najpopulárnejšie. Otázkou teda je, ako presne merať informačný obsah spôsobom, ktorý môžete optimalizovať alebo minimalizovať? A to je miesto, kde sa veci skomplikujú, pretože v skutočnosti nevieme, ako merať informačný obsah. Môžeme to aproximovať, môžeme to určiť hornou hranicou, môžeme robiť takéto veci. V skutočnosti však nemerajú informačný obsah, ktorý v skutočnosti do určitej miery nie je ani dobre definovaný.

ZDNet: Nie je to Shannonov zákon? Nie je to teória informácie? Máte určité množstvo entropie, dobrú entropiu a zlú entropiu a dobrá entropia je systém symbolov, ktorý funguje, zlá entropia je hluk. Nevyriešil to všetko Shannon?

YL: Máš pravdu, ale je za tým jeden veľký nedostatok. Máte pravdu v tom zmysle, že ak k vám prichádzajú údaje a môžete ich nejako kvantovať do diskrétnych symbolov a potom zmeriate pravdepodobnosť každého z týchto symbolov, potom maximálne množstvo informácií, ktoré tieto symboly nesú, je súčet možných symbolov Pi log Pi, správny? Kde Pi je pravdepodobnosť symbolu ja — to je Shannonova entropia. [Shannonov zákon sa bežne formuluje ako H = – ∑ pi log pi.]

Tu je však problém: Čo je Pi? Je to jednoduché, keď je počet symbolov malý a symboly sa kreslia nezávisle. Keď existuje veľa symbolov a závislostí, je to veľmi ťažké. Takže, ak máte postupnosť bitov a predpokladáte, že bity sú na sebe nezávislé a pravdepodobnosť je rovnaká medzi jedna a nula alebo čokoľvek iné, potom môžete ľahko zmerať entropiu, žiadny problém. Ale ak veci, ktoré k vám prichádzajú, sú vysokorozmerné vektory, ako, viete, dátové rámce alebo niečo podobné, čo je Pi? Aká je distribúcia? Najprv musíte kvantovať tento priestor, ktorý je vysokorozmerným, súvislým priestorom. Nemáte potuchy, ako to správne kvantifikovať. Môžete použiť k-means, atď. To je to, čo ľudia robia, keď robia kompresiu videa a kompresiu obrázkov. Ale je to len približné. A potom musíte urobiť predpoklady nezávislosti. Je teda jasné, že vo videu nie sú po sebe nasledujúce snímky nezávislé. Existujú závislosti a tento rámec môže závisieť od iného rámca, ktorý ste videli pred hodinou a ktorý bol obrázkom toho istého. Takže viete, nemôžete merať Pi. Merať Pi, musíte mať systém strojového učenia, ktorý sa naučí predpovedať. A tak ste späť k predchádzajúcemu problému. Takže v podstate môžete len približovať mieru informácií. 

yann-lecun-sept-2022-6

"Otázkou je, ako presne merať informačný obsah spôsobom, ktorý môžete optimalizovať alebo minimalizovať?" hovorí LeCun. "A to je miesto, kde sa veci skomplikujú, pretože v skutočnosti nevieme, ako merať informačný obsah." Najlepšie, čo sa dá zatiaľ urobiť, je nájsť proxy, ktorý je „dosť dobrý na úlohu, ktorú chceme“.

Uvediem konkrétnejší príklad. Jedným z algoritmov, s ktorým sme sa hrali a o ktorom som v tomto článku hovoril, je táto vec nazývaná VICReg, variácia-invariancia-kovariančná regularizácia. Je to v samostatnom dokumente, ktorý bol publikovaný v ICLR, a bolo to umiestnené na arXiv asi rok predtým, 2021. A myšlienkou je maximalizovať informácie. A táto myšlienka vlastne vyplynula zo skoršieho článku mojej skupiny s názvom Dvojčatá Barlow. Informačný obsah vektora vychádzajúceho z neurónovej siete maximalizujete tým, že v podstate predpokladáte, že jedinou závislosťou medzi premennými je korelácia, lineárna závislosť. Takže, ak predpokladáte, že jedinou závislosťou, ktorá je možná medzi pármi premenných alebo medzi premennými vo vašom systéme, sú korelácie medzi pármi cenností, čo je extrémne hrubá aproximácia, potom môžete maximalizovať informačný obsah vychádzajúci z vášho systému. uistením sa, že všetky premenné majú nenulový rozptyl – povedzme, rozptyl jedna, nezáleží na tom, čo to je – a potom ich spätnou koreláciou, rovnaký proces, ktorý sa nazýva bielenie, tiež nie je nový. Problém je v tom, že veľmi dobre môžete mať extrémne zložité závislosti medzi skupinami premenných alebo dokonca len pármi premenných, ktoré nie sú lineárnymi závislosťami, a neukazujú sa v koreláciách. Takže napríklad, ak máte dve premenné a všetky body týchto dvoch premenných sú zoradené do nejakej špirály, medzi týmito dvoma premennými je veľmi silná závislosť, však? Ale v skutočnosti, ak vypočítate koreláciu medzi týmito dvoma premennými, nie sú korelované. Takže, tu je príklad, kde je informačný obsah týchto dvoch premenných v skutočnosti veľmi malý, je to len jedna veličina, pretože je to vaša pozícia v špirále. Sú nekorelované, takže si myslíte, že máte veľa informácií, ktoré pochádzajú z týchto dvoch premenných, hoci v skutočnosti nie, máte len, viete, v podstate môžete predpovedať jednu z premenných od druhej. To teda ukazuje, že máme len veľmi približné spôsoby merania obsahu informácií.

ZDNet: Takže toto je jedna z vecí, na ktorých teraz musíte pracovať? Toto je väčšia otázka, ako vieme, kedy maximalizujeme a minimalizujeme informačný obsah?

YL:  Alebo či je proxy server, ktorý na to používame, dosť dobrý na úlohu, ktorú chceme. V skutočnosti to robíme stále v strojovom učení. Nákladové funkcie, ktoré minimalizujeme, nikdy nie sú tými, ktoré skutočne chceme minimalizovať. Takže napríklad chcete urobiť klasifikáciu, dobre? Funkciou nákladov, ktorú chcete minimalizovať pri trénovaní klasifikátora, je počet chýb, ktoré klasifikátor robí. Ale to je nediferencovateľná, strašná nákladová funkcia, ktorú nemôžete minimalizovať, pretože viete, že zmeníte váhy svojej neurónovej siete, nič sa nezmení, kým jedna z týchto vzoriek neprevráti svoje rozhodnutie a potom skok v chybe, pozitívne alebo negatívne.

ZDNet: Takže máte proxy, čo je objektívna funkcia, o ktorej môžete určite povedať, že môžeme určite plynúť gradienty tejto veci.

YL: To je správne. Takže ľudia používajú túto stratu krížovej entropie alebo SOFTMAX, máte pre to niekoľko mien, ale je to to isté. A v podstate ide o hladkú aproximáciu počtu chýb, ktoré systém robí, pričom vyhladzovanie sa v podstate robí tak, že sa berie do úvahy skóre, ktoré systém prideľuje každej z kategórií.

ZDNet: Je niečo, čo sme neprebrali, čo by ste chceli pokryť?

YL: Pravdepodobne zdôrazňuje hlavné body. Myslím si, že systémy AI musia byť schopné uvažovať a proces, ktorý obhajujem, je minimalizácia určitého cieľa s ohľadom na nejakú latentnú premennú. To umožňuje systémom plánovať a uvažovať. Myslím si, že by sme mali opustiť pravdepodobnostný rámec, pretože je neriešiteľný, keď chceme robiť veci, ako je zachytávanie závislostí medzi vysokorozmernými spojitými premennými. A ja obhajujem opustenie generatívnych modelov, pretože systém bude musieť venovať príliš veľa zdrojov na predpovedanie vecí, ktoré je príliš ťažké predpovedať a možno spotrebuje príliš veľa zdrojov. A to je asi tak všetko. To sú hlavné správy, ak chcete. A potom celková architektúra. Potom sú tu také špekulácie o povahe vedomia a úlohe konfigurátora, ale to sú skutočne špekulácie.

ZDNet: K tomu sa dostaneme nabudúce. Chcel som sa ťa opýtať, ako porovnávaš túto vec? Ale predpokladám, že ste teraz trochu ďalej od benchmarkingu?

YL: Nie nevyhnutne tak ďaleko v, akési, zjednodušené verzie. Môžete robiť to, čo každý robí pri ovládaní alebo posilňovaní učenia, čo znamená, že trénujete hru na Atari hry alebo niečo podobné alebo inú hru, ktorá má v sebe určitú neistotu.

ZDNet: Ďakujem za tvoj čas, Yann.

zdroj