Метин АИ гуру ЛеКун: Већина данашњих приступа вештачкој интелигенцији никада неће довести до праве интелигенције

ианн-лецун-септ-2022-1

„Мислим да системи вештачке интелигенције морају да буду у стању да расуђују“, каже Јан ЛеКун, главни научник АИ компаније Мета. Данашњи популарни приступи вештачкој интелигенцији као што су Трансформерс, од којих се многи заснивају на његовом сопственом пионирском раду на терену, неће бити довољни. „Морате да направите корак уназад и кажете: У реду, направили смо ове мердевине, али желимо да идемо на Месец, и нема шансе да нас ове мердевине одведу тамо“, каже ЛеКун.

Јан ЛеКун, главни научник АИ компаније Мета Пропертиес, власника Фацебоок-а, Инстаграма и ВхатсАпп-а, вероватно ће одушевити многе људе у својој области. 

Са објављивањем у јуну размишљања на серверу Опен Ревиев, ЛеКун је понудио широк преглед приступа за који сматра да обећава за постизање интелигенције на нивоу људи у машинама. 

У раду се подразумева ако није артикулисана тврдња да већина данашњих великих пројеката у вештачкој интелигенцији никада неће моћи да достигне тај циљ на нивоу човека.

У расправи овог месеца са ЗДНет преко Зоом-а, ЛеКун је јасно ставио до знања да са великим скептицизмом гледа на многе од најуспешнијих путева истраживања дубоког учења у овом тренутку.

„Мислим да су неопходне, али нису довољне“, рекао је добитник Тјурингове награде ЗДНет потраге његових вршњака. 

То укључује велике језичке моделе као што је ГПТ-3 заснован на Трансформеру и њима сличним. Како то ЛеКун описује, поклоници Трансформера верују: „Све токенизујемо и тренирамо гигантскемодели за дискретна предвиђања, и некако ће АИ изаћи из овога."

„Они нису у криву“, каже он, „у смислу да то може бити компонента будућег интелигентног система, али мислим да му недостају суштински делови.“

Такође: Мета-ин свет вештачке интелигенције ЛеКун истражује енергетске границе дубоког учења

То је запањујућа критика онога што изгледа да функционише долази од научника који је усавршио употребу конволуционих неуронских мрежа, практичне технике која је била невероватно продуктивна у програмима дубоког учења. 

ЛеКун види недостатке и ограничења у многим другим веома успешним областима дисциплине. 

Учење са појачањем такође никада неће бити довољно, тврди он. Истраживачи као што је Давид Силвер из ДеепМинд-а, који је развио програм АлпхаЗеро који је савладао шах, шоги и го, фокусирају се на програме који су „веома засновани на акцији“, примећује ЛеКун, али „већину учења које радимо ми не урадимо то тако што заиста предузимамо акције, ми то радимо посматрајући." 

Лецун, 62, из перспективе деценија достигнућа, ипак изражава хитност да се суочи са оним што он мисли да су ћорсокаци у које многи можда журе, и да покуша да наведе своје поље у правцу у којем мисли да би ствари требало да иду. 

„Видимо много тврдњи о томе шта треба да урадимо да напредујемо ка вештачкој интелигенцији на људском нивоу“, каже он. "И постоје идеје за које мислим да су погрешно усмерене."

„Нисмо до тачке у којој наше интелигентне машине имају толико здравог разума као мачка“, примећује Лекун. "Па, зашто не бисмо почели тамо?" 

Он је напустио своју претходну веру у коришћење генеративних мрежа у стварима као што је предвиђање следећег кадра у видеу. „То је био потпуни неуспех“, каже он. 

ЛеКун осуђује оне које назива „верским вероватноћарима“, који „сматрају да је теорија вероватноће једини оквир који можете користити да објасните машинско учење“. 

Чисто статистички приступ је нерешив, каже он. „Превише је тражити да светски модел буде потпуно вероватноћан; не знамо како то да урадимо.”

Не само академици, већ и индустријској вештачкој интелигенцији је потребно дубоко преиспитивање, тврди ЛеКун. Гомила самовозећих аутомобила, стартапи као што је Ваиве, били су „мало превише оптимистични“, каже он, мислећи да би могли „бацити податке на“ велике неуронске мреже „и можете научити скоро све“.

„Знате, мислим да је сасвим могуће да ћемо имати аутономне аутомобиле петог нивоа без здравог разума“, каже он, мислећи на „АДАС“, напредни систем помоћи возачу термини за само-вожњу, „али ћете морати да га испланирате.

Таква претерано конструисана технологија самовожње биће нешто тако шкрипава и крхка као и сви програми компјутерског вида који су застарели дубоким учењем, верује он.

„На крају, постојаће задовољавајуће и можда боље решење које укључује системе који боље разумеју начин на који свет функционише.”

Успут, ЛеКун нуди неке суморне ставове својих највећих критичара, као што су професор НИУ Гери Маркус — „он никада није ништа допринео АИ“ — и Јирген Шмидхубер, ко-директор Далле Молле института за истраживање вештачке интелигенције — „то је веома лако поставити заставу.”

Осим критика, важнија поента коју је изнео ЛеКун је да се одређени фундаментални проблеми суочавају са читавом вештачком интелигенцијом, посебно како мерити информације.

„Морате да направите корак уназад и кажете, у реду, направили смо ове мердевине, али желимо да идемо на Месец, и нема шансе да нас ове мердевине одведу тамо“, каже ЛеКун о својој жељи да подстакне преиспитивање основних појмова. „У суштини, ово што пишем овде је да морамо да правимо ракете, не могу да вам дам детаље о томе како правимо ракете, али ево основних принципа.

Рад и ЛеКунове мисли у интервјуу могу се боље разумети читањем ЛеКуновог интервјуа раније ове године са ЗДНет у коме се залаже за самонадгледано учење засновано на енергији као пут напред за дубоко учење. Та размишљања дају осећај суштинског приступа ономе што се нада да ће изградити као алтернативу стварима за које тврди да неће стићи до циља. 

Оно што следи је лагано уређен транскрипт интервјуа.

ЗДНет: Предмет нашег ћаскања је овај рад, „Пут ка аутономној машинској интелигенцији“, чија је верзија 0.9.2 постојећа верзија, зар не?

Јан ЛеКун: Да, сматрам ово, на неки начин, радним документом. Дакле, поставио сам га на Опен Ревиев, чекајући да људи дају коментаре и сугестије, можда додатне референце, а онда ћу направити ревидирану верзију. 

ЗДНет: Видим да је Јуерген Сцхмидхубер већ додао неке коментаре у Опен Ревиев.

ИЛ: Па, да, увек ради. Цитирам један од његових радова тамо у свом раду. Мислим да аргументи које је износио на друштвеним мрежама да је он све ово измислио 1991. године, као што је то чинио у другим случајевима, једноставно нису тачни. Мислим, то је врло лако урадитипостављање заставе, и да, на неки начин, напишете идеју без икаквих експеримената, без икакве теорије, само сугеришите да бисте то могли да урадите на овај начин. Али, знате, постоји велика разлика између само да имате идеју, а затим да је натерате да ради на проблему играчке, а затим да је натерате да ради на стварном проблему, и онда урадите теорију која показује зашто функционише, и онда размештајући га. Постоји читав ланац, а његова идеја о научним заслугама је да је прва особа која је, на неки начин, имала идеју о томе, требало да добије све заслуге. И то је смешно. 

ЗДНет: Не верујте свему што чујете на друштвеним мрежама. 

ИЛ: Мислим, главни рад за који каже да треба да цитирам нема ниједну од главних идеја о којима говорим у раду. То је урадио и са ГАН-овима и другим стварима, што се није показало тачним. Лако је направити заставу, много је теже дати допринос. И, иначе, у овом конкретном раду сам изричито рекао да ово није научни рад у уобичајеном смислу те речи. То је више папир о ставу о томе где ова ствар треба да иде. И постоји неколико идеја које би могле бити нове, али већина није. Не тражим никакав приоритет за већину онога што сам написао у том раду, у суштини.

ианн-лецун-септ-2022-2

Учење са појачањем такође никада неће бити довољно, тврди ЛеКун. Истраживачи као што је Давид Силвер из ДеепМинд-а, који је развио програм АлпхаЗеро који је савладао шах, шоги и го, „веома су засновани на акцији“, примећује ЛеКун, али „већину учења које изводимо не радимо тако што акције, ми то радимо посматрајући.” 

ЗДНет: И то је можда добро место за почетак, јер ме занима зашто сте сада кренули овим путем? Шта те је навело на размишљање о овоме? Зашто си хтео ово да напишеш?

ИЛ: Па, дакле, размишљам о овоме веома дуго, о путу ка интелигенцији на људском или животињском нивоу или учењу и способностима. И, у својим разговорима, био сам прилично гласан у вези целе ове ствари да су и надгледано учење и учење са појачањем недовољни да опонашају врсту учења коју посматрамо код животиња и људи. Ово радим отприлике седам или осам година. Дакле, није недавно. Имао сам главну реч на НеурИПС-у пре много година где сам то изнео, у суштини, и разни разговори, постоје снимци. Зашто сада писати рад? Дошао сам до тачке — [истраживач Гоогле мозга] Џеф Хинтон је урадио нешто слично — мислим, свакако, више него ја, видимо да време истиче. Нисмо млади.

ЗДНет: Шездесет је нових педесет. 

ИЛ: То је тачно, али поента је да видимо много тврдњи о томе шта треба да урадимо да напредујемо ка људском нивоу АИ. И постоје идеје за које мислим да су погрешно усмерене. Дакле, једна идеја је, Ох, требало би само да додамо симболичко резоновање поврх неуронских мрежа. И не знам како да ово урадим. Дакле, можда би оно што сам објаснио у раду могао бити један приступ који би урадио исту ствар без експлицитне манипулације симболима. Ово је врста традиционалног Гари Марцусеса у свету. Гери Маркус није АИ особа, иначе, он је психолог. Никада није ништа допринео АИ. Урадио је заиста добар посао у експерименталној психологији, али никада није написао рецензирани рад о АИ. Дакле, ту су ти људи. 

Постоји [научник истраживања принципа ДеепМинд] Давид Силверс из света који каже, знате, награда је довољна, у суштини, све је у учењу са појачањем, само треба да га учинимо мало ефикаснијим, у реду? И, мислим да нису у криву, али мислим да би неопходни кораци ка томе да учење са појачањем буде ефикасније, у основи, умањили учење са појачањем као трешњу на торти. А главни део који недостаје је учење како свет функционише, углавном посматрањем без акције. Учење са појачањем је веома засновано на акцијама, научите ствари о свету тако што ћете предузети акције и видети резултате.

ЗДНет: И фокусиран је на награду.

ИЛ: Фокусиран је на награду, а такође и на акцију. Дакле, морате да делујете у свету да бисте могли да научите нешто о свету. А главна тврдња коју износим у раду о самонадгледаном учењу је да већину учења које радимо не радимо тако што заправо предузимамо акције, ми то радимо посматрајући. И то је веома неортодоксно, како за људе који уче са појачањем, посебно, али и за многе психологе и когнитивне научнике који мисле да је, знате, акција – не кажем да акција није суштинска, она is суштински. Али мислим да је највећи део онога што учимо углавном о структури света, и укључује, наравно, интеракцију и акцију и игру, и сличне ствари, али доста тога је посматрање.

ЗДНет: Такође ћете успети да означите људе Трансформера, људе који су први језик, у исто време. Како можете ово изградити без језика? Можда ћете успети да одбаците многе људе. 

ИЛ: Да, навикао сам на то. Дакле, да, ту су људи на првом месту, који кажу, знате, интелигенција је везана за језик, супстрат интелигенције је језик, бла, бла, бла. Али то, на неки начин, одбацује животињску интелигенцију. Знате, нисмо до те мере да наше интелигентне машине имају здрав разум као мачка. Па, зашто не бисмо почели тамо? Шта је то што омогућава мачки да схвати околни свет, ради прилично паметне ствари, планира и сличне ствари, а псима још боље? 

Онда постоје сви људи који кажу, о, интелигенција је друштвена ствар, зар не? Интелигентни смо јер разговарамо једни са другима и размењујемо информације, и бла, бла, бла. Постоје све врсте несоцијалних врста које никада не упознају своје родитеље који су веома паметни, попут хоботнице или орангутана.Мислим, њих [орангутане] свакако образује њихова мајка, али они нису друштвене животиње. 

Али друга категорија људи коју бих могао означити су људи који кажу да је скалирање довољно. Дакле, у основи, ми само користимо гигантске трансформаторе, обучавамо их на мултимодалним подацима који укључују, знате, видео, текст, бла, бла, бла. Ми се, некако, окаменимосве, и токенизујте све, а затим тренирајте гигантскимодели за прављење дискретних предвиђања, у основи, и некако ће из овога произаћи АИ. Они нису у криву, у смислу да то може бити компонента будућег интелигентног система. Али мислим да недостају битни делови. 

Постоји још једна категорија људи које ћу означити овим папиром. И то су пробабилисти, верски пробабилисти. Дакле, људи који мисле да је теорија вероватноће једини оквир који можете користити да објасните машинско учење. И као што сам покушао да објасним у делу, у суштини је превише тражити да светски модел буде потпуно вероватноћан. Не знамо како то да урадимо. Ту је рачунска неспособност. Зато предлажем да одустанемо од целе ове идеје. И наравно, знате, ово је огроман стуб не само машинског учења, већ и целокупне статистике, која тврди да је нормалан формализам за машинско учење. 

Друга ствар - 

ЗДНет: Ви сте на путу…

ИЛ: — је оно што се зове генеративни модели. Дакле, идеја да можете научити да предвиђате, а можда можете научити много о свету предвиђањем. Дакле, дајем вам део видео снимка и тражим од система да предвиди шта ће се следеће десити на снимку. И можда ћу вас замолити да предвидите стварне видео оквире са свим детаљима. Али оно о чему ја тврдим у новинама је да је то заправо превише да се тражи и превише компликовано. И ово је нешто о чему сам се предомислио. До пре отприлике две године, био сам заговорник онога што називам латентним варијабилним генеративним моделима, модела који предвиђају шта ће се следеће десити или информације које недостају, вероватно уз помоћ латентне варијабле, ако предвиђање не може бити детерминистички. И одустао сам од овога. А разлог зашто сам одустао од овога је заснован на емпиријским резултатима, где су људи покушали да примене, неку врсту, предвиђање или обуку засновану на реконструкцији типа који се користи у БЕРТ-уи велике језичке моделе, покушали су то да примене на слике, и то је био потпуни неуспех. А разлог зашто је то потпуни неуспех је, опет, због ограничења вероватноистичких модела где је релативно лако предвидети дискретне токене попут речи јер можемо да израчунамо дистрибуцију вероватноће за све речи у речнику. То је лако. Али ако тражимо од система да произведе дистрибуцију вероватноће на све могуће видео оквире, немамо појма како да га параметризујемо, или имамо неку идеју како да га параметризујемо, али не знамо како да га нормализујемо. То погађа нерешиви математички проблем који не знамо како да решимо. 

ианн-лецун-септ-2022-3

„Нисмо до тачке у којој наше интелигентне машине имају толико здравог разума као мачка“, примећује Лекун. „Па, зашто не бисмо почели тамо? Шта је то што омогућава мачки да схвати околни свет, ради прилично паметне ствари, планира и сличне ствари, а псима још боље?"

Дакле, зато кажем хајде да напустимо теорију вероватноће или оквир за такве ствари, слабије, моделе засноване на енергији. И ја се за то залажем деценијама, тако да ово није новина. Али у исто време, напуштање идеје генеративних модела јер има много ствари на свету које нису разумљиве и непредвидиве. Ако сте инжењер, то називате буком. Ако сте физичар, то називате топлотом. А ако сте особа која се бави машинским учењем, ви то називате, знате, небитним детаљима или како год.

Дакле, пример који сам користио у раду или сам користио у разговорима је да желите систем предвиђања света који би помогао у аутомобилу који се самостално вози, зар не? Жели да буде у стању да унапред предвиди путање свих других аутомобила, шта ће се десити са другим објектима који би се могли померити, пешацима, бициклима, клинцем који трчи за фудбалском лоптом, итд. Дакле, све врсте ствари о свету. Али поред пута, можда има дрвећа, а данас има ветра, тако да се лишће креће на ветру, а иза дрвећа је језерце, а у бари има таласа. А то су, у суштини, углавном непредвидиве појаве. И, не желите да ваш модел троши значајну количину ресурса на предвиђање оних ствари које је и тешко предвидети и које су ирелевантне. Зато се залажем за архитектуру заједничког уграђивања, оне ствари где променљива коју покушавате да моделујете, не покушавате да је предвидите, покушавате да је моделујете, али она пролази кроз кодер, и тај енкодер може елиминисати много детаља о улазу који су ирелевантни или сувише компликовани — у суштини, еквивалентни шуму.

ЗДНет: Раније ове године смо разговарали о енергетски заснованим моделима, ЈЕПА и Х-ЈЕПА. Мој осећај, ако сам вас добро разумео, је да проналазите тачку ниске енергије где су ова два предвиђања уградње Кс и И најсличнија, што значи да ако је голуб на дрвету у једном, а има нешто у позадина сцене, то можда нису кључне тачке које чине ове уградње блиским једна другој.

ИЛ: Јел тако. Дакле, ЈЕПА архитектура заправо покушава да пронађе компромис, компромис, између издвајања репрезентација које су максимално информативне о улазима, али такође предвидиве једна од друге са одређеним нивоом тачности или поузданости. Проналази компромис. Дакле, ако има избор између трошења огромне количине ресурса укључујући детаље о кретању листова, а затим моделирања динамике која ће одлучити како ће се листови кретати за секунду од сада, или једноставног спуштања тога на под само у основи покреће променљиву И кроз предиктор који елиминише све те детаље, вероватно ће га само елиминисати јер је једноставно превише тешко моделирати и ухватити.

ЗДНет: Једна ствар која вас изненађује јесте да сте били велики заговорник речи „Ради, касније ћемо схватити теорију термодинамике да бисмо то објаснили“. Овде сте заузели приступ: „Не знам како ћемо то нужно решити, али желим да изнесем неке идеје да размислимо о томе“, а можда чак и приступ теорији или хипотези, на најмање. То је занимљиво јер има много људи који троше много новца радећи на аутомобилу који може да види пешака без обзира да ли аутомобил има здрав разум. И замишљам да ће неки од тих људи бити, не означени, али ће рећи: „У реду је, није нас брига ако нема здравог разума, направили смо симулацију, симулација је невероватна, и наставићемо да се побољшавамо, наставићемо да скалирамо симулацију.” 

И тако је занимљиво да сте у позицији да сада кажете, хајде да се вратимо и размислимо о томе шта радимо. А индустрија каже да ћемо само да повећавамо размере, размере, размере, размере, јер та ручица заиста ради. Мислим, полупроводничка ручица ГПУ-а заиста ради.

ИЛ: Има, као, пет питања. Дакле, мислим, скалирање је неопходно. Не критикујем чињеницу да треба да се повећамо. Требали бисмо скалирати. Те неуронске мреже постају све боље како постају веће. Нема сумње да бисмо требали да скалирамо. А они који ће имати неки ниво здравог разума биће велики. Не постоји начин да се то заобиђе, мислим. Дакле, скалирање је добро, неопходно је, али није довољно. То је поента коју желим да кажем. Није само скалирање. То је прва тачка. 

Друга тачка, да ли је теорија на првом месту и сличне ствари. Дакле, мислим да постоје концепти који су на првом месту да морате да направите корак уназад и кажете, у реду, направили смо ове мердевине, али желимо да идемо на Месец и нема шансе да нас ове мердевине одведу тамо. Дакле, у суштини, оно што пишем овде је да морамо да правимо ракете. Не могу вам дати детаље о томе како правимо ракете, али ево основних принципа. И не пишем теорију за то или било шта, али, то ће бити ракета, у реду? Или свемирски лифт или било шта друго. Можда немамо све детаље о свим технологијама. Покушавамо да неке од тих ствари функционишу, као да сам радио на ЈЕПА. Заједничко уграђивање заиста добро функционише за препознавање слика, али постоје потешкоће да га користите за обуку светског модела. Радимо на томе, надамо се да ћемо успети soon, али тамо можемо наићи на неке препреке које не можемо савладати, могуће. 

Затим постоји кључна идеја у раду о расуђивању где ако желимо да системи могу да планирају, што можете замислити као једноставан облик резоновања, они морају да имају латентне варијабле. Другим речима, ствари које не израчунава ниједна неуронска мрежа, већ ствари које јесу — чија се вредност изводи тако да се минимизира нека циљна функција, нека функција трошкова. И онда можете користити ову функцију трошкова да управљате понашањем система. И ово уопште није нова идеја, зар не? Ово је веома класична, оптимална контрола где основа сеже до касних 50-их, раних 60-их. Дакле, не захтевајући никакве новине овде. Али оно што ја кажем је да ова врста закључивања мора бити део интелигентног система који је способан за планирање и чије понашање може бити специфицирано или контролисано не чврстим понашањем, не имитацијом склоности, већ објективном функцијом која покреће понашање — не подстиче учење, нужно, али покреће понашање. Знате, то имамо у нашем мозгу, и свака животиња има интринзичну цену или интринзичну мотивацију за ствари. То доводи до тога да бебе старе девет месеци желе да устану. Цена да будете срећни када устанете, тај термин у функцији трошкова је чврсто повезан. Али како се усправиш није, то је учење.

ианн-лецун-септ-2022-4

„Скалирање је добро, неопходно је, али није довољно“, каже ЛеКун о огромним језичким моделима као што су програми засновани на Трансформеру ГПТ-3 варијанте. Бхакте Трансформера верују: „Све токенизујемо и тренирамо гигантскимодели за дискретна предвиђања, и некако ће АИ изаћи из овога ... али мислим да му недостају суштински делови."

ЗДНет: Само да заокружимо ту тачку, чини се да велики део заједнице дубоког учења добро наставља са нечим што нема здрав разум. Чини се да овде износите прилично јасан аргумент да у неком тренутку то постаје ћорсокак. Неки људи кажу да нам не треба аутономни аутомобил са здравим разумом јер ће то учинити скалирање. Звучи као да кажеш да није у реду само наставити тим путем?

ИЛ: Знате, мислим да је сасвим могуће да ћемо имати аутономне аутомобиле петог нивоа без здравог разума. Али проблем са овим приступом, ово ће бити привремен, јер ћете морати да га испланирате. Дакле, знате, мапирајте цео свет, учврстите све врсте специфичног понашања у кутовима, прикупите довољно података да имате све, некако, чудне ситуације на које можете наићи на путевима, бла, бла, бла. И моја претпоставка је да уз довољно улагања и времена, можете једноставно да направите пакао од тога. Али на крају, постојаће задовољавајуће и можда боље решење које укључује системе који боље разумеју начин на који свет функционише и који имају, знате, неки ниво онога што бисмо назвали здравим разумом. То не мора да буде здрав разум на нивоу човека, већ нека врста знања које систем може да стекне гледајући, али не гледајући како неко вози, само гледајући ствари које се крећу около и разумевајући много о свету, изградњом темеља знање о томе како свет функционише, а поврх тога можете научити да возите. 

Дозволите ми да узмем историјски пример овога. Класична компјутерска визија била је заснована на пуно ожичених, пројектованих модула, поврх којих бисте имали, на неки начин, танак слој учења. Дакле, ствари које је победио АлекНет 2012. године, имале су у основи прву фазу, неку врсту, ручно израђених екстракција карактеристика, попут СИФТ-а [Сцале-Инвариант Феатуре Трансформ (СИФТ), класична техника визије за идентификацију истакнутих објеката на слици] и ХОГ [Хистограм оријентисаних градијената, још једна класична техника] и разне друге ствари. А онда други слој, нека врста, функција средњег нивоа заснованих на језгру карактеристика и било чему, и нека врста ненадзираног метода. И онда на ово, ставите машину за вектор подршке, или у супротном релативно једноставан класификатор. И то је био, на неки начин, стандардни цевовод од средине 2000-их до 2012. И то је замењено конволуционим мрежама од краја до краја, где ништа од овога не повезујете, само имате пуно података, и тренираш ствар од краја до краја, што је приступ који сам ја дуго заступао, али знаш, до тада није био практичан за велике проблеме. 

Постојала је слична прича у препознавању говора где је, опет, постојала огромна количина детаљног инжењеринга за начин на који претходно обрађујете податке, извлачите кепструм масовног обима [инверзни од Брзе Фуријеове трансформације за обраду сигнала], а затим имате Скривене Марков моделе, са неком врстом, унапред подешеном архитектуром, бла, бла, бла, са мешавином Гаусових. И тако, то је помало иста архитектура као визија где имате ручно израђени фронт-енд, а затим донекле ненадгледани, обучени средњи слој, а затим надзирани слој на врху. А сада је то, у суштини, збрисано неуронским мрежама од краја до краја. Тако да видим нешто слично тамо када покушавате да научите све, али морате имати прави претходни, праву архитектуру, праву структуру.

ианн-лецун-септ-2022-5

Гомила самовозећих аутомобила, стартапи као што су Ваимо и Ваиве, били су "мало превише оптимистични", каже он, мислећи да би могли да "баце податке на то и можете научити скоро све." Аутомобили који се сами возе на нивоу 5 АДАС-а су могући, „али ћете морати да их дођавола направите“ и биће „крхки“ као рани модели компјутерског вида.

ЗДНет: Оно што кажете је да ће неки људи покушати да осмисле оно што тренутно не функционише са дубоким учењем за применљивост, рецимо, у индустрији, и почеће да стварају нешто што је ствар која је застарела у компјутерском виду?

ИЛ: Јел тако. И то је делимично разлог зашто су људи који раде на аутономној вожњи били превише оптимистични у последњих неколико година, зато што, знате, имате ове, неке врсте, генеричке ствари као што су конволуционе мреже и трансформатори, на које можете да бацате податке , и може научити скоро све. Дакле, кажете, у реду, имам решење за тај проблем. Прва ствар коју урадите је да направите демонстрацију у којој се ауто вози неколико минута, а да никога не повредите. И онда схватите да постоји много кутија за углове, и покушате да нацртате криву колико сам бољи док удвостручујем сет за обуку, и схватите да никада нећете стићи тамо јер постоје све врсте кутија . И морате имати аутомобил који ће изазвати фаталну несрећу мање од сваких 200 милиона километара, зар не? Па шта ти радиш? Па, ходаш у два правца. 

Први правац је, како да смањим количину података која је неопходна да би мој систем научио? И ту долази самонадзирано учење. Дакле, многе одеће за самовозеће аутомобиле су веома заинтересоване за самонадзирано учење јер је то начин да се и даље користе огромне количине надзорних података за имитацију учења, али да се боље перформансе пре-тренинг, у суштини. И то још није сасвим испало, али хоће. А ту је и друга опција, коју је већина компанија које су напредније у овом тренутку усвојила, а то је, у реду, можемо да спроведемо обуку од краја до краја, али постоји много случајева које можемо да урадимо. т руковати, тако да ћемо само да конструишемо системе који ће се побринути за те кутне случајеве, и, у суштини, третирати их као посебне случајеве, и повезати контролу, а затим ожичити много основног понашања за руковање посебним ситуацијама. А ако имате довољно велики тим инжењера, можда ћете то извести. Али то ће потрајати, и на крају ће и даље бити мало крхко, можда довољно поуздано да га можете применити, али са извесним нивоом крхкости, што би се, уз приступ који је више заснован на учењу, могао појавити у будућности, аутомобили неће имати јер би могли имати неки ниво здравог разума и разумевања о томе како свет функционише. 

Краткорочно, нека врста, пројектовани приступ ће победити — већ побеђује. То је Ваимо и Цруисе света и Ваивеи шта год, то је оно што они раде. Затим постоји приступ самонадзираном учењу, који ће вероватно помоћи пројектованом приступу да напредује. Али онда, на дуге стазе, што може бити предуго за те компаније да чекају, вероватно би био, на неки начин, интегрисанији систем аутономне интелигентне вожње.

ЗДНет: Кажемо ван хоризонта улагања већине инвеститора.

ИЛ: Тако је. Дакле, питање је да ли ће људи изгубити стрпљење или остати без новца пре него што учинак достигне жељени ниво.

ЗДНет: Има ли нешто занимљиво рећи о томе зашто сте одабрали неке од елемената које сте одабрали у моделу? Зато што цитирате Кенета Цраика [1943,Природа објашњења], а ви цитирате Брисона и Хоа [1969, Примењена оптимална контрола], и занима ме зашто сте почели са овим утицајима, ако сте посебно веровали да су ови људи успели да дођу до онога што су урадили. Зашто сте тамо почели?

ИЛ: Па, не мислим, свакако, да су имали све детаље. Дакле, Брајсон и Хо, ово је књига коју сам прочитао 1987. када сам био постдоктор код Џефрија Хинтона у Торонту. Али знао сам за ову линију рада унапред када сам писао свој докторат и направио везу између оптималне контроле и бацкпропа, у суштини. Да сте заиста желели да будете, знате, још један Шмидхубер, рекли бисте да су прави проналазачи бацкпропа заправо били теоретичари оптималне контроле Хенри Џеј Кели, Артур Брајсон, а можда чак и Лев Понтријагин, који је руски теоретичар оптималне контроле назад касних 50-их. 

Дакле, они су то схватили, и у ствари, заправо можете видети корен овога, математика испод тога, је Лагранжева механика. Дакле, можете се вратити на Ојлера и Лагранжа, у ствари, и на неки начин пронаћи дашак овога у њиховој дефиницији Лагранжове класичне механике, заиста. Дакле, у контексту оптималне контроле, оно што је занимало ове момке је у основи израчунавање путања ракета. Знате, ово је било рано свемирско доба. А ако имате модел ракете, он вам овде говори у каквом је стању ракета у том тренутку t, а ево акције коју ћу предузети, дакле, потиска и актуатора разних врста, ево стања ракете у тренутку т + КСНУМКС.

ЗДНет: Модел стања и акције, модел вредности.

ИЛ: Тако је, основа контроле. Дакле, сада можете симулирати пуцање своје ракете тако што ћете замислити низ команди, а онда имате неку функцију трошкова, а то је удаљеност ракете до циља, свемирске станице или шта год да је. А онда помоћу неке врсте градијентног спуштања, можете схватити, како да ажурирам свој редослед акције тако да се моја ракета заправо приближи мети што је више могуће. А то мора доћи сигналима који се шире уназад у времену. А то је пропагација уназад, градијентна пропагација уназад. Ти сигнали се у Лагранжевој механици зову коњуговане варијабле, али у ствари су градијенти. Дакле, измислили су бацкпроп, али нису схватили да би овај принцип могао да се користи за обуку вишестепеног система који може да ради препознавање образаца или нешто слично. Ово није стварно реализовано до можда касних 70-их, раних 80-их, а онда није стварно примењено и оспособљено да функционише све до средине 80-их. У реду, дакле, ово је место где је бацкпроп заиста, на неки начин, узео маха јер су људи показали овде неколико редова кода да можете тренирати неуронску мрежу, од краја до краја, вишеслојну. И то укида ограничења Перцептрона. И, да, постоје везе са оптималном контролом, али то је у реду.

ЗДНет: Дакле, то је дуг пут да се каже да су се ови утицаји са којима сте започели враћали на бацкпроп, и то је за вас било важно као полазна тачка?

ИЛ: Да, али мислим да је оно на шта су људи помало заборавили, било је доста посла на овоме, знате, још 90-их, или чак 80-их, укључујући и људе попут Мајкла Џордана [МИТ Депт. оф Браин и когнитивне науке] и људи попут тога који више не раде неуронске мреже, већ идеју да можете користити неуронске мреже за контролу, а можете користити класичне идеје оптималне контроле. Дакле, ствари као што су оно што се зове контрола са предвиђањем модела, оно што се сада зове контрола са предвиђањем модела, ова идеја коју можете симулирати или замислити исход низа радњи ако имате добар модел система који покушавате да контролишете и окружење у коме се налази. А онда градијентом спуштања, у суштини — ово није учење, ово је закључак — можете да схватите који је најбољи редослед радњи које ће минимизирати мој циљ. Дакле, употреба функције трошкова са латентном променљивом за закључивање је, мислим, нешто на шта су садашњи усеви великих неуронских мрежа заборавили. Али то је била веома класична компонента машинског учења дуго времена. Дакле, свака Бајесова мрежа или графички модел или пробабилистички графички модел користи ову врсту закључивања. Имате модел који обухвата зависности између гомиле променљивих, каже вам се вредност неке од променљивих, а затим морате да закључите највероватнију вредност осталих варијабли. То је основни принцип закључивања у графичким моделима и Бајесовим мрежама и сличним стварима. И мислим да би то у основи требало да се односи на расуђивање, резоновање и планирање.

ЗДНет: Ти си бајесовац.

ИЛ: Ја сам бајесовац без вероватноће. Већ сам се шалио. Заправо сам био у НеурИПС-у пре неколико година, мислим да је то било 2018. или 2019. године, и ухватио ме је један Бајесијанац који ме је питао да ли сам Бајесијанац, а ја сам рекао: Да, ја сам Бајесијанац, али ја сам Ја сам бајесовац без вероватноће, на неки начин, бајесовац заснован на енергији, ако желите. 

ЗДНет: Што дефинитивно звучи као нешто од star трек. Споменули сте на крају овог рада, биће потребне године заиста напорног рада да бисте остварили оно што замишљате. Реците ми у чему се састоји неки од тих радова у овом тренутку.

ИЛ: Дакле, објашњавам како тренирате и градите ЈЕПА у раду. А критеријум за који се залажем је постојање неког начина да се максимизира садржај информација који репрезентације које су екстраховане имају о инпуту. А онда други је минимизирање грешке предвиђања. А ако имате латентну променљиву у предиктору која омогућава да предиктор буде недетерминистички, морате да регулишете и ову латентну променљиву тако што ћете минимизирати њен садржај информација. Дакле, сада имате два проблема, а то је како максимизирате информациони садржај излаза неке неуронске мреже, а други је како минимизирате садржај информација неке латентне варијабле? А ако не урадите те две ствари, систем ће се урушити. Неће научити ништа занимљиво. Све ће дати нулту енергију, тако нешто, што није добар модел зависности. То је проблем превенције колапса који помињем. 

И кажем од свих ствари које су људи икада урадили, постоје само две категорије метода за спречавање колапса. Једна су контрастивне методе, а друга су оне регуларизоване методе. Дакле, ова идеја максимизирања информационог садржаја репрезентација два улаза и минимизирања информационог садржаја латентне варијабле, припада регуларизованим методама. Али велики део посла у тим архитектурама заједничког уграђивања користи контрастне методе. У ствари, они су вероватно најпопуларнији у овом тренутку. Дакле, поставља се питање како тачно мерите садржај информација на начин који можете оптимизовати или минимизирати? И ту ствари постају компликоване јер не знамо како да меримо садржај информација. Можемо га апроксимирати, можемо га ограничити на горњу границу, можемо радити такве ствари. Али они заправо не мере садржај информација, који, у ствари, у извесној мери није ни добро дефинисан.

ЗДНет: Није Шенонов закон? То није теорија информација? Имате одређену количину ентропије, добру ентропију и лошу ентропију, а добра ентропија је систем симбола који функционише, лоша ентропија је бука. Зар све то није решила Шенон?

ИЛ: У праву сте, али иза тога стоји велика мана. У праву сте у смислу да ако имате податке који долазе до вас и можете некако да квантизујете податке у дискретне симболе, а затим измерите вероватноћу сваког од тих симбола, онда је максимална количина информација коју носе ти симболи збир преко могућих симбола Пи лог Пи, јел тако? Где Pi је вероватноћа симбола ја — то је Шенонова ентропија. [Шенонов закон се обично формулише као Х = – ∑ пи лог пи.]

Међутим, ево проблема: шта је Pi? Лако је када је број симбола мали и симболи се цртају независно. Када има много симбола и зависности, то је веома тешко. Дакле, ако имате низ битова и претпоставите да су битови независни један од другог и да је вероватноћа једнака између један и нула или било шта друго, онда можете лако измерити ентропију, без проблема. Али ако су ствари које долазе до вас високодимензионални вектори, као, знате, оквири података, или нешто слично овоме, шта је Pi? Каква је дистрибуција? Прво морате квантовати тај простор, који је високодимензионални, континуирани простор. Немате појма како ово правилно квантовати. Можете користити к-средња, итд. То је оно што људи раде када раде видео компресију и компресију слике. Али то је само апроксимација. А онда морате направити претпоставке о независности. Дакле, јасно је да у видеу узастопни кадрови нису независни. Постоје зависности, а тај оквир може зависити од другог кадра који сте видели пре сат времена, а који је био слика исте ствари. Дакле, знате, не можете мерити Pi. За мерење Pi, морате имати систем машинског учења који учи да предвиђа. И тако се враћате на претходни проблем. Дакле, у суштини можете само приближно одредити меру информација. 

ианн-лецун-септ-2022-6

„Питање је тачно како мерите садржај информација на начин који можете оптимизовати или минимизирати?“ каже ЛеКун. "И ту ствари постају компликоване јер не знамо како да меримо садржај информација." Најбоље што се до сада може учинити је пронаћи прокси који је „довољно добар за задатак који желимо“.

Дозволите ми да узмем конкретнији пример. Један од алгоритама са којима смо се играли, а о коме сам говорио у овом делу, је ова ствар која се зове ВИЦРег, регуларизација варијансе-инваријансе-коваријанце. То је у посебном раду који је објављен на ИЦЛР-у, и стављен је на арКсив отприлике годину дана раније, 2021. А идеја је да се максимизира информације. А идеја је заправо произашла из ранијег рада моје групе под називом Барлов Твинс. Ви максимизирате садржај информација вектора који излази из неуронске мреже, у основи, претпостављајући да је једина зависност између варијабли корелација, линеарна зависност. Дакле, ако претпоставите да је једина могућа зависност између парова променљивих, или између променљивих у вашем систему, корелације између парова вредности, што је изузетно груба апроксимација, онда можете максимизирати садржај информација који излази из вашег система тако што ћемо се побринути да све варијабле имају варијансу различиту од нуле — рецимо, варијансу један, није важно шта је то — а затим их повратно корелишемо, исти процес који се зове бељење, такође није нов. Проблем са овим је у томе што врло добро можете имати изузетно сложене зависности између било група променљивих или чак само парова променљивих који нису линеарне зависности и не појављују се у корелацијама. Дакле, на пример, ако имате две променљиве, и све тачке те две променљиве су постављене у неку врсту спирале, постоји веома јака зависност између те две променљиве, зар не? Али у ствари, ако израчунате корелацију између те две варијабле, оне нису у корелацији. Дакле, ево примера где је садржај информација ове две варијабле заправо веома мали, то је само једна количина јер је то ваша позиција у спирали. Оне су декорелиране, тако да мислите да имате много информација које произилазе из те две варијабле, а у ствари их немате, ви само имате, знате, можете предвидети једну од варијабли из друге, у суштини. Дакле, то показује да имамо само врло приближне начине за мерење садржаја информација.

ЗДНет: И то је једна од ствари на којима сада морате да радите са овим? Ово је веће питање како да знамо када максимизирамо и минимизирамо садржај информација?

ИЛ:  Или да ли је прокси који користимо за ово довољно добар за задатак који желимо. У ствари, ми то радимо све време у машинском учењу. Функције трошкова које минимизирамо никада нису оне које заправо желимо да минимизирамо. Дакле, на пример, желите да извршите класификацију, у реду? Функција трошкова коју желите да минимизирате када тренирате класификатор је број грешака које класификатор прави. Али то је неразлучива, ужасна функција трошкова коју не можете минимизирати јер знате да ћете променити тежине своје неуронске мреже, ништа се неће променити све док један од тих узорака не промени своју одлуку, а затим и скок у грешци, позитивној или негативној.

ЗДНет: Дакле, имате проки који је циљна функција за коју можете дефинитивно рећи, ми дефинитивно можемо да проток градијенте ове ствари.

ИЛ: Тако је. Дакле, људи користе овај губитак унакрсне ентропије, или СОФТМАКС, имате неколико имена за њега, али то је иста ствар. И то је у основи глатка апроксимација броја грешака које систем прави, при чему се изглађивање врши тако што се, у основи, узима у обзир резултат који систем даје свакој од категорија.

ЗДНет: Постоји ли нешто што нисмо покрили, а ви бисте желели да покријете?

ИЛ: Вероватно наглашава главне тачке. Мислим да системи вештачке интелигенције морају да буду у стању да разумију, а процес за ово за који се залажем је минимизирање неког циља у односу на неку латентну варијаблу. То омогућава системима да планирају и размишљају. Мислим да би требало да напустимо вероватносни оквир јер је нерешив када желимо да урадимо ствари као што је хватање зависности између високодимензионалних, континуираних варијабли. И ја се залажем за напуштање генеративних модела јер ће систем морати да посвети превише ресурса предвиђању ствари које је превише тешко предвидети и које можда троше превише ресурса. И то је поприлично то. То су главне поруке, ако желите. А онда и целокупна архитектура. Затим постоје те спекулације о природи свести и улози конфигуратора, али ово је заиста спекулација.

ЗДНет: Доћи ћемо до тога следећи пут. Хтео сам да те питам, како мериш ову ствар? Али претпостављам да сте сада мало даље од бенчмаркинга?

ИЛ: Не нужно тако далеко у, својеврсним, поједностављеним верзијама. Можете да радите оно што сви раде у контроли или учењу са појачањем, то јест, да тренирате ствар да игра Атари игре или нешто слично или неку другу игру која има неку несигурност у себи.

ЗДНет: Хвала на вашем времену, Ианн.

извор