ਮੈਟਾ ਦੇ ਏਆਈ ਗੁਰੂ ਲੇਕਨ: ਅੱਜ ਦੇ ਜ਼ਿਆਦਾਤਰ ਏਆਈ ਪਹੁੰਚ ਕਦੇ ਵੀ ਸੱਚੀ ਬੁੱਧੀ ਵੱਲ ਅਗਵਾਈ ਨਹੀਂ ਕਰਨਗੇ

yann-lecun-sept-2022-1

"ਮੈਨੂੰ ਲਗਦਾ ਹੈ ਕਿ ਏਆਈ ਪ੍ਰਣਾਲੀਆਂ ਨੂੰ ਤਰਕ ਕਰਨ ਦੇ ਯੋਗ ਹੋਣ ਦੀ ਜ਼ਰੂਰਤ ਹੈ," ਮੈਟਾ ਦੇ ਮੁੱਖ ਏਆਈ ਵਿਗਿਆਨੀ ਯੈਨ ਲੇਕਨ ਕਹਿੰਦੇ ਹਨ। ਅੱਜ ਦੇ ਪ੍ਰਸਿੱਧ ਏਆਈ ਪਹੁੰਚ ਜਿਵੇਂ ਕਿ ਟ੍ਰਾਂਸਫਾਰਮਰ, ਜਿਨ੍ਹਾਂ ਵਿੱਚੋਂ ਬਹੁਤ ਸਾਰੇ ਖੇਤਰ ਵਿੱਚ ਉਸਦੇ ਆਪਣੇ ਪਾਇਨੀਅਰਿੰਗ ਕੰਮ 'ਤੇ ਬਣਦੇ ਹਨ, ਕਾਫ਼ੀ ਨਹੀਂ ਹੋਣਗੇ। "ਤੁਹਾਨੂੰ ਇੱਕ ਕਦਮ ਪਿੱਛੇ ਹਟਣਾ ਪਏਗਾ ਅਤੇ ਕਹਿਣਾ ਪਏਗਾ, ਠੀਕ ਹੈ, ਅਸੀਂ ਇਹ ਪੌੜੀ ਬਣਾਈ ਹੈ, ਪਰ ਅਸੀਂ ਚੰਦਰਮਾ 'ਤੇ ਜਾਣਾ ਚਾਹੁੰਦੇ ਹਾਂ, ਅਤੇ ਇਹ ਪੌੜੀ ਸਾਨੂੰ ਉੱਥੇ ਪਹੁੰਚਾਉਣ ਦਾ ਕੋਈ ਤਰੀਕਾ ਨਹੀਂ ਹੈ," ਲੇਕਨ ਕਹਿੰਦਾ ਹੈ।

ਯੈਨ ਲੇਕਨ, ਮੁੱਖ ਏਆਈ ਵਿਗਿਆਨੀ ਮੇਟਾ ਪ੍ਰਾਪਰਟੀਜ਼, ਫੇਸਬੁੱਕ, ਇੰਸਟਾਗ੍ਰਾਮ ਅਤੇ ਵਟਸਐਪ ਦੇ ਮਾਲਕ, ਸੰਭਾਵਤ ਤੌਰ 'ਤੇ ਆਪਣੇ ਖੇਤਰ ਵਿੱਚ ਬਹੁਤ ਸਾਰੇ ਲੋਕਾਂ ਨੂੰ ਚੁਣ ਸਕਦੇ ਹਨ। 

ਇੱਕ ਵਿਚਾਰ ਟੁਕੜੇ ਦੀ ਜੂਨ ਵਿੱਚ ਪੋਸਟਿੰਗ ਦੇ ਨਾਲ ਓਪਨ ਰਿਵਿਊ ਸਰਵਰ 'ਤੇ, LeCun ਨੇ ਇੱਕ ਦ੍ਰਿਸ਼ਟੀਕੋਣ ਦੀ ਇੱਕ ਵਿਆਪਕ ਝਲਕ ਪੇਸ਼ ਕੀਤੀ ਜੋ ਉਹ ਸੋਚਦਾ ਹੈ ਕਿ ਮਸ਼ੀਨਾਂ ਵਿੱਚ ਮਨੁੱਖੀ-ਪੱਧਰ ਦੀ ਬੁੱਧੀ ਨੂੰ ਪ੍ਰਾਪਤ ਕਰਨ ਦਾ ਵਾਅਦਾ ਕੀਤਾ ਗਿਆ ਹੈ। 

ਅਖਬਾਰ ਵਿੱਚ ਸਪਸ਼ਟ ਨਾ ਹੋਣ 'ਤੇ ਇਹ ਦਲੀਲ ਹੈ ਕਿ AI ਵਿੱਚ ਅੱਜ ਦੇ ਜ਼ਿਆਦਾਤਰ ਵੱਡੇ ਪ੍ਰੋਜੈਕਟ ਕਦੇ ਵੀ ਉਸ ਮਨੁੱਖੀ-ਪੱਧਰ ਦੇ ਟੀਚੇ ਤੱਕ ਪਹੁੰਚਣ ਦੇ ਯੋਗ ਨਹੀਂ ਹੋਣਗੇ।

ਨਾਲ ਇਸ ਮਹੀਨੇ ਇੱਕ ਚਰਚਾ ਵਿੱਚ ZDNet ਜ਼ੂਮ ਦੇ ਜ਼ਰੀਏ, ਲੇਕਨ ਨੇ ਸਪੱਸ਼ਟ ਕੀਤਾ ਕਿ ਉਹ ਇਸ ਸਮੇਂ ਡੂੰਘੀ ਸਿੱਖਿਆ ਵਿੱਚ ਖੋਜ ਦੇ ਬਹੁਤ ਸਾਰੇ ਸਫਲ ਤਰੀਕਿਆਂ ਨੂੰ ਬਹੁਤ ਸੰਦੇਹ ਨਾਲ ਦੇਖਦਾ ਹੈ।

"ਮੈਨੂੰ ਲਗਦਾ ਹੈ ਕਿ ਉਹ ਜ਼ਰੂਰੀ ਹਨ ਪਰ ਕਾਫ਼ੀ ਨਹੀਂ ਹਨ," ਟਿਊਰਿੰਗ ਅਵਾਰਡ ਜੇਤੂ ਨੇ ਦੱਸਿਆ ZDNet ਉਸ ਦੇ ਹਾਣੀਆਂ ਦੇ ਕੰਮਾਂ ਦਾ। 

ਇਹਨਾਂ ਵਿੱਚ ਵੱਡੇ ਭਾਸ਼ਾ ਮਾਡਲ ਜਿਵੇਂ ਕਿ ਟ੍ਰਾਂਸਫਾਰਮਰ-ਅਧਾਰਿਤ GPT-3 ਅਤੇ ਉਹਨਾਂ ਦੇ ਸਮਾਨ ਸ਼ਾਮਲ ਹਨ। ਜਿਵੇਂ ਕਿ LeCun ਇਸ ਨੂੰ ਦਰਸਾਉਂਦਾ ਹੈ, ਟ੍ਰਾਂਸਫਾਰਮਰ ਸ਼ਰਧਾਲੂ ਵਿਸ਼ਵਾਸ ਕਰਦੇ ਹਨ, "ਅਸੀਂ ਹਰ ਚੀਜ਼ ਨੂੰ ਟੋਕਨਾਈਜ਼ ਕਰਦੇ ਹਾਂ, ਅਤੇ ਵਿਸ਼ਾਲ ਨੂੰ ਸਿਖਲਾਈ ਦਿੰਦੇ ਹਾਂਵੱਖਰੀਆਂ ਭਵਿੱਖਬਾਣੀਆਂ ਕਰਨ ਲਈ ਮਾਡਲ, ਅਤੇ ਕਿਸੇ ਤਰ੍ਹਾਂ ਏਆਈ ਇਸ ਵਿੱਚੋਂ ਉਭਰੇਗਾ।

"ਉਹ ਗਲਤ ਨਹੀਂ ਹਨ," ਉਹ ਕਹਿੰਦਾ ਹੈ, "ਇਸ ਅਰਥ ਵਿਚ ਕਿ ਇਹ ਭਵਿੱਖ ਦੀ ਬੁੱਧੀਮਾਨ ਪ੍ਰਣਾਲੀ ਦਾ ਇਕ ਹਿੱਸਾ ਹੋ ਸਕਦਾ ਹੈ, ਪਰ ਮੈਨੂੰ ਲਗਦਾ ਹੈ ਕਿ ਇਸ ਵਿਚ ਜ਼ਰੂਰੀ ਟੁਕੜੇ ਨਹੀਂ ਹਨ."

ਵੀ: ਮੈਟਾ ਦੀ AI ਲਿਊਮਿਨਰੀ LeCun ਡੂੰਘੀ ਸਿਖਲਾਈ ਦੀ ਊਰਜਾ ਸਰਹੱਦ ਦੀ ਪੜਚੋਲ ਕਰਦੀ ਹੈ

ਇਹ ਇੱਕ ਹੈਰਾਨ ਕਰਨ ਵਾਲੀ ਆਲੋਚਨਾ ਹੈ ਜੋ ਉਸ ਵਿਦਵਾਨ ਤੋਂ ਕੰਮ ਕਰਦੀ ਪ੍ਰਤੀਤ ਹੁੰਦੀ ਹੈ ਜਿਸ ਨੇ ਕਨਵੋਲਿਊਸ਼ਨਲ ਨਿਊਰਲ ਨੈਟਵਰਕ ਦੀ ਵਰਤੋਂ ਨੂੰ ਸੰਪੂਰਨ ਕੀਤਾ, ਇੱਕ ਵਿਹਾਰਕ ਤਕਨੀਕ ਜੋ ਡੂੰਘੇ ਸਿੱਖਣ ਦੇ ਪ੍ਰੋਗਰਾਮਾਂ ਵਿੱਚ ਅਵਿਸ਼ਵਾਸ਼ਯੋਗ ਤੌਰ 'ਤੇ ਲਾਭਕਾਰੀ ਰਹੀ ਹੈ। 

LeCun ਅਨੁਸ਼ਾਸਨ ਦੇ ਹੋਰ ਬਹੁਤ ਸਾਰੇ ਸਫਲ ਖੇਤਰਾਂ ਵਿੱਚ ਕਮੀਆਂ ਅਤੇ ਕਮੀਆਂ ਨੂੰ ਦੇਖਦਾ ਹੈ। 

ਰੀਨਫੋਰਸਮੈਂਟ ਲਰਨਿੰਗ ਵੀ ਕਦੇ ਵੀ ਕਾਫ਼ੀ ਨਹੀਂ ਹੋਵੇਗੀ, ਉਹ ਰੱਖਦਾ ਹੈ। ਡੀਪਮਾਈਂਡ ਦੇ ਡੇਵਿਡ ਸਿਲਵਰ ਵਰਗੇ ਖੋਜਕਰਤਾ, ਜਿਨ੍ਹਾਂ ਨੇ ਅਲਫ਼ਾਜ਼ੀਰੋ ਪ੍ਰੋਗਰਾਮ ਨੂੰ ਵਿਕਸਤ ਕੀਤਾ ਜਿਸ ਨੇ ਸ਼ਤਰੰਜ, ਸ਼ੋਗੀ ਅਤੇ ਗੋ ਵਿੱਚ ਮੁਹਾਰਤ ਹਾਸਲ ਕੀਤੀ, ਉਹਨਾਂ ਪ੍ਰੋਗਰਾਮਾਂ 'ਤੇ ਧਿਆਨ ਕੇਂਦਰਤ ਕਰ ਰਹੇ ਹਨ ਜੋ "ਬਹੁਤ ਐਕਸ਼ਨ-ਆਧਾਰਿਤ" ਹਨ, ਲੇਕਨ ਦਾ ਕਹਿਣਾ ਹੈ, ਪਰ "ਜ਼ਿਆਦਾਤਰ ਸਿੱਖਣ ਜੋ ਅਸੀਂ ਕਰਦੇ ਹਾਂ, ਅਸੀਂ ਨਹੀਂ ਕਰਦੇ। ਇਸ ਨੂੰ ਅਸਲ ਵਿੱਚ ਕਾਰਵਾਈਆਂ ਕਰਕੇ ਕਰੋ, ਅਸੀਂ ਇਸਨੂੰ ਦੇਖ ਕੇ ਕਰਦੇ ਹਾਂ।" 

ਲੇਕੁਨ, 62, ਦਹਾਕਿਆਂ ਦੀ ਪ੍ਰਾਪਤੀ ਦੇ ਦ੍ਰਿਸ਼ਟੀਕੋਣ ਤੋਂ, ਫਿਰ ਵੀ ਉਸ ਦਾ ਸਾਹਮਣਾ ਕਰਨ ਲਈ ਇੱਕ ਜ਼ਰੂਰੀ ਗੱਲ ਜ਼ਾਹਰ ਕਰਦਾ ਹੈ ਕਿ ਉਹ ਕੀ ਸੋਚਦਾ ਹੈ ਕਿ ਉਹ ਅੰਨ੍ਹੇ ਗਲੀਆਂ ਹਨ ਜਿਸ ਵੱਲ ਬਹੁਤ ਸਾਰੇ ਦੌੜ ਰਹੇ ਹਨ, ਅਤੇ ਆਪਣੇ ਖੇਤਰ ਨੂੰ ਉਸ ਦਿਸ਼ਾ ਵਿੱਚ ਮੋੜਨ ਦੀ ਕੋਸ਼ਿਸ਼ ਕਰਨ ਲਈ ਜੋ ਉਹ ਸੋਚਦਾ ਹੈ ਕਿ ਚੀਜ਼ਾਂ ਨੂੰ ਜਾਣਾ ਚਾਹੀਦਾ ਹੈ। 

"ਅਸੀਂ ਬਹੁਤ ਸਾਰੇ ਦਾਅਵੇ ਦੇਖਦੇ ਹਾਂ ਕਿ ਸਾਨੂੰ ਮਨੁੱਖੀ-ਪੱਧਰ AI ਵੱਲ ਅੱਗੇ ਵਧਾਉਣ ਲਈ ਕੀ ਕਰਨਾ ਚਾਹੀਦਾ ਹੈ," ਉਹ ਕਹਿੰਦਾ ਹੈ। "ਅਤੇ ਅਜਿਹੇ ਵਿਚਾਰ ਹਨ ਜੋ ਮੇਰੇ ਖਿਆਲ ਵਿੱਚ ਗਲਤ ਦਿਸ਼ਾ ਵਿੱਚ ਹਨ."

"ਅਸੀਂ ਉਸ ਬਿੰਦੂ 'ਤੇ ਨਹੀਂ ਹਾਂ ਜਿੱਥੇ ਸਾਡੀਆਂ ਬੁੱਧੀਮਾਨ ਮਸ਼ੀਨਾਂ ਕੋਲ ਬਿੱਲੀ ਜਿੰਨੀ ਆਮ ਸਮਝ ਹੈ," ਲੇਕੁਨ ਨੇ ਦੇਖਿਆ। "ਤਾਂ, ਅਸੀਂ ਉੱਥੇ ਕਿਉਂ ਨਾ ਸ਼ੁਰੂ ਕਰੀਏ?" 

ਉਸਨੇ ਇੱਕ ਵੀਡੀਓ ਵਿੱਚ ਅਗਲੇ ਫ੍ਰੇਮ ਦੀ ਭਵਿੱਖਬਾਣੀ ਕਰਨ ਵਰਗੀਆਂ ਚੀਜ਼ਾਂ ਵਿੱਚ ਜਨਰੇਟਿਵ ਨੈਟਵਰਕ ਦੀ ਵਰਤੋਂ ਕਰਨ ਵਿੱਚ ਆਪਣਾ ਪਹਿਲਾਂ ਵਾਲਾ ਵਿਸ਼ਵਾਸ ਛੱਡ ਦਿੱਤਾ ਹੈ। “ਇਹ ਪੂਰੀ ਤਰ੍ਹਾਂ ਅਸਫਲ ਰਿਹਾ ਹੈ,” ਉਹ ਕਹਿੰਦਾ ਹੈ। 

LeCun ਉਨ੍ਹਾਂ ਲੋਕਾਂ ਦੀ ਨਿੰਦਾ ਕਰਦਾ ਹੈ ਜਿਨ੍ਹਾਂ ਨੂੰ ਉਹ "ਧਾਰਮਿਕ ਸੰਭਾਵੀ" ਕਹਿੰਦੇ ਹਨ, ਜੋ "ਸੰਭਾਵਨਾ ਸਿਧਾਂਤ ਸੋਚਦੇ ਹਨ ਕਿ ਇੱਕੋ ਇੱਕ ਢਾਂਚਾ ਹੈ ਜਿਸਦੀ ਵਰਤੋਂ ਤੁਸੀਂ ਮਸ਼ੀਨ ਸਿਖਲਾਈ ਦੀ ਵਿਆਖਿਆ ਕਰਨ ਲਈ ਕਰ ਸਕਦੇ ਹੋ।" 

ਉਹ ਕਹਿੰਦਾ ਹੈ ਕਿ ਸ਼ੁੱਧ ਤੌਰ 'ਤੇ ਅੰਕੜਾਤਮਕ ਪਹੁੰਚ ਗੁੰਝਲਦਾਰ ਹੈ। "ਇੱਕ ਵਿਸ਼ਵ ਮਾਡਲ ਨੂੰ ਪੂਰੀ ਤਰ੍ਹਾਂ ਸੰਭਾਵਿਤ ਹੋਣ ਲਈ ਪੁੱਛਣਾ ਬਹੁਤ ਜ਼ਿਆਦਾ ਹੈ; ਅਸੀਂ ਨਹੀਂ ਜਾਣਦੇ ਕਿ ਇਹ ਕਿਵੇਂ ਕਰਨਾ ਹੈ। ”

LeCun ਦੀ ਦਲੀਲ ਹੈ ਕਿ ਸਿਰਫ਼ ਅਕਾਦਮਿਕ ਹੀ ਨਹੀਂ, ਸਗੋਂ ਉਦਯੋਗਿਕ ਏਆਈ ਨੂੰ ਡੂੰਘੀ ਮੁੜ-ਸੋਚਣ ਦੀ ਲੋੜ ਹੈ। ਸਵੈ-ਡ੍ਰਾਈਵਿੰਗ ਕਾਰਾਂ ਦੀ ਭੀੜ, ਵੇਵ ਵਰਗੇ ਸਟਾਰਟਅੱਪ, "ਥੋੜ੍ਹੇ ਬਹੁਤ ਆਸ਼ਾਵਾਦੀ" ਰਹੇ ਹਨ, ਉਹ ਕਹਿੰਦਾ ਹੈ, ਇਹ ਸੋਚ ਕੇ ਕਿ ਉਹ "ਵੱਡੇ ਨਿਊਰਲ ਨੈਟਵਰਕ" 'ਤੇ ਡੇਟਾ ਸੁੱਟ ਸਕਦੇ ਹਨ ਅਤੇ ਤੁਸੀਂ ਬਹੁਤ ਕੁਝ ਸਿੱਖ ਸਕਦੇ ਹੋ।

"ਤੁਸੀਂ ਜਾਣਦੇ ਹੋ, ਮੈਨੂੰ ਲਗਦਾ ਹੈ ਕਿ ਇਹ ਪੂਰੀ ਤਰ੍ਹਾਂ ਸੰਭਵ ਹੈ ਕਿ ਸਾਡੇ ਕੋਲ ਆਮ ਸਮਝ ਤੋਂ ਬਿਨਾਂ ਲੈਵਲ-ਪੰਜ ਆਟੋਨੋਮਸ ਕਾਰਾਂ ਹੋਣ," ਉਹ "ADAS" ਦਾ ਹਵਾਲਾ ਦਿੰਦੇ ਹੋਏ ਕਹਿੰਦਾ ਹੈ। ਤਕਨੀਕੀ ਡਰਾਈਵਰ ਸਹਾਇਤਾ ਸਿਸਟਮ ਸਵੈ-ਡ੍ਰਾਈਵਿੰਗ ਲਈ ਸ਼ਰਤਾਂ, "ਪਰ ਤੁਹਾਨੂੰ ਇਸ ਤੋਂ ਨਰਕ ਨੂੰ ਇੰਜਨੀਅਰ ਕਰਨਾ ਪਵੇਗਾ।"

ਉਸ ਦਾ ਮੰਨਣਾ ਹੈ ਕਿ ਅਜਿਹੀ ਓਵਰ-ਇੰਜੀਨੀਅਰਡ ਸਵੈ-ਡਰਾਈਵਿੰਗ ਤਕਨੀਕ ਸਾਰੇ ਕੰਪਿਊਟਰ ਵਿਜ਼ਨ ਪ੍ਰੋਗਰਾਮਾਂ ਵਾਂਗ ਕ੍ਰੇਕੀ ਅਤੇ ਭੁਰਭੁਰਾ ਹੋਵੇਗੀ, ਜੋ ਕਿ ਡੂੰਘੀ ਸਿਖਲਾਈ ਦੁਆਰਾ ਅਪ੍ਰਚਲਿਤ ਹੋ ਗਏ ਸਨ।

"ਆਖਰਕਾਰ, ਇੱਕ ਹੋਰ ਸੰਤੁਸ਼ਟੀਜਨਕ ਅਤੇ ਸੰਭਵ ਤੌਰ 'ਤੇ ਬਿਹਤਰ ਹੱਲ ਹੋਣ ਜਾ ਰਿਹਾ ਹੈ ਜਿਸ ਵਿੱਚ ਉਹ ਪ੍ਰਣਾਲੀਆਂ ਸ਼ਾਮਲ ਹੁੰਦੀਆਂ ਹਨ ਜੋ ਸੰਸਾਰ ਦੇ ਕੰਮ ਕਰਨ ਦੇ ਤਰੀਕੇ ਨੂੰ ਸਮਝਣ ਲਈ ਇੱਕ ਬਿਹਤਰ ਕੰਮ ਕਰਦੀਆਂ ਹਨ."

ਰਸਤੇ ਦੇ ਨਾਲ, ਲੇਕਨ ਨੇ ਆਪਣੇ ਸਭ ਤੋਂ ਵੱਡੇ ਆਲੋਚਕਾਂ, ਜਿਵੇਂ ਕਿ NYU ਦੇ ਪ੍ਰੋਫੈਸਰ ਗੈਰੀ ਮਾਰਕਸ - "ਉਸਨੇ ਕਦੇ ਵੀ AI ਵਿੱਚ ਕੁਝ ਵੀ ਯੋਗਦਾਨ ਨਹੀਂ ਪਾਇਆ" - ਅਤੇ ਜੁਰਗੇਨ ਸ਼ਮਿਡਹਬਰ, ਆਰਟੀਫੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ ਰਿਸਰਚ ਲਈ ਡੈਲੇ ਮੋਲੇ ਇੰਸਟੀਚਿਊਟ ਦੇ ਸਹਿ-ਨਿਰਦੇਸ਼ਕ - ਦੇ ਕੁਝ ਸੁੱਕਣ ਵਾਲੇ ਵਿਚਾਰ ਪੇਸ਼ ਕਰਦਾ ਹੈ - "ਇਹ ਹੈ। ਝੰਡਾ ਲਾਉਣਾ ਬਹੁਤ ਆਸਾਨ ਹੈ।"

ਆਲੋਚਨਾਵਾਂ ਤੋਂ ਪਰੇ, LeCun ਦੁਆਰਾ ਬਣਾਇਆ ਗਿਆ ਵਧੇਰੇ ਮਹੱਤਵਪੂਰਨ ਨੁਕਤਾ ਇਹ ਹੈ ਕਿ ਕੁਝ ਬੁਨਿਆਦੀ ਸਮੱਸਿਆਵਾਂ ਸਾਰੀਆਂ AI ਦਾ ਸਾਹਮਣਾ ਕਰਦੀਆਂ ਹਨ, ਖਾਸ ਤੌਰ 'ਤੇ, ਜਾਣਕਾਰੀ ਨੂੰ ਕਿਵੇਂ ਮਾਪਣਾ ਹੈ।

"ਤੁਹਾਨੂੰ ਇੱਕ ਕਦਮ ਪਿੱਛੇ ਹਟਣਾ ਪਏਗਾ ਅਤੇ ਕਹਿਣਾ ਪਏਗਾ, ਠੀਕ ਹੈ, ਅਸੀਂ ਇਹ ਪੌੜੀ ਬਣਾਈ ਹੈ, ਪਰ ਅਸੀਂ ਚੰਦਰਮਾ 'ਤੇ ਜਾਣਾ ਚਾਹੁੰਦੇ ਹਾਂ, ਅਤੇ ਇਹ ਪੌੜੀ ਸਾਨੂੰ ਉੱਥੇ ਪਹੁੰਚਾਉਣ ਦਾ ਕੋਈ ਤਰੀਕਾ ਨਹੀਂ ਹੈ," ਲੇਕਨ ਨੇ ਮੁੜ ਵਿਚਾਰ ਕਰਨ ਦੀ ਆਪਣੀ ਇੱਛਾ ਬਾਰੇ ਕਿਹਾ। ਬੁਨਿਆਦੀ ਧਾਰਨਾਵਾਂ ਦੇ. "ਅਸਲ ਵਿੱਚ, ਜੋ ਮੈਂ ਇੱਥੇ ਲਿਖ ਰਿਹਾ ਹਾਂ, ਸਾਨੂੰ ਰਾਕੇਟ ਬਣਾਉਣ ਦੀ ਲੋੜ ਹੈ, ਮੈਂ ਤੁਹਾਨੂੰ ਇਸ ਬਾਰੇ ਵੇਰਵੇ ਨਹੀਂ ਦੇ ਸਕਦਾ ਕਿ ਅਸੀਂ ਰਾਕੇਟ ਕਿਵੇਂ ਬਣਾਉਂਦੇ ਹਾਂ, ਪਰ ਇੱਥੇ ਬੁਨਿਆਦੀ ਸਿਧਾਂਤ ਹਨ।"

ਪੇਪਰ, ਅਤੇ ਇੰਟਰਵਿਊ ਵਿੱਚ LeCun ਦੇ ਵਿਚਾਰ, ਇਸ ਸਾਲ ਦੇ ਸ਼ੁਰੂ ਵਿੱਚ LeCun ਦੀ ਇੰਟਰਵਿਊ ਨੂੰ ਪੜ੍ਹ ਕੇ ਚੰਗੀ ਤਰ੍ਹਾਂ ਸਮਝਿਆ ਜਾ ਸਕਦਾ ਹੈ ZDNet ਜਿਸ ਵਿੱਚ ਉਹ ਊਰਜਾ-ਅਧਾਰਤ ਸਵੈ-ਨਿਗਰਾਨੀ ਸਿੱਖਣ ਲਈ ਡੂੰਘੀ ਸਿਖਲਾਈ ਲਈ ਅੱਗੇ ਵਧਣ ਦੇ ਮਾਰਗ ਵਜੋਂ ਦਲੀਲ ਦਿੰਦਾ ਹੈ। ਉਹ ਪ੍ਰਤੀਬਿੰਬ ਉਹਨਾਂ ਚੀਜ਼ਾਂ ਦੇ ਵਿਕਲਪ ਵਜੋਂ ਉਸ ਨੂੰ ਬਣਾਉਣ ਦੀ ਉਮੀਦ ਕਰਦਾ ਹੈ ਜਿਸਦਾ ਉਹ ਦਾਅਵਾ ਕਰਦਾ ਹੈ ਕਿ ਇਸ ਨੂੰ ਅੰਤਮ ਲਾਈਨ ਤੱਕ ਨਹੀਂ ਪਹੁੰਚਾਏਗਾ, ਉਸ ਲਈ ਮੁੱਖ ਪਹੁੰਚ ਦੀ ਭਾਵਨਾ ਪ੍ਰਦਾਨ ਕਰਦਾ ਹੈ। 

ਇਸ ਤੋਂ ਬਾਅਦ ਇੰਟਰਵਿਊ ਦਾ ਹਲਕਾ ਜਿਹਾ ਸੰਪਾਦਿਤ ਟ੍ਰਾਂਸਕ੍ਰਿਪਟ ਹੈ।

ZDNet: ਸਾਡੀ ਗੱਲਬਾਤ ਦਾ ਵਿਸ਼ਾ ਇਹ ਪੇਪਰ ਹੈ, "ਆਟੋਨੋਮਸ ਮਸ਼ੀਨ ਇੰਟੈਲੀਜੈਂਸ ਵੱਲ ਇੱਕ ਮਾਰਗ," ਕਿਸ ਦਾ ਸੰਸਕਰਣ 0.9.2 ਮੌਜੂਦਾ ਸੰਸਕਰਣ ਹੈ, ਹਾਂ?

Yann LeCun: ਹਾਂ, ਮੈਂ ਇਸਨੂੰ ਇੱਕ ਕਾਰਜਕਾਰੀ ਦਸਤਾਵੇਜ਼ ਮੰਨਦਾ ਹਾਂ। ਇਸ ਲਈ, ਮੈਂ ਇਸਨੂੰ ਓਪਨ ਰਿਵਿਊ 'ਤੇ ਪੋਸਟ ਕੀਤਾ ਹੈ, ਲੋਕਾਂ ਦੀਆਂ ਟਿੱਪਣੀਆਂ ਅਤੇ ਸੁਝਾਅ ਦੇਣ ਦੀ ਉਡੀਕ ਕਰ ਰਿਹਾ ਹਾਂ, ਸ਼ਾਇਦ ਵਾਧੂ ਹਵਾਲੇ, ਅਤੇ ਫਿਰ ਮੈਂ ਇੱਕ ਸੰਸ਼ੋਧਿਤ ਸੰਸਕਰਣ ਤਿਆਰ ਕਰਾਂਗਾ. 

ZDNet: ਮੈਂ ਦੇਖਦਾ ਹਾਂ ਕਿ ਜੁਰਗੇਨ ਸ਼ਮਿਡਹਬਰ ਨੇ ਪਹਿਲਾਂ ਹੀ ਓਪਨ ਸਮੀਖਿਆ ਲਈ ਕੁਝ ਟਿੱਪਣੀਆਂ ਸ਼ਾਮਲ ਕੀਤੀਆਂ ਹਨ.

YL: ਖੈਰ, ਹਾਂ, ਉਹ ਹਮੇਸ਼ਾ ਕਰਦਾ ਹੈ. ਮੈਂ ਆਪਣੇ ਪੇਪਰ ਵਿੱਚ ਉਸਦੇ ਇੱਕ ਪੇਪਰ ਦਾ ਹਵਾਲਾ ਦਿੰਦਾ ਹਾਂ। ਮੈਨੂੰ ਲਗਦਾ ਹੈ ਕਿ ਉਸਨੇ ਸੋਸ਼ਲ ਨੈਟਵਰਕਸ 'ਤੇ ਜੋ ਦਲੀਲਾਂ ਦਿੱਤੀਆਂ ਹਨ ਕਿ ਉਸਨੇ ਅਸਲ ਵਿੱਚ 1991 ਵਿੱਚ ਇਸ ਸਭ ਦੀ ਕਾਢ ਕੱਢੀ ਸੀ, ਜਿਵੇਂ ਕਿ ਉਸਨੇ ਹੋਰ ਮਾਮਲਿਆਂ ਵਿੱਚ ਕੀਤਾ ਹੈ, ਅਜਿਹਾ ਨਹੀਂ ਹੈ। ਮੇਰਾ ਮਤਲਬ ਹੈ, ਇਹ ਕਰਨਾ ਬਹੁਤ ਆਸਾਨ ਹੈਫਲੈਗ-ਪਲਾਂਟਿੰਗ, ਅਤੇ, ਕਿਸਮ ਦੇ, ਬਿਨਾਂ ਕਿਸੇ ਪ੍ਰਯੋਗ ਦੇ, ਬਿਨਾਂ ਕਿਸੇ ਸਿਧਾਂਤ ਦੇ ਇੱਕ ਵਿਚਾਰ ਲਿਖੋ, ਬਸ ਸੁਝਾਅ ਦਿਓ ਕਿ ਤੁਸੀਂ ਇਸਨੂੰ ਇਸ ਤਰ੍ਹਾਂ ਕਰ ਸਕਦੇ ਹੋ। ਪਰ, ਤੁਸੀਂ ਜਾਣਦੇ ਹੋ, ਸਿਰਫ ਵਿਚਾਰ ਰੱਖਣ ਵਿੱਚ, ਅਤੇ ਫਿਰ ਇਸਨੂੰ ਇੱਕ ਖਿਡੌਣੇ ਦੀ ਸਮੱਸਿਆ 'ਤੇ ਕੰਮ ਕਰਨ ਲਈ, ਅਤੇ ਫਿਰ ਇਸਨੂੰ ਇੱਕ ਅਸਲ ਸਮੱਸਿਆ 'ਤੇ ਕੰਮ ਕਰਨ ਲਈ, ਅਤੇ ਫਿਰ ਇੱਕ ਸਿਧਾਂਤ ਬਣਾਉਣਾ ਜੋ ਇਹ ਦਰਸਾਉਂਦਾ ਹੈ ਕਿ ਇਹ ਕਿਉਂ ਕੰਮ ਕਰਦਾ ਹੈ, ਅਤੇ ਫਿਰ ਇਸ ਨੂੰ ਤੈਨਾਤ. ਇੱਥੇ ਇੱਕ ਪੂਰੀ ਲੜੀ ਹੈ, ਅਤੇ ਵਿਗਿਆਨਕ ਕ੍ਰੈਡਿਟ ਬਾਰੇ ਉਸਦਾ ਵਿਚਾਰ ਇਹ ਹੈ ਕਿ ਇਹ ਸਭ ਤੋਂ ਪਹਿਲਾ ਵਿਅਕਤੀ ਹੈ ਜਿਸਨੂੰ, ਤੁਸੀਂ ਜਾਣਦੇ ਹੋ, ਇਸਦਾ ਵਿਚਾਰ ਸੀ, ਜਿਸਨੂੰ ਸਾਰਾ ਕ੍ਰੈਡਿਟ ਮਿਲਣਾ ਚਾਹੀਦਾ ਹੈ। ਅਤੇ ਇਹ ਹਾਸੋਹੀਣਾ ਹੈ। 

ZDNet: ਸੋਸ਼ਲ ਮੀਡੀਆ 'ਤੇ ਜੋ ਵੀ ਤੁਸੀਂ ਸੁਣਦੇ ਹੋ ਉਸ 'ਤੇ ਵਿਸ਼ਵਾਸ ਨਾ ਕਰੋ। 

YL: ਮੇਰਾ ਮਤਲਬ ਹੈ, ਮੁੱਖ ਪੇਪਰ ਜਿਸ ਬਾਰੇ ਉਹ ਕਹਿੰਦਾ ਹੈ ਕਿ ਮੈਨੂੰ ਹਵਾਲਾ ਦੇਣਾ ਚਾਹੀਦਾ ਹੈ, ਉਸ ਵਿੱਚ ਕੋਈ ਵੀ ਮੁੱਖ ਵਿਚਾਰ ਨਹੀਂ ਹੈ ਜਿਸ ਬਾਰੇ ਮੈਂ ਪੇਪਰ ਵਿੱਚ ਗੱਲ ਕਰਦਾ ਹਾਂ। ਉਸਨੇ GAN ਅਤੇ ਹੋਰ ਚੀਜ਼ਾਂ ਨਾਲ ਵੀ ਅਜਿਹਾ ਕੀਤਾ ਹੈ, ਜੋ ਕਿ ਸੱਚ ਨਹੀਂ ਨਿਕਲਿਆ। ਝੰਡਾ ਲਾਉਣਾ ਸੌਖਾ ਹੈ, ਯੋਗਦਾਨ ਪਾਉਣਾ ਬਹੁਤ ਔਖਾ ਹੈ। ਅਤੇ, ਤਰੀਕੇ ਨਾਲ, ਇਸ ਖਾਸ ਪੇਪਰ ਵਿੱਚ, ਮੈਂ ਸਪੱਸ਼ਟ ਤੌਰ 'ਤੇ ਕਿਹਾ ਕਿ ਇਹ ਸ਼ਬਦ ਦੇ ਆਮ ਅਰਥਾਂ ਵਿੱਚ ਇੱਕ ਵਿਗਿਆਨਕ ਪੇਪਰ ਨਹੀਂ ਹੈ। ਇਸ ਗੱਲ ਨੂੰ ਕਿੱਥੇ ਜਾਣਾ ਚਾਹੀਦਾ ਹੈ ਇਸ ਬਾਰੇ ਇਹ ਇੱਕ ਪੋਜੀਸ਼ਨ ਪੇਪਰ ਹੈ। ਅਤੇ ਇੱਥੇ ਕੁਝ ਵਿਚਾਰ ਹਨ ਜੋ ਨਵੇਂ ਹੋ ਸਕਦੇ ਹਨ, ਪਰ ਜ਼ਿਆਦਾਤਰ ਨਹੀਂ ਹਨ। ਮੈਂ ਜ਼ਰੂਰੀ ਤੌਰ 'ਤੇ, ਉਸ ਪੇਪਰ ਵਿੱਚ ਜੋ ਕੁਝ ਲਿਖਿਆ ਹੈ, ਉਸ ਵਿੱਚੋਂ ਜ਼ਿਆਦਾਤਰ 'ਤੇ ਮੈਂ ਕਿਸੇ ਤਰਜੀਹ ਦਾ ਦਾਅਵਾ ਨਹੀਂ ਕਰ ਰਿਹਾ ਹਾਂ।

yann-lecun-sept-2022-2

ਮਜਬੂਤ ਸਿਖਲਾਈ ਵੀ ਕਦੇ ਵੀ ਕਾਫ਼ੀ ਨਹੀਂ ਹੋਵੇਗੀ, LeCun ਰੱਖਦਾ ਹੈ. ਡੀਪਮਾਈਂਡ ਦੇ ਡੇਵਿਡ ਸਿਲਵਰ ਵਰਗੇ ਖੋਜਕਰਤਾ, ਜਿਨ੍ਹਾਂ ਨੇ ਅਲਫ਼ਾਜ਼ੀਰੋ ਪ੍ਰੋਗਰਾਮ ਨੂੰ ਵਿਕਸਤ ਕੀਤਾ ਜਿਸ ਨੇ ਸ਼ਤਰੰਜ, ਸ਼ੋਗੀ ਅਤੇ ਗੋ ਵਿੱਚ ਮੁਹਾਰਤ ਹਾਸਲ ਕੀਤੀ, "ਬਹੁਤ ਹੀ ਐਕਸ਼ਨ-ਆਧਾਰਿਤ" ਹਨ, ਲੇਕਨ ਦਾ ਕਹਿਣਾ ਹੈ, ਪਰ "ਜ਼ਿਆਦਾਤਰ ਸਿੱਖਣ ਜੋ ਅਸੀਂ ਕਰਦੇ ਹਾਂ, ਅਸੀਂ ਅਸਲ ਵਿੱਚ ਇਸਨੂੰ ਲੈ ਕੇ ਨਹੀਂ ਕਰਦੇ। ਕਿਰਿਆਵਾਂ, ਅਸੀਂ ਇਸਨੂੰ ਦੇਖ ਕੇ ਕਰਦੇ ਹਾਂ।" 

ZDNet: ਅਤੇ ਇਹ ਸ਼ਾਇਦ ਸ਼ੁਰੂ ਕਰਨ ਲਈ ਇੱਕ ਚੰਗੀ ਜਗ੍ਹਾ ਹੈ, ਕਿਉਂਕਿ ਮੈਂ ਉਤਸੁਕ ਹਾਂ ਕਿ ਤੁਸੀਂ ਹੁਣ ਇਸ ਰਸਤੇ ਦਾ ਪਿੱਛਾ ਕਿਉਂ ਕੀਤਾ? ਤੁਸੀਂ ਇਸ ਬਾਰੇ ਕੀ ਸੋਚਿਆ? ਤੁਸੀਂ ਇਹ ਕਿਉਂ ਲਿਖਣਾ ਚਾਹੁੰਦੇ ਸੀ?

YL: ਖੈਰ, ਇਸ ਲਈ, ਮੈਂ ਇਸ ਬਾਰੇ ਬਹੁਤ ਲੰਬੇ ਸਮੇਂ ਤੋਂ ਸੋਚ ਰਿਹਾ ਹਾਂ, ਮਨੁੱਖੀ-ਪੱਧਰ ਜਾਂ ਜਾਨਵਰ-ਪੱਧਰ-ਕਿਸਮ ਦੀ ਬੁੱਧੀ ਜਾਂ ਸਿੱਖਣ ਅਤੇ ਸਮਰੱਥਾਵਾਂ ਵੱਲ ਜਾਣ ਵਾਲੇ ਮਾਰਗ ਬਾਰੇ। ਅਤੇ, ਮੇਰੀਆਂ ਗੱਲਾਂਬਾਤਾਂ ਵਿੱਚ ਮੈਂ ਇਸ ਸਾਰੀ ਗੱਲ ਬਾਰੇ ਕਾਫ਼ੀ ਬੋਲਦਾ ਰਿਹਾ ਹਾਂ ਕਿ ਨਿਰੀਖਣ ਕੀਤੀ ਸਿਖਲਾਈ ਅਤੇ ਮਜ਼ਬੂਤੀ ਸਿਖਲਾਈ ਦੋਵੇਂ ਜਾਨਵਰਾਂ ਅਤੇ ਮਨੁੱਖਾਂ ਵਿੱਚ ਸਿੱਖਣ ਦੀ ਕਿਸਮ ਦੀ ਨਕਲ ਕਰਨ ਲਈ ਨਾਕਾਫ਼ੀ ਹਨ। ਮੈਂ ਇਹ ਕੁਝ ਸੱਤ ਜਾਂ ਅੱਠ ਸਾਲਾਂ ਤੋਂ ਕਰ ਰਿਹਾ ਹਾਂ. ਇਸ ਲਈ, ਇਹ ਤਾਜ਼ਾ ਨਹੀਂ ਹੈ. ਮੇਰੇ ਕੋਲ ਕਈ ਸਾਲ ਪਹਿਲਾਂ NeurIPS ਵਿੱਚ ਇੱਕ ਮੁੱਖ ਭਾਸ਼ਣ ਸੀ ਜਿੱਥੇ ਮੈਂ ਇਹ ਗੱਲ ਕਹੀ ਸੀ, ਜ਼ਰੂਰੀ ਤੌਰ 'ਤੇ, ਅਤੇ ਵੱਖ-ਵੱਖ ਗੱਲਬਾਤ, ਰਿਕਾਰਡਿੰਗਾਂ ਹਨ। ਹੁਣ ਪੇਪਰ ਕਿਉਂ ਲਿਖਾਂ? ਮੈਂ ਇਸ ਗੱਲ 'ਤੇ ਆਇਆ ਹਾਂ — [ਗੂਗਲ ਬ੍ਰੇਨ ਖੋਜਕਰਤਾ] ਜਿਓਫ ਹਿੰਟਨ ਨੇ ਕੁਝ ਅਜਿਹਾ ਹੀ ਕੀਤਾ ਸੀ — ਮੇਰਾ ਮਤਲਬ ਹੈ, ਯਕੀਨਨ, ਉਹ ਮੇਰੇ ਨਾਲੋਂ ਵੱਧ ਹੈ, ਅਸੀਂ ਦੇਖਦੇ ਹਾਂ ਕਿ ਸਮਾਂ ਖਤਮ ਹੋ ਰਿਹਾ ਹੈ। ਅਸੀਂ ਜਵਾਨ ਨਹੀਂ ਹਾਂ।

ZDNet: ਸੱਠ ਨਵਾਂ ਪੰਜਾਹ ਹੈ। 

YL: ਇਹ ਸੱਚ ਹੈ, ਪਰ ਗੱਲ ਇਹ ਹੈ ਕਿ, ਅਸੀਂ ਬਹੁਤ ਸਾਰੇ ਦਾਅਵਿਆਂ ਨੂੰ ਦੇਖਦੇ ਹਾਂ ਕਿ ਸਾਨੂੰ AI ਦੇ ਮਨੁੱਖੀ-ਪੱਧਰ ਵੱਲ ਅੱਗੇ ਵਧਾਉਣ ਲਈ ਕੀ ਕਰਨਾ ਚਾਹੀਦਾ ਹੈ। ਅਤੇ ਅਜਿਹੇ ਵਿਚਾਰ ਹਨ ਜੋ ਮੇਰੇ ਖਿਆਲ ਵਿੱਚ ਗਲਤ ਦਿਸ਼ਾ ਵਿੱਚ ਹਨ. ਇਸ ਲਈ, ਇੱਕ ਵਿਚਾਰ ਹੈ, ਓਹ, ਸਾਨੂੰ ਨਿਊਰਲ ਨੈੱਟ ਦੇ ਸਿਖਰ 'ਤੇ ਪ੍ਰਤੀਕਾਤਮਕ ਤਰਕ ਜੋੜਨਾ ਚਾਹੀਦਾ ਹੈ। ਅਤੇ ਮੈਨੂੰ ਨਹੀਂ ਪਤਾ ਕਿ ਇਹ ਕਿਵੇਂ ਕਰਨਾ ਹੈ। ਇਸ ਲਈ, ਸ਼ਾਇਦ ਜੋ ਮੈਂ ਪੇਪਰ ਵਿੱਚ ਸਮਝਾਇਆ ਹੈ ਉਹ ਇੱਕ ਪਹੁੰਚ ਹੋ ਸਕਦੀ ਹੈ ਜੋ ਸਪੱਸ਼ਟ ਚਿੰਨ੍ਹ ਹੇਰਾਫੇਰੀ ਤੋਂ ਬਿਨਾਂ ਉਹੀ ਕੰਮ ਕਰੇਗੀ. ਇਹ ਸੰਸਾਰ ਦੇ ਪਰੰਪਰਾਗਤ ਤੌਰ 'ਤੇ ਗੈਰੀ ਮਾਰਕਸ ਦੀ ਕਿਸਮ ਹੈ। ਗੈਰੀ ਮਾਰਕਸ ਇੱਕ ਏਆਈ ਵਿਅਕਤੀ ਨਹੀਂ ਹੈ, ਤਰੀਕੇ ਨਾਲ, ਉਹ ਇੱਕ ਮਨੋਵਿਗਿਆਨੀ ਹੈ। ਉਸਨੇ ਕਦੇ ਵੀ ਏਆਈ ਲਈ ਕੁਝ ਯੋਗਦਾਨ ਨਹੀਂ ਪਾਇਆ ਹੈ। ਉਸਨੇ ਪ੍ਰਯੋਗਾਤਮਕ ਮਨੋਵਿਗਿਆਨ ਵਿੱਚ ਅਸਲ ਵਿੱਚ ਚੰਗਾ ਕੰਮ ਕੀਤਾ ਹੈ ਪਰ ਉਸਨੇ ਕਦੇ ਵੀ ਏਆਈ 'ਤੇ ਪੀਅਰ-ਸਮੀਖਿਆ ਵਾਲਾ ਪੇਪਰ ਨਹੀਂ ਲਿਖਿਆ। ਇਸ ਲਈ, ਉਹ ਲੋਕ ਹਨ. 

ਦੁਨੀਆ ਦੇ [DeepMind ਸਿਧਾਂਤ ਖੋਜ ਵਿਗਿਆਨੀ] ਡੇਵਿਡ ਸਿਲਵਰ ਹਨ ਜੋ ਕਹਿੰਦੇ ਹਨ, ਤੁਸੀਂ ਜਾਣਦੇ ਹੋ, ਇਨਾਮ ਕਾਫ਼ੀ ਹੈ, ਅਸਲ ਵਿੱਚ, ਇਹ ਸਭ ਕੁਝ ਮਜ਼ਬੂਤੀ ਸਿੱਖਣ ਬਾਰੇ ਹੈ, ਸਾਨੂੰ ਇਸਨੂੰ ਥੋੜਾ ਹੋਰ ਕੁਸ਼ਲ ਬਣਾਉਣ ਦੀ ਜ਼ਰੂਰਤ ਹੈ, ਠੀਕ ਹੈ? ਅਤੇ, ਮੈਨੂੰ ਲੱਗਦਾ ਹੈ ਕਿ ਉਹ ਗਲਤ ਨਹੀਂ ਹਨ, ਪਰ ਮੈਨੂੰ ਲੱਗਦਾ ਹੈ ਕਿ ਰੀਨਫੋਰਸਮੈਂਟ ਲਰਨਿੰਗ ਨੂੰ ਹੋਰ ਕੁਸ਼ਲ ਬਣਾਉਣ ਵੱਲ ਲੋੜੀਂਦੇ ਕਦਮ, ਮੂਲ ਰੂਪ ਵਿੱਚ, ਰੀਨਫੋਰਸਮੈਂਟ ਲਰਨਿੰਗ ਨੂੰ ਕੇਕ 'ਤੇ ਇੱਕ ਚੈਰੀ ਦੀ ਛਾਂਟੀ ਕਰਨ ਲਈ ਛੱਡ ਦੇਣਗੇ। ਅਤੇ ਮੁੱਖ ਗੁੰਮ ਹਿੱਸਾ ਇਹ ਸਿੱਖ ਰਿਹਾ ਹੈ ਕਿ ਸੰਸਾਰ ਕਿਵੇਂ ਕੰਮ ਕਰਦਾ ਹੈ, ਜਿਆਦਾਤਰ ਬਿਨਾਂ ਕਾਰਵਾਈ ਦੇ ਨਿਰੀਖਣ ਦੁਆਰਾ। ਰੀਨਫੋਰਸਮੈਂਟ ਲਰਨਿੰਗ ਬਹੁਤ ਐਕਸ਼ਨ-ਆਧਾਰਿਤ ਹੈ, ਤੁਸੀਂ ਕਾਰਵਾਈਆਂ ਕਰਕੇ ਅਤੇ ਨਤੀਜਿਆਂ ਨੂੰ ਦੇਖ ਕੇ ਦੁਨੀਆ ਬਾਰੇ ਚੀਜ਼ਾਂ ਸਿੱਖਦੇ ਹੋ।

ZDNet: ਅਤੇ ਇਹ ਇਨਾਮ-ਕੇਂਦਰਿਤ ਹੈ।

YL: ਇਹ ਇਨਾਮ-ਕੇਂਦ੍ਰਿਤ ਹੈ, ਅਤੇ ਇਹ ਕਾਰਵਾਈ-ਕੇਂਦ੍ਰਿਤ ਵੀ ਹੈ। ਇਸ ਲਈ, ਤੁਹਾਨੂੰ ਸੰਸਾਰ ਬਾਰੇ ਕੁਝ ਸਿੱਖਣ ਦੇ ਯੋਗ ਹੋਣ ਲਈ ਸੰਸਾਰ ਵਿੱਚ ਕੰਮ ਕਰਨਾ ਪਏਗਾ. ਅਤੇ ਸਵੈ-ਨਿਗਰਾਨੀ ਸਿੱਖਣ ਬਾਰੇ ਮੈਂ ਪੇਪਰ ਵਿੱਚ ਮੁੱਖ ਦਾਅਵਾ ਕਰਦਾ ਹਾਂ, ਜ਼ਿਆਦਾਤਰ ਸਿੱਖਣ ਜੋ ਅਸੀਂ ਕਰਦੇ ਹਾਂ, ਅਸੀਂ ਇਸਨੂੰ ਅਸਲ ਵਿੱਚ ਕਾਰਵਾਈਆਂ ਕਰਕੇ ਨਹੀਂ ਕਰਦੇ, ਅਸੀਂ ਇਸਨੂੰ ਨਿਰੀਖਣ ਦੁਆਰਾ ਕਰਦੇ ਹਾਂ। ਅਤੇ ਇਹ ਬਹੁਤ ਹੀ ਗੈਰ-ਪਰੰਪਰਾਗਤ ਹੈ, ਦੋਵਾਂ ਨੂੰ ਮਜ਼ਬੂਤੀ ਨਾਲ ਸਿੱਖਣ ਵਾਲੇ ਲੋਕਾਂ ਲਈ, ਖਾਸ ਤੌਰ 'ਤੇ, ਪਰ ਬਹੁਤ ਸਾਰੇ ਮਨੋਵਿਗਿਆਨੀਆਂ ਅਤੇ ਬੋਧਾਤਮਕ ਵਿਗਿਆਨੀਆਂ ਲਈ ਵੀ ਜੋ ਸੋਚਦੇ ਹਨ ਕਿ, ਤੁਸੀਂ ਜਾਣਦੇ ਹੋ, ਕਿਰਿਆ ਹੈ - ਮੈਂ ਇਹ ਨਹੀਂ ਕਹਿ ਰਿਹਾ ਕਿ ਕਾਰਵਾਈ ਜ਼ਰੂਰੀ ਨਹੀਂ ਹੈ, ਇਹ is ਜ਼ਰੂਰੀ. ਪਰ ਮੈਂ ਸੋਚਦਾ ਹਾਂ ਕਿ ਅਸੀਂ ਜੋ ਕੁਝ ਸਿੱਖਦੇ ਹਾਂ ਉਸ ਦਾ ਵੱਡਾ ਹਿੱਸਾ ਸੰਸਾਰ ਦੀ ਬਣਤਰ ਬਾਰੇ ਹੈ, ਅਤੇ ਬੇਸ਼ੱਕ, ਆਪਸੀ ਤਾਲਮੇਲ ਅਤੇ ਕਿਰਿਆ ਅਤੇ ਖੇਡ, ਅਤੇ ਇਸ ਤਰ੍ਹਾਂ ਦੀਆਂ ਚੀਜ਼ਾਂ ਸ਼ਾਮਲ ਹਨ, ਪਰ ਇਸਦਾ ਬਹੁਤ ਸਾਰਾ ਨਿਰੀਖਣ ਹੈ।

ZDNet: ਤੁਸੀਂ ਉਸੇ ਸਮੇਂ ਟ੍ਰਾਂਸਫਾਰਮਰ ਲੋਕਾਂ, ਭਾਸ਼ਾ-ਪਹਿਲੇ ਲੋਕਾਂ ਨੂੰ ਟਿਕ-ਆਫ ਕਰਨ ਦਾ ਪ੍ਰਬੰਧ ਵੀ ਕਰੋਗੇ। ਤੁਸੀਂ ਇਸਨੂੰ ਪਹਿਲਾਂ ਭਾਸ਼ਾ ਤੋਂ ਬਿਨਾਂ ਕਿਵੇਂ ਬਣਾ ਸਕਦੇ ਹੋ? ਤੁਸੀਂ ਬਹੁਤ ਸਾਰੇ ਲੋਕਾਂ ਨੂੰ ਟਿੱਕ ਕਰਨ ਦਾ ਪ੍ਰਬੰਧ ਕਰ ਸਕਦੇ ਹੋ। 

YL: ਹਾਂ, ਮੈਂ ਇਸਦਾ ਆਦੀ ਹਾਂ। ਇਸ ਲਈ, ਹਾਂ, ਇੱਥੇ ਭਾਸ਼ਾ-ਪਹਿਲੇ ਲੋਕ ਹਨ, ਜੋ ਕਹਿੰਦੇ ਹਨ, ਤੁਸੀਂ ਜਾਣਦੇ ਹੋ, ਬੁੱਧੀ ਭਾਸ਼ਾ ਬਾਰੇ ਹੈ, ਬੁੱਧੀ ਦਾ ਸਬਸਟਰੇਟ ਭਾਸ਼ਾ ਹੈ, ਬਲਾ, ਬਲਾ, ਬਲਾ। ਪਰ ਇਹ, ਕਿਸਮ ਦੀ, ਜਾਨਵਰਾਂ ਦੀ ਬੁੱਧੀ ਨੂੰ ਖਾਰਜ ਕਰਦਾ ਹੈ। ਤੁਸੀਂ ਜਾਣਦੇ ਹੋ, ਅਸੀਂ ਉਸ ਬਿੰਦੂ 'ਤੇ ਨਹੀਂ ਹਾਂ ਜਿੱਥੇ ਸਾਡੀਆਂ ਬੁੱਧੀਮਾਨ ਮਸ਼ੀਨਾਂ ਕੋਲ ਬਿੱਲੀ ਜਿੰਨੀ ਆਮ ਸਮਝ ਹੈ. ਤਾਂ, ਅਸੀਂ ਉੱਥੇ ਕਿਉਂ ਨਾ ਸ਼ੁਰੂ ਕਰੀਏ? ਇਹ ਕੀ ਹੈ ਜੋ ਇੱਕ ਬਿੱਲੀ ਨੂੰ ਆਲੇ ਦੁਆਲੇ ਦੇ ਸੰਸਾਰ ਨੂੰ ਫੜਨ, ਬਹੁਤ ਸਮਾਰਟ ਚੀਜ਼ਾਂ ਕਰਨ, ਅਤੇ ਇਸ ਤਰ੍ਹਾਂ ਦੀਆਂ ਯੋਜਨਾਵਾਂ ਅਤੇ ਚੀਜ਼ਾਂ, ਅਤੇ ਕੁੱਤੇ ਨੂੰ ਹੋਰ ਵੀ ਬਿਹਤਰ ਬਣਾਉਣ ਦੀ ਇਜਾਜ਼ਤ ਦਿੰਦਾ ਹੈ? 

ਫਿਰ ਸਾਰੇ ਲੋਕ ਹਨ ਜੋ ਕਹਿੰਦੇ ਹਨ, ਓ, ਬੁੱਧੀ ਇੱਕ ਸਮਾਜਿਕ ਚੀਜ਼ ਹੈ, ਠੀਕ ਹੈ? ਅਸੀਂ ਬੁੱਧੀਮਾਨ ਹਾਂ ਕਿਉਂਕਿ ਅਸੀਂ ਇੱਕ ਦੂਜੇ ਨਾਲ ਗੱਲ ਕਰਦੇ ਹਾਂ ਅਤੇ ਅਸੀਂ ਜਾਣਕਾਰੀ ਦਾ ਆਦਾਨ-ਪ੍ਰਦਾਨ ਕਰਦੇ ਹਾਂ, ਅਤੇ ਬਲਾ, ਬਲਾਹ, ਬਲਾਹ। ਇੱਥੇ ਹਰ ਕਿਸਮ ਦੀਆਂ ਗੈਰ-ਸਮਾਜਿਕ ਪ੍ਰਜਾਤੀਆਂ ਹਨ ਜੋ ਕਦੇ ਵੀ ਆਪਣੇ ਮਾਪਿਆਂ ਨੂੰ ਨਹੀਂ ਮਿਲਦੀਆਂ ਜੋ ਬਹੁਤ ਚੁਸਤ ਹਨ, ਜਿਵੇਂ ਕਿ ਆਕਟੋਪਸ ਜਾਂ ਓਰੈਂਗੁਟਨ।ਮੇਰਾ ਮਤਲਬ ਹੈ, ਉਹ [ਔਰੰਗੁਟਾਨ] ਨਿਸ਼ਚਿਤ ਤੌਰ 'ਤੇ ਆਪਣੀ ਮਾਂ ਦੁਆਰਾ ਪੜ੍ਹੇ-ਲਿਖੇ ਹਨ, ਪਰ ਉਹ ਸਮਾਜਿਕ ਜਾਨਵਰ ਨਹੀਂ ਹਨ। 

ਪਰ ਲੋਕਾਂ ਦੀ ਦੂਸਰੀ ਸ਼੍ਰੇਣੀ ਜਿਨ੍ਹਾਂ ਨੂੰ ਮੈਂ ਟਿਕ ਕਰ ਸਕਦਾ ਹਾਂ ਉਹ ਲੋਕ ਹਨ ਜੋ ਕਹਿੰਦੇ ਹਨ ਕਿ ਸਕੇਲਿੰਗ ਕਾਫ਼ੀ ਹੈ। ਇਸ ਲਈ, ਮੂਲ ਰੂਪ ਵਿੱਚ, ਅਸੀਂ ਸਿਰਫ ਵਿਸ਼ਾਲ ਟ੍ਰਾਂਸਫਾਰਮਰਾਂ ਦੀ ਵਰਤੋਂ ਕਰਦੇ ਹਾਂ, ਅਸੀਂ ਉਹਨਾਂ ਨੂੰ ਮਲਟੀਮੋਡਲ ਡੇਟਾ 'ਤੇ ਸਿਖਲਾਈ ਦਿੰਦੇ ਹਾਂ ਜਿਸ ਵਿੱਚ, ਤੁਸੀਂ ਜਾਣਦੇ ਹੋ, ਵੀਡੀਓ, ਟੈਕਸਟ, ਬਲਾਹ, ਬਲਾਹ, ਬਲਾਹ. ਅਸੀਂ, ਕਿਸਮ ਦੇ, ਪਤਿਤ ਹੋ ਜਾਂਦੇ ਹਾਂਸਭ ਕੁਝ, ਅਤੇ ਹਰ ਚੀਜ਼ ਨੂੰ ਟੋਕਨਾਈਜ਼ ਕਰੋ, ਅਤੇ ਫਿਰ ਵਿਸ਼ਾਲ ਸਿਖਲਾਈ ਦਿਓਵੱਖ-ਵੱਖ ਭਵਿੱਖਬਾਣੀਆਂ ਕਰਨ ਲਈ ਮਾਡਲ, ਮੂਲ ਰੂਪ ਵਿੱਚ, ਅਤੇ ਕਿਸੇ ਤਰ੍ਹਾਂ AI ਇਸ ਵਿੱਚੋਂ ਉਭਰੇਗਾ। ਉਹ ਗਲਤ ਨਹੀਂ ਹਨ, ਇਸ ਅਰਥ ਵਿੱਚ ਕਿ ਇਹ ਭਵਿੱਖ ਦੇ ਬੁੱਧੀਮਾਨ ਸਿਸਟਮ ਦਾ ਇੱਕ ਹਿੱਸਾ ਹੋ ਸਕਦਾ ਹੈ। ਪਰ ਮੈਨੂੰ ਲਗਦਾ ਹੈ ਕਿ ਇਹ ਜ਼ਰੂਰੀ ਟੁਕੜੇ ਗੁਆ ਰਿਹਾ ਹੈ. 

ਲੋਕਾਂ ਦੀ ਇੱਕ ਹੋਰ ਸ਼੍ਰੇਣੀ ਹੈ ਜਿਸਨੂੰ ਮੈਂ ਇਸ ਪੇਪਰ ਨਾਲ ਟਿੱਕ ਕਰਨ ਜਾ ਰਿਹਾ ਹਾਂ। ਅਤੇ ਇਹ ਸੰਭਾਵੀ, ਧਾਰਮਿਕ ਸੰਭਾਵੀ ਹੈ। ਇਸ ਲਈ, ਉਹ ਲੋਕ ਜੋ ਸੋਚਦੇ ਹਨ ਕਿ ਸੰਭਾਵੀ ਥਿਊਰੀ ਇੱਕੋ ਇੱਕ ਫਰੇਮਵਰਕ ਹੈ ਜਿਸਦੀ ਵਰਤੋਂ ਤੁਸੀਂ ਮਸ਼ੀਨ ਸਿਖਲਾਈ ਦੀ ਵਿਆਖਿਆ ਕਰਨ ਲਈ ਕਰ ਸਕਦੇ ਹੋ। ਅਤੇ ਜਿਵੇਂ ਕਿ ਮੈਂ ਟੁਕੜੇ ਵਿੱਚ ਸਮਝਾਉਣ ਦੀ ਕੋਸ਼ਿਸ਼ ਕੀਤੀ, ਅਸਲ ਵਿੱਚ ਇੱਕ ਵਿਸ਼ਵ ਮਾਡਲ ਨੂੰ ਪੂਰੀ ਤਰ੍ਹਾਂ ਸੰਭਾਵਿਤ ਹੋਣ ਲਈ ਪੁੱਛਣਾ ਬਹੁਤ ਜ਼ਿਆਦਾ ਹੈ. ਅਸੀਂ ਨਹੀਂ ਜਾਣਦੇ ਕਿ ਇਹ ਕਿਵੇਂ ਕਰਨਾ ਹੈ। ਕੰਪਿਊਟੇਸ਼ਨਲ ਇਨਟਰੈਕਟੇਬਿਲਟੀ ਹੈ। ਇਸ ਲਈ ਮੈਂ ਇਸ ਪੂਰੇ ਵਿਚਾਰ ਨੂੰ ਛੱਡਣ ਦਾ ਪ੍ਰਸਤਾਵ ਕਰ ਰਿਹਾ ਹਾਂ। ਅਤੇ ਬੇਸ਼ੱਕ, ਤੁਸੀਂ ਜਾਣਦੇ ਹੋ, ਇਹ ਨਾ ਸਿਰਫ਼ ਮਸ਼ੀਨ ਸਿਖਲਾਈ ਦਾ, ਬਲਕਿ ਸਾਰੇ ਅੰਕੜਿਆਂ ਦਾ ਇੱਕ ਵਿਸ਼ਾਲ ਥੰਮ ਹੈ, ਜੋ ਮਸ਼ੀਨ ਸਿਖਲਾਈ ਲਈ ਆਮ ਰਸਮੀ ਹੋਣ ਦਾ ਦਾਅਵਾ ਕਰਦਾ ਹੈ। 

ਦੂਜੀ ਗੱਲ - 

ZDNet: ਤੁਸੀਂ ਇੱਕ ਰੋਲ 'ਤੇ ਹੋ…

YL: — ਜਿਸ ਨੂੰ ਜਨਰੇਟਿਵ ਮਾਡਲ ਕਿਹਾ ਜਾਂਦਾ ਹੈ। ਇਸ ਲਈ, ਇਹ ਵਿਚਾਰ ਕਿ ਤੁਸੀਂ ਭਵਿੱਖਬਾਣੀ ਕਰਨਾ ਸਿੱਖ ਸਕਦੇ ਹੋ, ਅਤੇ ਤੁਸੀਂ ਭਵਿੱਖਬਾਣੀ ਦੁਆਰਾ ਸੰਸਾਰ ਬਾਰੇ ਬਹੁਤ ਕੁਝ ਸਿੱਖ ਸਕਦੇ ਹੋ। ਇਸ ਲਈ, ਮੈਂ ਤੁਹਾਨੂੰ ਵੀਡੀਓ ਦਾ ਇੱਕ ਟੁਕੜਾ ਦਿੰਦਾ ਹਾਂ ਅਤੇ ਮੈਂ ਸਿਸਟਮ ਨੂੰ ਇਹ ਅਨੁਮਾਨ ਲਗਾਉਣ ਲਈ ਕਹਿੰਦਾ ਹਾਂ ਕਿ ਵੀਡੀਓ ਵਿੱਚ ਅੱਗੇ ਕੀ ਹੁੰਦਾ ਹੈ। ਅਤੇ ਮੈਂ ਤੁਹਾਨੂੰ ਸਾਰੇ ਵੇਰਵਿਆਂ ਦੇ ਨਾਲ ਅਸਲ ਵੀਡੀਓ ਫਰੇਮਾਂ ਦੀ ਭਵਿੱਖਬਾਣੀ ਕਰਨ ਲਈ ਕਹਿ ਸਕਦਾ ਹਾਂ। ਪਰ ਜੋ ਮੈਂ ਪੇਪਰ ਵਿੱਚ ਬਹਿਸ ਕਰਦਾ ਹਾਂ ਉਹ ਇਹ ਹੈ ਕਿ ਇਹ ਅਸਲ ਵਿੱਚ ਪੁੱਛਣ ਲਈ ਬਹੁਤ ਜ਼ਿਆਦਾ ਹੈ ਅਤੇ ਬਹੁਤ ਗੁੰਝਲਦਾਰ ਹੈ. ਅਤੇ ਇਹ ਉਹ ਚੀਜ਼ ਹੈ ਜਿਸ ਬਾਰੇ ਮੈਂ ਆਪਣਾ ਮਨ ਬਦਲ ਲਿਆ ਹੈ। ਲਗਭਗ ਦੋ ਸਾਲ ਪਹਿਲਾਂ ਤੱਕ, ਮੈਂ ਜਿਸਨੂੰ ਮੈਂ ਲੇਟੈਂਟ ਵੇਰੀਏਬਲ ਜਨਰੇਟਿਵ ਮਾਡਲ ਕਹਿੰਦੇ ਹਾਂ, ਉਹ ਮਾਡਲ ਜੋ ਭਵਿੱਖਬਾਣੀ ਕਰਦੇ ਹਨ ਕਿ ਅੱਗੇ ਕੀ ਹੋਣ ਜਾ ਰਿਹਾ ਹੈ ਜਾਂ ਜਾਣਕਾਰੀ ਜੋ ਗੁੰਮ ਹੈ, ਸੰਭਵ ਤੌਰ 'ਤੇ ਇੱਕ ਗੁਪਤ ਵੇਰੀਏਬਲ ਦੀ ਮਦਦ ਨਾਲ, ਜੇਕਰ ਭਵਿੱਖਬਾਣੀ ਨਹੀਂ ਕੀਤੀ ਜਾ ਸਕਦੀ ਹੈ, ਦਾ ਵਕੀਲ ਹੁੰਦਾ ਸੀ। ਨਿਰਣਾਇਕ ਅਤੇ ਮੈਂ ਇਸ ਨੂੰ ਛੱਡ ਦਿੱਤਾ ਹੈ। ਅਤੇ ਜਿਸ ਕਾਰਨ ਮੈਂ ਇਸਨੂੰ ਛੱਡ ਦਿੱਤਾ ਹੈ ਉਹ ਅਨੁਭਵੀ ਨਤੀਜਿਆਂ 'ਤੇ ਆਧਾਰਿਤ ਹੈ, ਜਿੱਥੇ ਲੋਕਾਂ ਨੇ BERT ਵਿੱਚ ਵਰਤੀ ਜਾਂਦੀ ਕਿਸਮ ਦੀ ਪੂਰਵ-ਅਨੁਮਾਨ, ਕ੍ਰਮ-ਬੱਧ, ਪੂਰਵ-ਅਨੁਮਾਨ ਜਾਂ ਪੁਨਰ-ਨਿਰਮਾਣ-ਅਧਾਰਿਤ ਸਿਖਲਾਈ ਨੂੰ ਲਾਗੂ ਕਰਨ ਦੀ ਕੋਸ਼ਿਸ਼ ਕੀਤੀ ਹੈ।ਅਤੇ ਵੱਡੇ ਭਾਸ਼ਾ ਮਾਡਲ, ਉਹਨਾਂ ਨੇ ਇਸਨੂੰ ਚਿੱਤਰਾਂ 'ਤੇ ਲਾਗੂ ਕਰਨ ਦੀ ਕੋਸ਼ਿਸ਼ ਕੀਤੀ ਹੈ, ਅਤੇ ਇਹ ਪੂਰੀ ਤਰ੍ਹਾਂ ਅਸਫਲ ਰਿਹਾ ਹੈ। ਅਤੇ ਇਸਦੇ ਪੂਰੀ ਤਰ੍ਹਾਂ ਅਸਫਲ ਹੋਣ ਦਾ ਕਾਰਨ ਹੈ, ਦੁਬਾਰਾ, ਸੰਭਾਵੀ ਮਾਡਲਾਂ ਦੀਆਂ ਕਮੀਆਂ ਦੇ ਕਾਰਨ ਜਿੱਥੇ ਸ਼ਬਦਾਂ ਵਰਗੇ ਵੱਖਰੇ ਟੋਕਨਾਂ ਦੀ ਭਵਿੱਖਬਾਣੀ ਕਰਨਾ ਮੁਕਾਬਲਤਨ ਆਸਾਨ ਹੈ ਕਿਉਂਕਿ ਅਸੀਂ ਸ਼ਬਦਕੋਸ਼ ਵਿੱਚ ਸਾਰੇ ਸ਼ਬਦਾਂ ਉੱਤੇ ਸੰਭਾਵਨਾ ਵੰਡ ਦੀ ਗਣਨਾ ਕਰ ਸਕਦੇ ਹਾਂ। ਇਹ ਆਸਾਨ ਹੈ. ਪਰ ਜੇਕਰ ਅਸੀਂ ਸਿਸਟਮ ਨੂੰ ਸਾਰੇ ਸੰਭਾਵਿਤ ਵੀਡੀਓ ਫ੍ਰੇਮਾਂ 'ਤੇ ਸੰਭਾਵੀ ਵੰਡ ਪੈਦਾ ਕਰਨ ਲਈ ਕਹਿੰਦੇ ਹਾਂ, ਤਾਂ ਸਾਨੂੰ ਇਹ ਨਹੀਂ ਪਤਾ ਕਿ ਇਸਨੂੰ ਪੈਰਾਮੀਟਰਾਈਜ਼ ਕਿਵੇਂ ਕਰਨਾ ਹੈ, ਜਾਂ ਸਾਨੂੰ ਕੁਝ ਪਤਾ ਹੈ ਕਿ ਇਸਨੂੰ ਕਿਵੇਂ ਪੈਰਾਮੀਟਰਾਈਜ਼ ਕਰਨਾ ਹੈ, ਪਰ ਅਸੀਂ ਨਹੀਂ ਜਾਣਦੇ ਕਿ ਇਸਨੂੰ ਕਿਵੇਂ ਸਧਾਰਨ ਕਰਨਾ ਹੈ। ਇਹ ਇੱਕ ਗੁੰਝਲਦਾਰ ਗਣਿਤਿਕ ਸਮੱਸਿਆ ਨੂੰ ਮਾਰਦਾ ਹੈ ਜਿਸਨੂੰ ਅਸੀਂ ਨਹੀਂ ਜਾਣਦੇ ਕਿ ਕਿਵੇਂ ਹੱਲ ਕਰਨਾ ਹੈ। 

yann-lecun-sept-2022-3

"ਅਸੀਂ ਉਸ ਬਿੰਦੂ 'ਤੇ ਨਹੀਂ ਹਾਂ ਜਿੱਥੇ ਸਾਡੀਆਂ ਬੁੱਧੀਮਾਨ ਮਸ਼ੀਨਾਂ ਕੋਲ ਬਿੱਲੀ ਜਿੰਨੀ ਆਮ ਸਮਝ ਹੈ," ਲੇਕੁਨ ਨੇ ਦੇਖਿਆ। “ਤਾਂ, ਅਸੀਂ ਉੱਥੇ ਕਿਉਂ ਨਾ ਸ਼ੁਰੂ ਕਰੀਏ? ਇਹ ਕੀ ਹੈ ਜੋ ਇੱਕ ਬਿੱਲੀ ਨੂੰ ਆਲੇ ਦੁਆਲੇ ਦੇ ਸੰਸਾਰ ਨੂੰ ਫੜਨ, ਬਹੁਤ ਸਮਾਰਟ ਚੀਜ਼ਾਂ ਕਰਨ, ਅਤੇ ਇਸ ਤਰ੍ਹਾਂ ਦੀ ਯੋਜਨਾ ਬਣਾਉਣ ਅਤੇ ਇਸ ਤਰ੍ਹਾਂ ਦੀਆਂ ਚੀਜ਼ਾਂ, ਅਤੇ ਕੁੱਤੇ ਨੂੰ ਹੋਰ ਬਿਹਤਰ ਕਰਨ ਦੀ ਇਜਾਜ਼ਤ ਦਿੰਦਾ ਹੈ?"

ਇਸ ਲਈ, ਇਸ ਲਈ ਮੈਂ ਕਹਿੰਦਾ ਹਾਂ ਕਿ ਆਓ ਸੰਭਾਵਨਾ ਸਿਧਾਂਤ ਜਾਂ ਇਸ ਤਰ੍ਹਾਂ ਦੀਆਂ ਚੀਜ਼ਾਂ ਲਈ ਢਾਂਚੇ ਨੂੰ ਛੱਡ ਦੇਈਏ, ਕਮਜ਼ੋਰ ਇੱਕ, ਊਰਜਾ-ਆਧਾਰਿਤ ਮਾਡਲ। ਮੈਂ ਦਹਾਕਿਆਂ ਤੋਂ ਇਸਦੀ ਵਕਾਲਤ ਕਰ ਰਿਹਾ ਹਾਂ, ਇਸ ਲਈ ਇਹ ਕੋਈ ਤਾਜ਼ਾ ਗੱਲ ਨਹੀਂ ਹੈ। ਪਰ ਇਸਦੇ ਨਾਲ ਹੀ, ਜਨਰੇਟਿਵ ਮਾਡਲਾਂ ਦੇ ਵਿਚਾਰ ਨੂੰ ਤਿਆਗਣਾ ਕਿਉਂਕਿ ਸੰਸਾਰ ਵਿੱਚ ਬਹੁਤ ਸਾਰੀਆਂ ਚੀਜ਼ਾਂ ਹਨ ਜੋ ਸਮਝਣ ਯੋਗ ਨਹੀਂ ਹਨ ਅਤੇ ਭਵਿੱਖਬਾਣੀ ਨਹੀਂ ਕੀਤੀਆਂ ਜਾ ਸਕਦੀਆਂ ਹਨ। ਜੇ ਤੁਸੀਂ ਇੰਜੀਨੀਅਰ ਹੋ, ਤਾਂ ਤੁਸੀਂ ਇਸ ਨੂੰ ਰੌਲਾ ਕਹਿੰਦੇ ਹੋ। ਜੇ ਤੁਸੀਂ ਇੱਕ ਭੌਤਿਕ ਵਿਗਿਆਨੀ ਹੋ, ਤਾਂ ਤੁਸੀਂ ਇਸਨੂੰ ਗਰਮੀ ਕਹਿੰਦੇ ਹੋ। ਅਤੇ ਜੇਕਰ ਤੁਸੀਂ ਇੱਕ ਮਸ਼ੀਨ ਲਰਨਿੰਗ ਵਿਅਕਤੀ ਹੋ, ਤਾਂ ਤੁਸੀਂ ਇਸਨੂੰ ਕਾਲ ਕਰਦੇ ਹੋ, ਤੁਸੀਂ ਜਾਣਦੇ ਹੋ, ਅਪ੍ਰਸੰਗਿਕ ਵੇਰਵੇ ਜਾਂ ਕੁਝ ਵੀ।

ਇਸ ਲਈ, ਜੋ ਉਦਾਹਰਣ ਮੈਂ ਪੇਪਰ ਵਿੱਚ ਵਰਤੀ ਹੈ, ਜਾਂ ਮੈਂ ਗੱਲਬਾਤ ਵਿੱਚ ਵਰਤੀ ਹੈ, ਕੀ ਤੁਸੀਂ ਇੱਕ ਵਿਸ਼ਵ-ਅਨੁਮਾਨ ਪ੍ਰਣਾਲੀ ਚਾਹੁੰਦੇ ਹੋ ਜੋ ਇੱਕ ਸਵੈ-ਡਰਾਈਵਿੰਗ ਕਾਰ ਵਿੱਚ ਮਦਦ ਕਰੇ, ਠੀਕ ਹੈ? ਇਹ ਭਵਿੱਖਬਾਣੀ ਕਰਨ ਦੇ ਯੋਗ ਹੋਣਾ ਚਾਹੁੰਦਾ ਹੈ, ਪਹਿਲਾਂ ਹੀ, ਹੋਰ ਸਾਰੀਆਂ ਕਾਰਾਂ ਦੇ ਚਾਲ-ਚਲਣ, ਹੋਰ ਵਸਤੂਆਂ ਦਾ ਕੀ ਹੋਣ ਜਾ ਰਿਹਾ ਹੈ ਜੋ ਕਿ ਹੋ ਸਕਦੀਆਂ ਹਨ, ਪੈਦਲ ਚੱਲਣ ਵਾਲੇ, ਸਾਈਕਲ, ਇੱਕ ਬੱਚਾ ਫੁਟਬਾਲ ਦੇ ਪਿੱਛੇ ਦੌੜਦਾ ਹੈ, ਇਸ ਤਰ੍ਹਾਂ ਦੀਆਂ ਚੀਜ਼ਾਂ। ਇਸ ਲਈ, ਸੰਸਾਰ ਬਾਰੇ ਹਰ ਕਿਸਮ ਦੀਆਂ ਚੀਜ਼ਾਂ. ਪਰ ਸੜਕ ਦੇ ਕਿਨਾਰੇ, ਰੁੱਖ ਹੋ ਸਕਦੇ ਹਨ, ਅਤੇ ਅੱਜ ਹਵਾ ਹੈ, ਇਸ ਲਈ ਪੱਤੇ ਹਵਾ ਵਿੱਚ ਹਿਲ ਰਹੇ ਹਨ, ਅਤੇ ਰੁੱਖਾਂ ਦੇ ਪਿੱਛੇ ਇੱਕ ਛੱਪੜ ਹੈ, ਅਤੇ ਛੱਪੜ ਵਿੱਚ ਲਹਿਰਾਂ ਹਨ. ਅਤੇ ਉਹ, ਜ਼ਰੂਰੀ ਤੌਰ 'ਤੇ, ਵੱਡੇ ਪੱਧਰ 'ਤੇ ਅਣਪਛਾਤੇ ਵਰਤਾਰੇ ਹਨ। ਅਤੇ, ਤੁਸੀਂ ਨਹੀਂ ਚਾਹੁੰਦੇ ਹੋ ਕਿ ਤੁਹਾਡਾ ਮਾਡਲ ਉਹਨਾਂ ਚੀਜ਼ਾਂ ਦੀ ਭਵਿੱਖਬਾਣੀ ਕਰਨ ਲਈ ਬਹੁਤ ਜ਼ਿਆਦਾ ਸਰੋਤ ਖਰਚ ਕਰੇ ਜਿਨ੍ਹਾਂ ਦੀ ਭਵਿੱਖਬਾਣੀ ਕਰਨੀ ਔਖੀ ਅਤੇ ਅਪ੍ਰਸੰਗਿਕ ਹੈ। ਇਸ ਲਈ ਮੈਂ ਸੰਯੁਕਤ ਏਮਬੈਡਿੰਗ ਆਰਕੀਟੈਕਚਰ ਦੀ ਵਕਾਲਤ ਕਰ ਰਿਹਾ ਹਾਂ, ਉਹ ਚੀਜ਼ਾਂ ਜਿੱਥੇ ਤੁਸੀਂ ਵੇਰੀਏਬਲ ਨੂੰ ਮਾਡਲ ਬਣਾਉਣ ਦੀ ਕੋਸ਼ਿਸ਼ ਕਰ ਰਹੇ ਹੋ, ਤੁਸੀਂ ਇਸਦਾ ਅਨੁਮਾਨ ਲਗਾਉਣ ਦੀ ਕੋਸ਼ਿਸ਼ ਨਹੀਂ ਕਰ ਰਹੇ ਹੋ, ਤੁਸੀਂ ਇਸਨੂੰ ਮਾਡਲ ਬਣਾਉਣ ਦੀ ਕੋਸ਼ਿਸ਼ ਕਰ ਰਹੇ ਹੋ, ਪਰ ਇਹ ਇੱਕ ਏਨਕੋਡਰ ਦੁਆਰਾ ਚਲਦਾ ਹੈ, ਅਤੇ ਉਹ ਏਨਕੋਡਰ ਇੰਪੁੱਟ ਬਾਰੇ ਬਹੁਤ ਸਾਰੇ ਵੇਰਵਿਆਂ ਨੂੰ ਖਤਮ ਕਰ ਸਕਦਾ ਹੈ ਜੋ ਅਪ੍ਰਸੰਗਿਕ ਜਾਂ ਬਹੁਤ ਗੁੰਝਲਦਾਰ ਹਨ — ਅਸਲ ਵਿੱਚ, ਰੌਲੇ ਦੇ ਬਰਾਬਰ।

ZDNet: ਅਸੀਂ ਇਸ ਸਾਲ ਦੇ ਸ਼ੁਰੂ ਵਿੱਚ ਊਰਜਾ-ਆਧਾਰਿਤ ਮਾਡਲਾਂ, JEPA ਅਤੇ H-JEPA ਬਾਰੇ ਚਰਚਾ ਕੀਤੀ ਸੀ। ਮੇਰੀ ਸਮਝ, ਜੇਕਰ ਮੈਂ ਤੁਹਾਨੂੰ ਸਹੀ ਢੰਗ ਨਾਲ ਸਮਝਦਾ ਹਾਂ, ਤਾਂ ਕੀ ਤੁਸੀਂ ਘੱਟ ਊਰਜਾ ਦਾ ਬਿੰਦੂ ਲੱਭ ਰਹੇ ਹੋ ਜਿੱਥੇ X ਅਤੇ Y ਏਮਬੈਡਿੰਗਾਂ ਦੀਆਂ ਇਹ ਦੋ ਭਵਿੱਖਬਾਣੀਆਂ ਸਭ ਤੋਂ ਵੱਧ ਮਿਲਦੀਆਂ-ਜੁਲਦੀਆਂ ਹਨ, ਜਿਸਦਾ ਮਤਲਬ ਹੈ ਕਿ ਜੇਕਰ ਇੱਕ ਵਿੱਚ ਇੱਕ ਰੁੱਖ ਵਿੱਚ ਇੱਕ ਕਬੂਤਰ ਹੈ, ਅਤੇ ਉੱਥੇ ਕੁਝ ਹੈ। ਇੱਕ ਦ੍ਰਿਸ਼ ਦੀ ਪਿੱਠਭੂਮੀ, ਉਹ ਜ਼ਰੂਰੀ ਬਿੰਦੂ ਨਹੀਂ ਹੋ ਸਕਦੇ ਜੋ ਇਹਨਾਂ ਏਮਬੈਡਿੰਗਾਂ ਨੂੰ ਇੱਕ ਦੂਜੇ ਦੇ ਨੇੜੇ ਬਣਾਉਂਦੇ ਹਨ।

YL: ਸੱਜਾ। ਇਸ ਲਈ, ਜੇਈਪੀਏ ਆਰਕੀਟੈਕਚਰ ਅਸਲ ਵਿੱਚ ਇੱਕ ਟ੍ਰੇਡਆਫ, ਇੱਕ ਸਮਝੌਤਾ ਲੱਭਣ ਦੀ ਕੋਸ਼ਿਸ਼ ਕਰਦਾ ਹੈ, ਐਕਸਟਰੈਕਟ ਕਰਨ ਵਾਲੀਆਂ ਪ੍ਰਤੀਨਿਧਤਾਵਾਂ ਦੇ ਵਿਚਕਾਰ ਜੋ ਕਿ ਇਨਪੁਟਸ ਬਾਰੇ ਵੱਧ ਤੋਂ ਵੱਧ ਜਾਣਕਾਰੀ ਦੇਣ ਵਾਲੇ ਹੁੰਦੇ ਹਨ ਪਰ ਕੁਝ ਪੱਧਰ ਦੀ ਸ਼ੁੱਧਤਾ ਜਾਂ ਭਰੋਸੇਯੋਗਤਾ ਦੇ ਨਾਲ ਇੱਕ ਦੂਜੇ ਤੋਂ ਅਨੁਮਾਨ ਲਗਾਉਣ ਯੋਗ ਵੀ ਹੁੰਦੇ ਹਨ। ਇਹ ਇੱਕ ਵਪਾਰ ਲੱਭਦਾ ਹੈ. ਇਸ ਲਈ, ਜੇ ਇਸ ਕੋਲ ਪੱਤਿਆਂ ਦੀ ਗਤੀ ਦੇ ਵੇਰਵਿਆਂ ਸਮੇਤ ਬਹੁਤ ਸਾਰੇ ਸਰੋਤ ਖਰਚ ਕਰਨ, ਅਤੇ ਫਿਰ ਗਤੀਸ਼ੀਲਤਾ ਦਾ ਮਾਡਲ ਬਣਾਉਣ ਦੇ ਵਿਚਕਾਰ ਵਿਕਲਪ ਹੈ ਜੋ ਇਹ ਫੈਸਲਾ ਕਰੇਗਾ ਕਿ ਪੱਤੇ ਹੁਣ ਤੋਂ ਇੱਕ ਸਕਿੰਟ ਕਿਵੇਂ ਹਿਲ ਰਹੇ ਹਨ, ਜਾਂ ਇਸ ਨੂੰ ਸਿਰਫ ਫਰਸ਼ 'ਤੇ ਸੁੱਟਣਾ ਹੈ। ਬਸ ਅਸਲ ਵਿੱਚ ਇੱਕ ਪੂਰਵ-ਸੂਚਕ ਦੁਆਰਾ Y ਵੇਰੀਏਬਲ ਨੂੰ ਚਲਾਉਣਾ ਜੋ ਉਹਨਾਂ ਸਾਰੇ ਵੇਰਵਿਆਂ ਨੂੰ ਖਤਮ ਕਰਦਾ ਹੈ, ਇਹ ਸ਼ਾਇਦ ਇਸਨੂੰ ਖਤਮ ਕਰ ਦੇਵੇਗਾ ਕਿਉਂਕਿ ਇਸਦਾ ਮਾਡਲ ਬਣਾਉਣਾ ਅਤੇ ਕੈਪਚਰ ਕਰਨਾ ਬਹੁਤ ਮੁਸ਼ਕਲ ਹੈ।

ZDNet: ਹੈਰਾਨੀ ਵਾਲੀ ਗੱਲ ਇਹ ਹੈ ਕਿ ਤੁਸੀਂ "ਇਹ ਕੰਮ ਕਰਦਾ ਹੈ, ਅਸੀਂ ਇਸਦੀ ਵਿਆਖਿਆ ਕਰਨ ਲਈ ਬਾਅਦ ਵਿੱਚ ਥਰਮੋਡਾਇਨਾਮਿਕਸ ਦੇ ਸਿਧਾਂਤ ਦਾ ਪਤਾ ਲਗਾਵਾਂਗੇ।" ਇੱਥੇ ਤੁਸੀਂ ਇੱਕ ਪਹੁੰਚ ਅਪਣਾਈ ਹੈ, "ਮੈਨੂੰ ਨਹੀਂ ਪਤਾ ਕਿ ਅਸੀਂ ਇਸ ਨੂੰ ਜ਼ਰੂਰੀ ਤੌਰ 'ਤੇ ਕਿਵੇਂ ਹੱਲ ਕਰਨ ਜਾ ਰਹੇ ਹਾਂ, ਪਰ ਮੈਂ ਇਸ ਬਾਰੇ ਸੋਚਣ ਲਈ ਕੁਝ ਵਿਚਾਰ ਪੇਸ਼ ਕਰਨਾ ਚਾਹੁੰਦਾ ਹਾਂ," ਅਤੇ ਹੋ ਸਕਦਾ ਹੈ ਕਿ ਕਿਸੇ ਸਿਧਾਂਤ ਜਾਂ ਪਰਿਕਲਪਨਾ ਤੱਕ ਪਹੁੰਚਣਾ, 'ਤੇ ਘੱਟੋ-ਘੱਟ ਇਹ ਦਿਲਚਸਪ ਹੈ ਕਿਉਂਕਿ ਬਹੁਤ ਸਾਰੇ ਲੋਕ ਕਾਰ 'ਤੇ ਕੰਮ ਕਰਨ ਲਈ ਬਹੁਤ ਸਾਰਾ ਪੈਸਾ ਖਰਚ ਕਰਦੇ ਹਨ ਜੋ ਪੈਦਲ ਯਾਤਰੀ ਨੂੰ ਦੇਖ ਸਕਦੇ ਹਨ ਭਾਵੇਂ ਕਾਰ ਦੀ ਆਮ ਸਮਝ ਹੈ ਜਾਂ ਨਹੀਂ। ਅਤੇ ਮੈਂ ਕਲਪਨਾ ਕਰਦਾ ਹਾਂ ਕਿ ਉਹਨਾਂ ਵਿੱਚੋਂ ਕੁਝ ਲੋਕ ਹੋਣਗੇ, ਜਿਨ੍ਹਾਂ ਨੂੰ ਬੰਦ ਨਹੀਂ ਕੀਤਾ ਜਾਵੇਗਾ, ਪਰ ਉਹ ਕਹਿਣਗੇ, "ਇਹ ਠੀਕ ਹੈ, ਸਾਨੂੰ ਕੋਈ ਪਰਵਾਹ ਨਹੀਂ ਹੈ ਜੇ ਇਸ ਵਿੱਚ ਆਮ ਸਮਝ ਨਹੀਂ ਹੈ, ਅਸੀਂ ਇੱਕ ਸਿਮੂਲੇਸ਼ਨ ਬਣਾਇਆ ਹੈ, ਸਿਮੂਲੇਸ਼ਨ ਸ਼ਾਨਦਾਰ ਹੈ, ਅਤੇ ਅਸੀਂ ਸੁਧਾਰ ਕਰਦੇ ਰਹਾਂਗੇ, ਅਸੀਂ ਸਿਮੂਲੇਸ਼ਨ ਨੂੰ ਸਕੇਲ ਕਰਦੇ ਰਹਾਂਗੇ।” 

ਅਤੇ ਇਸ ਲਈ ਇਹ ਦਿਲਚਸਪ ਹੈ ਕਿ ਤੁਸੀਂ ਹੁਣ ਇਹ ਕਹਿਣ ਦੀ ਸਥਿਤੀ ਵਿੱਚ ਹੋ, ਆਓ ਇੱਕ ਕਦਮ ਪਿੱਛੇ ਹਟ ਕੇ ਸੋਚੀਏ ਕਿ ਅਸੀਂ ਕੀ ਕਰ ਰਹੇ ਹਾਂ। ਅਤੇ ਉਦਯੋਗ ਕਹਿ ਰਿਹਾ ਹੈ ਕਿ ਅਸੀਂ ਸਿਰਫ ਸਕੇਲ, ਸਕੇਲ, ਸਕੇਲ, ਸਕੇਲ ਕਰਨ ਜਾ ਰਹੇ ਹਾਂ, ਕਿਉਂਕਿ ਉਹ ਕਰੈਂਕ ਅਸਲ ਵਿੱਚ ਕੰਮ ਕਰਦਾ ਹੈ. ਮੇਰਾ ਮਤਲਬ ਹੈ, GPUs ਦਾ ਸੈਮੀਕੰਡਕਟਰ ਕਰੈਂਕ ਅਸਲ ਵਿੱਚ ਕੰਮ ਕਰਦਾ ਹੈ.

YL: ਉੱਥੇ ਪੰਜ ਸਵਾਲ ਹਨ। ਇਸ ਲਈ, ਮੇਰਾ ਮਤਲਬ ਹੈ, ਸਕੇਲਿੰਗ ਜ਼ਰੂਰੀ ਹੈ. ਮੈਂ ਇਸ ਤੱਥ ਦੀ ਆਲੋਚਨਾ ਨਹੀਂ ਕਰ ਰਿਹਾ ਹਾਂ ਕਿ ਸਾਨੂੰ ਸਕੇਲ ਕਰਨਾ ਚਾਹੀਦਾ ਹੈ। ਸਾਨੂੰ ਸਕੇਲ ਕਰਨਾ ਚਾਹੀਦਾ ਹੈ. ਉਹ ਤੰਤੂ ਜਾਲ ਵਧਣ ਦੇ ਨਾਲ-ਨਾਲ ਬਿਹਤਰ ਹੋ ਜਾਂਦੇ ਹਨ। ਕੋਈ ਸਵਾਲ ਨਹੀਂ ਹੈ ਕਿ ਸਾਨੂੰ ਸਕੇਲ ਕਰਨਾ ਚਾਹੀਦਾ ਹੈ। ਅਤੇ ਜਿਨ੍ਹਾਂ ਕੋਲ ਆਮ ਸਮਝ ਦੇ ਕੁਝ ਪੱਧਰ ਹੋਣਗੇ ਉਹ ਵੱਡੇ ਹੋਣਗੇ. ਮੈਨੂੰ ਲਗਦਾ ਹੈ ਕਿ ਇਸ ਦੇ ਆਲੇ ਦੁਆਲੇ ਕੋਈ ਰਸਤਾ ਨਹੀਂ ਹੈ. ਇਸ ਲਈ ਸਕੇਲਿੰਗ ਚੰਗੀ ਹੈ, ਇਹ ਜ਼ਰੂਰੀ ਹੈ, ਪਰ ਕਾਫ਼ੀ ਨਹੀਂ ਹੈ। ਇਹ ਉਹ ਬਿੰਦੂ ਹੈ ਜੋ ਮੈਂ ਬਣਾ ਰਿਹਾ ਹਾਂ। ਇਹ ਸਿਰਫ ਸਕੇਲਿੰਗ ਨਹੀਂ ਹੈ. ਇਹ ਪਹਿਲਾ ਨੁਕਤਾ ਹੈ। 

ਦੂਜਾ ਬਿੰਦੂ, ਕੀ ਸਿਧਾਂਤ ਪਹਿਲਾਂ ਆਉਂਦਾ ਹੈ ਅਤੇ ਇਸ ਤਰ੍ਹਾਂ ਦੀਆਂ ਚੀਜ਼ਾਂ। ਇਸ ਲਈ, ਮੈਂ ਸੋਚਦਾ ਹਾਂ ਕਿ ਅਜਿਹੀਆਂ ਧਾਰਨਾਵਾਂ ਹਨ ਜੋ ਪਹਿਲਾਂ ਆਉਂਦੀਆਂ ਹਨ, ਤੁਹਾਨੂੰ ਇੱਕ ਕਦਮ ਪਿੱਛੇ ਹਟਣਾ ਪਏਗਾ ਅਤੇ ਕਹਿਣਾ ਪਏਗਾ, ਠੀਕ ਹੈ, ਅਸੀਂ ਇਹ ਪੌੜੀ ਬਣਾਈ ਹੈ, ਪਰ ਅਸੀਂ ਚੰਦਰਮਾ 'ਤੇ ਜਾਣਾ ਚਾਹੁੰਦੇ ਹਾਂ ਅਤੇ ਇਹ ਪੌੜੀ ਸਾਨੂੰ ਉੱਥੇ ਪਹੁੰਚਾਉਣ ਦਾ ਕੋਈ ਤਰੀਕਾ ਨਹੀਂ ਹੈ। ਇਸ ਲਈ, ਅਸਲ ਵਿੱਚ, ਜੋ ਮੈਂ ਇੱਥੇ ਲਿਖ ਰਿਹਾ ਹਾਂ, ਸਾਨੂੰ ਰਾਕੇਟ ਬਣਾਉਣ ਦੀ ਲੋੜ ਹੈ। ਮੈਂ ਤੁਹਾਨੂੰ ਇਸ ਬਾਰੇ ਵੇਰਵੇ ਨਹੀਂ ਦੇ ਸਕਦਾ ਕਿ ਅਸੀਂ ਰਾਕੇਟ ਕਿਵੇਂ ਬਣਾਉਂਦੇ ਹਾਂ, ਪਰ ਇੱਥੇ ਮੂਲ ਸਿਧਾਂਤ ਹਨ। ਅਤੇ ਮੈਂ ਇਸਦੇ ਲਈ ਜਾਂ ਕੁਝ ਵੀ ਸਿਧਾਂਤ ਨਹੀਂ ਲਿਖ ਰਿਹਾ, ਪਰ, ਇਹ ਇੱਕ ਰਾਕੇਟ ਬਣਨ ਜਾ ਰਿਹਾ ਹੈ, ਠੀਕ ਹੈ? ਜਾਂ ਇੱਕ ਸਪੇਸ ਐਲੀਵੇਟਰ ਜਾਂ ਜੋ ਵੀ। ਸਾਡੇ ਕੋਲ ਸਾਰੀ ਤਕਨਾਲੋਜੀ ਦੇ ਸਾਰੇ ਵੇਰਵੇ ਨਹੀਂ ਹੋ ਸਕਦੇ ਹਨ. ਅਸੀਂ ਇਹਨਾਂ ਵਿੱਚੋਂ ਕੁਝ ਚੀਜ਼ਾਂ ਨੂੰ ਕੰਮ ਕਰਨ ਦੀ ਕੋਸ਼ਿਸ਼ ਕਰ ਰਹੇ ਹਾਂ, ਜਿਵੇਂ ਕਿ ਮੈਂ JEPA 'ਤੇ ਕੰਮ ਕਰ ਰਿਹਾ ਹਾਂ। ਸੰਯੁਕਤ ਏਮਬੈਡਿੰਗ ਚਿੱਤਰ ਪਛਾਣ ਲਈ ਅਸਲ ਵਿੱਚ ਵਧੀਆ ਕੰਮ ਕਰਦੀ ਹੈ, ਪਰ ਇੱਕ ਵਿਸ਼ਵ ਮਾਡਲ ਨੂੰ ਸਿਖਲਾਈ ਦੇਣ ਲਈ ਇਸਦੀ ਵਰਤੋਂ ਕਰਨ ਲਈ, ਮੁਸ਼ਕਲਾਂ ਹਨ। ਅਸੀਂ ਇਸ 'ਤੇ ਕੰਮ ਕਰ ਰਹੇ ਹਾਂ, ਸਾਨੂੰ ਉਮੀਦ ਹੈ ਕਿ ਅਸੀਂ ਇਸਨੂੰ ਕੰਮ ਕਰਨ ਜਾ ਰਹੇ ਹਾਂ soon, ਪਰ ਸਾਨੂੰ ਉੱਥੇ ਕੁਝ ਰੁਕਾਵਟਾਂ ਦਾ ਸਾਹਮਣਾ ਕਰਨਾ ਪੈ ਸਕਦਾ ਹੈ ਜਿਨ੍ਹਾਂ ਨੂੰ ਅਸੀਂ ਪਾਰ ਨਹੀਂ ਕਰ ਸਕਦੇ, ਸੰਭਵ ਤੌਰ 'ਤੇ। 

ਫਿਰ ਤਰਕ ਦੇ ਬਾਰੇ ਪੇਪਰ ਵਿੱਚ ਇੱਕ ਮੁੱਖ ਵਿਚਾਰ ਹੈ ਜਿੱਥੇ ਜੇਕਰ ਅਸੀਂ ਚਾਹੁੰਦੇ ਹਾਂ ਕਿ ਸਿਸਟਮ ਯੋਜਨਾ ਬਣਾਉਣ ਦੇ ਯੋਗ ਹੋਣ, ਜਿਸ ਨੂੰ ਤੁਸੀਂ ਤਰਕ ਦੇ ਇੱਕ ਸਧਾਰਨ ਰੂਪ ਵਜੋਂ ਸੋਚ ਸਕਦੇ ਹੋ, ਤਾਂ ਉਹਨਾਂ ਵਿੱਚ ਲੁਕਵੇਂ ਵੇਰੀਏਬਲ ਹੋਣੇ ਚਾਹੀਦੇ ਹਨ। ਦੂਜੇ ਸ਼ਬਦਾਂ ਵਿੱਚ, ਉਹ ਚੀਜ਼ਾਂ ਜਿਨ੍ਹਾਂ ਦੀ ਗਣਨਾ ਕਿਸੇ ਨਿਊਰਲ ਨੈੱਟ ਦੁਆਰਾ ਨਹੀਂ ਕੀਤੀ ਜਾਂਦੀ ਪਰ ਉਹ ਚੀਜ਼ਾਂ ਹੁੰਦੀਆਂ ਹਨ - ਜਿਨ੍ਹਾਂ ਦਾ ਮੁੱਲ ਅਨੁਮਾਨ ਲਗਾਇਆ ਜਾਂਦਾ ਹੈ ਤਾਂ ਜੋ ਕੁਝ ਉਦੇਸ਼ ਫੰਕਸ਼ਨ, ਕੁਝ ਲਾਗਤ ਫੰਕਸ਼ਨ ਨੂੰ ਘੱਟ ਕੀਤਾ ਜਾ ਸਕੇ। ਅਤੇ ਫਿਰ ਤੁਸੀਂ ਸਿਸਟਮ ਦੇ ਵਿਵਹਾਰ ਨੂੰ ਚਲਾਉਣ ਲਈ ਇਸ ਲਾਗਤ ਫੰਕਸ਼ਨ ਦੀ ਵਰਤੋਂ ਕਰ ਸਕਦੇ ਹੋ. ਅਤੇ ਇਹ ਬਿਲਕੁਲ ਨਵਾਂ ਵਿਚਾਰ ਨਹੀਂ ਹੈ, ਠੀਕ ਹੈ? ਇਹ ਬਹੁਤ ਕਲਾਸੀਕਲ, ਸਰਵੋਤਮ ਨਿਯੰਤਰਣ ਹੈ ਜਿੱਥੇ ਇਸਦਾ ਅਧਾਰ 50 ਦੇ ਦਹਾਕੇ ਦੇ ਅਖੀਰ ਵਿੱਚ, 60 ਦੇ ਦਹਾਕੇ ਦੇ ਸ਼ੁਰੂ ਵਿੱਚ ਵਾਪਸ ਜਾਂਦਾ ਹੈ। ਇਸ ਲਈ, ਇੱਥੇ ਕਿਸੇ ਵੀ ਨਵੀਨਤਾ ਦਾ ਦਾਅਵਾ ਨਹੀਂ ਕਰਨਾ. ਪਰ ਜੋ ਮੈਂ ਕਹਿ ਰਿਹਾ ਹਾਂ ਉਹ ਇਹ ਹੈ ਕਿ ਇਸ ਕਿਸਮ ਦਾ ਅਨੁਮਾਨ ਇੱਕ ਬੁੱਧੀਮਾਨ ਪ੍ਰਣਾਲੀ ਦਾ ਹਿੱਸਾ ਹੋਣਾ ਚਾਹੀਦਾ ਹੈ ਜੋ ਯੋਜਨਾ ਬਣਾਉਣ ਦੇ ਸਮਰੱਥ ਹੈ, ਅਤੇ ਜਿਸਦਾ ਵਿਵਹਾਰ ਨਿਰਧਾਰਿਤ ਜਾਂ ਨਿਯੰਤਰਿਤ ਕੀਤਾ ਜਾ ਸਕਦਾ ਹੈ ਇੱਕ ਸਖ਼ਤ ਵਿਵਹਾਰ ਦੁਆਰਾ ਨਹੀਂ, ਨਕਲ ਦੇ ਝੁਕਾਅ ਦੁਆਰਾ, ਪਰ ਇੱਕ ਉਦੇਸ਼ ਫੰਕਸ਼ਨ ਦੁਆਰਾ. ਵਿਵਹਾਰ ਨੂੰ ਚਲਾਉਂਦਾ ਹੈ - ਸਿੱਖਣ ਨੂੰ ਨਹੀਂ ਚਲਾਉਂਦਾ, ਜ਼ਰੂਰੀ ਤੌਰ 'ਤੇ, ਪਰ ਇਹ ਵਿਵਹਾਰ ਨੂੰ ਚਲਾਉਂਦਾ ਹੈ। ਤੁਸੀਂ ਜਾਣਦੇ ਹੋ, ਸਾਡੇ ਦਿਮਾਗ ਵਿੱਚ ਇਹ ਹੈ, ਅਤੇ ਹਰ ਜਾਨਵਰ ਦੀ ਅੰਦਰੂਨੀ ਕੀਮਤ ਜਾਂ ਚੀਜ਼ਾਂ ਲਈ ਅੰਦਰੂਨੀ ਪ੍ਰੇਰਣਾ ਹੁੰਦੀ ਹੈ। ਇਹ ਨੌਂ ਮਹੀਨਿਆਂ ਦੇ ਬੱਚਿਆਂ ਨੂੰ ਖੜ੍ਹੇ ਹੋਣ ਲਈ ਪ੍ਰੇਰਿਤ ਕਰਦਾ ਹੈ। ਜਦੋਂ ਤੁਸੀਂ ਖੜ੍ਹੇ ਹੁੰਦੇ ਹੋ ਤਾਂ ਖੁਸ਼ ਰਹਿਣ ਦੀ ਕੀਮਤ, ਲਾਗਤ ਫੰਕਸ਼ਨ ਵਿੱਚ ਇਹ ਸ਼ਬਦ ਸਖ਼ਤ ਹੈ। ਪਰ ਤੁਸੀਂ ਕਿਵੇਂ ਖੜ੍ਹੇ ਹੋ ਇਹ ਨਹੀਂ, ਇਹ ਸਿੱਖਣਾ ਹੈ।

yann-lecun-sept-2022-4

GPT-3 ਕਿਸਮਾਂ ਦੇ ਟਰਾਂਸਫਾਰਮਰ-ਅਧਾਰਿਤ ਪ੍ਰੋਗਰਾਮਾਂ ਵਰਗੇ ਵਿਸ਼ਾਲ ਭਾਸ਼ਾ ਮਾਡਲਾਂ ਦੇ ਲੇਕਨ ਕਹਿੰਦਾ ਹੈ, "ਸਕੇਲਿੰਗ ਚੰਗੀ ਹੈ, ਇਹ ਜ਼ਰੂਰੀ ਹੈ, ਪਰ ਕਾਫ਼ੀ ਨਹੀਂ ਹੈ।" ਟ੍ਰਾਂਸਫਾਰਮਰ ਦੇ ਸ਼ਰਧਾਲੂ ਵਿਸ਼ਵਾਸ ਕਰਦੇ ਹਨ, “ਅਸੀਂ ਹਰ ਚੀਜ਼ ਨੂੰ ਟੋਕਨਾਈਜ਼ ਕਰਦੇ ਹਾਂ, ਅਤੇ ਵਿਸ਼ਾਲ ਨੂੰ ਸਿਖਲਾਈ ਦਿੰਦੇ ਹਾਂਵੱਖਰੀਆਂ ਭਵਿੱਖਬਾਣੀਆਂ ਕਰਨ ਲਈ ਮਾਡਲ, ਅਤੇ ਕਿਸੇ ਤਰ੍ਹਾਂ AI ਇਸ ਵਿੱਚੋਂ ਬਾਹਰ ਆ ਜਾਵੇਗਾ ... ਪਰ ਮੈਨੂੰ ਲਗਦਾ ਹੈ ਕਿ ਇਸ ਵਿੱਚ ਜ਼ਰੂਰੀ ਟੁਕੜੇ ਨਹੀਂ ਹਨ।

ZDNet: ਸਿਰਫ਼ ਉਸ ਬਿੰਦੂ ਨੂੰ ਪੂਰਾ ਕਰਨ ਲਈ, ਡੂੰਘੇ ਸਿੱਖਣ ਵਾਲੇ ਭਾਈਚਾਰੇ ਦਾ ਬਹੁਤਾ ਹਿੱਸਾ ਅਜਿਹੀ ਚੀਜ਼ ਨਾਲ ਅੱਗੇ ਵਧਣਾ ਠੀਕ ਜਾਪਦਾ ਹੈ ਜਿਸਦੀ ਆਮ ਸਮਝ ਨਹੀਂ ਹੈ। ਅਜਿਹਾ ਲਗਦਾ ਹੈ ਕਿ ਤੁਸੀਂ ਇੱਥੇ ਇੱਕ ਬਹੁਤ ਸਪੱਸ਼ਟ ਦਲੀਲ ਦੇ ਰਹੇ ਹੋ ਕਿ ਕਿਸੇ ਸਮੇਂ ਇਹ ਇੱਕ ਰੁਕਾਵਟ ਬਣ ਜਾਂਦੀ ਹੈ। ਕੁਝ ਲੋਕ ਕਹਿੰਦੇ ਹਨ ਕਿ ਸਾਨੂੰ ਆਮ ਸੂਝ ਵਾਲੀ ਆਟੋਨੋਮਸ ਕਾਰ ਦੀ ਲੋੜ ਨਹੀਂ ਹੈ ਕਿਉਂਕਿ ਸਕੇਲਿੰਗ ਇਹ ਕਰੇਗੀ। ਅਜਿਹਾ ਲਗਦਾ ਹੈ ਕਿ ਤੁਸੀਂ ਕਹਿ ਰਹੇ ਹੋ ਕਿ ਉਸ ਰਸਤੇ 'ਤੇ ਚੱਲਦੇ ਰਹਿਣਾ ਠੀਕ ਨਹੀਂ ਹੈ?

YL: ਤੁਸੀਂ ਜਾਣਦੇ ਹੋ, ਮੈਨੂੰ ਲਗਦਾ ਹੈ ਕਿ ਇਹ ਪੂਰੀ ਤਰ੍ਹਾਂ ਸੰਭਵ ਹੈ ਕਿ ਸਾਡੇ ਕੋਲ ਆਮ ਸਮਝ ਤੋਂ ਬਿਨਾਂ ਲੈਵਲ-ਪੰਜ ਆਟੋਨੋਮਸ ਕਾਰਾਂ ਹੋਣ। ਪਰ ਇਸ ਪਹੁੰਚ ਨਾਲ ਸਮੱਸਿਆ, ਇਹ ਅਸਥਾਈ ਹੋਣ ਜਾ ਰਹੀ ਹੈ, ਕਿਉਂਕਿ ਤੁਹਾਨੂੰ ਇਸ ਤੋਂ ਨਰਕ ਨੂੰ ਇੰਜੀਨੀਅਰ ਕਰਨਾ ਪਵੇਗਾ। ਇਸ ਲਈ, ਤੁਸੀਂ ਜਾਣਦੇ ਹੋ, ਪੂਰੀ ਦੁਨੀਆ ਦਾ ਨਕਸ਼ਾ ਬਣਾਓ, ਹਰ ਕਿਸਮ ਦੇ ਖਾਸ ਕਾਰਨਰ-ਕੇਸ ਵਿਵਹਾਰ ਨੂੰ ਹਾਰਡ-ਵਾਇਰ ਕਰੋ, ਇੰਨਾ ਡੇਟਾ ਇਕੱਠਾ ਕਰੋ ਕਿ ਤੁਹਾਡੇ ਕੋਲ ਸਾਰੀਆਂ, ਕਿਸਮ ਦੀਆਂ, ਅਜੀਬ ਸਥਿਤੀਆਂ ਹਨ ਜੋ ਤੁਸੀਂ ਸੜਕਾਂ 'ਤੇ ਆ ਸਕਦੇ ਹੋ, ਬਲਾ, ਬਲਾ, ਬਲਾ। ਅਤੇ ਮੇਰਾ ਅੰਦਾਜ਼ਾ ਹੈ ਕਿ ਕਾਫ਼ੀ ਨਿਵੇਸ਼ ਅਤੇ ਸਮੇਂ ਦੇ ਨਾਲ, ਤੁਸੀਂ ਇਸ ਵਿੱਚੋਂ ਨਰਕ ਨੂੰ ਇੰਜਨੀਅਰ ਕਰ ਸਕਦੇ ਹੋ। ਪਰ ਅੰਤ ਵਿੱਚ, ਇੱਕ ਹੋਰ ਸੰਤੁਸ਼ਟੀਜਨਕ ਅਤੇ ਸੰਭਵ ਤੌਰ 'ਤੇ ਬਿਹਤਰ ਹੱਲ ਹੋਣ ਜਾ ਰਿਹਾ ਹੈ ਜਿਸ ਵਿੱਚ ਉਹ ਪ੍ਰਣਾਲੀਆਂ ਸ਼ਾਮਲ ਹੁੰਦੀਆਂ ਹਨ ਜੋ ਸੰਸਾਰ ਦੇ ਕੰਮ ਕਰਨ ਦੇ ਤਰੀਕੇ ਨੂੰ ਸਮਝਣ ਲਈ ਇੱਕ ਬਿਹਤਰ ਕੰਮ ਕਰਦੀਆਂ ਹਨ, ਅਤੇ ਤੁਸੀਂ ਜਾਣਦੇ ਹੋ, ਕੁਝ ਪੱਧਰ ਜਿਸ ਨੂੰ ਅਸੀਂ ਆਮ ਸਮਝ ਕਹਾਂਗੇ। ਇਸ ਨੂੰ ਮਨੁੱਖੀ-ਪੱਧਰ ਦੀ ਆਮ ਸਮਝ ਹੋਣ ਦੀ ਲੋੜ ਨਹੀਂ ਹੈ, ਪਰ ਕੁਝ ਕਿਸਮ ਦਾ ਗਿਆਨ ਜੋ ਸਿਸਟਮ ਦੇਖ ਕੇ ਹਾਸਲ ਕਰ ਸਕਦਾ ਹੈ, ਪਰ ਕਿਸੇ ਨੂੰ ਗੱਡੀ ਚਲਾਉਂਦੇ ਹੋਏ ਨਹੀਂ ਦੇਖ ਰਿਹਾ, ਸਿਰਫ਼ ਚੀਜ਼ਾਂ ਨੂੰ ਘੁੰਮਦੇ ਹੋਏ ਦੇਖਣਾ ਅਤੇ ਸੰਸਾਰ ਬਾਰੇ ਬਹੁਤ ਕੁਝ ਸਮਝਣਾ, ਪਿਛੋਕੜ ਦੀ ਨੀਂਹ ਬਣਾਉਣਾ। ਸੰਸਾਰ ਕਿਵੇਂ ਕੰਮ ਕਰਦਾ ਹੈ ਇਸ ਬਾਰੇ ਗਿਆਨ, ਜਿਸ ਦੇ ਸਿਖਰ 'ਤੇ ਤੁਸੀਂ ਗੱਡੀ ਚਲਾਉਣਾ ਸਿੱਖ ਸਕਦੇ ਹੋ। 

ਮੈਂ ਇਸਦੀ ਇੱਕ ਇਤਿਹਾਸਕ ਉਦਾਹਰਣ ਲੈਂਦਾ ਹਾਂ। ਕਲਾਸੀਕਲ ਕੰਪਿਊਟਰ ਵਿਜ਼ਨ ਬਹੁਤ ਸਾਰੇ ਸਖ਼ਤ, ਇੰਜਨੀਅਰਡ ਮੋਡਿਊਲਾਂ 'ਤੇ ਆਧਾਰਿਤ ਸੀ, ਜਿਸ ਦੇ ਸਿਖਰ 'ਤੇ ਤੁਹਾਡੇ ਕੋਲ ਸਿੱਖਣ ਦੀ ਇੱਕ ਪਤਲੀ ਪਰਤ ਹੋਵੇਗੀ। ਇਸ ਲਈ, 2012 ਵਿੱਚ ਐਲੇਕਸਨੈੱਟ ਦੁਆਰਾ ਕੁੱਟਣ ਵਾਲੀ ਸਮੱਗਰੀ ਵਿੱਚ ਮੂਲ ਰੂਪ ਵਿੱਚ ਇੱਕ ਪਹਿਲਾ ਪੜਾਅ, ਕਿਸਮ ਦੀ, ਹੈਂਡਕ੍ਰਾਫਟਡ ਫੀਚਰ ਐਕਸਟਰੈਕਸ਼ਨ ਸੀ, ਜਿਵੇਂ ਕਿ SIFTs [ਸਕੇਲ-ਇਨਵੇਰੀਐਂਟ ਫੀਚਰ ਟ੍ਰਾਂਸਫਾਰਮ (SIFT), ਇੱਕ ਚਿੱਤਰ ਵਿੱਚ ਮੁੱਖ ਵਸਤੂਆਂ ਦੀ ਪਛਾਣ ਕਰਨ ਲਈ ਇੱਕ ਸ਼ਾਨਦਾਰ ਵਿਜ਼ਨ ਤਕਨੀਕ] ਅਤੇ HOG [ਓਰੀਐਂਟਿਡ ਗਰੇਡੀਐਂਟਸ ਦਾ ਹਿਸਟੋਗ੍ਰਾਮ, ਇਕ ਹੋਰ ਕਲਾਸਿਕ ਤਕਨੀਕ] ਅਤੇ ਹੋਰ ਕਈ ਚੀਜ਼ਾਂ। ਅਤੇ ਫਿਰ ਵਿਸ਼ੇਸ਼ਤਾ ਕਰਨਲ ਅਤੇ ਜੋ ਵੀ ਹੋਵੇ, ਅਤੇ ਕਿਸੇ ਤਰ੍ਹਾਂ ਦੀ ਨਿਗਰਾਨੀ ਰਹਿਤ ਵਿਧੀ ਦੇ ਅਧਾਰ ਤੇ, ਮੱਧ-ਪੱਧਰ ਦੀਆਂ ਵਿਸ਼ੇਸ਼ਤਾਵਾਂ ਦੀ ਦੂਜੀ ਪਰਤ। ਅਤੇ ਫਿਰ ਇਸਦੇ ਸਿਖਰ 'ਤੇ, ਤੁਸੀਂ ਇੱਕ ਸਪੋਰਟ ਵੈਕਟਰ ਮਸ਼ੀਨ ਪਾਉਂਦੇ ਹੋ, ਜਾਂ ਫਿਰ ਇੱਕ ਮੁਕਾਬਲਤਨ ਸਧਾਰਨ ਵਰਗੀਫਾਇਰ। ਅਤੇ ਇਹ 2000 ਦੇ ਦਹਾਕੇ ਦੇ ਮੱਧ ਤੋਂ 2012 ਤੱਕ ਦੀ ਮਿਆਰੀ ਪਾਈਪਲਾਈਨ ਸੀ। ਅਤੇ ਇਸਦੀ ਥਾਂ ਸਿਰੇ ਤੋਂ ਅੰਤ ਤੱਕ ਕਨਵੋਲਿਊਸ਼ਨਲ ਨੈੱਟਾਂ ਨੇ ਲੈ ਲਈ ਸੀ, ਜਿੱਥੇ ਤੁਸੀਂ ਇਸ ਵਿੱਚੋਂ ਕਿਸੇ ਨੂੰ ਵੀ ਹਾਰਡਵਾਇਰ ਨਹੀਂ ਕਰਦੇ ਹੋ, ਤੁਹਾਡੇ ਕੋਲ ਬਹੁਤ ਸਾਰਾ ਡਾਟਾ ਹੈ, ਅਤੇ ਤੁਸੀਂ ਚੀਜ਼ ਨੂੰ ਸਿਰੇ ਤੋਂ ਅੰਤ ਤੱਕ ਸਿਖਲਾਈ ਦਿੰਦੇ ਹੋ, ਜੋ ਕਿ ਉਹ ਪਹੁੰਚ ਹੈ ਜਿਸਦੀ ਮੈਂ ਲੰਬੇ ਸਮੇਂ ਤੋਂ ਵਕਾਲਤ ਕਰ ਰਿਹਾ ਸੀ, ਪਰ ਤੁਸੀਂ ਜਾਣਦੇ ਹੋ, ਉਦੋਂ ਤੱਕ, ਵੱਡੀਆਂ ਸਮੱਸਿਆਵਾਂ ਲਈ ਵਿਹਾਰਕ ਨਹੀਂ ਸੀ। 

ਸਪੀਚ ਰਿਕੋਗਨੀਸ਼ਨ ਵਿੱਚ ਵੀ ਇੱਕ ਅਜਿਹੀ ਹੀ ਕਹਾਣੀ ਹੈ ਜਿੱਥੇ, ਦੁਬਾਰਾ, ਤੁਸੀਂ ਡੇਟਾ ਨੂੰ ਪੂਰਵ-ਪ੍ਰੋਸੈਸ ਕਿਵੇਂ ਕਰਦੇ ਹੋ, ਤੁਸੀਂ ਮਾਸ-ਸਕੇਲ ਸੇਪਸਟ੍ਰਮ [ਸਿਗਨਲ ਪ੍ਰੋਸੈਸਿੰਗ ਲਈ ਫਾਸਟ ਫੂਰੀਅਰ ਟ੍ਰਾਂਸਫਾਰਮ ਦਾ ਇੱਕ ਉਲਟ] ਕੱਢਦੇ ਹੋ, ਅਤੇ ਫਿਰ ਤੁਹਾਡੇ ਕੋਲ ਲੁਕਵੇਂ ਮਾਰਕੋਵ ਮਾਡਲ ਹਨ, ਕ੍ਰਮ-ਬੱਧ, ਪੂਰਵ-ਨਿਰਧਾਰਤ ਆਰਕੀਟੈਕਚਰ, ਬਲਾਹ, ਬਲਾਹ, ਬਲਾਹ, ਗੌਸੀਆਂ ਦੇ ਮਿਸ਼ਰਣ ਨਾਲ। ਅਤੇ ਇਸ ਲਈ, ਇਹ ਵਿਜ਼ਨ ਦੇ ਸਮਾਨ ਆਰਕੀਟੈਕਚਰ ਦਾ ਇੱਕ ਬਿੱਟ ਹੈ ਜਿੱਥੇ ਤੁਸੀਂ ਫਰੰਟ-ਐਂਡ ਨੂੰ ਹੈਂਡਕ੍ਰਾਫਟ ਕੀਤਾ ਹੈ, ਅਤੇ ਫਿਰ ਕੁਝ ਹੱਦ ਤੱਕ ਨਿਰੀਖਣ, ਸਿਖਲਾਈ ਪ੍ਰਾਪਤ, ਮੱਧ ਪਰਤ, ਅਤੇ ਫਿਰ ਸਿਖਰ 'ਤੇ ਇੱਕ ਨਿਗਰਾਨੀ ਕੀਤੀ ਪਰਤ। ਅਤੇ ਹੁਣ ਇਹ, ਮੂਲ ਰੂਪ ਵਿੱਚ, ਅੰਤ-ਤੋਂ-ਐਂਡ ਨਿਊਰਲ ਨੈੱਟ ਦੁਆਰਾ ਮਿਟਾਇਆ ਗਿਆ ਹੈ। ਇਸ ਲਈ ਮੈਂ ਉੱਥੇ ਸਭ ਕੁਝ ਸਿੱਖਣ ਦੀ ਕੋਸ਼ਿਸ਼ ਕਰਨ ਲਈ ਕੁਝ ਅਜਿਹਾ ਹੀ ਦੇਖ ਰਿਹਾ ਹਾਂ, ਪਰ ਤੁਹਾਡੇ ਕੋਲ ਸਹੀ ਪੂਰਵ, ਸਹੀ ਆਰਕੀਟੈਕਚਰ, ਸਹੀ ਢਾਂਚਾ ਹੋਣਾ ਚਾਹੀਦਾ ਹੈ।

yann-lecun-sept-2022-5

ਸਵੈ-ਡ੍ਰਾਈਵਿੰਗ ਕਾਰ ਭੀੜ, ਵੇਮੋ ਅਤੇ ਵੇਵ ਵਰਗੇ ਸਟਾਰਟਅੱਪ, "ਥੋੜ੍ਹੇ ਬਹੁਤ ਆਸ਼ਾਵਾਦੀ" ਰਹੇ ਹਨ, ਉਹ ਕਹਿੰਦਾ ਹੈ, ਇਹ ਸੋਚ ਕੇ ਕਿ ਉਹ "ਇਸ 'ਤੇ ਡੇਟਾ ਸੁੱਟ ਸਕਦੇ ਹਨ, ਅਤੇ ਤੁਸੀਂ ਬਹੁਤ ਕੁਝ ਸਿੱਖ ਸਕਦੇ ਹੋ।" ADAS ਦੇ ਪੱਧਰ 5 'ਤੇ ਸਵੈ-ਡ੍ਰਾਈਵਿੰਗ ਕਾਰਾਂ ਸੰਭਵ ਹਨ, "ਪਰ ਤੁਹਾਨੂੰ ਇਸ ਤੋਂ ਨਰਕ ਨੂੰ ਇੰਜਨੀਅਰ ਕਰਨਾ ਪਵੇਗਾ" ਅਤੇ ਸ਼ੁਰੂਆਤੀ ਕੰਪਿਊਟਰ ਵਿਜ਼ਨ ਮਾਡਲਾਂ ਵਾਂਗ "ਭੁਰਭੁਰਾ" ਹੋਣਗੀਆਂ।

ZDNet: ਤੁਸੀਂ ਕੀ ਕਹਿ ਰਹੇ ਹੋ, ਕੁਝ ਲੋਕ ਇੰਜਨੀਅਰ ਕਰਨ ਦੀ ਕੋਸ਼ਿਸ਼ ਕਰਨਗੇ ਜੋ ਵਰਤਮਾਨ ਵਿੱਚ ਲਾਗੂ ਹੋਣ ਲਈ ਡੂੰਘੀ ਸਿਖਲਾਈ ਨਾਲ ਕੰਮ ਨਹੀਂ ਕਰਦਾ, ਕਹੋ, ਉਦਯੋਗ ਵਿੱਚ, ਅਤੇ ਉਹ ਅਜਿਹਾ ਕੁਝ ਬਣਾਉਣਾ ਸ਼ੁਰੂ ਕਰਨ ਜਾ ਰਹੇ ਹਨ ਜੋ ਕੰਪਿਊਟਰ ਵਿਜ਼ਨ ਵਿੱਚ ਪੁਰਾਣੀ ਹੋ ਗਈ ਹੈ?

YL: ਸੱਜਾ। ਅਤੇ ਇਹ ਅੰਸ਼ਕ ਤੌਰ 'ਤੇ ਕਿਉਂ ਹੈ ਕਿ ਆਟੋਨੋਮਸ ਡ੍ਰਾਈਵਿੰਗ 'ਤੇ ਕੰਮ ਕਰਨ ਵਾਲੇ ਲੋਕ ਪਿਛਲੇ ਕੁਝ ਸਾਲਾਂ ਤੋਂ ਥੋੜੇ ਬਹੁਤ ਆਸ਼ਾਵਾਦੀ ਰਹੇ ਹਨ, ਕਿਉਂਕਿ, ਤੁਸੀਂ ਜਾਣਦੇ ਹੋ, ਤੁਹਾਡੇ ਕੋਲ ਇਹ, ਕ੍ਰਮ-ਬੱਧ, ਆਮ ਚੀਜ਼ਾਂ ਹਨ ਜਿਵੇਂ ਕਿ ਕਨਵੋਲਿਊਸ਼ਨਲ ਨੈੱਟ ਅਤੇ ਟ੍ਰਾਂਸਫਾਰਮਰ, ਜਿਸ ਨਾਲ ਤੁਸੀਂ ਇਸ 'ਤੇ ਡੇਟਾ ਸੁੱਟ ਸਕਦੇ ਹੋ। , ਅਤੇ ਇਹ ਬਹੁਤ ਕੁਝ ਵੀ ਸਿੱਖ ਸਕਦਾ ਹੈ। ਇਸ ਲਈ, ਤੁਸੀਂ ਕਹਿੰਦੇ ਹੋ, ਠੀਕ ਹੈ, ਮੇਰੇ ਕੋਲ ਉਸ ਸਮੱਸਿਆ ਦਾ ਹੱਲ ਹੈ. ਸਭ ਤੋਂ ਪਹਿਲਾਂ ਤੁਸੀਂ ਇੱਕ ਡੈਮੋ ਬਣਾਉਂਦੇ ਹੋ ਜਿੱਥੇ ਕਾਰ ਕਿਸੇ ਨੂੰ ਨੁਕਸਾਨ ਪਹੁੰਚਾਏ ਬਿਨਾਂ ਕੁਝ ਮਿੰਟਾਂ ਲਈ ਆਪਣੇ ਆਪ ਚਲਾਉਂਦੀ ਹੈ। ਅਤੇ ਫਿਰ ਤੁਹਾਨੂੰ ਅਹਿਸਾਸ ਹੁੰਦਾ ਹੈ ਕਿ ਇੱਥੇ ਬਹੁਤ ਸਾਰੇ ਕੋਨੇ ਦੇ ਕੇਸ ਹਨ, ਅਤੇ ਤੁਸੀਂ ਇਹ ਦੱਸਣ ਦੀ ਕੋਸ਼ਿਸ਼ ਕਰਦੇ ਹੋ ਕਿ ਜਦੋਂ ਮੈਂ ਸਿਖਲਾਈ ਸੈੱਟ ਨੂੰ ਦੁੱਗਣਾ ਕਰਦਾ ਹਾਂ ਤਾਂ ਮੈਂ ਕਿੰਨਾ ਬਿਹਤਰ ਹੋ ਰਿਹਾ ਹਾਂ, ਅਤੇ ਤੁਸੀਂ ਮਹਿਸੂਸ ਕਰਦੇ ਹੋ ਕਿ ਤੁਸੀਂ ਕਦੇ ਉੱਥੇ ਨਹੀਂ ਜਾਵੋਗੇ ਕਿਉਂਕਿ ਇੱਥੇ ਹਰ ਕਿਸਮ ਦੇ ਕਾਰਨਰ ਕੇਸ ਹਨ . ਅਤੇ ਤੁਹਾਡੇ ਕੋਲ ਇੱਕ ਕਾਰ ਹੋਣੀ ਚਾਹੀਦੀ ਹੈ ਜੋ ਹਰ 200 ਮਿਲੀਅਨ ਕਿਲੋਮੀਟਰ ਤੋਂ ਘੱਟ ਇੱਕ ਘਾਤਕ ਦੁਰਘਟਨਾ ਦਾ ਕਾਰਨ ਬਣੇਗੀ, ਠੀਕ ਹੈ? ਸੋ ਤੁਸੀ ਕੀ ਕਰਦੇ ਹੋ? ਖੈਰ, ਤੁਸੀਂ ਦੋ ਦਿਸ਼ਾਵਾਂ ਵਿੱਚ ਚੱਲਦੇ ਹੋ. 

ਪਹਿਲੀ ਦਿਸ਼ਾ ਹੈ, ਮੈਂ ਆਪਣੇ ਸਿਸਟਮ ਨੂੰ ਸਿੱਖਣ ਲਈ ਜ਼ਰੂਰੀ ਡੇਟਾ ਦੀ ਮਾਤਰਾ ਨੂੰ ਕਿਵੇਂ ਘਟਾ ਸਕਦਾ ਹਾਂ? ਅਤੇ ਇਹ ਉਹ ਥਾਂ ਹੈ ਜਿੱਥੇ ਸਵੈ-ਨਿਗਰਾਨੀ ਸਿਖਲਾਈ ਆਉਂਦੀ ਹੈ। ਇਸ ਲਈ, ਬਹੁਤ ਸਾਰੇ ਸਵੈ-ਡਰਾਈਵਿੰਗ ਕਾਰ ਪਹਿਰਾਵੇ ਸਵੈ-ਨਿਗਰਾਨੀ ਸਿਖਲਾਈ ਵਿੱਚ ਬਹੁਤ ਦਿਲਚਸਪੀ ਰੱਖਦੇ ਹਨ ਕਿਉਂਕਿ ਇਹ ਅਜੇ ਵੀ ਨਕਲ ਸਿੱਖਣ ਲਈ ਸੁਪਰਵਾਈਜ਼ਰੀ ਡੇਟਾ ਦੀ ਵਿਸ਼ਾਲ ਮਾਤਰਾ ਦੀ ਵਰਤੋਂ ਕਰਨ ਦਾ ਇੱਕ ਤਰੀਕਾ ਹੈ, ਪਰ ਇਸ ਦੁਆਰਾ ਬਿਹਤਰ ਪ੍ਰਦਰਸ਼ਨ ਪ੍ਰਾਪਤ ਕਰਨਾ ਪੂਰਵ-ਸਿਖਲਾਈ, ਜ਼ਰੂਰੀ ਤੌਰ 'ਤੇ। ਅਤੇ ਇਹ ਅਜੇ ਪੂਰੀ ਤਰ੍ਹਾਂ ਪੈਨ ਆਊਟ ਨਹੀਂ ਹੋਇਆ ਹੈ, ਪਰ ਇਹ ਹੋਵੇਗਾ. ਅਤੇ ਫਿਰ ਇੱਕ ਹੋਰ ਵਿਕਲਪ ਹੈ, ਜਿਸਨੂੰ ਜ਼ਿਆਦਾਤਰ ਕੰਪਨੀਆਂ ਨੇ ਅਪਣਾਇਆ ਹੈ ਜੋ ਇਸ ਸਮੇਂ ਵਧੇਰੇ ਉੱਨਤ ਹਨ, ਜੋ ਕਿ ਠੀਕ ਹੈ, ਅਸੀਂ ਅੰਤ ਤੋਂ ਅੰਤ ਤੱਕ ਸਿਖਲਾਈ ਕਰ ਸਕਦੇ ਹਾਂ, ਪਰ ਬਹੁਤ ਸਾਰੇ ਕਾਰਨਰ ਕੇਸ ਹਨ ਜੋ ਅਸੀਂ ਕਰ ਸਕਦੇ ਹਾਂ' t ਹੈਂਡਲ, ਇਸਲਈ ਅਸੀਂ ਸਿਰਫ਼ ਉਹਨਾਂ ਸਿਸਟਮਾਂ ਨੂੰ ਇੰਜਨੀਅਰ ਕਰਨ ਜਾ ਰਹੇ ਹਾਂ ਜੋ ਉਹਨਾਂ ਕਾਰਨਰ ਕੇਸਾਂ ਦੀ ਦੇਖਭਾਲ ਕਰਨਗੇ, ਅਤੇ, ਮੂਲ ਰੂਪ ਵਿੱਚ, ਉਹਨਾਂ ਨੂੰ ਵਿਸ਼ੇਸ਼ ਕੇਸਾਂ ਦੇ ਰੂਪ ਵਿੱਚ ਵਿਹਾਰ ਕਰਨਗੇ, ਅਤੇ ਨਿਯੰਤਰਣ ਨੂੰ ਹਾਰਡਵਾਇਰ ਕਰਨਗੇ, ਅਤੇ ਫਿਰ ਵਿਸ਼ੇਸ਼ ਸਥਿਤੀਆਂ ਨੂੰ ਸੰਭਾਲਣ ਲਈ ਬਹੁਤ ਸਾਰੇ ਬੁਨਿਆਦੀ ਵਿਵਹਾਰ ਨੂੰ ਹਾਰਡਵਾਇਰ ਕਰਨਗੇ। ਅਤੇ ਜੇਕਰ ਤੁਹਾਡੇ ਕੋਲ ਇੰਜਨੀਅਰਾਂ ਦੀ ਕਾਫੀ ਵੱਡੀ ਟੀਮ ਹੈ, ਤਾਂ ਤੁਸੀਂ ਇਸਨੂੰ ਬੰਦ ਕਰ ਸਕਦੇ ਹੋ। ਪਰ ਇਸ ਵਿੱਚ ਲੰਮਾ ਸਮਾਂ ਲੱਗੇਗਾ, ਅਤੇ ਅੰਤ ਵਿੱਚ, ਇਹ ਅਜੇ ਵੀ ਥੋੜਾ ਭੁਰਭੁਰਾ ਹੋਵੇਗਾ, ਸ਼ਾਇਦ ਕਾਫ਼ੀ ਭਰੋਸੇਮੰਦ ਹੈ ਕਿ ਤੁਸੀਂ ਤੈਨਾਤ ਕਰ ਸਕਦੇ ਹੋ, ਪਰ ਕੁਝ ਪੱਧਰ ਦੀ ਭੁਰਭੁਰਾਤਾ ਦੇ ਨਾਲ, ਜੋ ਕਿ ਇੱਕ ਹੋਰ ਸਿੱਖਣ-ਆਧਾਰਿਤ ਪਹੁੰਚ ਦੇ ਨਾਲ, ਜੋ ਕਿ ਵਿੱਚ ਦਿਖਾਈ ਦੇ ਸਕਦੀ ਹੈ। ਭਵਿੱਖ ਵਿੱਚ, ਕਾਰਾਂ ਨਹੀਂ ਹੋਣਗੀਆਂ ਕਿਉਂਕਿ ਇਸ ਵਿੱਚ ਕੁਝ ਪੱਧਰ ਦੀ ਆਮ ਸਮਝ ਅਤੇ ਸਮਝ ਹੋ ਸਕਦੀ ਹੈ ਕਿ ਸੰਸਾਰ ਕਿਵੇਂ ਕੰਮ ਕਰਦਾ ਹੈ। 

ਥੋੜ੍ਹੇ ਸਮੇਂ ਵਿੱਚ, ਕ੍ਰਮਬੱਧ, ਇੰਜੀਨੀਅਰਿੰਗ ਪਹੁੰਚ ਜਿੱਤ ਜਾਵੇਗੀ - ਇਹ ਪਹਿਲਾਂ ਹੀ ਜਿੱਤ ਜਾਂਦੀ ਹੈ। ਇਹ ਸੰਸਾਰ ਅਤੇ ਵੇਵ ਦਾ ਵੇਮੋ ਅਤੇ ਕਰੂਜ਼ ਹੈਅਤੇ ਜੋ ਵੀ, ਉਹ ਉਹੀ ਕਰਦੇ ਹਨ। ਫਿਰ ਸਵੈ-ਨਿਗਰਾਨੀ ਸਿੱਖਣ ਦੀ ਪਹੁੰਚ ਹੈ, ਜੋ ਸ਼ਾਇਦ ਇੰਜਨੀਅਰਡ ਪਹੁੰਚ ਨੂੰ ਤਰੱਕੀ ਕਰਨ ਵਿੱਚ ਮਦਦ ਕਰੇਗੀ। ਪਰ ਫਿਰ, ਲੰਬੇ ਸਮੇਂ ਵਿੱਚ, ਜੋ ਉਹਨਾਂ ਕੰਪਨੀਆਂ ਲਈ ਇੰਤਜ਼ਾਰ ਕਰਨ ਲਈ ਬਹੁਤ ਲੰਮਾ ਹੋ ਸਕਦਾ ਹੈ, ਸ਼ਾਇਦ, ਇੱਕ ਹੋਰ ਏਕੀਕ੍ਰਿਤ ਖੁਦਮੁਖਤਿਆਰੀ ਬੁੱਧੀਮਾਨ ਡ੍ਰਾਈਵਿੰਗ ਪ੍ਰਣਾਲੀ ਹੋਵੇਗੀ।

ZDNet: ਅਸੀਂ ਜ਼ਿਆਦਾਤਰ ਨਿਵੇਸ਼ਕਾਂ ਦੇ ਨਿਵੇਸ਼ ਦੀ ਦੂਰੀ ਤੋਂ ਪਰੇ ਕਹਿੰਦੇ ਹਾਂ।

YL: ਇਹ ਠੀਕ ਹੈ. ਇਸ ਲਈ, ਸਵਾਲ ਇਹ ਹੈ ਕਿ, ਪ੍ਰਦਰਸ਼ਨ ਲੋੜੀਂਦੇ ਪੱਧਰ 'ਤੇ ਪਹੁੰਚਣ ਤੋਂ ਪਹਿਲਾਂ ਕੀ ਲੋਕ ਧੀਰਜ ਗੁਆ ਦੇਣਗੇ ਜਾਂ ਪੈਸਾ ਖਤਮ ਹੋ ਜਾਵੇਗਾ.

ZDNet: ਕੀ ਇਸ ਬਾਰੇ ਕਹਿਣਾ ਦਿਲਚਸਪ ਹੈ ਕਿ ਤੁਸੀਂ ਮਾਡਲ ਵਿੱਚ ਚੁਣੇ ਗਏ ਕੁਝ ਤੱਤਾਂ ਨੂੰ ਕਿਉਂ ਚੁਣਿਆ ਹੈ? ਕਿਉਂਕਿ ਤੁਸੀਂ ਕੇਨੇਥ ਕ੍ਰੇਕ ਦਾ ਹਵਾਲਾ ਦਿੰਦੇ ਹੋ [1943,ਵਿਆਖਿਆ ਦੀ ਪ੍ਰਕਿਰਤੀ], ਅਤੇ ਤੁਸੀਂ ਬ੍ਰਾਇਸਨ ਅਤੇ ਹੋ [1969 ਦਾ ਹਵਾਲਾ ਦਿੰਦੇ ਹੋ, ਅਨੁਕੂਲ ਕੰਟਰੋਲ ਲਾਗੂ ਕੀਤਾ], ਅਤੇ ਮੈਂ ਇਸ ਬਾਰੇ ਉਤਸੁਕ ਹਾਂ ਕਿ ਤੁਸੀਂ ਇਹਨਾਂ ਪ੍ਰਭਾਵਾਂ ਨਾਲ ਕਿਉਂ ਸ਼ੁਰੂ ਕੀਤਾ, ਜੇ ਤੁਸੀਂ ਖਾਸ ਤੌਰ 'ਤੇ ਵਿਸ਼ਵਾਸ ਕਰਦੇ ਹੋ ਕਿ ਇਹਨਾਂ ਲੋਕਾਂ ਨੇ ਇਸ ਨੂੰ ਉਥੋਂ ਤੱਕ ਪਹੁੰਚਾਇਆ ਸੀ ਜਿੰਨਾ ਉਹਨਾਂ ਨੇ ਕੀਤਾ ਸੀ। ਤੁਸੀਂ ਉੱਥੇ ਕਿਉਂ ਸ਼ੁਰੂ ਕੀਤਾ?

YL: ਖੈਰ, ਮੈਨੂੰ ਨਹੀਂ ਲਗਦਾ, ਯਕੀਨਨ, ਉਨ੍ਹਾਂ ਕੋਲ ਸਾਰੇ ਵੇਰਵੇ ਸਨ। ਇਸ ਲਈ, ਬ੍ਰਾਇਸਨ ਅਤੇ ਹੋ, ਇਹ ਉਹ ਕਿਤਾਬ ਹੈ ਜੋ ਮੈਂ 1987 ਵਿੱਚ ਪੜ੍ਹੀ ਸੀ ਜਦੋਂ ਮੈਂ ਟੋਰਾਂਟੋ ਵਿੱਚ ਜੈਫਰੀ ਹਿੰਟਨ ਨਾਲ ਇੱਕ ਪੋਸਟਡੌਕ ਸੀ। ਪਰ ਮੈਨੂੰ ਕੰਮ ਦੀ ਇਸ ਲਾਈਨ ਬਾਰੇ ਪਹਿਲਾਂ ਹੀ ਪਤਾ ਸੀ ਜਦੋਂ ਮੈਂ ਆਪਣੀ ਪੀਐਚਡੀ ਲਿਖ ਰਿਹਾ ਸੀ, ਅਤੇ ਜ਼ਰੂਰੀ ਤੌਰ 'ਤੇ ਅਨੁਕੂਲ ਨਿਯੰਤਰਣ ਅਤੇ ਬੈਕਪ੍ਰੌਪ ਵਿਚਕਾਰ ਸਬੰਧ ਬਣਾਇਆ। ਜੇ ਤੁਸੀਂ ਸੱਚਮੁੱਚ ਬਣਨਾ ਚਾਹੁੰਦੇ ਹੋ, ਤਾਂ ਤੁਸੀਂ ਜਾਣਦੇ ਹੋ, ਇੱਕ ਹੋਰ ਸ਼ਮਿਡਹਬਰ, ਤੁਸੀਂ ਕਹੋਗੇ ਕਿ ਬੈਕਪ੍ਰੌਪ ਦੇ ਅਸਲ ਖੋਜੀ ਅਸਲ ਵਿੱਚ ਅਨੁਕੂਲ ਨਿਯੰਤਰਣ ਸਿਧਾਂਤਕਾਰ ਹੈਨਰੀ ਜੇ ਕੇਲੀ, ਆਰਥਰ ਬ੍ਰਾਇਸਨ, ਅਤੇ ਸ਼ਾਇਦ ਲੇਵ ਪੋਂਟ੍ਰੀਗਿਨ ਵੀ ਸਨ, ਜੋ ਅਨੁਕੂਲ ਨਿਯੰਤਰਣ ਦੇ ਇੱਕ ਰੂਸੀ ਸਿਧਾਂਤਕਾਰ ਹਨ। ਦੇਰ '50s ਵਿੱਚ. 

ਇਸ ਲਈ, ਉਹਨਾਂ ਨੇ ਇਸਦਾ ਪਤਾ ਲਗਾਇਆ, ਅਤੇ ਵਾਸਤਵ ਵਿੱਚ, ਤੁਸੀਂ ਅਸਲ ਵਿੱਚ ਇਸ ਦੀ ਜੜ੍ਹ ਦੇਖ ਸਕਦੇ ਹੋ, ਇਸਦੇ ਹੇਠਾਂ ਗਣਿਤ ਹੈ, ਲੈਗਰੇਂਜੀਅਨ ਮਕੈਨਿਕਸ ਹੈ। ਇਸ ਲਈ ਤੁਸੀਂ ਅਸਲ ਵਿੱਚ, ਯੂਲਰ ਅਤੇ ਲੈਗਰੇਂਜ 'ਤੇ ਵਾਪਸ ਜਾ ਸਕਦੇ ਹੋ, ਅਤੇ ਅਸਲ ਵਿੱਚ, ਲੈਗਰੇਂਜੀਅਨ ਕਲਾਸੀਕਲ ਮਕੈਨਿਕਸ ਦੀ ਉਹਨਾਂ ਦੀ ਪਰਿਭਾਸ਼ਾ ਵਿੱਚ ਇਸ ਦੀ ਇੱਕ ਝਲਕ ਲੱਭ ਸਕਦੇ ਹੋ। ਇਸ ਲਈ, ਅਨੁਕੂਲ ਨਿਯੰਤਰਣ ਦੇ ਸੰਦਰਭ ਵਿੱਚ, ਇਹਨਾਂ ਲੋਕਾਂ ਦੀ ਦਿਲਚਸਪੀ ਅਸਲ ਵਿੱਚ ਰਾਕੇਟ ਟ੍ਰੈਜੈਕਟਰੀ ਦੀ ਗਣਨਾ ਕਰਨਾ ਸੀ। ਤੁਸੀਂ ਜਾਣਦੇ ਹੋ, ਇਹ ਸ਼ੁਰੂਆਤੀ ਪੁਲਾੜ ਯੁੱਗ ਸੀ। ਅਤੇ ਜੇਕਰ ਤੁਹਾਡੇ ਕੋਲ ਰਾਕੇਟ ਦਾ ਮਾਡਲ ਹੈ, ਤਾਂ ਇਹ ਤੁਹਾਨੂੰ ਦੱਸਦਾ ਹੈ ਕਿ ਇੱਥੇ ਸਮੇਂ 'ਤੇ ਰਾਕੇਟ ਦੀ ਸਥਿਤੀ ਹੈ t, ਅਤੇ ਇੱਥੇ ਉਹ ਕਾਰਵਾਈ ਹੈ ਜੋ ਮੈਂ ਕਰਨ ਜਾ ਰਿਹਾ ਹਾਂ, ਇਸ ਲਈ, ਵੱਖ-ਵੱਖ ਕਿਸਮਾਂ ਦੇ ਥ੍ਰਸਟ ਅਤੇ ਐਕਟੁਏਟਰ, ਇੱਥੇ ਸਮੇਂ ਸਮੇਂ ਰਾਕੇਟ ਦੀ ਸਥਿਤੀ ਹੈ ਟੀ + 1.

ZDNet: ਇੱਕ ਸਟੇਟ-ਐਕਸ਼ਨ ਮਾਡਲ, ਇੱਕ ਮੁੱਲ ਮਾਡਲ।

YL: ਇਹ ਸਹੀ ਹੈ, ਨਿਯੰਤਰਣ ਦਾ ਆਧਾਰ. ਇਸ ਲਈ, ਹੁਣ ਤੁਸੀਂ ਕਮਾਂਡਾਂ ਦੇ ਕ੍ਰਮ ਦੀ ਕਲਪਨਾ ਕਰਕੇ ਆਪਣੇ ਰਾਕੇਟ ਦੀ ਸ਼ੂਟਿੰਗ ਦੀ ਨਕਲ ਕਰ ਸਕਦੇ ਹੋ, ਅਤੇ ਫਿਰ ਤੁਹਾਡੇ ਕੋਲ ਕੁਝ ਲਾਗਤ ਫੰਕਸ਼ਨ ਹੈ, ਜੋ ਕਿ ਰਾਕੇਟ ਦੀ ਇਸਦੇ ਟੀਚੇ, ਸਪੇਸ ਸਟੇਸ਼ਨ ਜਾਂ ਜੋ ਵੀ ਹੈ, ਦੀ ਦੂਰੀ ਹੈ। ਅਤੇ ਫਿਰ ਕਿਸੇ ਕਿਸਮ ਦੇ ਗਰੇਡੀਐਂਟ ਡਿਸੈਂਟ ਦੁਆਰਾ, ਤੁਸੀਂ ਇਹ ਪਤਾ ਲਗਾ ਸਕਦੇ ਹੋ, ਮੈਂ ਆਪਣੀ ਕਾਰਵਾਈ ਦੇ ਕ੍ਰਮ ਨੂੰ ਕਿਵੇਂ ਅਪਡੇਟ ਕਰ ਸਕਦਾ ਹਾਂ ਤਾਂ ਜੋ ਮੇਰਾ ਰਾਕੇਟ ਅਸਲ ਵਿੱਚ ਟੀਚੇ ਦੇ ਜਿੰਨਾ ਸੰਭਵ ਹੋ ਸਕੇ ਨੇੜੇ ਆ ਜਾਵੇ। ਅਤੇ ਇਹ ਸਮੇਂ ਦੇ ਨਾਲ ਪਿੱਛੇ ਵੱਲ ਬੈਕ-ਪ੍ਰਸਾਰਿਤ ਸੰਕੇਤਾਂ ਦੁਆਰਾ ਆਉਣਾ ਹੈ. ਅਤੇ ਇਹ ਹੈ ਬੈਕ-ਪ੍ਰਸਾਰ, ਗਰੇਡੀਐਂਟ ਬੈਕ-ਪ੍ਰਸਾਰ। ਉਹ ਸਿਗਨਲ, ਉਹਨਾਂ ਨੂੰ ਲੈਗਰੇਂਜੀਅਨ ਮਕੈਨਿਕਸ ਵਿੱਚ ਸੰਯੁਕਤ ਵੇਰੀਏਬਲ ਕਿਹਾ ਜਾਂਦਾ ਹੈ, ਪਰ ਅਸਲ ਵਿੱਚ, ਉਹ ਗਰੇਡੀਐਂਟ ਹਨ। ਇਸ ਲਈ, ਉਹਨਾਂ ਨੇ ਬੈਕਪ੍ਰੌਪ ਦੀ ਕਾਢ ਕੱਢੀ, ਪਰ ਉਹਨਾਂ ਨੂੰ ਇਹ ਅਹਿਸਾਸ ਨਹੀਂ ਹੋਇਆ ਕਿ ਇਹ ਸਿਧਾਂਤ ਇੱਕ ਬਹੁ-ਪੜਾਵੀ ਪ੍ਰਣਾਲੀ ਨੂੰ ਸਿਖਲਾਈ ਦੇਣ ਲਈ ਵਰਤਿਆ ਜਾ ਸਕਦਾ ਹੈ ਜੋ ਪੈਟਰਨ ਪਛਾਣ ਜਾਂ ਇਸ ਤਰ੍ਹਾਂ ਦਾ ਕੁਝ ਕਰ ਸਕਦਾ ਹੈ। ਇਹ ਅਸਲ ਵਿੱਚ ਸ਼ਾਇਦ 70 ਦੇ ਦਹਾਕੇ ਦੇ ਅਖੀਰ ਤੱਕ, 80 ਦੇ ਦਹਾਕੇ ਦੇ ਸ਼ੁਰੂ ਤੱਕ ਮਹਿਸੂਸ ਨਹੀਂ ਕੀਤਾ ਗਿਆ ਸੀ, ਅਤੇ ਫਿਰ ਅਸਲ ਵਿੱਚ ਲਾਗੂ ਨਹੀਂ ਕੀਤਾ ਗਿਆ ਸੀ ਅਤੇ 80 ਦੇ ਦਹਾਕੇ ਦੇ ਅੱਧ ਤੱਕ ਕੰਮ ਕਰਨ ਲਈ ਬਣਾਇਆ ਗਿਆ ਸੀ। ਠੀਕ ਹੈ, ਇਸ ਲਈ, ਇਹ ਉਹ ਥਾਂ ਹੈ ਜਿੱਥੇ ਬੈਕਪ੍ਰੌਪ ਅਸਲ ਵਿੱਚ, ਕਿਸਮ ਦਾ, ਸ਼ੁਰੂ ਹੋਇਆ ਕਿਉਂਕਿ ਲੋਕਾਂ ਨੇ ਦਿਖਾਇਆ ਕਿ ਇੱਥੇ ਕੋਡ ਦੀਆਂ ਕੁਝ ਲਾਈਨਾਂ ਹਨ ਜੋ ਤੁਸੀਂ ਇੱਕ ਨਿਊਰਲ ਨੈੱਟ, ਅੰਤ ਤੋਂ ਅੰਤ ਤੱਕ, ਮਲਟੀਲੇਅਰ ਨੂੰ ਸਿਖਲਾਈ ਦੇ ਸਕਦੇ ਹੋ। ਅਤੇ ਇਹ ਪਰਸੇਪਟ੍ਰੋਨ ਦੀਆਂ ਸੀਮਾਵਾਂ ਨੂੰ ਦੂਰ ਕਰਦਾ ਹੈ। ਅਤੇ, ਹਾਂ, ਅਨੁਕੂਲ ਨਿਯੰਤਰਣ ਦੇ ਨਾਲ ਕੁਨੈਕਸ਼ਨ ਹਨ, ਪਰ ਇਹ ਠੀਕ ਹੈ।

ZDNet: ਇਸ ਲਈ, ਇਹ ਕਹਿਣ ਦਾ ਇੱਕ ਲੰਮਾ ਤਰੀਕਾ ਹੈ ਕਿ ਇਹ ਪ੍ਰਭਾਵ ਜੋ ਤੁਸੀਂ ਸ਼ੁਰੂ ਕੀਤੇ ਸਨ ਉਹ ਬੈਕਪ੍ਰੌਪ ਤੇ ਵਾਪਸ ਜਾ ਰਹੇ ਸਨ, ਅਤੇ ਇਹ ਤੁਹਾਡੇ ਲਈ ਸ਼ੁਰੂਆਤੀ ਬਿੰਦੂ ਵਜੋਂ ਮਹੱਤਵਪੂਰਨ ਸੀ?

YL: ਹਾਂ, ਪਰ ਮੈਂ ਸੋਚਦਾ ਹਾਂ ਕਿ ਲੋਕ ਜਿਸ ਬਾਰੇ ਥੋੜਾ ਜਿਹਾ ਭੁੱਲ ਗਏ ਸਨ, ਇਸ 'ਤੇ ਕਾਫ਼ੀ ਕੰਮ ਸੀ, ਤੁਸੀਂ ਜਾਣਦੇ ਹੋ, 90 ਦੇ ਦਹਾਕੇ ਵਿੱਚ, ਜਾਂ ਇੱਥੋਂ ਤੱਕ ਕਿ 80 ਦੇ ਦਹਾਕੇ ਵਿੱਚ, ਮਾਈਕਲ ਜੌਰਡਨ [MIT ਡਿਪਾਰਟਮੈਂਟ ਆਫ਼ ਬ੍ਰੇਨ' ਵਰਗੇ ਲੋਕਾਂ ਦੁਆਰਾ ਵੀ ਸ਼ਾਮਲ ਹੈ। ਅਤੇ ਬੋਧਾਤਮਕ ਵਿਗਿਆਨ] ਅਤੇ ਇਸ ਤਰ੍ਹਾਂ ਦੇ ਲੋਕ ਜੋ ਹੁਣ ਨਿਊਰਲ ਨੈੱਟ ਨਹੀਂ ਕਰ ਰਹੇ ਹਨ, ਪਰ ਇਹ ਵਿਚਾਰ ਕਿ ਤੁਸੀਂ ਨਿਯੰਤਰਣ ਲਈ ਨਿਊਰਲ ਜਾਲਾਂ ਦੀ ਵਰਤੋਂ ਕਰ ਸਕਦੇ ਹੋ, ਅਤੇ ਤੁਸੀਂ ਅਨੁਕੂਲ ਨਿਯੰਤਰਣ ਦੇ ਕਲਾਸੀਕਲ ਵਿਚਾਰਾਂ ਦੀ ਵਰਤੋਂ ਕਰ ਸਕਦੇ ਹੋ। ਇਸ ਲਈ, ਜਿਸ ਨੂੰ ਮਾਡਲ-ਅਨੁਮਾਨੀ ਨਿਯੰਤਰਣ ਕਿਹਾ ਜਾਂਦਾ ਹੈ, ਜਿਸ ਨੂੰ ਹੁਣ ਮਾਡਲ-ਅਨੁਮਾਨੀ ਨਿਯੰਤਰਣ ਕਿਹਾ ਜਾਂਦਾ ਹੈ, ਇਹ ਵਿਚਾਰ ਜਿਸ ਨੂੰ ਤੁਸੀਂ ਕਿਰਿਆਵਾਂ ਦੇ ਕ੍ਰਮ ਦੇ ਨਤੀਜੇ ਦੀ ਨਕਲ ਜਾਂ ਕਲਪਨਾ ਕਰ ਸਕਦੇ ਹੋ ਜੇ ਤੁਹਾਡੇ ਕੋਲ ਸਿਸਟਮ ਦਾ ਇੱਕ ਚੰਗਾ ਮਾਡਲ ਹੈ ਜਿਸ ਨੂੰ ਤੁਸੀਂ ਨਿਯੰਤਰਣ ਕਰਨ ਦੀ ਕੋਸ਼ਿਸ਼ ਕਰ ਰਹੇ ਹੋ। ਅਤੇ ਵਾਤਾਵਰਣ ਜਿਸ ਵਿੱਚ ਇਹ ਹੈ। ਅਤੇ ਫਿਰ ਗਰੇਡੀਐਂਟ ਡਿਸੇਂਟ ਦੁਆਰਾ, ਜ਼ਰੂਰੀ ਤੌਰ 'ਤੇ - ਇਹ ਸਿੱਖਣਾ ਨਹੀਂ ਹੈ, ਇਹ ਅਨੁਮਾਨ ਹੈ - ਤੁਸੀਂ ਇਹ ਪਤਾ ਲਗਾ ਸਕਦੇ ਹੋ ਕਿ ਕਿਰਿਆਵਾਂ ਦਾ ਸਭ ਤੋਂ ਵਧੀਆ ਕ੍ਰਮ ਕੀ ਹੈ ਜੋ ਮੇਰੇ ਉਦੇਸ਼ ਨੂੰ ਘੱਟ ਕਰੇਗਾ। ਇਸ ਲਈ, ਅਨੁਮਾਨ ਲਈ ਇੱਕ ਲੇਟੈਂਟ ਵੇਰੀਏਬਲ ਦੇ ਨਾਲ ਲਾਗਤ ਫੰਕਸ਼ਨ ਦੀ ਵਰਤੋਂ, ਮੇਰੇ ਖਿਆਲ ਵਿੱਚ, ਕੁਝ ਅਜਿਹਾ ਹੈ ਜਿਸ ਬਾਰੇ ਵੱਡੇ ਪੈਮਾਨੇ ਦੇ ਤੰਤੂ ਜਾਲਾਂ ਦੀਆਂ ਮੌਜੂਦਾ ਫਸਲਾਂ ਭੁੱਲ ਗਈਆਂ ਹਨ। ਪਰ ਇਹ ਲੰਬੇ ਸਮੇਂ ਤੋਂ ਮਸ਼ੀਨ ਸਿਖਲਾਈ ਦਾ ਇੱਕ ਬਹੁਤ ਹੀ ਕਲਾਸੀਕਲ ਹਿੱਸਾ ਸੀ। ਇਸ ਲਈ, ਹਰ ਬਾਏਸੀਅਨ ਨੈੱਟ ਜਾਂ ਗ੍ਰਾਫਿਕਲ ਮਾਡਲ ਜਾਂ ਸੰਭਾਵੀ ਗ੍ਰਾਫਿਕਲ ਮਾਡਲ ਇਸ ਕਿਸਮ ਦੇ ਅਨੁਮਾਨ ਦੀ ਵਰਤੋਂ ਕਰਦਾ ਹੈ। ਤੁਹਾਡੇ ਕੋਲ ਇੱਕ ਮਾਡਲ ਹੈ ਜੋ ਵੇਰੀਏਬਲਾਂ ਦੇ ਇੱਕ ਸਮੂਹ ਵਿੱਚ ਨਿਰਭਰਤਾ ਨੂੰ ਕੈਪਚਰ ਕਰਦਾ ਹੈ, ਤੁਹਾਨੂੰ ਕੁਝ ਵੇਰੀਏਬਲਾਂ ਦਾ ਮੁੱਲ ਦੱਸਿਆ ਜਾਂਦਾ ਹੈ, ਅਤੇ ਫਿਰ ਤੁਹਾਨੂੰ ਬਾਕੀ ਵੇਰੀਏਬਲਾਂ ਦੇ ਸਭ ਤੋਂ ਵੱਧ ਸੰਭਾਵਿਤ ਮੁੱਲ ਦਾ ਅਨੁਮਾਨ ਲਗਾਉਣਾ ਪੈਂਦਾ ਹੈ। ਇਹ ਗ੍ਰਾਫਿਕਲ ਮਾਡਲਾਂ ਅਤੇ ਬਾਏਸੀਅਨ ਨੈੱਟ ਵਿੱਚ ਅਨੁਮਾਨ ਦਾ ਮੂਲ ਸਿਧਾਂਤ ਹੈ, ਅਤੇ ਇਸ ਤਰ੍ਹਾਂ ਦੀਆਂ ਚੀਜ਼ਾਂ। ਅਤੇ ਮੈਂ ਸੋਚਦਾ ਹਾਂ ਕਿ ਅਸਲ ਵਿੱਚ ਇਹ ਹੈ ਕਿ ਤਰਕ, ਤਰਕ ਅਤੇ ਯੋਜਨਾਬੰਦੀ ਬਾਰੇ ਕੀ ਹੋਣਾ ਚਾਹੀਦਾ ਹੈ.

ZDNet: ਤੁਸੀਂ ਇੱਕ ਅਲਮਾਰੀ ਬਾਏਸੀਅਨ ਹੋ।

YL: ਮੈਂ ਇੱਕ ਗੈਰ-ਸੰਭਾਵਨਾਵਾਦੀ ਬਾਏਸੀਅਨ ਹਾਂ। ਮੈਂ ਪਹਿਲਾਂ ਇਹ ਮਜ਼ਾਕ ਬਣਾਇਆ ਸੀ। ਮੈਂ ਅਸਲ ਵਿੱਚ ਕੁਝ ਸਾਲ ਪਹਿਲਾਂ NeurIPS ਵਿੱਚ ਸੀ, ਮੈਨੂੰ ਲਗਦਾ ਹੈ ਕਿ ਇਹ 2018 ਜਾਂ 2019 ਵਿੱਚ ਸੀ, ਅਤੇ ਮੈਨੂੰ ਇੱਕ ਬਾਏਸੀਅਨ ਦੁਆਰਾ ਵੀਡੀਓ 'ਤੇ ਫੜਿਆ ਗਿਆ ਸੀ ਜਿਸਨੇ ਮੈਨੂੰ ਪੁੱਛਿਆ ਕਿ ਕੀ ਮੈਂ ਇੱਕ ਬਾਏਸੀਅਨ ਹਾਂ, ਅਤੇ ਮੈਂ ਕਿਹਾ, ਹਾਂ, ਮੈਂ ਇੱਕ ਬਾਏਸੀਅਨ ਹਾਂ, ਪਰ ਮੈਂ 'ਮੈਂ ਇੱਕ ਗੈਰ-ਸੰਭਾਵਨਾਵਾਦੀ ਬਾਏਸੀਅਨ, ਕ੍ਰਮ-ਬੱਧ, ਇੱਕ ਊਰਜਾ-ਅਧਾਰਿਤ ਬਾਏਸੀਅਨ, ਜੇਕਰ ਤੁਸੀਂ ਚਾਹੁੰਦੇ ਹੋ। 

ZDNet: ਜੋ ਕਿ ਨਿਸ਼ਚਤ ਤੌਰ 'ਤੇ ਕੁਝ ਅਜਿਹਾ ਲੱਗਦਾ ਹੈ ਤਾਰਾ ਸਫ਼ਰ. ਤੁਸੀਂ ਇਸ ਪੇਪਰ ਦੇ ਅੰਤ ਵਿੱਚ ਜ਼ਿਕਰ ਕੀਤਾ ਹੈ, ਤੁਸੀਂ ਜੋ ਕਲਪਨਾ ਕਰਦੇ ਹੋ ਉਸ ਨੂੰ ਮਹਿਸੂਸ ਕਰਨ ਲਈ ਕਈ ਸਾਲਾਂ ਦੀ ਸਖ਼ਤ ਮਿਹਨਤ ਕਰਨ ਜਾ ਰਹੀ ਹੈ। ਮੈਨੂੰ ਦੱਸੋ ਕਿ ਇਸ ਸਮੇਂ ਉਸ ਕੰਮ ਵਿੱਚੋਂ ਕੁਝ ਕੀ ਸ਼ਾਮਲ ਹਨ।

YL: ਇਸ ਲਈ, ਮੈਂ ਦੱਸਦਾ ਹਾਂ ਕਿ ਤੁਸੀਂ ਪੇਪਰ ਵਿੱਚ ਜੇਈਪੀਏ ਨੂੰ ਕਿਵੇਂ ਸਿਖਲਾਈ ਅਤੇ ਬਣਾਉਂਦੇ ਹੋ. ਅਤੇ ਜਿਸ ਮਾਪਦੰਡ ਦੀ ਮੈਂ ਵਕਾਲਤ ਕਰ ਰਿਹਾ ਹਾਂ ਉਸ ਵਿੱਚ ਜਾਣਕਾਰੀ ਸਮੱਗਰੀ ਨੂੰ ਵੱਧ ਤੋਂ ਵੱਧ ਕਰਨ ਦਾ ਕੁਝ ਤਰੀਕਾ ਹੈ ਜੋ ਕਿ ਐਕਸਟਰੈਕਟ ਕੀਤੇ ਗਏ ਪ੍ਰਸਤੁਤੀਆਂ ਵਿੱਚ ਇਨਪੁਟ ਬਾਰੇ ਹੈ। ਅਤੇ ਫਿਰ ਦੂਜਾ ਇੱਕ ਭਵਿੱਖਬਾਣੀ ਗਲਤੀ ਨੂੰ ਘੱਟ ਕਰ ਰਿਹਾ ਹੈ. ਅਤੇ ਜੇਕਰ ਤੁਹਾਡੇ ਕੋਲ ਪੂਰਵ-ਸੂਚਕ ਵਿੱਚ ਇੱਕ ਗੁਪਤ ਵੇਰੀਏਬਲ ਹੈ ਜੋ ਭਵਿੱਖਬਾਣੀ ਨੂੰ ਗੈਰ-ਨਿਰਧਾਰਤ ਹੋਣ ਦੀ ਇਜਾਜ਼ਤ ਦਿੰਦਾ ਹੈ, ਤਾਂ ਤੁਹਾਨੂੰ ਇਸ ਦੀ ਜਾਣਕਾਰੀ ਸਮੱਗਰੀ ਨੂੰ ਘਟਾ ਕੇ ਇਸ ਗੁਪਤ ਵੇਰੀਏਬਲ ਨੂੰ ਵੀ ਨਿਯਮਤ ਕਰਨਾ ਹੋਵੇਗਾ। ਇਸ ਲਈ, ਤੁਹਾਡੇ ਕੋਲ ਹੁਣ ਦੋ ਮੁੱਦੇ ਹਨ, ਜੋ ਕਿ ਤੁਸੀਂ ਕੁਝ ਨਿਊਰਲ ਨੈੱਟ ਦੇ ਆਉਟਪੁੱਟ ਦੀ ਜਾਣਕਾਰੀ ਸਮੱਗਰੀ ਨੂੰ ਕਿਵੇਂ ਵੱਧ ਤੋਂ ਵੱਧ ਕਰਦੇ ਹੋ, ਅਤੇ ਦੂਜਾ ਇਹ ਹੈ ਕਿ ਤੁਸੀਂ ਕੁਝ ਲੁਕਵੇਂ ਵੇਰੀਏਬਲ ਦੀ ਜਾਣਕਾਰੀ ਸਮੱਗਰੀ ਨੂੰ ਕਿਵੇਂ ਘੱਟ ਕਰਦੇ ਹੋ? ਅਤੇ ਜੇਕਰ ਤੁਸੀਂ ਉਹ ਦੋ ਚੀਜ਼ਾਂ ਨਹੀਂ ਕਰਦੇ, ਤਾਂ ਸਿਸਟਮ ਢਹਿ ਜਾਵੇਗਾ। ਇਹ ਦਿਲਚਸਪ ਕੁਝ ਨਹੀਂ ਸਿੱਖੇਗਾ. ਇਹ ਹਰ ਚੀਜ਼ ਨੂੰ ਜ਼ੀਰੋ ਊਰਜਾ ਦੇਵੇਗਾ, ਅਜਿਹਾ ਕੁਝ, ਜੋ ਨਿਰਭਰਤਾ ਦਾ ਵਧੀਆ ਮਾਡਲ ਨਹੀਂ ਹੈ। ਇਹ ਢਹਿ-ਰੋਕਥਾਮ ਦੀ ਸਮੱਸਿਆ ਹੈ ਜਿਸਦਾ ਮੈਂ ਜ਼ਿਕਰ ਕਰਦਾ ਹਾਂ. 

ਅਤੇ ਮੈਂ ਉਨ੍ਹਾਂ ਸਾਰੀਆਂ ਚੀਜ਼ਾਂ ਬਾਰੇ ਕਹਿ ਰਿਹਾ ਹਾਂ ਜੋ ਲੋਕਾਂ ਨੇ ਕਦੇ ਵੀ ਕੀਤੀਆਂ ਹਨ, ਢਹਿਣ ਨੂੰ ਰੋਕਣ ਲਈ ਸਿਰਫ ਦੋ ਸ਼੍ਰੇਣੀਆਂ ਦੇ ਤਰੀਕੇ ਹਨ। ਇੱਕ ਵਿਪਰੀਤ ਢੰਗ ਹੈ, ਅਤੇ ਦੂਜਾ ਉਹ ਨਿਯਮਿਤ ਢੰਗ ਹੈ। ਇਸ ਲਈ, ਦੋ ਇਨਪੁਟਸ ਦੀ ਨੁਮਾਇੰਦਗੀ ਦੀ ਜਾਣਕਾਰੀ ਸਮੱਗਰੀ ਨੂੰ ਵੱਧ ਤੋਂ ਵੱਧ ਕਰਨ ਅਤੇ ਗੁਪਤ ਵੇਰੀਏਬਲ ਦੀ ਜਾਣਕਾਰੀ ਸਮੱਗਰੀ ਨੂੰ ਘੱਟ ਕਰਨ ਦਾ ਇਹ ਵਿਚਾਰ, ਜੋ ਕਿ ਨਿਯਮਤ ਤਰੀਕਿਆਂ ਨਾਲ ਸਬੰਧਤ ਹੈ। ਪਰ ਉਹਨਾਂ ਸੰਯੁਕਤ ਏਮਬੈਡਿੰਗ ਆਰਕੀਟੈਕਚਰ ਵਿੱਚ ਬਹੁਤ ਸਾਰੇ ਕੰਮ ਵਿਪਰੀਤ ਢੰਗਾਂ ਦੀ ਵਰਤੋਂ ਕਰ ਰਹੇ ਹਨ. ਵਾਸਤਵ ਵਿੱਚ, ਉਹ ਸ਼ਾਇਦ ਇਸ ਸਮੇਂ ਸਭ ਤੋਂ ਵੱਧ ਪ੍ਰਸਿੱਧ ਹਨ. ਇਸ ਲਈ, ਸਵਾਲ ਇਹ ਹੈ ਕਿ ਤੁਸੀਂ ਜਾਣਕਾਰੀ ਸਮੱਗਰੀ ਨੂੰ ਇਸ ਤਰੀਕੇ ਨਾਲ ਕਿਵੇਂ ਮਾਪਦੇ ਹੋ ਕਿ ਤੁਸੀਂ ਅਨੁਕੂਲ ਜਾਂ ਘੱਟ ਕਰ ਸਕਦੇ ਹੋ? ਅਤੇ ਇਹ ਉਹ ਥਾਂ ਹੈ ਜਿੱਥੇ ਚੀਜ਼ਾਂ ਗੁੰਝਲਦਾਰ ਹੋ ਜਾਂਦੀਆਂ ਹਨ ਕਿਉਂਕਿ ਅਸੀਂ ਅਸਲ ਵਿੱਚ ਨਹੀਂ ਜਾਣਦੇ ਕਿ ਜਾਣਕਾਰੀ ਸਮੱਗਰੀ ਨੂੰ ਕਿਵੇਂ ਮਾਪਣਾ ਹੈ। ਅਸੀਂ ਇਸਦਾ ਅੰਦਾਜ਼ਾ ਲਗਾ ਸਕਦੇ ਹਾਂ, ਅਸੀਂ ਇਸਨੂੰ ਉੱਚਾ ਕਰ ਸਕਦੇ ਹਾਂ, ਅਸੀਂ ਇਸ ਤਰ੍ਹਾਂ ਦੀਆਂ ਚੀਜ਼ਾਂ ਕਰ ਸਕਦੇ ਹਾਂ। ਪਰ ਉਹ ਅਸਲ ਵਿੱਚ ਜਾਣਕਾਰੀ ਸਮੱਗਰੀ ਨੂੰ ਨਹੀਂ ਮਾਪਦੇ, ਜੋ ਅਸਲ ਵਿੱਚ, ਕੁਝ ਹੱਦ ਤੱਕ ਚੰਗੀ ਤਰ੍ਹਾਂ ਪਰਿਭਾਸ਼ਿਤ ਵੀ ਨਹੀਂ ਹੈ।

ZDNet: ਇਹ ਸ਼ੈਨਨ ਦਾ ਕਾਨੂੰਨ ਨਹੀਂ ਹੈ? ਕੀ ਇਹ ਜਾਣਕਾਰੀ ਸਿਧਾਂਤ ਨਹੀਂ ਹੈ? ਤੁਹਾਡੇ ਕੋਲ ਇੱਕ ਨਿਸ਼ਚਿਤ ਮਾਤਰਾ ਵਿੱਚ ਐਂਟਰੌਪੀ, ਚੰਗੀ ਐਂਟਰੌਪੀ ਅਤੇ ਮਾੜੀ ਐਂਟਰੋਪੀ ਹੈ, ਅਤੇ ਚੰਗੀ ਐਂਟਰੌਪੀ ਇੱਕ ਪ੍ਰਤੀਕ ਪ੍ਰਣਾਲੀ ਹੈ ਜੋ ਕੰਮ ਕਰਦੀ ਹੈ, ਮਾੜੀ ਐਂਟਰੋਪੀ ਸ਼ੋਰ ਹੈ। ਕੀ ਇਹ ਸਭ ਸ਼ੈਨਨ ਦੁਆਰਾ ਹੱਲ ਨਹੀਂ ਕੀਤਾ ਗਿਆ ਹੈ?

YL: ਤੁਸੀਂ ਸਹੀ ਹੋ, ਪਰ ਇਸਦੇ ਪਿੱਛੇ ਇੱਕ ਵੱਡੀ ਨੁਕਸ ਹੈ। ਤੁਸੀਂ ਇਸ ਅਰਥ ਵਿੱਚ ਸਹੀ ਹੋ ਕਿ ਜੇਕਰ ਤੁਹਾਡੇ ਕੋਲ ਡੇਟਾ ਆ ਰਿਹਾ ਹੈ ਅਤੇ ਤੁਸੀਂ ਕਿਸੇ ਤਰ੍ਹਾਂ ਡੇਟਾ ਨੂੰ ਵੱਖਰੇ ਚਿੰਨ੍ਹਾਂ ਵਿੱਚ ਮਾਪ ਸਕਦੇ ਹੋ, ਅਤੇ ਫਿਰ ਤੁਸੀਂ ਉਹਨਾਂ ਪ੍ਰਤੀਕਾਂ ਵਿੱਚੋਂ ਹਰੇਕ ਦੀ ਸੰਭਾਵਨਾ ਨੂੰ ਮਾਪਦੇ ਹੋ, ਤਾਂ ਉਹਨਾਂ ਪ੍ਰਤੀਕਾਂ ਦੁਆਰਾ ਕੀਤੀ ਜਾਣ ਵਾਲੀ ਜਾਣਕਾਰੀ ਦੀ ਵੱਧ ਤੋਂ ਵੱਧ ਮਾਤਰਾ ਹੈ। ਦੇ ਸੰਭਾਵੀ ਚਿੰਨ੍ਹਾਂ ਦਾ ਜੋੜ Pi ਲਾਗ Pi, ਸੱਜਾ? ਜਿੱਥੇ Pi ਪ੍ਰਤੀਕ ਦੀ ਸੰਭਾਵਨਾ ਹੈ ਮੈਂ - ਇਹ ਸ਼ੈਨਨ ਐਂਟਰੌਪੀ ਹੈ। [ਸ਼ੈਨਨ ਦਾ ਕਾਨੂੰਨ ਆਮ ਤੌਰ 'ਤੇ H = – ∑ pi log pi ਦੇ ਰੂਪ ਵਿੱਚ ਤਿਆਰ ਕੀਤਾ ਜਾਂਦਾ ਹੈ।]

ਇੱਥੇ ਸਮੱਸਿਆ ਹੈ, ਹਾਲਾਂਕਿ: ਕੀ ਹੈ Pi? ਇਹ ਆਸਾਨ ਹੁੰਦਾ ਹੈ ਜਦੋਂ ਪ੍ਰਤੀਕਾਂ ਦੀ ਗਿਣਤੀ ਘੱਟ ਹੁੰਦੀ ਹੈ ਅਤੇ ਚਿੰਨ੍ਹ ਸੁਤੰਤਰ ਤੌਰ 'ਤੇ ਬਣਾਏ ਜਾਂਦੇ ਹਨ। ਜਦੋਂ ਬਹੁਤ ਸਾਰੇ ਚਿੰਨ੍ਹ ਅਤੇ ਨਿਰਭਰਤਾ ਹੁੰਦੀ ਹੈ, ਇਹ ਬਹੁਤ ਔਖਾ ਹੁੰਦਾ ਹੈ। ਇਸ ਲਈ, ਜੇਕਰ ਤੁਹਾਡੇ ਕੋਲ ਬਿੱਟਾਂ ਦਾ ਇੱਕ ਕ੍ਰਮ ਹੈ ਅਤੇ ਤੁਸੀਂ ਮੰਨਦੇ ਹੋ ਕਿ ਬਿੱਟ ਇੱਕ ਦੂਜੇ ਤੋਂ ਸੁਤੰਤਰ ਹਨ ਅਤੇ ਸੰਭਾਵਨਾ ਇੱਕ ਅਤੇ ਜ਼ੀਰੋ ਜਾਂ ਜੋ ਵੀ ਦੇ ਵਿਚਕਾਰ ਬਰਾਬਰ ਹੈ, ਤਾਂ ਤੁਸੀਂ ਆਸਾਨੀ ਨਾਲ ਐਂਟਰੌਪੀ ਨੂੰ ਮਾਪ ਸਕਦੇ ਹੋ, ਕੋਈ ਸਮੱਸਿਆ ਨਹੀਂ ਹੈ। ਪਰ ਜੇਕਰ ਤੁਹਾਡੇ ਕੋਲ ਆਉਣ ਵਾਲੀਆਂ ਚੀਜ਼ਾਂ ਉੱਚ-ਆਯਾਮੀ ਵੈਕਟਰ ਹਨ, ਜਿਵੇਂ ਕਿ, ਤੁਸੀਂ ਜਾਣਦੇ ਹੋ, ਡੇਟਾ ਫਰੇਮ, ਜਾਂ ਇਸ ਤਰ੍ਹਾਂ ਦੀ ਕੋਈ ਚੀਜ਼, ਕੀ ਹੈ Pi? ਵੰਡ ਕੀ ਹੈ? ਪਹਿਲਾਂ ਤੁਹਾਨੂੰ ਉਸ ਸਪੇਸ ਦੀ ਮਾਤਰਾ ਕਰਨੀ ਪਵੇਗੀ, ਜੋ ਕਿ ਇੱਕ ਉੱਚ-ਅਯਾਮੀ, ਨਿਰੰਤਰ ਸਪੇਸ ਹੈ। ਤੁਹਾਨੂੰ ਇਹ ਨਹੀਂ ਪਤਾ ਕਿ ਇਸ ਨੂੰ ਸਹੀ ਢੰਗ ਨਾਲ ਕਿਵੇਂ ਮਾਪਣਾ ਹੈ। ਤੁਸੀਂ k- ਮਤਲਬ, ਆਦਿ ਦੀ ਵਰਤੋਂ ਕਰ ਸਕਦੇ ਹੋ। ਇਹ ਉਹ ਹੈ ਜੋ ਲੋਕ ਕਰਦੇ ਹਨ ਜਦੋਂ ਉਹ ਵੀਡੀਓ ਕੰਪਰੈਸ਼ਨ ਅਤੇ ਚਿੱਤਰ ਕੰਪਰੈਸ਼ਨ ਕਰਦੇ ਹਨ। ਪਰ ਇਹ ਸਿਰਫ ਇੱਕ ਅਨੁਮਾਨ ਹੈ. ਅਤੇ ਫਿਰ ਤੁਹਾਨੂੰ ਸੁਤੰਤਰਤਾ ਦੀਆਂ ਧਾਰਨਾਵਾਂ ਬਣਾਉਣੀਆਂ ਪੈਣਗੀਆਂ. ਇਸ ਲਈ, ਇਹ ਸਪੱਸ਼ਟ ਹੈ ਕਿ ਇੱਕ ਵੀਡੀਓ ਵਿੱਚ, ਲਗਾਤਾਰ ਫਰੇਮ ਸੁਤੰਤਰ ਨਹੀਂ ਹਨ। ਇੱਥੇ ਨਿਰਭਰਤਾਵਾਂ ਹਨ, ਅਤੇ ਉਹ ਫਰੇਮ ਕਿਸੇ ਹੋਰ ਫਰੇਮ 'ਤੇ ਨਿਰਭਰ ਹੋ ਸਕਦਾ ਹੈ ਜੋ ਤੁਸੀਂ ਇੱਕ ਘੰਟਾ ਪਹਿਲਾਂ ਦੇਖਿਆ ਸੀ, ਜੋ ਕਿ ਉਸੇ ਚੀਜ਼ ਦੀ ਤਸਵੀਰ ਸੀ। ਇਸ ਲਈ, ਤੁਸੀਂ ਜਾਣਦੇ ਹੋ, ਤੁਸੀਂ ਮਾਪ ਨਹੀਂ ਸਕਦੇ Pi. ਮਾਪਣ ਲਈ Pi, ਤੁਹਾਡੇ ਕੋਲ ਇੱਕ ਮਸ਼ੀਨ ਸਿਖਲਾਈ ਪ੍ਰਣਾਲੀ ਹੋਣੀ ਚਾਹੀਦੀ ਹੈ ਜੋ ਭਵਿੱਖਬਾਣੀ ਕਰਨਾ ਸਿੱਖਦੀ ਹੈ। ਅਤੇ ਇਸ ਲਈ ਤੁਸੀਂ ਪਿਛਲੀ ਸਮੱਸਿਆ 'ਤੇ ਵਾਪਸ ਆ ਗਏ ਹੋ। ਇਸ ਲਈ, ਤੁਸੀਂ ਸਿਰਫ਼ ਜਾਣਕਾਰੀ ਦੇ ਮਾਪ ਦਾ ਅੰਦਾਜ਼ਾ ਲਗਾ ਸਕਦੇ ਹੋ, ਜ਼ਰੂਰੀ ਤੌਰ 'ਤੇ। 

yann-lecun-sept-2022-6

"ਸਵਾਲ ਬਿਲਕੁਲ ਇਹ ਹੈ ਕਿ ਤੁਸੀਂ ਜਾਣਕਾਰੀ ਸਮੱਗਰੀ ਨੂੰ ਇਸ ਤਰੀਕੇ ਨਾਲ ਕਿਵੇਂ ਮਾਪਦੇ ਹੋ ਕਿ ਤੁਸੀਂ ਅਨੁਕੂਲ ਜਾਂ ਘੱਟ ਕਰ ਸਕਦੇ ਹੋ?" LeCun ਕਹਿੰਦਾ ਹੈ. "ਅਤੇ ਇਹ ਉਹ ਥਾਂ ਹੈ ਜਿੱਥੇ ਚੀਜ਼ਾਂ ਗੁੰਝਲਦਾਰ ਹੋ ਜਾਂਦੀਆਂ ਹਨ ਕਿਉਂਕਿ ਅਸੀਂ ਅਸਲ ਵਿੱਚ ਨਹੀਂ ਜਾਣਦੇ ਕਿ ਜਾਣਕਾਰੀ ਸਮੱਗਰੀ ਨੂੰ ਕਿਵੇਂ ਮਾਪਣਾ ਹੈ." ਸਭ ਤੋਂ ਵਧੀਆ ਜੋ ਹੁਣ ਤੱਕ ਕੀਤਾ ਜਾ ਸਕਦਾ ਹੈ ਉਹ ਹੈ ਇੱਕ ਪ੍ਰੌਕਸੀ ਲੱਭਣਾ ਜੋ "ਉਸ ਕੰਮ ਲਈ ਕਾਫ਼ੀ ਵਧੀਆ ਹੈ ਜੋ ਅਸੀਂ ਚਾਹੁੰਦੇ ਹਾਂ।"

ਮੈਨੂੰ ਇੱਕ ਹੋਰ ਠੋਸ ਉਦਾਹਰਨ ਲੈਣ ਦਿਓ. ਐਲਗੋਰਿਦਮ ਵਿੱਚੋਂ ਇੱਕ ਜਿਸ ਨਾਲ ਅਸੀਂ ਖੇਡ ਰਹੇ ਹਾਂ, ਅਤੇ ਮੈਂ ਇਸ ਬਾਰੇ ਗੱਲ ਕੀਤੀ ਹੈ, ਕੀ ਇਸ ਚੀਜ਼ ਨੂੰ VICReg ਕਿਹਾ ਜਾਂਦਾ ਹੈ, ਵੇਰੀਏਂਸ-ਇਨਵੇਰੀਅਨਸ-ਕੋਵੇਰੀਅੰਸ ਰੈਗੂਲਰਾਈਜ਼ੇਸ਼ਨ। ਇਹ ਇੱਕ ਵੱਖਰੇ ਪੇਪਰ ਵਿੱਚ ਹੈ ਜੋ ICLR ਤੇ ਪ੍ਰਕਾਸ਼ਿਤ ਕੀਤਾ ਗਿਆ ਸੀ, ਅਤੇ ਇਸ ਨੂੰ arXiv 'ਤੇ ਰੱਖਿਆ ਗਿਆ ਸੀ ਲਗਭਗ ਇੱਕ ਸਾਲ ਪਹਿਲਾਂ, 2021। ਅਤੇ ਇਹ ਵਿਚਾਰ ਜਾਣਕਾਰੀ ਨੂੰ ਵੱਧ ਤੋਂ ਵੱਧ ਕਰਨ ਦਾ ਹੈ। ਅਤੇ ਇਹ ਵਿਚਾਰ ਅਸਲ ਵਿੱਚ ਮੇਰੇ ਸਮੂਹ ਦੁਆਰਾ ਬੁਲਾਏ ਗਏ ਇੱਕ ਪੁਰਾਣੇ ਪੇਪਰ ਵਿੱਚੋਂ ਆਇਆ ਸੀ ਬਾਰਲੋ ਜੁੜਵਾਂ. ਤੁਸੀਂ ਮੂਲ ਰੂਪ ਵਿੱਚ, ਇਹ ਮੰਨਦੇ ਹੋਏ ਕਿ ਵੇਰੀਏਬਲਾਂ ਵਿਚਕਾਰ ਇੱਕਮਾਤਰ ਨਿਰਭਰਤਾ ਸਹਿਸਬੰਧ, ਰੇਖਿਕ ਨਿਰਭਰਤਾ ਹੈ, ਦੁਆਰਾ ਇੱਕ ਵੈਕਟਰ ਦੀ ਜਾਣਕਾਰੀ ਸਮੱਗਰੀ ਨੂੰ ਅਧਿਕਤਮ ਕਰਦੇ ਹੋ। ਇਸ ਲਈ, ਜੇਕਰ ਤੁਸੀਂ ਇਹ ਮੰਨਦੇ ਹੋ ਕਿ ਵੇਰੀਏਬਲਾਂ ਦੇ ਜੋੜਿਆਂ ਦੇ ਵਿਚਕਾਰ, ਜਾਂ ਤੁਹਾਡੇ ਸਿਸਟਮ ਵਿੱਚ ਵੇਰੀਏਬਲਾਂ ਵਿਚਕਾਰ ਇੱਕੋ-ਇੱਕ ਨਿਰਭਰਤਾ ਸੰਭਵ ਹੈ, ਕੀਮਤੀ ਵਸਤੂਆਂ ਦੇ ਜੋੜਿਆਂ ਦੇ ਵਿਚਕਾਰ ਸਬੰਧ ਹੈ, ਜੋ ਕਿ ਬਹੁਤ ਹੀ ਮੋਟਾ ਅਨੁਮਾਨ ਹੈ, ਤਾਂ ਤੁਸੀਂ ਆਪਣੇ ਸਿਸਟਮ ਤੋਂ ਬਾਹਰ ਆਉਣ ਵਾਲੀ ਜਾਣਕਾਰੀ ਸਮੱਗਰੀ ਨੂੰ ਵੱਧ ਤੋਂ ਵੱਧ ਕਰ ਸਕਦੇ ਹੋ। ਇਹ ਯਕੀਨੀ ਬਣਾ ਕੇ ਕਿ ਸਾਰੇ ਵੇਰੀਏਬਲਾਂ ਵਿੱਚ ਗੈਰ-ਜ਼ੀਰੋ ਵੇਰੀਏਂਸ ਹੈ — ਚਲੋ, ਇੱਕ ਵੇਰੀਏਬਲ, ਇਸ ਨਾਲ ਕੋਈ ਫਰਕ ਨਹੀਂ ਪੈਂਦਾ ਕਿ ਇਹ ਕੀ ਹੈ — ਅਤੇ ਫਿਰ ਉਹਨਾਂ ਨੂੰ ਵਾਪਸ-ਸਬੰਧਿਤ ਕਰਨਾ, ਉਹੀ ਪ੍ਰਕਿਰਿਆ ਜਿਸ ਨੂੰ ਵਾਈਟਿੰਗ ਕਿਹਾ ਜਾਂਦਾ ਹੈ, ਇਹ ਨਵੀਂ ਵੀ ਨਹੀਂ ਹੈ। ਇਸ ਨਾਲ ਸਮੱਸਿਆ ਇਹ ਹੈ ਕਿ ਤੁਹਾਡੇ ਕੋਲ ਵੇਰੀਏਬਲਾਂ ਦੇ ਸਮੂਹਾਂ ਜਾਂ ਇੱਥੋਂ ਤੱਕ ਕਿ ਵੇਰੀਏਬਲਾਂ ਦੇ ਸਿਰਫ਼ ਜੋੜਿਆਂ ਦੇ ਵਿਚਕਾਰ ਬਹੁਤ ਗੁੰਝਲਦਾਰ ਨਿਰਭਰਤਾ ਹੋ ਸਕਦੀ ਹੈ ਜੋ ਰੇਖਿਕ ਨਿਰਭਰਤਾ ਨਹੀਂ ਹਨ, ਅਤੇ ਉਹ ਸਬੰਧਾਂ ਵਿੱਚ ਦਿਖਾਈ ਨਹੀਂ ਦਿੰਦੇ ਹਨ। ਇਸ ਲਈ, ਉਦਾਹਰਨ ਲਈ, ਜੇਕਰ ਤੁਹਾਡੇ ਕੋਲ ਦੋ ਵੇਰੀਏਬਲ ਹਨ, ਅਤੇ ਉਹਨਾਂ ਦੋ ਵੇਰੀਏਬਲਾਂ ਦੇ ਸਾਰੇ ਬਿੰਦੂ ਕਿਸੇ ਕਿਸਮ ਦੇ ਸਪਿਰਲ ਵਿੱਚ ਰੇਖਾਬੱਧ ਹੁੰਦੇ ਹਨ, ਤਾਂ ਉਹਨਾਂ ਦੋ ਵੇਰੀਏਬਲਾਂ ਵਿਚਕਾਰ ਬਹੁਤ ਮਜ਼ਬੂਤ ​​ਨਿਰਭਰਤਾ ਹੈ, ਠੀਕ ਹੈ? ਪਰ ਵਾਸਤਵ ਵਿੱਚ, ਜੇਕਰ ਤੁਸੀਂ ਉਹਨਾਂ ਦੋ ਵੇਰੀਏਬਲਾਂ ਵਿਚਕਾਰ ਸਬੰਧਾਂ ਦੀ ਗਣਨਾ ਕਰਦੇ ਹੋ, ਤਾਂ ਉਹ ਆਪਸ ਵਿੱਚ ਸੰਬੰਧਿਤ ਨਹੀਂ ਹਨ। ਇਸ ਲਈ, ਇੱਥੇ ਇੱਕ ਉਦਾਹਰਨ ਹੈ ਜਿੱਥੇ ਇਹਨਾਂ ਦੋ ਵੇਰੀਏਬਲਾਂ ਦੀ ਜਾਣਕਾਰੀ ਸਮੱਗਰੀ ਅਸਲ ਵਿੱਚ ਬਹੁਤ ਛੋਟੀ ਹੈ, ਇਹ ਸਿਰਫ ਇੱਕ ਮਾਤਰਾ ਹੈ ਕਿਉਂਕਿ ਇਹ ਸਪਿਰਲ ਵਿੱਚ ਤੁਹਾਡੀ ਸਥਿਤੀ ਹੈ। ਉਹ ਡੀ-ਸਬੰਧਿਤ ਹਨ, ਇਸਲਈ ਤੁਸੀਂ ਸੋਚਦੇ ਹੋ ਕਿ ਤੁਹਾਡੇ ਕੋਲ ਉਹਨਾਂ ਦੋ ਵੇਰੀਏਬਲਾਂ ਵਿੱਚੋਂ ਬਹੁਤ ਸਾਰੀ ਜਾਣਕਾਰੀ ਆ ਰਹੀ ਹੈ ਜਦੋਂ ਅਸਲ ਵਿੱਚ ਤੁਹਾਡੇ ਕੋਲ ਨਹੀਂ ਹੈ, ਤੁਹਾਡੇ ਕੋਲ ਸਿਰਫ ਹੈ, ਤੁਸੀਂ ਜਾਣਦੇ ਹੋ, ਤੁਸੀਂ ਜ਼ਰੂਰੀ ਤੌਰ 'ਤੇ, ਦੂਜੇ ਤੋਂ ਇੱਕ ਵੇਰੀਏਬਲ ਦੀ ਭਵਿੱਖਬਾਣੀ ਕਰ ਸਕਦੇ ਹੋ। ਇਸ ਲਈ, ਇਹ ਦਰਸਾਉਂਦਾ ਹੈ ਕਿ ਸਾਡੇ ਕੋਲ ਜਾਣਕਾਰੀ ਸਮੱਗਰੀ ਨੂੰ ਮਾਪਣ ਦੇ ਬਹੁਤ ਹੀ ਅੰਦਾਜ਼ਨ ਤਰੀਕੇ ਹਨ।

ZDNet: ਅਤੇ ਇਸ ਲਈ ਇਹ ਉਹਨਾਂ ਚੀਜ਼ਾਂ ਵਿੱਚੋਂ ਇੱਕ ਹੈ ਜਿਸ 'ਤੇ ਤੁਹਾਨੂੰ ਹੁਣ ਇਸ ਨਾਲ ਕੰਮ ਕਰਨਾ ਚਾਹੀਦਾ ਹੈ? ਇਹ ਸਭ ਤੋਂ ਵੱਡਾ ਸਵਾਲ ਹੈ ਕਿ ਅਸੀਂ ਕਿਵੇਂ ਜਾਣ ਸਕਦੇ ਹਾਂ ਕਿ ਜਦੋਂ ਅਸੀਂ ਜਾਣਕਾਰੀ ਸਮੱਗਰੀ ਨੂੰ ਵੱਧ ਤੋਂ ਵੱਧ ਅਤੇ ਘੱਟ ਕਰ ਰਹੇ ਹਾਂ?

YL:  ਜਾਂ ਕੀ ਪ੍ਰੌਕਸੀ ਜੋ ਅਸੀਂ ਇਸ ਲਈ ਵਰਤ ਰਹੇ ਹਾਂ ਉਸ ਕੰਮ ਲਈ ਕਾਫ਼ੀ ਚੰਗੀ ਹੈ ਜੋ ਅਸੀਂ ਚਾਹੁੰਦੇ ਹਾਂ। ਵਾਸਤਵ ਵਿੱਚ, ਅਸੀਂ ਇਹ ਹਰ ਸਮੇਂ ਮਸ਼ੀਨ ਸਿਖਲਾਈ ਵਿੱਚ ਕਰਦੇ ਹਾਂ। ਲਾਗਤ ਫੰਕਸ਼ਨ ਜੋ ਅਸੀਂ ਘੱਟ ਕਰਦੇ ਹਾਂ ਉਹ ਕਦੇ ਵੀ ਉਹ ਨਹੀਂ ਹੁੰਦੇ ਜਿਨ੍ਹਾਂ ਨੂੰ ਅਸੀਂ ਅਸਲ ਵਿੱਚ ਘੱਟ ਕਰਨਾ ਚਾਹੁੰਦੇ ਹਾਂ। ਇਸ ਲਈ, ਉਦਾਹਰਨ ਲਈ, ਤੁਸੀਂ ਵਰਗੀਕਰਨ ਕਰਨਾ ਚਾਹੁੰਦੇ ਹੋ, ਠੀਕ ਹੈ? ਜਦੋਂ ਤੁਸੀਂ ਕਲਾਸੀਫਾਇਰ ਨੂੰ ਸਿਖਲਾਈ ਦਿੰਦੇ ਹੋ ਤਾਂ ਲਾਗਤ ਫੰਕਸ਼ਨ ਜਿਸ ਨੂੰ ਤੁਸੀਂ ਘੱਟ ਕਰਨਾ ਚਾਹੁੰਦੇ ਹੋ ਉਹ ਗਲਤੀਆਂ ਦੀ ਗਿਣਤੀ ਹੈ ਜੋ ਕਲਾਸੀਫਾਇਰ ਕਰ ਰਿਹਾ ਹੈ। ਪਰ ਇਹ ਇੱਕ ਗੈਰ-ਭਿੰਨਤਾਯੋਗ, ਭਿਆਨਕ ਲਾਗਤ ਫੰਕਸ਼ਨ ਹੈ ਜਿਸ ਨੂੰ ਤੁਸੀਂ ਘੱਟ ਨਹੀਂ ਕਰ ਸਕਦੇ ਕਿਉਂਕਿ ਤੁਸੀਂ ਜਾਣਦੇ ਹੋ ਕਿ ਤੁਸੀਂ ਆਪਣੇ ਨਿਊਰਲ ਨੈੱਟ ਦੇ ਵਜ਼ਨ ਨੂੰ ਬਦਲਣ ਜਾ ਰਹੇ ਹੋ, ਕੁਝ ਵੀ ਨਹੀਂ ਬਦਲਣਾ ਹੈ ਜਦੋਂ ਤੱਕ ਇਹਨਾਂ ਵਿੱਚੋਂ ਇੱਕ ਨਮੂਨਾ ਆਪਣਾ ਫੈਸਲਾ ਨਹੀਂ ਬਦਲਦਾ, ਅਤੇ ਫਿਰ ਇੱਕ ਛਾਲ ਗਲਤੀ ਵਿੱਚ, ਸਕਾਰਾਤਮਕ ਜਾਂ ਨਕਾਰਾਤਮਕ।

ZDNet: ਇਸ ਲਈ ਤੁਹਾਡੇ ਕੋਲ ਇੱਕ ਪ੍ਰੌਕਸੀ ਹੈ ਜੋ ਇੱਕ ਉਦੇਸ਼ ਫੰਕਸ਼ਨ ਹੈ ਜੋ ਤੁਸੀਂ ਯਕੀਨੀ ਤੌਰ 'ਤੇ ਕਹਿ ਸਕਦੇ ਹੋ, ਅਸੀਂ ਯਕੀਨੀ ਤੌਰ 'ਤੇ ਇਸ ਚੀਜ਼ ਦੇ ਗਰੇਡੀਐਂਟ ਨੂੰ ਪ੍ਰਵਾਹ ਕਰ ਸਕਦੇ ਹਾਂ।

YL: ਇਹ ਠੀਕ ਹੈ. ਇਸ ਲਈ ਲੋਕ ਇਸ ਕਰਾਸ-ਐਂਟ੍ਰੋਪੀ ਨੁਕਸਾਨ, ਜਾਂ SOFTMAX ਦੀ ਵਰਤੋਂ ਕਰਦੇ ਹਨ, ਤੁਹਾਡੇ ਕੋਲ ਇਸਦੇ ਲਈ ਕਈ ਨਾਮ ਹਨ, ਪਰ ਇਹ ਇੱਕੋ ਜਿਹੀ ਗੱਲ ਹੈ। ਅਤੇ ਇਹ ਅਸਲ ਵਿੱਚ ਸਿਸਟਮ ਦੁਆਰਾ ਕੀਤੀਆਂ ਗਈਆਂ ਗਲਤੀਆਂ ਦੀ ਸੰਖਿਆ ਦਾ ਇੱਕ ਨਿਰਵਿਘਨ ਅਨੁਮਾਨ ਹੈ, ਜਿੱਥੇ ਸਮੂਥਿੰਗ ਕੀਤੀ ਜਾਂਦੀ ਹੈ, ਮੂਲ ਰੂਪ ਵਿੱਚ, ਸਿਸਟਮ ਦੁਆਰਾ ਹਰੇਕ ਸ਼੍ਰੇਣੀ ਨੂੰ ਦਿੱਤੇ ਗਏ ਸਕੋਰ ਨੂੰ ਧਿਆਨ ਵਿੱਚ ਰੱਖਦੇ ਹੋਏ।

ZDNet: ਕੀ ਕੋਈ ਅਜਿਹੀ ਚੀਜ਼ ਹੈ ਜਿਸ ਨੂੰ ਅਸੀਂ ਕਵਰ ਨਹੀਂ ਕੀਤਾ ਹੈ ਜੋ ਤੁਸੀਂ ਕਵਰ ਕਰਨਾ ਚਾਹੁੰਦੇ ਹੋ?

YL: ਇਹ ਸ਼ਾਇਦ ਮੁੱਖ ਨੁਕਤਿਆਂ 'ਤੇ ਜ਼ੋਰ ਦੇ ਰਿਹਾ ਹੈ। ਮੈਨੂੰ ਲਗਦਾ ਹੈ ਕਿ ਏਆਈ ਪ੍ਰਣਾਲੀਆਂ ਨੂੰ ਤਰਕ ਕਰਨ ਦੇ ਯੋਗ ਹੋਣ ਦੀ ਜ਼ਰੂਰਤ ਹੈ, ਅਤੇ ਇਸਦੀ ਪ੍ਰਕਿਰਿਆ ਜਿਸਦੀ ਮੈਂ ਵਕਾਲਤ ਕਰ ਰਿਹਾ ਹਾਂ, ਕੁਝ ਲੁਕਵੇਂ ਵੇਰੀਏਬਲ ਦੇ ਸਬੰਧ ਵਿੱਚ ਕੁਝ ਉਦੇਸ਼ ਨੂੰ ਘੱਟ ਕਰ ਰਿਹਾ ਹੈ। ਇਹ ਸਿਸਟਮਾਂ ਨੂੰ ਯੋਜਨਾ ਬਣਾਉਣ ਅਤੇ ਤਰਕ ਕਰਨ ਦੀ ਆਗਿਆ ਦਿੰਦਾ ਹੈ। ਮੈਨੂੰ ਲੱਗਦਾ ਹੈ ਕਿ ਸਾਨੂੰ ਸੰਭਾਵੀ ਢਾਂਚੇ ਨੂੰ ਛੱਡ ਦੇਣਾ ਚਾਹੀਦਾ ਹੈ ਕਿਉਂਕਿ ਇਹ ਉਦੋਂ ਔਖਾ ਹੁੰਦਾ ਹੈ ਜਦੋਂ ਅਸੀਂ ਉੱਚ-ਅਯਾਮੀ, ਨਿਰੰਤਰ ਵੇਰੀਏਬਲਾਂ ਵਿਚਕਾਰ ਨਿਰਭਰਤਾ ਨੂੰ ਕੈਪਚਰ ਕਰਨ ਵਰਗੀਆਂ ਚੀਜ਼ਾਂ ਕਰਨਾ ਚਾਹੁੰਦੇ ਹਾਂ। ਅਤੇ ਮੈਂ ਜਨਰੇਟਿਵ ਮਾਡਲਾਂ ਨੂੰ ਛੱਡਣ ਦੀ ਵਕਾਲਤ ਕਰ ਰਿਹਾ ਹਾਂ ਕਿਉਂਕਿ ਸਿਸਟਮ ਨੂੰ ਉਹਨਾਂ ਚੀਜ਼ਾਂ ਦੀ ਭਵਿੱਖਬਾਣੀ ਕਰਨ ਲਈ ਬਹੁਤ ਸਾਰੇ ਸਰੋਤ ਸਮਰਪਿਤ ਕਰਨੇ ਪੈਣਗੇ ਜਿਨ੍ਹਾਂ ਦੀ ਭਵਿੱਖਬਾਣੀ ਕਰਨਾ ਬਹੁਤ ਮੁਸ਼ਕਲ ਹੈ ਅਤੇ ਹੋ ਸਕਦਾ ਹੈ ਕਿ ਬਹੁਤ ਜ਼ਿਆਦਾ ਸਰੋਤਾਂ ਦੀ ਵਰਤੋਂ ਕੀਤੀ ਜਾ ਸਕੇ। ਅਤੇ ਇਹ ਹੈ ਜੋ ਪਰੈਟੀ ਬਹੁਤ ਕੁਝ ਇਸ ਨੂੰ ਹੈ. ਜੇਕਰ ਤੁਸੀਂ ਚਾਹੁੰਦੇ ਹੋ ਤਾਂ ਇਹ ਮੁੱਖ ਸੰਦੇਸ਼ ਹਨ। ਅਤੇ ਫਿਰ ਸਮੁੱਚੀ ਆਰਕੀਟੈਕਚਰ. ਫਿਰ ਚੇਤਨਾ ਦੀ ਪ੍ਰਕਿਰਤੀ ਅਤੇ ਸੰਰਚਨਾਕਾਰ ਦੀ ਭੂਮਿਕਾ ਬਾਰੇ ਉਹ ਅਟਕਲਾਂ ਹਨ, ਪਰ ਇਹ ਅਸਲ ਵਿੱਚ ਅਟਕਲਾਂ ਹਨ।

ZDNet: ਅਸੀਂ ਅਗਲੀ ਵਾਰ ਇਸ 'ਤੇ ਪਹੁੰਚਾਂਗੇ। ਮੈਂ ਤੁਹਾਨੂੰ ਪੁੱਛਣ ਜਾ ਰਿਹਾ ਸੀ, ਤੁਸੀਂ ਇਸ ਚੀਜ਼ ਨੂੰ ਕਿਵੇਂ ਬੈਂਚਮਾਰਕ ਕਰਦੇ ਹੋ? ਪਰ ਮੇਰਾ ਅੰਦਾਜ਼ਾ ਹੈ ਕਿ ਤੁਸੀਂ ਇਸ ਸਮੇਂ ਬੈਂਚਮਾਰਕਿੰਗ ਤੋਂ ਥੋੜਾ ਅੱਗੇ ਹੋ?

YL: ਇਹ ਜ਼ਰੂਰੀ ਨਹੀਂ ਕਿ ਇਸ ਤੋਂ ਦੂਰ, ਕ੍ਰਮ-ਬੱਧ, ਸਰਲ ਰੂਪਾਂ ਵਿੱਚ ਹੋਵੇ। ਤੁਸੀਂ ਉਹ ਕਰ ਸਕਦੇ ਹੋ ਜੋ ਹਰ ਕੋਈ ਨਿਯੰਤਰਣ ਜਾਂ ਰੀਨਫੋਰਸਮੈਂਟ ਸਿੱਖਣ ਵਿੱਚ ਕਰਦਾ ਹੈ, ਜੋ ਕਿ, ਤੁਸੀਂ ਅਟਾਰੀ ਗੇਮਾਂ ਜਾਂ ਇਸ ਤਰ੍ਹਾਂ ਦੀ ਕੋਈ ਚੀਜ਼ ਜਾਂ ਕੋਈ ਹੋਰ ਗੇਮ ਖੇਡਣ ਦੀ ਸਿਖਲਾਈ ਦਿੰਦੇ ਹੋ ਜਿਸ ਵਿੱਚ ਕੁਝ ਅਨਿਸ਼ਚਿਤਤਾ ਹੈ।

ZDNet: ਤੁਹਾਡੇ ਸਮੇਂ ਲਈ ਧੰਨਵਾਦ, ਯੈਨ।

ਸਰੋਤ