মেটার এআই গুরু লেকুন: আজকের বেশিরভাগ এআই পদ্ধতি কখনই সত্যিকারের বুদ্ধিমত্তার দিকে পরিচালিত করবে না

yann-lecun-sept-2022-1

মেটার প্রধান এআই বিজ্ঞানী ইয়ান লেকুন বলেছেন, "আমি মনে করি এআই সিস্টেমগুলিকে যুক্তি দিতে সক্ষম হওয়া দরকার।" আজকের জনপ্রিয় AI পন্থা যেমন ট্রান্সফরমার, যার মধ্যে অনেকগুলি ক্ষেত্রে তার নিজের অগ্রগামী কাজের উপর ভিত্তি করে তৈরি করা হয়, যথেষ্ট হবে না। "আপনাকে এক ধাপ পিছিয়ে যেতে হবে এবং বলতে হবে, ঠিক আছে, আমরা এই সিঁড়িটি তৈরি করেছি, কিন্তু আমরা চাঁদে যেতে চাই, এবং এই সিঁড়িটি আমাদের সেখানে নিয়ে যাওয়ার কোন উপায় নেই," লেকুন বলেছেন।

ইয়ান লেকুন, প্রধান এআই বিজ্ঞানী ফেসবুক, ইনস্টাগ্রাম এবং হোয়াটসঅ্যাপের মালিক মেটা প্রোপার্টিজ, তার ক্ষেত্রের অনেক লোককে টিক অফ করতে পারে। 

জুন মাসে একটি থিঙ্ক পিস পোস্ট দিয়ে ওপেন রিভিউ সার্ভারে, LeCun একটি পদ্ধতির একটি বিস্তৃত ওভারভিউ প্রস্তাব করেছেন যা তিনি মনে করেন যে মেশিনে মানব-স্তরের বুদ্ধিমত্তা অর্জনের প্রতিশ্রুতি রয়েছে। 

পেপারে স্পষ্ট না হলে উহ্য বিতর্ক হল যে AI-তে আজকের বেশিরভাগ বড় প্রকল্পগুলি কখনই সেই মানব-স্তরের লক্ষ্যে পৌঁছাতে সক্ষম হবে না।

সঙ্গে চলতি মাসে একটি আলোচনায় ড জেডডিনেট জুমের মাধ্যমে, লেকুন স্পষ্ট করেছেন যে তিনি এই মুহূর্তে গভীর শিক্ষার গবেষণার সবচেয়ে সফল উপায়গুলির অনেকগুলিকে অত্যন্ত সন্দেহের সাথে দেখেন।

"আমি মনে করি তারা প্রয়োজনীয় কিন্তু যথেষ্ট নয়," টুরিং পুরস্কার বিজয়ী বলেছেন জেডডিনেট তার সমবয়সীদের সাধনা. 

এগুলির মধ্যে ট্রান্সফরমার-ভিত্তিক GPT-3 এবং তাদের ইল্কের মতো বড় ভাষা মডেলগুলি অন্তর্ভুক্ত রয়েছে। LeCun এর বৈশিষ্ট্য হিসাবে, ট্রান্সফরমার ভক্তরা বিশ্বাস করে, "আমরা সবকিছুকে টোকেনাইজ করি, এবং বিশাল প্রশিক্ষণ দিইবিচ্ছিন্ন ভবিষ্যদ্বাণী করার মডেল, এবং কোনো না কোনোভাবে এআই এর থেকে বেরিয়ে আসবে।"

"তারা ভুল নয়," তিনি বলেছেন, "এই অর্থে যে এটি ভবিষ্যতের বুদ্ধিমান সিস্টেমের একটি উপাদান হতে পারে, তবে আমি মনে করি এটি প্রয়োজনীয় অংশগুলি অনুপস্থিত।"

এছাড়াও: Meta-এর AI লুমিনারি LeCun গভীর শিক্ষার শক্তির সীমান্ত অন্বেষণ করে

এটি একটি চমকপ্রদ সমালোচনা যা সেই পণ্ডিতের কাছ থেকে এসেছে যা কনভোল্যুশনাল নিউরাল নেটওয়ার্কের ব্যবহারকে নিখুঁত করেছে, একটি ব্যবহারিক কৌশল যা গভীর শিক্ষার প্রোগ্রামগুলিতে অবিশ্বাস্যভাবে উত্পাদনশীল। 

LeCun শৃঙ্খলার অন্যান্য অত্যন্ত সফল ক্ষেত্রগুলির প্রচুর ত্রুটি এবং সীমাবদ্ধতা দেখে। 

শক্তিবৃদ্ধি শেখা কখনই যথেষ্ট হবে না, তিনি বজায় রাখেন। ডিপমাইন্ডের ডেভিড সিলভারের মতো গবেষকরা, যিনি আলফাজিরো প্রোগ্রামটি তৈরি করেছিলেন যা দাবা, শোগি এবং গোকে আয়ত্ত করেছিল, তারা এমন প্রোগ্রামগুলিতে ফোকাস করছে যেগুলি "খুবই অ্যাকশন-ভিত্তিক," লেকুন দেখেন, কিন্তু "অধিকাংশ শিক্ষা আমরা করি না, আমরা করি না। বাস্তবে পদক্ষেপ গ্রহণের মাধ্যমে এটি করুন, আমরা এটি পর্যবেক্ষণ করে করি।" 

লেকুন, 62, কয়েক দশকের কৃতিত্বের দৃষ্টিকোণ থেকে, তবুও তিনি যাকে অন্ধ গলি বলে মনে করেন তার মোকাবিলা করার জন্য একটি তাত্পর্য প্রকাশ করেছেন যার দিকে অনেকেই ছুটে আসছেন, এবং তার ক্ষেত্রটিকে সে দিকে নিয়ে যাওয়ার চেষ্টা করেছেন যে দিকে তিনি মনে করেন জিনিসগুলি যাওয়া উচিত। 

"মানব-স্তরের AI এর দিকে এগিয়ে যাওয়ার জন্য আমাদের কী করা উচিত সে সম্পর্কে আমরা অনেক দাবি দেখি," তিনি বলেছেন। "এবং এমন কিছু ধারণা রয়েছে যা আমি মনে করি ভুল নির্দেশিত।"

লেকুন পর্যবেক্ষণ করেন, "আমরা সেই বিন্দুতে নই যেখানে আমাদের বুদ্ধিমান যন্ত্রগুলির একটি বিড়ালের মতো সাধারণ জ্ঞান আছে।" "তাহলে, কেন আমরা সেখানে শুরু করব না?" 

একটি ভিডিওতে পরবর্তী ফ্রেমের ভবিষ্যদ্বাণী করার মতো জিনিসগুলিতে জেনারেটিভ নেটওয়ার্ক ব্যবহার করার ক্ষেত্রে তিনি তার পূর্বের বিশ্বাস ত্যাগ করেছেন৷ "এটি সম্পূর্ণ ব্যর্থ হয়েছে," তিনি বলেছেন। 

লেকুন যাদেরকে তিনি "ধর্মীয় সম্ভাব্যতাবাদী" বলে অভিহিত করেন, তারা "সম্ভাব্যতা তত্ত্বই একমাত্র কাঠামো যা আপনি মেশিন লার্নিং ব্যাখ্যা করতে ব্যবহার করতে পারেন বলে মনে করেন।" 

বিশুদ্ধভাবে পরিসংখ্যানগত পদ্ধতিটি জটিল, তিনি বলেছেন। “একটি বিশ্ব মডেলকে সম্পূর্ণরূপে সম্ভাব্য হওয়ার জন্য জিজ্ঞাসা করা খুব বেশি; আমরা জানি না কিভাবে এটা করতে হয়।"

লেকুন যুক্তি দেন শুধু শিক্ষাবিদদের নয়, ইন্ডাস্ট্রিয়াল এআইকে গভীরভাবে নতুন করে ভাবতে হবে। সেল্ফ-ড্রাইভিং গাড়ির ভিড়, ওয়েভের মতো স্টার্টআপগুলি "একটু বেশি আশাবাদী" হয়েছে, তিনি বলেছেন, এই ভেবে যে তারা "বৃহৎ নিউরাল নেটওয়ার্কগুলিতে ডেটা নিক্ষেপ করতে পারে" এবং আপনি অনেক কিছু শিখতে পারেন৷

"আপনি জানেন, আমি মনে করি এটি সম্পূর্ণভাবে সম্ভব যে আমাদের সাধারণ জ্ঞান ছাড়াই লেভেল-ফাইভ স্বায়ত্তশাসিত গাড়ি থাকবে," তিনি "ADAS" উল্লেখ করে বলেছেন। উন্নত ড্রাইভার সহায়তা সিস্টেম স্ব-ড্রাইভিং এর শর্তাবলী, "কিন্তু আপনাকে এর থেকে নরককে প্রকৌশলী করতে হবে।"

এই ধরনের অতিরিক্ত-ইঞ্জিনিয়ারযুক্ত স্ব-ড্রাইভিং প্রযুক্তি এমন কিছু হবে যতটা চটকদার এবং ভঙ্গুর সমস্ত কম্পিউটার ভিশন প্রোগ্রাম যা গভীর শিক্ষার দ্বারা অপ্রচলিত হয়ে গিয়েছিল, তিনি বিশ্বাস করেন।

"অবশেষে, একটি আরও সন্তোষজনক এবং সম্ভবত আরও ভাল সমাধান হতে চলেছে যার মধ্যে এমন সিস্টেমগুলি জড়িত যা বিশ্বের কাজ করার উপায় বোঝার জন্য আরও ভাল কাজ করে।"

পথ ধরে, LeCun তার সবচেয়ে বড় সমালোচকদের কিছু ক্ষয়প্রাপ্ত মতামত প্রদান করেছেন, যেমন NYU অধ্যাপক গ্যারি মার্কাস — “তিনি কখনও AI-তে কিছু অবদান রাখেননি” — এবং Jürgen Schmidhuber, Dalle Molle Institute for Artificial Intelligence Research — “এটা পতাকা লাগানো খুব সহজ।"

সমালোচনার বাইরে, LeCun দ্বারা তৈরি আরও গুরুত্বপূর্ণ বিষয় হল যে নির্দিষ্ট মৌলিক সমস্যাগুলি সমস্ত AI-এর মুখোমুখি হয়, বিশেষ করে, কীভাবে তথ্য পরিমাপ করা যায়।

"আপনাকে একধাপ পিছিয়ে যেতে হবে এবং বলতে হবে, ঠিক আছে, আমরা এই সিঁড়িটি তৈরি করেছি, কিন্তু আমরা চাঁদে যেতে চাই, এবং এই সিঁড়িটি আমাদের সেখানে নিয়ে যাওয়ার কোন উপায় নেই," লেকুন পুনর্বিবেচনা করার জন্য তার ইচ্ছা সম্পর্কে বলেছেন মৌলিক ধারণার। "মূলত, আমি এখানে যা লিখছি তা হল, আমাদের রকেট তৈরি করতে হবে, আমরা কীভাবে রকেট তৈরি করি তার বিশদ বিবরণ দিতে পারব না, তবে এখানে মূল নীতিগুলি রয়েছে।"

এই বছরের শুরুর দিকে LeCun-এর সাক্ষাৎকার পড়লে কাগজটি এবং সাক্ষাৎকারে LeCun-এর চিন্তাভাবনা আরও ভালোভাবে বোঝা যাবে জেডডিনেট যেখানে তিনি গভীর শিক্ষার জন্য এগিয়ে যাওয়ার পথ হিসাবে শক্তি-ভিত্তিক স্ব-তত্ত্বাবধানে শিক্ষার জন্য যুক্তি দেন। এই প্রতিফলনগুলি সে যে জিনিসগুলিকে ফিনিস লাইনে পৌঁছাবে না বলে দাবি করে তার বিকল্প হিসাবে তিনি যা তৈরি করতে চান তার মূল পদ্ধতির ধারণা দেয়। 

সাক্ষাত্কারের একটি হালকাভাবে সম্পাদিত প্রতিলিপি অনুসরণ করা হয়েছে।

জেডডিনেট: আমাদের চ্যাটের বিষয় এই কাগজ, "স্বায়ত্তশাসিত মেশিন বুদ্ধিমত্তার দিকে একটি পথ," কোন সংস্করণের 0.9.2 বর্তমান সংস্করণ, হ্যাঁ?

ইয়ান লেকুন: হ্যাঁ, আমি এটি বিবেচনা করি, একটি কাজের নথি। তাই, আমি এটি ওপেন রিভিউতে পোস্ট করেছি, লোকেরা মন্তব্য এবং পরামর্শ দেওয়ার জন্য অপেক্ষা করছি, সম্ভবত অতিরিক্ত তথ্যসূত্র, এবং তারপর আমি একটি সংশোধিত সংস্করণ তৈরি করব। 

জেডডিনেট: আমি দেখছি যে Juergen Schmidhuber ইতিমধ্যে ওপেন রিভিউতে কিছু মন্তব্য যোগ করেছে।

YL: ওয়েল, হ্যাঁ, তিনি সবসময় করেন. আমি আমার কাগজে সেখানে তার একটি পেপার উদ্ধৃত করেছি। আমি মনে করি সোশ্যাল নেটওয়ার্কগুলিতে তিনি যে যুক্তিগুলি তৈরি করেছিলেন যে তিনি মূলত 1991 সালে এই সমস্তটি উদ্ভাবন করেছিলেন, যেমনটি তিনি অন্যান্য ক্ষেত্রে করেছিলেন, ঠিক তেমনটি নয়। মানে, এটা করা খুব সহজপতাকা লাগানো, এবং, ধরনের, কোনো পরীক্ষা ছাড়াই, কোনো তত্ত্ব ছাড়াই একটি ধারণা লিখুন, শুধু সুপারিশ করুন যে আপনি এটি এভাবে করতে পারেন। কিন্তু, আপনি জানেন, শুধুমাত্র ধারণা থাকা, এবং তারপরে একটি খেলনা সমস্যা নিয়ে কাজ করা, এবং তারপরে এটি একটি বাস্তব সমস্যা নিয়ে কাজ করা, এবং তারপর একটি তত্ত্ব করা যা দেখায় যে এটি কেন কাজ করে, এবং তারপরে এর মধ্যে একটি বড় পার্থক্য রয়েছে এটি স্থাপন একটি সম্পূর্ণ চেইন আছে, এবং বৈজ্ঞানিক ক্রেডিট সম্পর্কে তার ধারণা হল যে এটিই প্রথম ব্যক্তি যিনি শুধু, সাজানোর, আপনি জানেন, এর ধারণা ছিল, যার সমস্ত ক্রেডিট পাওয়া উচিত। এবং যে হাস্যকর. 

জেডডিনেট: আপনি সোশ্যাল মিডিয়াতে যা শুনছেন তা বিশ্বাস করবেন না। 

YL: আমি বলতে চাচ্ছি, তিনি যে প্রধান কাগজটি উদ্ধৃত করার কথা বলেছেন তাতে আমি যে প্রধান ধারনা নিয়ে কথা বলেছি তার কোনোটি নেই। তিনি GAN এবং অন্যান্য জিনিসগুলির সাথেও এটি করেছেন, যা সত্য বলে প্রমাণিত হয়নি। পতাকা লাগানো সহজ, অবদান রাখা অনেক কঠিন। এবং, যাইহোক, এই বিশেষ কাগজে, আমি স্পষ্টভাবে বলেছি যে এটি শব্দের স্বাভাবিক অর্থে একটি বৈজ্ঞানিক কাগজ নয়। এই জিনিসটি কোথায় যাওয়া উচিত সে সম্পর্কে এটি একটি অবস্থানের কাগজের বেশি। এবং সেখানে কয়েকটি ধারণা রয়েছে যা নতুন হতে পারে, তবে বেশিরভাগই তা নয়। আমি সেই কাগজে যা লিখেছি তার বেশিরভাগের উপর আমি কোন অগ্রাধিকার দাবি করছি না, মূলত।

yann-lecun-sept-2022-2

শক্তিবৃদ্ধি শেখা কখনই যথেষ্ট হবে না, LeCun বজায় রাখে। ডিপমাইন্ডের ডেভিড সিলভারের মতো গবেষকরা, যিনি আলফাজিরো প্রোগ্রামটি তৈরি করেছিলেন যেটি দাবা, শোগি এবং গোকে আয়ত্ত করেছিল, তারা "খুবই অ্যাকশন-ভিত্তিক," লেকুন দেখেন, কিন্তু "আমরা বেশিরভাগ শিক্ষা গ্রহণ করি না, বাস্তবে আমরা তা করি না। কর্ম, আমরা এটি পর্যবেক্ষণ করে করি।" 

জেডডিনেট: এবং এটি সম্ভবত শুরু করার জন্য একটি ভাল জায়গা, কারণ আমি জানতে আগ্রহী কেন আপনি এখন এই পথটি অনুসরণ করেছেন? আপনি এই সম্পর্কে কি চিন্তা পেয়েছেন? কেন আপনি এই লিখতে চেয়েছিলেন?

YL: ঠিক আছে, তাই, আমি অনেক দিন ধরে এই বিষয়ে চিন্তা করছি, মানব-স্তরের বা পশু-স্তরের-টাইপ বুদ্ধিমত্তা বা শেখার এবং ক্ষমতার দিকে যাওয়ার পথ সম্পর্কে। এবং, আমার আলোচনায় আমি এই পুরো বিষয়টি সম্পর্কে বেশ সোচ্চার হয়েছি যে তত্ত্বাবধানে শিক্ষা এবং শক্তিবৃদ্ধি শেখার উভয়ই আমরা প্রাণী এবং মানুষের মধ্যে যে ধরনের শিক্ষা দেখি তা অনুকরণ করার জন্য অপর্যাপ্ত। আমি সাত বা আট বছর ধরে এটি করছি। সুতরাং, এটা সাম্প্রতিক নয়. অনেক বছর আগে NeurIPS-এ আমার একটি মূল বক্তব্য ছিল যেখানে আমি সেই পয়েন্টটি তৈরি করেছিলাম, মূলত, এবং বিভিন্ন আলোচনা, রেকর্ডিং আছে। এখন, এখন কাগজ কেন লিখবেন? আমি পয়েন্টে এসেছি — [গুগল ব্রেইন গবেষক] জিওফ হিন্টন একইরকম কিছু করেছিলেন — মানে, অবশ্যই, তিনি আমার চেয়ে বেশি, আমরা দেখতে পাচ্ছি সময় ফুরিয়ে যাচ্ছে। আমরা তরুণ নই।

জেডডিনেট: ষাট হলো নতুন ফিফটি। 

YL: এটা সত্য, কিন্তু বিষয় হল, এআই-এর মানব-স্তরের দিকে এগিয়ে যাওয়ার জন্য আমাদের কী করা উচিত সে সম্পর্কে আমরা অনেক দাবি দেখতে পাচ্ছি। এবং এমন ধারণা আছে যা আমি মনে করি ভুল নির্দেশিত। সুতরাং, একটি ধারণা হল, ওহ, আমাদের স্নায়ু জালের উপরে প্রতীকী যুক্তি যোগ করা উচিত। এবং আমি জানি না কিভাবে এটা করতে হয়. সুতরাং, সম্ভবত আমি কাগজে যা ব্যাখ্যা করেছি তা একটি পদ্ধতি হতে পারে যা স্পষ্ট প্রতীক ম্যানিপুলেশন ছাড়াই একই কাজ করবে। এটি বিশ্বের ঐতিহ্যগতভাবে গ্যারি মার্কাসের মতো। গ্যারি মার্কাস একজন এআই ব্যক্তি নন, যাইহোক, তিনি একজন মনোবিজ্ঞানী। তিনি AI তে কখনও কিছু অবদান রাখেননি। তিনি পরীক্ষামূলক মনোবিজ্ঞানে সত্যিই ভাল কাজ করেছেন কিন্তু তিনি কখনও AI-তে পিয়ার-পর্যালোচিত কাগজ লেখেননি। সুতরাং, যারা আছে. 

বিশ্বের [ডিপমাইন্ড নীতির গবেষণা বিজ্ঞানী] ডেভিড সিলভার আছেন যিনি বলছেন, আপনি জানেন, পুরস্কার যথেষ্ট, মূলত, এটি সবই শক্তিবৃদ্ধি শেখার বিষয়ে, আমাদের কেবল এটিকে আরও দক্ষ করে তুলতে হবে, ঠিক আছে? এবং, আমি মনে করি তারা ভুল নয়, কিন্তু আমি মনে করি শক্তিবৃদ্ধি শিক্ষাকে আরও দক্ষ করে তোলার জন্য প্রয়োজনীয় পদক্ষেপগুলি, মূলত, কেকের উপর চেরি সাজানোর জন্য শক্তিবৃদ্ধি শেখার প্রস্থান করবে। এবং প্রধান অনুপস্থিত অংশ হল পৃথিবী কীভাবে কাজ করে তা শেখা, বেশিরভাগই কর্ম ছাড়াই পর্যবেক্ষণের মাধ্যমে। রিইনফোর্সমেন্ট লার্নিং খুবই অ্যাকশন-ভিত্তিক, আপনি অ্যাকশন নেওয়ার মাধ্যমে এবং ফলাফল দেখে বিশ্ব সম্পর্কে কিছু শিখেন।

জেডডিনেট: এবং এটি পুরস্কার-কেন্দ্রিক।

YL: এটি পুরস্কার-কেন্দ্রিক, এবং এটি অ্যাকশন-কেন্দ্রিকও। সুতরাং, বিশ্ব সম্পর্কে কিছু শিখতে সক্ষম হওয়ার জন্য আপনাকে বিশ্বে অভিনয় করতে হবে। এবং স্ব-তত্ত্বাবধানে শেখার বিষয়ে আমি কাগজে যে প্রধান দাবিটি করি তা হল, আমরা বেশিরভাগ শিক্ষাই করি, আমরা বাস্তবে পদক্ষেপ নিয়ে তা করি না, আমরা এটি পর্যবেক্ষণ করে করি। এবং এটি অত্যন্ত অপ্রচলিত, উভয়ই শক্তিবৃদ্ধি শেখার লোকেদের জন্য, বিশেষ করে, তবে অনেক মনোবিজ্ঞানী এবং জ্ঞানীয় বিজ্ঞানীদের জন্যও যারা মনে করেন যে, আপনি জানেন, কর্ম হল — আমি বলছি না কর্ম অপরিহার্য নয়, এটি is অপরিহার্য কিন্তু আমি মনে করি আমরা যা শিখি তার বেশিরভাগই বিশ্বের গঠন সম্পর্কে, এবং অবশ্যই, মিথস্ক্রিয়া এবং ক্রিয়া এবং খেলা এবং এই জাতীয় জিনিসগুলি জড়িত, তবে এর বেশিরভাগই পর্যবেক্ষণমূলক।

জেডডিনেট: আপনি একই সময়ে ট্রান্সফরমার লোকেদের, ভাষা-প্রথম মানুষদের টিক অফ করতেও পরিচালনা করবেন। কিভাবে আপনি ভাষা ছাড়া প্রথম এটি নির্মাণ করতে পারেন? আপনি অনেক লোককে টিক অফ করতে পরিচালনা করতে পারেন। 

YL: হ্যাঁ, আমি যে অভ্যস্ত. সুতরাং, হ্যাঁ, সেখানে ভাষা-প্রথম মানুষ, যারা বলে, আপনি জানেন, বুদ্ধিমত্তা ভাষা সম্পর্কে, বুদ্ধিমত্তার স্তর হল ভাষা, ব্লা, ব্লা, ব্লা। কিন্তু যে, ধরনের, পশু বুদ্ধি খারিজ. আপনি জানেন, আমরা সেই বিন্দুতে নই যেখানে আমাদের বুদ্ধিমান মেশিনগুলির একটি বিড়ালের মতো সাধারণ জ্ঞান রয়েছে। তাহলে, কেন আমরা সেখানে শুরু করব না? এটা কি যা একটি বিড়ালকে আশেপাশের জগৎকে ধরতে, চমত্কার স্মার্ট জিনিসগুলি করতে এবং এই জাতীয় পরিকল্পনা এবং জিনিসপত্র এবং কুকুরকে আরও ভাল করতে দেয়? 

তারপরে এমন সব লোক আছে যারা বলে, ওহ, বুদ্ধিমত্তা একটি সামাজিক জিনিস, তাই না? আমরা বুদ্ধিমান কারণ আমরা একে অপরের সাথে কথা বলি এবং আমরা তথ্য বিনিময় করি, এবং ব্লা, ব্লা, ব্লা। এমন সব ধরনের অসামাজিক প্রজাতি আছে যারা তাদের বাবা-মায়ের সাথে কখনোই দেখা করে না যারা খুব স্মার্ট, যেমন অক্টোপাস বা ওরাংগুটান।আমি বলতে চাচ্ছি, তারা [ওরাংগুটান] অবশ্যই তাদের মায়ের দ্বারা শিক্ষিত, কিন্তু তারা সামাজিক প্রাণী নয়। 

কিন্তু অন্য শ্রেণীর লোক যাদেরকে আমি টিক চিহ্ন দিতে পারি তারা হল যারা বলে স্কেলিং যথেষ্ট। সুতরাং, মূলত, আমরা শুধু বিশাল ট্রান্সফরমার ব্যবহার করি, আমরা তাদের মাল্টিমোডাল ডেটার উপর প্রশিক্ষণ দিই যার মধ্যে আপনি জানেন, ভিডিও, টেক্সট, ব্লা, ব্লা, ব্লা। আমরা, ধরনের, petriifyসবকিছু, এবং সবকিছুকে টোকেনাইজ করুন, এবং তারপর বিশাল প্রশিক্ষণ দিনমডেলগুলি বিচ্ছিন্ন ভবিষ্যদ্বাণী করতে, মূলত, এবং একরকম এআই এর থেকে বেরিয়ে আসবে। তারা ভুল নয়, এই অর্থে যে এটি ভবিষ্যতের বুদ্ধিমান সিস্টেমের একটি উপাদান হতে পারে। কিন্তু আমি মনে করি এটা অপরিহার্য টুকরা অনুপস্থিত. 

আমি এই কাগজ দিয়ে টিক বন্ধ করতে যাচ্ছি মানুষ অন্য শ্রেণীর আছে. এবং এটি সম্ভাব্যতাবাদী, ধর্মীয় সম্ভাব্যতাবাদী। সুতরাং, যারা মনে করেন সম্ভাব্যতা তত্ত্ব হল একমাত্র কাঠামো যা আপনি মেশিন লার্নিং ব্যাখ্যা করতে ব্যবহার করতে পারেন। এবং আমি টুকরোতে ব্যাখ্যা করার চেষ্টা করেছি, এটি মূলত একটি বিশ্ব মডেলকে সম্পূর্ণ সম্ভাব্য হওয়ার জন্য জিজ্ঞাসা করা খুব বেশি। আমরা এটা কিভাবে করতে জানি না. কম্পিউটেশনাল intractability আছে. তাই আমি এই সম্পূর্ণ ধারণা ড্রপ প্রস্তাব করছি. এবং অবশ্যই, আপনি জানেন, এটি শুধুমাত্র মেশিন লার্নিং নয়, সমস্ত পরিসংখ্যানের একটি বিশাল স্তম্ভ, যা মেশিন লার্নিংয়ের জন্য স্বাভাবিক আনুষ্ঠানিকতা বলে দাবি করে। 

অন্য জিনিস- 

জেডডিনেট: আপনি একটি রোল উপর আছেন...

YL: — যাকে জেনারেটিভ মডেল বলা হয়। সুতরাং, ধারণা যে আপনি ভবিষ্যদ্বাণী করতে শিখতে পারেন, এবং আপনি হয়ত ভবিষ্যদ্বাণী দ্বারা বিশ্ব সম্পর্কে অনেক কিছু শিখতে পারেন। তাই, আমি আপনাকে ভিডিওর একটি অংশ দিচ্ছি এবং আমি সিস্টেমকে ভিডিওতে পরবর্তীতে কী হবে তা পূর্বাভাস দিতে বলি। এবং আমি আপনাকে সমস্ত বিবরণ সহ প্রকৃত ভিডিও ফ্রেমের পূর্বাভাস দিতে বলতে পারি। কিন্তু আমি কাগজে যা নিয়ে তর্ক করছি তা হল যে এটি আসলে জিজ্ঞাসা করা খুব বেশি এবং খুব জটিল। এবং এটি এমন কিছু যা আমি আমার মন পরিবর্তন করেছি। প্রায় দুই বছর আগে পর্যন্ত, আমি যাকে সুপ্ত পরিবর্তনশীল জেনারেটিভ মডেল বলে ডাকতাম, যে মডেলগুলি ভবিষ্যদ্বাণী করে যে পরবর্তীতে কী ঘটতে চলেছে বা অনুপস্থিত তথ্য, সম্ভবত একটি সুপ্ত পরিবর্তনশীলের সাহায্যে, যদি ভবিষ্যদ্বাণী করা না যায় নির্ধারক এবং আমি এই ছেড়ে দিয়েছি. এবং আমি যে কারণে এটি ছেড়ে দিয়েছি তা হল অভিজ্ঞতামূলক ফলাফলের উপর ভিত্তি করে, যেখানে লোকেরা প্রয়োগ করার চেষ্টা করেছে, সাজানোর, ভবিষ্যদ্বাণী বা পুনর্গঠন-ভিত্তিক প্রশিক্ষণ যা BERT-তে ব্যবহৃত হয়এবং বড় ভাষা মডেল, তারা এটি চিত্রগুলিতে প্রয়োগ করার চেষ্টা করেছে এবং এটি সম্পূর্ণ ব্যর্থ হয়েছে। এবং এটি একটি সম্পূর্ণ ব্যর্থতার কারণ আবার, সম্ভাব্য মডেলের সীমাবদ্ধতার কারণে যেখানে শব্দের মতো বিচ্ছিন্ন টোকেনগুলির ভবিষ্যদ্বাণী করা তুলনামূলকভাবে সহজ কারণ আমরা অভিধানের সমস্ত শব্দের উপর সম্ভাব্যতা বন্টন গণনা করতে পারি। এটা সহজ. কিন্তু যদি আমরা সিস্টেমকে সম্ভাব্য সমস্ত ভিডিও ফ্রেমের উপর সম্ভাব্যতা বন্টন তৈরি করতে বলি, তাহলে আমরা এটিকে কীভাবে প্যারামিটারাইজ করতে পারি তা আমাদের কোন ধারণা নেই, বা এটিকে কীভাবে প্যারামিটারাইজ করা যায় তা আমরা জানি না, কিন্তু আমরা জানি না কিভাবে এটিকে স্বাভাবিক করা যায়। এটি একটি জটিল গাণিতিক সমস্যাকে আঘাত করে যা আমরা কীভাবে সমাধান করতে পারি তা জানি না। 

yann-lecun-sept-2022-3

লেকুন পর্যবেক্ষণ করেন, "আমরা সেই বিন্দুতে নই যেখানে আমাদের বুদ্ধিমান যন্ত্রগুলির একটি বিড়ালের মতো সাধারণ জ্ঞান আছে।" "তাহলে, কেন আমরা সেখানে শুরু করব না? এটা কী যে একটি বিড়ালকে আশেপাশের জগৎকে ধরতে, বেশ স্মার্ট জিনিস করতে, এবং এই জাতীয় পরিকল্পনা এবং জিনিসপত্র এবং কুকুরকে আরও ভাল করতে দেয়?"

তাই, এই কারণেই আমি বলি যে আসুন সম্ভাব্যতা তত্ত্ব বা এই জাতীয় জিনিসগুলির জন্য কাঠামো, দুর্বল এক, শক্তি-ভিত্তিক মডেলগুলি পরিত্যাগ করি। আমি কয়েক দশক ধরে এটির পক্ষে ওকালতি করছি, তাই এটি সাম্প্রতিক বিষয় নয়। কিন্তু একই সময়ে, জেনারেটিভ মডেলের ধারণা ত্যাগ করা কারণ পৃথিবীতে এমন অনেক কিছু রয়েছে যা বোধগম্য নয় এবং অনুমান করা যায় না। আপনি যদি একজন প্রকৌশলী হন, আপনি এটাকে গোলমাল বলবেন। আপনি যদি একজন পদার্থবিদ হন, আপনি এটিকে তাপ বলবেন। এবং আপনি যদি একজন মেশিন লার্নিং ব্যক্তি হন, আপনি এটিকে কল করেন, আপনি জানেন, অপ্রাসঙ্গিক বিবরণ বা যাই হোক না কেন।

সুতরাং, আমি কাগজে যে উদাহরণটি ব্যবহার করেছি, বা আমি আলোচনায় ব্যবহার করেছি, তা হল, আপনি একটি বিশ্ব-পূর্বাভাস সিস্টেম চান যা একটি স্ব-চালিত গাড়িতে সাহায্য করবে, তাই না? এটি আগে থেকেই ভবিষ্যদ্বাণী করতে সক্ষম হতে চায়, অন্যান্য সমস্ত গাড়ির গতিপথ, অন্যান্য বস্তুর কী ঘটতে চলেছে যা নড়াচড়া করতে পারে, পথচারী, বাইসাইকেল, একটি বাচ্চা ফুটবল বলের পিছনে দৌড়াচ্ছে, এই জাতীয় জিনিসগুলি। সুতরাং, বিশ্বের সব ধরনের জিনিস. কিন্তু রাস্তার ধারে, গাছ থাকতে পারে, এবং আজ বাতাস আছে, তাই বাতাসে পাতা নড়ছে, এবং গাছের পিছনে একটি পুকুর আছে, এবং পুকুরে ঢেউ আছে। এবং সেগুলি মূলত, মূলত অনির্দেশ্য ঘটনা। এবং, আপনি চান না যে আপনার মডেল সেই জিনিসগুলির ভবিষ্যদ্বাণী করার জন্য একটি উল্লেখযোগ্য পরিমাণ সম্পদ ব্যয় করুক যেগুলি ভবিষ্যদ্বাণী করা কঠিন এবং অপ্রাসঙ্গিক। তাই আমি জয়েন্ট এমবেডিং আর্কিটেকচারের পক্ষে ওকালতি করছি, সেই জিনিসগুলি যেখানে আপনি যে ভেরিয়েবলের মডেল করার চেষ্টা করছেন, আপনি এটি ভবিষ্যদ্বাণী করার চেষ্টা করছেন না, আপনি এটি মডেল করার চেষ্টা করছেন, তবে এটি একটি এনকোডারের মাধ্যমে চলে এবং যে এনকোডার অপ্রাসঙ্গিক বা খুব জটিল ইনপুট সম্পর্কে অনেক বিবরণ মুছে ফেলতে পারে — মূলত, গোলমালের সমতুল্য।

জেডডিনেট: আমরা এই বছরের শুরুতে শক্তি-ভিত্তিক মডেল, জেইপিএ এবং এইচ-জেপা নিয়ে আলোচনা করেছি। আমার বোধ, যদি আমি আপনাকে সঠিকভাবে বুঝতে পারি, আপনি কি কম শক্তির বিন্দু খুঁজে পাচ্ছেন যেখানে X এবং Y এম্বেডিংয়ের এই দুটি ভবিষ্যদ্বাণী সবচেয়ে বেশি একই রকম, যার মানে হল যে যদি একটি গাছে একটি কবুতর থাকে এবং সেখানে কিছু থাকে? একটি দৃশ্যের পটভূমিতে, সেগুলি অপরিহার্য পয়েন্ট নাও হতে পারে যা এই এমবেডিংগুলিকে একে অপরের কাছাকাছি করে।

YL: ঠিক। সুতরাং, জেইপিএ আর্কিটেকচার প্রকৃতপক্ষে একটি ট্রেডঅফ, একটি সমঝোতা খুঁজে বের করার চেষ্টা করে, যা ইনপুট সম্পর্কে সর্বাধিক তথ্যপূর্ণ কিন্তু কিছু স্তরের নির্ভুলতা বা নির্ভরযোগ্যতার সাথে একে অপরের কাছ থেকে অনুমানযোগ্য। এটি একটি ট্রেডঅফ খুঁজে পায়. সুতরাং, যদি এটি পাতার গতির বিবরণ সহ বিপুল পরিমাণ সম্পদ ব্যয় করার এবং তারপরে সেই গতিশীলতার মডেলিং করার মধ্যে একটি পছন্দ থাকে যা সিদ্ধান্ত নেবে কীভাবে পাতাগুলি এখন থেকে এক সেকেন্ড নড়ছে, বা কেবল মেঝেতে ফেলে দেবে। কেবলমাত্র মূলত Y ভেরিয়েবলটি একটি ভবিষ্যদ্বাণীর মাধ্যমে চালানো যা এই সমস্ত বিবরণকে মুছে দেয়, এটি সম্ভবত এটিকে নির্মূল করবে কারণ এটি মডেল করা এবং ক্যাপচার করা খুব কঠিন।

জেডডিনেট: আশ্চর্যজনক একটি বিষয় হল আপনি বলার একজন মহান প্রবক্তা ছিলেন "এটি কাজ করে, আমরা পরে তা ব্যাখ্যা করার জন্য তাপগতিবিদ্যার তত্ত্ব বের করব।" এখানে আপনি একটি পদ্ধতি গ্রহণ করেছেন, "আমি জানি না যে আমরা কীভাবে এটির সমাধান করতে যাচ্ছি, তবে আমি এটি সম্পর্কে চিন্তা করার জন্য কিছু ধারণা রাখতে চাই," এবং এমনকি একটি তত্ত্ব বা অনুমানের দিকেও যেতে চাই, অন্তত এটি আকর্ষণীয় কারণ গাড়িতে কাজ করার জন্য অনেক লোক প্রচুর অর্থ ব্যয় করে যে গাড়িটির সাধারণ জ্ঞান আছে কিনা তা নির্বিশেষে পথচারীকে দেখতে পারে। এবং আমি কল্পনা করি যে এই লোকদের মধ্যে কিছু হবে, টিক দেওয়া হবে না, কিন্তু তারা বলবে, "এটা ঠিক আছে, আমরা চিন্তা করি না যদি এর সাধারণ জ্ঞান না থাকে, আমরা একটি সিমুলেশন তৈরি করেছি, সিমুলেশনটি আশ্চর্যজনক, এবং আমরা উন্নতি করতে যাচ্ছি, আমরা সিমুলেশন স্কেল করতে যাচ্ছি।" 

এবং তাই এটি আকর্ষণীয় যে আপনি এখন বলার মতো অবস্থানে আছেন, আসুন এক ধাপ পিছিয়ে যাই এবং আমরা কী করছি তা নিয়ে ভাবি। এবং শিল্প বলছে আমরা শুধু স্কেল করতে যাচ্ছি, স্কেল, স্কেল, স্কেল, কারণ যে ক্র্যাঙ্ক সত্যিই কাজ করে। আমি বলতে চাচ্ছি, জিপিইউগুলির সেমিকন্ডাক্টর ক্র্যাঙ্ক সত্যিই কাজ করে।

YL: সেখানে, মত, পাঁচটি প্রশ্ন আছে. সুতরাং, আমি বলতে চাচ্ছি, স্কেলিং প্রয়োজনীয়। আমি এই সত্যের সমালোচনা করছি না যে আমাদের স্কেল করা উচিত। আমাদের স্কেল করা উচিত। এই নিউরাল নেটগুলি বড় হওয়ার সাথে সাথে ভাল হয়ে যায়। আমাদের স্কেল করা উচিত কোন প্রশ্ন নেই. আর যাদের সাধারণ জ্ঞানের কিছু স্তর থাকবে তারা বড় হবে। যে কাছাকাছি কোন উপায় নেই, আমি মনে করি. তাই স্কেলিং ভাল, এটি প্রয়োজনীয়, কিন্তু যথেষ্ট নয়। যে বিন্দু আমি তৈরি করছি. এটা শুধু স্কেলিং নয়। এটাই প্রথম পয়েন্ট। 

দ্বিতীয় পয়েন্ট, তত্ত্ব প্রথমে আসে কিনা এবং সেরকম জিনিস। তাই, আমি মনে করি এমন ধারণা আছে যা প্রথমে আসে যে, আপনাকে একধাপ পিছিয়ে যেতে হবে এবং বলতে হবে, ঠিক আছে, আমরা এই সিঁড়িটি তৈরি করেছি, কিন্তু আমরা চাঁদে যেতে চাই এবং এই সিঁড়িটি আমাদের সেখানে নিয়ে যাওয়ার কোনো উপায় নেই। সুতরাং, মূলত, আমি এখানে যা লিখছি তা হল, আমাদের রকেট তৈরি করতে হবে। আমরা কীভাবে রকেট তৈরি করি তার বিশদ বিবরণ দিতে পারব না, তবে এখানে মূল নীতিগুলি রয়েছে। এবং আমি এটি বা অন্য কিছুর জন্য একটি তত্ত্ব লিখছি না, কিন্তু, এটি একটি রকেট হতে যাচ্ছে, ঠিক আছে? অথবা একটি স্পেস এলিভেটর বা যাই হোক না কেন। আমাদের কাছে সমস্ত প্রযুক্তির সমস্ত বিবরণ নাও থাকতে পারে। আমরা এই জিনিসগুলির কিছু কাজ করার চেষ্টা করছি, যেমন আমি জেপিএ-তে কাজ করছি। জয়েন্ট এমবেডিং ছবি শনাক্তকরণের জন্য সত্যিই ভাল কাজ করে, কিন্তু একটি বিশ্ব মডেলকে প্রশিক্ষিত করতে এটি ব্যবহার করতে অসুবিধা আছে। আমরা এটি নিয়ে কাজ করছি, আমরা আশা করি আমরা এটি কার্যকর করতে যাচ্ছি soon, কিন্তু আমরা সেখানে কিছু বাধার সম্মুখীন হতে পারি যা আমরা অতিক্রম করতে পারি না, সম্ভবত। 

তারপরে যুক্তি সম্পর্কে কাগজে একটি মূল ধারণা রয়েছে যেখানে আমরা যদি সিস্টেমগুলিকে পরিকল্পনা করতে সক্ষম হতে চাই, যেটিকে আপনি যুক্তির একটি সাধারণ রূপ হিসাবে ভাবতে পারেন, তাদের সুপ্ত ভেরিয়েবল থাকতে হবে। অন্য কথায়, যে জিনিসগুলি কোনো নিউরাল নেট দ্বারা গণনা করা হয় না কিন্তু জিনিসগুলি - যার মান অনুমান করা হয় যাতে কিছু উদ্দেশ্যমূলক ফাংশন, কিছু খরচ ফাংশন হ্রাস করা যায়। এবং তারপর আপনি সিস্টেমের আচরণ চালানোর জন্য এই খরচ ফাংশন ব্যবহার করতে পারেন. এবং এটি একটি নতুন ধারণা নয়, তাই না? এটি খুবই শাস্ত্রীয়, সর্বোত্তম নিয়ন্ত্রণ যেখানে এর ভিত্তি 50 এর দশকের শেষের দিকে, 60 এর দশকের শুরুতে ফিরে যায়। সুতরাং, এখানে কোন অভিনবত্ব দাবি না. কিন্তু আমি যা বলছি তা হল এই ধরণের অনুমানকে একটি বুদ্ধিমান সিস্টেমের অংশ হতে হবে যা পরিকল্পনা করতে সক্ষম, এবং যার আচরণ নির্দিষ্ট বা নিয়ন্ত্রিত হতে পারে একটি কঠোর আচরণ দ্বারা নয়, অনুকরণের ঝোঁক দ্বারা নয়, বরং একটি উদ্দেশ্যমূলক ফাংশন দ্বারা আচরণকে চালিত করে — অগত্যা শিক্ষাকে চালিত করে না, তবে এটি আচরণকে চালিত করে। আপনি জানেন, আমাদের মস্তিষ্কে এটি রয়েছে এবং প্রতিটি প্রাণীর জিনিসগুলির জন্য অন্তর্নিহিত ব্যয় বা অন্তর্নিহিত প্রেরণা রয়েছে। এটি নয় মাস বয়সী বাচ্চাদের দাঁড়াতে চায়। আপনি যখন দাঁড়ান তখন খুশি হওয়ার খরচ, খরচ ফাংশনে সেই শব্দটি কঠিন। কিন্তু আপনি কীভাবে দাঁড়াবেন তা নয়, এটি শেখা।

yann-lecun-sept-2022-4

GPT-3 বৈচিত্র্যের ট্রান্সফরমার-ভিত্তিক প্রোগ্রামগুলির মতো দৈত্য ভাষার মডেলগুলির LeCun বলেন, "স্কেলিং ভাল, এটি প্রয়োজনীয়, কিন্তু যথেষ্ট নয়।" ট্রান্সফরমার ভক্তরা বিশ্বাস করে, “আমরা সবকিছুকে টোকেনাইজ করি, এবং বিশাল প্রশিক্ষণ দিইবিচ্ছিন্ন ভবিষ্যদ্বাণী করার জন্য মডেল, এবং কোনো না কোনোভাবে এআই এর থেকে বেরিয়ে আসবে … কিন্তু আমি মনে করি এটি প্রয়োজনীয় অংশগুলি অনুপস্থিত।"

জেডডিনেট: কেবলমাত্র সেই পয়েন্টটিকে বৃত্তাকার করার জন্য, গভীর শিক্ষার সম্প্রদায়ের বেশিরভাগই এমন কিছু নিয়ে এগিয়ে যাচ্ছে যা সাধারণ জ্ঞান নেই বলে মনে হচ্ছে। মনে হচ্ছে আপনি এখানে একটি চমত্কার স্পষ্ট যুক্তি তৈরি করছেন যে কিছু সময়ে এটি একটি অচলাবস্থায় পরিণত হয়। কিছু লোক বলে যে আমাদের সাধারণ জ্ঞান সহ একটি স্বায়ত্তশাসিত গাড়ির দরকার নেই কারণ স্কেলিং এটি করবে। মনে হচ্ছে আপনি বলছেন ঠিক সেই পথ ধরে চলতে থাকা ঠিক নয়?

YL: আপনি জানেন, আমি মনে করি এটি সম্পূর্ণভাবে সম্ভব যে আমাদের সাধারণ জ্ঞান ছাড়াই লেভেল-ফাইভ স্বায়ত্তশাসিত গাড়ি থাকবে। কিন্তু এই পদ্ধতির সাথে সমস্যা, এটি অস্থায়ী হতে চলেছে, কারণ আপনাকে এটি থেকে নরকে প্রকৌশলী করতে হবে। সুতরাং, আপনি জানেন, সমগ্র বিশ্বের মানচিত্র করুন, সমস্ত ধরণের নির্দিষ্ট কর্নার-কেস আচরণের হার্ড-ওয়্যার করুন, যথেষ্ট ডেটা সংগ্রহ করুন যা আপনার কাছে সমস্ত, ধরণের, অদ্ভুত পরিস্থিতি রয়েছে যা আপনি রাস্তায় সম্মুখীন হতে পারেন, ব্লা, ব্লা, ব্লা। এবং আমার অনুমান হল যে পর্যাপ্ত বিনিয়োগ এবং সময় দিয়ে, আপনি এটি থেকে জাহান্নামকে প্রকৌশলী করতে পারেন। কিন্তু শেষ পর্যন্ত, একটি আরও সন্তোষজনক এবং সম্ভবত আরও ভাল সমাধান হতে চলেছে যা এমন সিস্টেমগুলিকে অন্তর্ভুক্ত করে যা বিশ্বের কাজ করার উপায় বোঝার জন্য আরও ভাল কাজ করে এবং আপনি জানেন, আমরা সাধারণ জ্ঞান বলতে যাকে বলব তার কিছু স্তর রয়েছে। এটি মানব-স্তরের সাধারণ জ্ঞানের প্রয়োজন নেই, তবে এমন কিছু জ্ঞান যা সিস্টেমটি দেখার মাধ্যমে অর্জন করতে পারে, কিন্তু কাউকে গাড়ি চালাতে না দেখে, কেবল জিনিসপত্র ঘোরাফেরা দেখে এবং বিশ্ব সম্পর্কে অনেক কিছু বোঝা, পটভূমির ভিত্তি তৈরি করে বিশ্ব কীভাবে কাজ করে সে সম্পর্কে জ্ঞান, যার উপরে আপনি গাড়ি চালানো শিখতে পারেন। 

এর একটি ঐতিহাসিক উদাহরণ দেই। ক্লাসিক্যাল কম্পিউটার ভিশন অনেক হার্ডওয়্যারড, ইঞ্জিনিয়ারড মডিউলের উপর ভিত্তি করে তৈরি করা হয়েছিল, যার উপরে আপনার শেখার একটি পাতলা স্তর থাকবে। সুতরাং, 2012 সালে অ্যালেক্সনেট যে জিনিসগুলিকে মারধর করেছিল, তাতে মূলত একটি প্রথম পর্যায়ে ছিল, ধরণের, হস্তশিল্পের বৈশিষ্ট্য নিষ্কাশন, যেমন SIFTs [স্কেল-ইনভেরিয়েন্ট ফিচার ট্রান্সফর্ম (SIFT), একটি চিত্রের প্রধান বস্তুগুলি সনাক্ত করার একটি ক্লাসিক দৃষ্টি কৌশল] এবং HOG [ওরিয়েন্টেড গ্রেডিয়েন্টের হিস্টোগ্রাম, আরেকটি ক্লাসিক কৌশল] এবং অন্যান্য বিভিন্ন জিনিস। এবং তারপর দ্বিতীয় স্তর, বাছাই, মধ্য-স্তরের বৈশিষ্ট্য বৈশিষ্ট্য কার্নেল এবং যাই হোক না কেন, এবং কিছু সাজানোর unsupervised পদ্ধতি উপর ভিত্তি করে. এবং তারপর এই উপরে, আপনি একটি সমর্থন ভেক্টর মেশিন, অন্যথায় একটি অপেক্ষাকৃত সহজ ক্লাসিফায়ার রাখা. এবং এটি ছিল, 2000-এর দশকের মাঝামাঝি থেকে 2012 পর্যন্ত স্ট্যান্ডার্ড পাইপলাইন। এবং এটি এন্ড-টু-এন্ড কনভোল্যুশনাল নেট দ্বারা প্রতিস্থাপিত হয়েছিল, যেখানে আপনি এর কোনোটিই হার্ডওয়্যার করেন না, আপনার কাছে প্রচুর ডেটা আছে, এবং আপনি জিনিসটিকে শেষ থেকে শেষ পর্যন্ত প্রশিক্ষণ দেন, যে পদ্ধতিটি আমি দীর্ঘদিন ধরে পরামর্শ দিয়েছিলাম, কিন্তু আপনি জানেন, তখন পর্যন্ত, বড় সমস্যার জন্য ব্যবহারিক ছিল না। 

বক্তৃতা শনাক্তকরণের ক্ষেত্রেও একই রকম একটি গল্প রয়েছে যেখানে, আবার, আপনি কীভাবে ডেটা প্রাক-প্রসেস করেন তার জন্য প্রচুর পরিমাণে বিস্তারিত প্রকৌশল ছিল, আপনি ভর-স্কেল সেপস্ট্রাম [সংকেত প্রক্রিয়াকরণের জন্য ফাস্ট ফুরিয়ার ট্রান্সফর্মের একটি বিপরীত] বের করেন এবং তারপরে আপনার কাছে লুকানো মার্কভ মডেল রয়েছে, যার মধ্যে সাজানো, প্রি-সেট আর্কিটেকচার, ব্লা, ব্লা, ব্লা, মিক্সচার অফ গাউসিয়ানস। এবং তাই, এটি দৃষ্টির মতো একই স্থাপত্যের একটি বিট যেখানে আপনি হস্তশিল্প তৈরি করেছেন ফ্রন্ট-এন্ড, এবং তারপরে কিছুটা তত্ত্বাবধানহীন, প্রশিক্ষিত, মধ্যম স্তর এবং তারপরে উপরে একটি তত্ত্বাবধান করা স্তর। এবং এখন এটি মূলত, এন্ড-টু-এন্ড নিউরাল নেট দ্বারা মুছে ফেলা হয়েছে। তাই আমি সেখানে অনুরূপ কিছু দেখতে পাচ্ছি সবকিছু শেখার চেষ্টা করার জন্য, কিন্তু আপনার সঠিক পূর্ব, সঠিক স্থাপত্য, সঠিক কাঠামো থাকতে হবে।

yann-lecun-sept-2022-5

সেল্ফ-ড্রাইভিং গাড়ির ভিড়, ওয়েমো এবং ওয়েভের মতো স্টার্টআপগুলি "একটু বেশি আশাবাদী", তিনি বলেছেন, তারা "এতে ডেটা নিক্ষেপ করতে পারে এবং আপনি অনেক কিছু শিখতে পারেন।" ADAS-এর লেভেল 5-এ স্ব-চালিত গাড়িগুলি সম্ভব, "কিন্তু আপনাকে এর থেকে নরকে ইঞ্জিনিয়ার করতে হবে" এবং কম্পিউটার ভিশন মডেলের মতো "ভঙ্গুর" হবে৷

জেডডিনেট: আপনি যা বলছেন তা হল, কিছু লোক ইঞ্জিনিয়ার করার চেষ্টা করবে যা বর্তমানে প্রযোজ্যতার জন্য গভীর শিক্ষার সাথে কাজ করে না, বলুন, শিল্পে, এবং তারা এমন কিছু তৈরি করতে শুরু করতে চলেছেন যা কম্পিউটার দৃষ্টিতে অপ্রচলিত হয়ে গেছে?

YL: ঠিক। এবং এটি আংশিকভাবে কেন যে স্বায়ত্তশাসিত ড্রাইভিংয়ে কাজ করা লোকেরা গত কয়েক বছর ধরে একটু বেশি আশাবাদী হয়েছে, কারণ, আপনি জানেন, আপনার কাছে কনভোল্যুশনাল নেট এবং ট্রান্সফরমারের মতো সাধারণ জিনিস রয়েছে যা আপনি এতে ডেটা নিক্ষেপ করতে পারেন। , এবং এটি বেশ কিছু শিখতে পারে। তাই, আপনি বলুন, ঠিক আছে, আমার কাছে সেই সমস্যার সমাধান আছে। প্রথম কাজটি হল আপনি একটি ডেমো তৈরি করুন যেখানে গাড়িটি কাউকে আঘাত না করে কয়েক মিনিটের জন্য নিজেই চালায়। এবং তারপরে আপনি বুঝতে পারবেন যে এখানে অনেকগুলি কর্নার কেস রয়েছে, এবং আমি প্রশিক্ষণ সেটকে দ্বিগুণ করার সাথে সাথে আপনি কতটা ভাল হয়ে উঠছি তার বক্ররেখার প্লট করার চেষ্টা করুন এবং আপনি বুঝতে পারবেন যে আপনি সেখানে কখনই পৌঁছাতে পারবেন না কারণ সেখানে সব ধরণের কর্নার কেস রয়েছে . এবং আপনার এমন একটি গাড়ি থাকা দরকার যা প্রতি 200 মিলিয়ন কিলোমিটারেরও কম সময়ে একটি মারাত্মক দুর্ঘটনা ঘটাবে, তাই না? তো তুমি কি কর? আচ্ছা, আপনি দুই দিকে হাঁটুন। 

প্রথম দিকটি হল, আমার সিস্টেম শেখার জন্য প্রয়োজনীয় ডেটার পরিমাণ আমি কীভাবে কমাতে পারি? এবং এখানেই স্ব-তত্ত্বাবধানে শিক্ষা আসে। তাই, অনেকগুলি স্ব-চালিত গাড়ির পোশাক স্ব-তত্ত্বাবধানে শেখার প্রতি খুব আগ্রহী কারণ এটি এখনও অনুকরণ শেখার জন্য বিশাল পরিমাণে সুপারভাইজরি ডেটা ব্যবহার করার একটি উপায়, কিন্তু এর দ্বারা আরও ভাল পারফরম্যান্স পাওয়া যায়। প্রাক-প্রশিক্ষণ, মূলত। এবং এটি এখনও পুরোপুরি প্যান করা হয়নি, তবে এটি হবে। এবং তারপরে অন্য বিকল্পটি রয়েছে, যা এই সময়ে আরও উন্নত বেশিরভাগ সংস্থাগুলি গ্রহণ করেছে, যা ঠিক আছে, আমরা শেষ থেকে শেষ প্রশিক্ষণ করতে পারি, তবে অনেকগুলি কর্নার কেস রয়েছে যা আমরা করতে পারি' t হ্যান্ডেল, তাই আমরা শুধু প্রকৌশলী সিস্টেমে যাচ্ছি যেগুলি সেই কর্নার কেসগুলির যত্ন নেবে, এবং, মূলত, সেগুলিকে বিশেষ ক্ষেত্রে হিসাবে বিবেচনা করবে, এবং নিয়ন্ত্রণকে হার্ডওয়্যার করবে, এবং তারপরে বিশেষ পরিস্থিতি পরিচালনা করার জন্য অনেকগুলি মৌলিক আচরণ হার্ডওয়্যার করবে। এবং যদি আপনার কাছে ইঞ্জিনিয়ারদের একটি বড় দল থাকে তবে আপনি এটি বন্ধ করতে পারেন। তবে এটি একটি দীর্ঘ সময় নেবে, এবং শেষ পর্যন্ত, এটি এখনও কিছুটা ভঙ্গুর হবে, সম্ভবত যথেষ্ট নির্ভরযোগ্য যা আপনি স্থাপন করতে পারেন, তবে কিছু স্তরের ভঙ্গুরতা সহ, যা আরও শেখার-ভিত্তিক পদ্ধতির সাথে প্রদর্শিত হতে পারে ভবিষ্যতে, গাড়ি থাকবে না কারণ এতে বিশ্ব কীভাবে কাজ করে সে সম্পর্কে কিছুটা সাধারণ জ্ঞান এবং বোঝার থাকতে পারে। 

স্বল্পমেয়াদে, বাছাই করা, প্রকৌশলী পদ্ধতির জয় হবে — এটি ইতিমধ্যেই জিতেছে। এটি বিশ্বের ওয়েমো এবং ক্রুজ এবং ওয়েভএবং যাই হোক না কেন, তারা কি করে। তারপরে স্ব-তত্ত্বাবধানে শেখার পদ্ধতি রয়েছে, যা সম্ভবত ইঞ্জিনিয়ারড পদ্ধতিকে অগ্রগতি করতে সহায়তা করবে। কিন্তু তারপরে, দীর্ঘমেয়াদে, যেটির জন্য সেই কোম্পানিগুলির জন্য অপেক্ষা করা খুব দীর্ঘ হতে পারে, সম্ভবত এটি হবে আরও সমন্বিত স্বায়ত্তশাসিত বুদ্ধিমান ড্রাইভিং সিস্টেম।

জেডডিনেট: আমরা বেশিরভাগ বিনিয়োগকারীদের বিনিয়োগের দিগন্তের বাইরে বলি।

YL: সেটা ঠিক. সুতরাং, প্রশ্ন হল, পারফরম্যান্স কাঙ্ক্ষিত স্তরে পৌঁছানোর আগে লোকেরা কি ধৈর্য হারাবে নাকি অর্থ ফুরিয়ে যাবে।

জেডডিনেট: আপনি মডেলটিতে বেছে নেওয়া কিছু উপাদান কেন বেছে নিয়েছেন সে সম্পর্কে বলার মতো কিছু কি আকর্ষণীয় আছে? কারণ আপনি কেনেথ ক্রেককে উদ্ধৃত করেছেন [1943,ব্যাখ্যার প্রকৃতি], এবং আপনি ব্রাইসন এবং হো [1969, প্রয়োগ করা সর্বোত্তম নিয়ন্ত্রণ], এবং আমি কৌতূহলী যে আপনি কেন এই প্রভাবগুলি দিয়ে শুরু করেছেন, যদি আপনি বিশেষভাবে বিশ্বাস করেন যে এই লোকেরা যা করেছে তা যতদূর পর্যন্ত পেরেছে। কেন আপনি সেখানে শুরু?

YL: ঠিক আছে, আমি মনে করি না, অবশ্যই, তারা সমস্ত বিবরণ পেরেক দিয়ে আটকে রেখেছিল। সুতরাং, ব্রাইসন এবং হো, এটি একটি বই যা আমি 1987 সালে পড়েছিলাম যখন আমি টরন্টোতে জিওফ্রে হিন্টনের সাথে পোস্টডক ছিলাম। কিন্তু আমি আমার পিএইচডি লেখার সময় কাজের এই লাইন সম্পর্কে আগে থেকেই জানতাম এবং সর্বোত্তম নিয়ন্ত্রণ এবং ব্যাকপ্রপের মধ্যে সংযোগ তৈরি করেছিলাম, মূলত। আপনি যদি সত্যিই হতে চান, আপনি জানেন, অন্য একজন স্মিডহুবার, আপনি বলবেন যে ব্যাকপ্রপের প্রকৃত উদ্ভাবক ছিলেন প্রকৃতপক্ষে সর্বোত্তম নিয়ন্ত্রণ তাত্ত্বিক হেনরি জে কেলি, আর্থার ব্রাইসন এবং সম্ভবত লেভ পন্ট্রিয়াগিন, যিনি সর্বোত্তম নিয়ন্ত্রণের একজন রাশিয়ান তাত্ত্বিক। 50 এর দশকের শেষের দিকে। 

সুতরাং, তারা এটি বের করেছে, এবং প্রকৃতপক্ষে, আপনি আসলে এর মূল দেখতে পাচ্ছেন, এর নীচের গণিতটি হল ল্যাগ্রাঞ্জিয়ান মেকানিক্স। সুতরাং আপনি অয়লার এবং ল্যাগ্রেঞ্জে ফিরে যেতে পারেন, আসলে, এবং ল্যাগ্রাঞ্জিয়ান ক্লাসিক্যাল মেকানিক্সের সংজ্ঞায় এটির একটি ঝাঁকুনি খুঁজে পেতে পারেন। সুতরাং, সর্বোত্তম নিয়ন্ত্রণের প্রেক্ষাপটে, এই ছেলেরা মূলত রকেট ট্র্যাজেক্টোরিজ কম্পিউটিং করতে আগ্রহী ছিল। আপনি জানেন, এটি ছিল আদি মহাকাশ যুগ। এবং যদি আপনার কাছে রকেটের একটি মডেল থাকে তবে এটি আপনাকে বলে যে এখানে রকেটের অবস্থা কী t, এবং এখানে আমি যে পদক্ষেপ নিতে যাচ্ছি, তাই, বিভিন্ন ধরণের থ্রাস্ট এবং অ্যাকচুয়েটর, এই সময়ে রকেটের অবস্থা টি + 1.

জেডডিনেট: একটি রাষ্ট্র-কর্ম মডেল, একটি মান মডেল।

YL: এটা ঠিক, নিয়ন্ত্রণের ভিত্তি। সুতরাং, এখন আপনি কমান্ডের একটি ক্রম কল্পনা করে আপনার রকেটের শুটিং অনুকরণ করতে পারেন, এবং তারপরে আপনার কিছু খরচ ফাংশন আছে, যা রকেটের লক্ষ্য থেকে দূরত্ব, একটি স্পেস স্টেশন বা এটি যাই হোক না কেন। এবং তারপর গ্রেডিয়েন্ট ডিসেন্টের কিছু বাছাই দ্বারা, আপনি বুঝতে পারবেন, কিভাবে আমি আমার ক্রিয়ার সিকোয়েন্স আপডেট করতে পারি যাতে আমার রকেট আসলে লক্ষ্যের যতটা সম্ভব কাছাকাছি যায়। এবং সেটাকে আসতে হবে সময়মতো পিছন দিকে সংকেত প্রচার করে। এবং যে ব্যাক-প্রচার, গ্রেডিয়েন্ট ব্যাক-প্রচার। এই সংকেতগুলোকে ল্যাগ্রাঞ্জিয়ান মেকানিক্সে কনজুগেট ভেরিয়েবল বলা হয়, কিন্তু আসলে সেগুলো হল গ্রেডিয়েন্ট। সুতরাং, তারা ব্যাকপ্রপ উদ্ভাবন করেছে, কিন্তু তারা বুঝতে পারেনি যে এই নীতিটি একটি মাল্টি-স্টেজ সিস্টেমকে প্রশিক্ষণের জন্য ব্যবহার করা যেতে পারে যা প্যাটার্ন স্বীকৃতি বা এরকম কিছু করতে পারে। এটি সম্ভবত '70 এর দশকের শেষের দিকে, 80 এর দশকের শুরু পর্যন্ত উপলব্ধি করা হয়নি এবং তারপরে বাস্তবে বাস্তবায়িত হয়নি এবং 80 এর দশকের মাঝামাঝি পর্যন্ত কাজ করা হয়নি। ঠিক আছে, তাই, এখানেই ব্যাকপ্রপ সত্যিই, ধরণের-অফ, শুরু হয়েছে কারণ লোকেরা দেখিয়েছে এখানে কোডের কয়েকটি লাইন রয়েছে যা আপনি একটি নিউরাল নেট, প্রান্ত থেকে শেষ, মাল্টিলেয়ার প্রশিক্ষণ দিতে পারেন। এবং এটি পারসেপ্ট্রনের সীমাবদ্ধতাকে তুলে দেয়। এবং, হ্যাঁ, সর্বোত্তম নিয়ন্ত্রণের সাথে সংযোগ রয়েছে, তবে এটি ঠিক আছে।

জেডডিনেট: সুতরাং, এটি বলার একটি দীর্ঘ পথ যে আপনি যে প্রভাবগুলি দিয়ে শুরু করেছিলেন তা ব্যাকপ্রপে ফিরে যাচ্ছে এবং এটি আপনার জন্য একটি সূচনা পয়েন্ট হিসাবে গুরুত্বপূর্ণ ছিল?

YL: হ্যাঁ, কিন্তু আমি মনে করি যে লোকেরা কিছুটা ভুলে গিয়েছিল, এই বিষয়ে বেশ কিছুটা কাজ ছিল, আপনি জানেন, 90 এর দশকে বা এমনকি 80 এর দশকে, মাইকেল জর্ডান [এমআইটি ডিপার্টমেন্ট অফ ব্রেইন'-এর মতো ব্যক্তিরা সহ এবং কগনিটিভ সায়েন্সেস] এবং এর মতো লোকেরা যারা আর নিউরাল নেট করছেন না, তবে ধারণা যে আপনি নিয়ন্ত্রণের জন্য নিউরাল নেট ব্যবহার করতে পারেন এবং আপনি সর্বোত্তম নিয়ন্ত্রণের ধ্রুপদী ধারণা ব্যবহার করতে পারেন। সুতরাং, মডেল-ভবিষ্যদ্বাণীমূলক নিয়ন্ত্রণের মতো জিনিসগুলি, যাকে এখন মডেল-ভবিষ্যদ্বাণীমূলক নিয়ন্ত্রণ বলা হয়, এই ধারণাটি যে আপনি নিয়ন্ত্রণ করার চেষ্টা করছেন এমন সিস্টেমের একটি ভাল মডেল থাকলে আপনি কর্মের ক্রমগুলির ফলাফল অনুকরণ বা কল্পনা করতে পারেন এবং এটি যে পরিবেশের মধ্যে রয়েছে। এবং তারপর গ্রেডিয়েন্ট ডিসেন্ট দ্বারা, মূলত - এটি শেখার নয়, এটি অনুমান - আপনি বুঝতে পারবেন কোন কর্মের সেরা ক্রম যা আমার উদ্দেশ্যকে ছোট করবে। সুতরাং, অনুমানের জন্য একটি সুপ্ত পরিবর্তনশীল সহ একটি ব্যয় ফাংশন ব্যবহার করা হল, আমি মনে করি, এমন কিছু যা বর্তমান বড় আকারের নিউরাল জালের ফসলগুলি ভুলে গেছে। তবে এটি দীর্ঘ সময়ের জন্য মেশিন লার্নিংয়ের একটি খুব ক্লাসিক্যাল উপাদান ছিল। সুতরাং, প্রতিটি Bayesian Net বা গ্রাফিকাল মডেল বা সম্ভাব্য গ্রাফিকাল মডেল এই ধরনের অনুমান ব্যবহার করেছে। আপনার কাছে একটি মডেল আছে যা একগুচ্ছ ভেরিয়েবলের মধ্যে নির্ভরতা ক্যাপচার করে, আপনাকে কিছু ভেরিয়েবলের মান বলা হয়, এবং তারপরে আপনাকে বাকি ভেরিয়েবলের সবচেয়ে সম্ভাব্য মান অনুমান করতে হবে। এটি গ্রাফিকাল মডেল এবং বায়েসিয়ান নেট এবং এই জাতীয় জিনিসগুলিতে অনুমানের মূল নীতি। এবং আমি মনে করি যে মূলত যুক্তি কি হওয়া উচিত, যুক্তি এবং পরিকল্পনা।

জেডডিনেট: আপনি একটি পায়খানা Bayesian.

YL: আমি একজন অ-সম্ভাব্য বায়েসিয়ান। আমি আগেও এমন কৌতুক করেছি। আমি আসলে কয়েক বছর আগে নিউরিআইপিএস-এ ছিলাম, আমার মনে হয় এটি 2018 বা 2019 সালে ছিল, এবং আমি একজন বায়েসিয়ানের কাছে ভিডিওতে ধরা পড়েছিলাম যিনি আমাকে জিজ্ঞেস করেছিলেন যে আমি একজন বায়েসিয়ান কিনা, এবং আমি বলেছিলাম, হ্যাঁ, আমি একজন বায়েসিয়ান, কিন্তু আমি আমি একজন অ-সম্ভাব্য বায়েসিয়ান, বাছাই, একটি শক্তি-ভিত্তিক বায়েসিয়ান, যদি আপনি চান। 

জেডডিনেট: যা অবশ্যই থেকে কিছু মত শোনাচ্ছে স্টার ট্রেক. আপনি এই কাগজের শেষে উল্লেখ করেছেন, আপনি যা কল্পনা করছেন তা উপলব্ধি করার জন্য এটি অনেক বছর ধরে কঠোর পরিশ্রম করতে যাচ্ছে। এই মুহুর্তে কিছু কাজ কি নিয়ে আমাকে বলুন।

YL: সুতরাং, আমি ব্যাখ্যা করি যে আপনি কীভাবে প্রশিক্ষণ দেন এবং কাগজে জেইপিএ তৈরি করেন। এবং আমি যে মাপকাঠির পক্ষে ওকালতি করছি তা হল তথ্য সামগ্রীকে সর্বাধিক করার কিছু উপায় যা এক্সট্রাক্ট করা উপস্থাপনাগুলি ইনপুট সম্পর্কে রয়েছে। এবং তারপরে দ্বিতীয়টি ভবিষ্যদ্বাণী ত্রুটি হ্রাস করছে। এবং যদি আপনার ভবিষ্যদ্বাণীকারীতে একটি সুপ্ত পরিবর্তনশীল থাকে যা ভবিষ্যদ্বাণীকারীকে অ-নির্ধারক হতে দেয়, তবে আপনাকে এর তথ্য বিষয়বস্তু কমিয়ে এই সুপ্ত পরিবর্তনশীলটিকেও নিয়মিত করতে হবে। সুতরাং, আপনার কাছে এখন দুটি সমস্যা রয়েছে, যেটি হল আপনি কীভাবে কিছু নিউরাল নেট আউটপুটের তথ্য সামগ্রীকে সর্বাধিক করবেন এবং অন্যটি হল আপনি কীভাবে কিছু সুপ্ত ভেরিয়েবলের তথ্য সামগ্রীকে ছোট করবেন? এবং আপনি যদি এই দুটি জিনিস না করেন তবে সিস্টেমটি ভেঙে পড়বে। এটি আকর্ষণীয় কিছু শিখবে না। এটি সবকিছুতে শূন্য শক্তি দেবে, এমন কিছু, যা নির্ভরতার একটি ভাল মডেল নয়। এটি পতন-প্রতিরোধ সমস্যা যা আমি উল্লেখ করেছি। 

এবং আমি সমস্ত জিনিস বলছি যা মানুষ কখনও করেছে, পতন রোধ করার জন্য শুধুমাত্র দুটি শ্রেণীর পদ্ধতি রয়েছে। একটি হল বিপরীত পদ্ধতি, এবং অন্যটি হল সেই নিয়মিত পদ্ধতি। সুতরাং, দুটি ইনপুটের উপস্থাপনার তথ্য সামগ্রীকে সর্বাধিক করার এবং সুপ্ত ভেরিয়েবলের তথ্য সামগ্রীকে হ্রাস করার এই ধারণা, যা নিয়মিত পদ্ধতির অন্তর্গত। কিন্তু সেই জয়েন্ট এমবেডিং আর্কিটেকচারে অনেক কাজ কনট্রাস্টিভ পদ্ধতি ব্যবহার করছে। আসলে, তারা সম্ভবত এই মুহূর্তে সবচেয়ে জনপ্রিয়। সুতরাং, প্রশ্ন হল ঠিক কীভাবে আপনি তথ্য সামগ্রীকে এমনভাবে পরিমাপ করবেন যা আপনি অপ্টিমাইজ বা ছোট করতে পারেন? এবং সেখানেই জিনিসগুলি জটিল হয়ে ওঠে কারণ আমরা আসলে তথ্য সামগ্রী কীভাবে পরিমাপ করতে পারি তা জানি না। আমরা এটিকে আনুমানিক করতে পারি, আমরা এটিকে আবদ্ধ করতে পারি, আমরা এমন কিছু করতে পারি। কিন্তু তারা আসলে তথ্য বিষয়বস্তু পরিমাপ করে না, যা আসলে, কিছু পরিমাণে এমনকি সু-সংজ্ঞায়িত নয়।

জেডডিনেট: এটা কি শ্যাননের আইন নয়? এটা কি তথ্য তত্ত্ব নয়? আপনি একটি নির্দিষ্ট পরিমাণ এনট্রপি পেয়েছেন, ভাল এনট্রপি এবং খারাপ এনট্রপি, এবং ভাল এনট্রপি একটি প্রতীক সিস্টেম যা কাজ করে, খারাপ এনট্রপি হল শব্দ। এটা সব শ্যানন দ্বারা সমাধান করা হয় না?

YL: আপনি ঠিক, কিন্তু এর পিছনে একটি বড় ত্রুটি আছে. আপনি এই অর্থে ঠিক বলেছেন যে আপনার কাছে যদি ডেটা আসে এবং আপনি কোনওভাবে ডেটাকে পৃথক চিহ্নগুলিতে পরিমাপ করতে পারেন এবং তারপরে আপনি সেই প্রতীকগুলির প্রতিটির সম্ভাব্যতা পরিমাপ করেন, তাহলে সেই চিহ্নগুলির দ্বারা বহন করা তথ্যের সর্বাধিক পরিমাণ এর সম্ভাব্য চিহ্নগুলির যোগফল পাই লগ পাই, ঠিক? কোথায় Pi প্রতীকের সম্ভাবনা আমি - এটি শ্যানন এনট্রপি। [শ্যাননের আইন সাধারণত H = – ∑ pi log pi হিসাবে প্রণয়ন করা হয়।]

এখানে সমস্যা, যদিও: কি Pi? এটা সহজ যখন চিহ্নের সংখ্যা কম হয় এবং চিহ্নগুলি স্বাধীনভাবে আঁকা হয়। যখন অনেকগুলি প্রতীক এবং নির্ভরতা থাকে, তখন এটি খুব কঠিন। সুতরাং, যদি আপনার কাছে বিটগুলির একটি ক্রম থাকে এবং আপনি ধরে নেন বিটগুলি একে অপরের থেকে স্বাধীন এবং সম্ভাব্যতা এক এবং শূন্য বা যাই হোক না কেন সমান, তাহলে আপনি সহজেই এনট্রপি পরিমাপ করতে পারেন, কোন সমস্যা নেই। কিন্তু যদি আপনার কাছে আসা জিনিসগুলি উচ্চ-মাত্রিক ভেক্টর হয়, যেমন, আপনি জানেন, ডেটা ফ্রেম বা এই জাতীয় কিছু, তাহলে কী Pi? বন্টন কি? প্রথমে আপনাকে সেই স্থানটি পরিমাপ করতে হবে, যা একটি উচ্চ-মাত্রিক, অবিচ্ছিন্ন স্থান। আপনি সঠিকভাবে এই পরিমাপ কিভাবে কোন ধারণা আছে. আপনি কে-মিন্স ইত্যাদি ব্যবহার করতে পারেন। লোকেরা যখন ভিডিও কম্প্রেশন এবং ইমেজ কম্প্রেশন করে তখন এটিই করে। কিন্তু এটা শুধুমাত্র একটি আনুমানিক. এবং তারপরে আপনাকে স্বাধীনতার অনুমান করতে হবে। সুতরাং, এটি স্পষ্ট যে একটি ভিডিওতে, ধারাবাহিক ফ্রেমগুলি স্বাধীন নয়৷ নির্ভরতা আছে, এবং সেই ফ্রেমটি নির্ভর করতে পারে অন্য একটি ফ্রেমের উপর যা আপনি এক ঘন্টা আগে দেখেছিলেন, যেটি একই জিনিসের ছবি। সুতরাং, আপনি জানেন, আপনি পরিমাপ করতে পারবেন না Pi. পরিমাপ করতে Pi, আপনার একটি মেশিন লার্নিং সিস্টেম থাকতে হবে যা ভবিষ্যদ্বাণী করতে শেখে। আর তাই আপনি আগের সমস্যায় ফিরে গেছেন। সুতরাং, আপনি শুধুমাত্র তথ্যের পরিমাপ আনুমানিক করতে পারেন, মূলত। 

yann-lecun-sept-2022-6

"প্রশ্নটি হল আপনি কীভাবে তথ্য সামগ্রীকে এমনভাবে পরিমাপ করবেন যেটি আপনি অপ্টিমাইজ বা ছোট করতে পারেন?" লেকুন বলেছেন। "এবং সেখানেই জিনিসগুলি জটিল হয়ে ওঠে কারণ আমরা আসলে তথ্য সামগ্রী কীভাবে পরিমাপ করতে পারি তা জানি না।" এখন পর্যন্ত যা করা যায় তা হল একটি প্রক্সি খুঁজে পাওয়া যা "আমরা যে কাজটি চাই তার জন্য যথেষ্ট ভাল।"

আমাকে আরো একটি কংক্রিট উদাহরণ নিতে দিন. আমরা যে অ্যালগরিদম নিয়ে খেলছি তার মধ্যে একটি, এবং আমি এই বিষয়ে কথা বলেছি, এই জিনিসটিকে ভিআইসিআরজি বলা হয়, ভ্যারিয়েন্স-ইনভেরিয়েন্স-কোভেরিয়েন্স নিয়মিতকরণ। এটি একটি পৃথক কাগজে যা ICLR এ প্রকাশিত হয়েছিল, এবং এটি arXiv এ রাখা হয়েছিল প্রায় এক বছর আগে, 2021। এবং ধারণাটি তথ্য সর্বাধিক করা। এবং ধারণা আসলে একটি পূর্ববর্তী কাগজ থেকে এসেছেন আমার গ্রুপ বলা হয় বারলো টুইনস. আপনি একটি নিউরাল নেট থেকে বেরিয়ে আসা একটি ভেক্টরের তথ্য বিষয়বস্তুকে সর্বাধিক করে তোলেন, মূলত, অনুমান করে যে ভেরিয়েবলের মধ্যে একমাত্র নির্ভরতা হল পারস্পরিক সম্পর্ক, রৈখিক নির্ভরতা। সুতরাং, যদি আপনি ধরে নেন যে ভেরিয়েবলের জোড়ার মধ্যে বা আপনার সিস্টেমের ভেরিয়েবলের মধ্যে একমাত্র নির্ভরতাই সম্ভব, হল মূল্যবান জিনিসের জোড়ার মধ্যে পারস্পরিক সম্পর্ক, যা অত্যন্ত রুক্ষ আনুমানিক, তাহলে আপনি আপনার সিস্টেম থেকে আসা তথ্য সামগ্রীকে সর্বাধিক করতে পারেন সমস্ত ভেরিয়েবলের নন-জিরো ভ্যারিয়েন্স আছে তা নিশ্চিত করে — ধরা যাক, ভ্যারিয়েন্স ওয়ান, এটা কোন ব্যাপার না—এবং তারপরে সেগুলিকে পিছনে-সংলগ্ন করা, একই প্রক্রিয়া যাকে বলা হয় ঝকঝকে, এটাও নতুন নয়। এর সাথে সমস্যা হল যে আপনি খুব ভালভাবে ভেরিয়েবলের গ্রুপগুলির মধ্যে অত্যন্ত জটিল নির্ভরতা থাকতে পারেন বা এমনকি ভেরিয়েবলের জোড়ার মধ্যেও যেগুলি রৈখিক নির্ভরতা নয় এবং তারা পারস্পরিক সম্পর্কগুলিতে দেখায় না। সুতরাং, উদাহরণস্বরূপ, যদি আপনার দুটি ভেরিয়েবল থাকে, এবং সেই দুটি ভেরিয়েবলের সমস্ত পয়েন্টগুলি কিছু ধরণের সর্পিল মধ্যে লাইন আপ করে, সেই দুটি ভেরিয়েবলের মধ্যে একটি খুব শক্তিশালী নির্ভরতা আছে, তাই না? কিন্তু প্রকৃতপক্ষে, আপনি যদি এই দুটি ভেরিয়েবলের মধ্যে পারস্পরিক সম্পর্ক গণনা করেন, তবে তারা পারস্পরিক সম্পর্কযুক্ত নয়। সুতরাং, এখানে একটি উদাহরণ যেখানে এই দুটি ভেরিয়েবলের তথ্য বিষয়বস্তু আসলে খুব ছোট, এটি শুধুমাত্র একটি পরিমাণ কারণ এটি সর্পিলে আপনার অবস্থান। তারা ডি-সম্পর্কিত, তাই আপনি মনে করেন যে আপনার কাছে সেই দুটি ভেরিয়েবল থেকে প্রচুর তথ্য আসছে যখন আসলে আপনি তা করেন না, আপনার কাছে শুধুমাত্র আছে, আপনি জানেন, আপনি অন্যটির থেকে একটি ভেরিয়েবলের ভবিষ্যদ্বাণী করতে পারেন, মূলত। সুতরাং, এটি দেখায় যে আমাদের কাছে তথ্য সামগ্রী পরিমাপ করার খুব আনুমানিক উপায় রয়েছে।

জেডডিনেট: এবং তাই যে জিনিস এক যে আপনি পেয়েছেন এই সঙ্গে এখন কাজ করা? আমরা যখন তথ্যের কন্টেন্টকে সর্বাধিক এবং ছোট করছি তখন আমরা কীভাবে জানব তার বড় প্রশ্ন?

YL:  অথবা এর জন্য আমরা যে প্রক্সিটি ব্যবহার করছি তা আমরা যে কাজটি চাই তার জন্য যথেষ্ট ভাল কিনা। আসলে, আমরা মেশিন লার্নিং এ সব সময় এটি করি। আমরা যে খরচ ফাংশন মিনিমাইজ করি সেগুলি কখনই আমরা কমাতে চাই না। সুতরাং, উদাহরণস্বরূপ, আপনি শ্রেণীবিভাগ করতে চান, ঠিক আছে? শ্রেণীবিভাগকারীকে প্রশিক্ষণ দেওয়ার সময় আপনি যে খরচ ফাংশনটি কমাতে চান তা হল শ্রেণীবিভাগকারীর করা ভুলের সংখ্যা। কিন্তু এটি একটি অ-পার্থক্যযোগ্য, ভয়ঙ্কর খরচ ফাংশন যা আপনি কমাতে পারবেন না কারণ আপনি জানেন যে আপনি আপনার নিউরাল জালের ওজন পরিবর্তন করতে যাচ্ছেন, এই নমুনাগুলির মধ্যে একটি তার সিদ্ধান্তকে উল্টানো পর্যন্ত কিছুই পরিবর্তন হবে না, এবং তারপরে একটি লাফ ত্রুটিতে, ইতিবাচক বা নেতিবাচক।

জেডডিনেট: সুতরাং আপনার কাছে একটি প্রক্সি রয়েছে যা একটি উদ্দেশ্যমূলক ফাংশন যা আপনি অবশ্যই বলতে পারেন, আমরা অবশ্যই এই জিনিসটির গ্রেডিয়েন্ট প্রবাহ করতে পারি।

YL: সেটা ঠিক. সুতরাং লোকেরা এই ক্রস-এনট্রপি লস, বা SOFTMAX ব্যবহার করে, আপনার কাছে এটির বেশ কয়েকটি নাম রয়েছে, তবে এটি একই জিনিস। এবং এটি মূলত সিস্টেমের দ্বারা করা ত্রুটির সংখ্যার একটি মসৃণ আনুমানিক, যেখানে মসৃণকরণ করা হয়, মূলত, সিস্টেম প্রতিটি বিভাগে যে স্কোর দেয় তা বিবেচনা করে।

জেডডিনেট: এমন কিছু আছে যা আমরা কভার করিনি যা আপনি কভার করতে চান?

YL: এটা সম্ভবত প্রধান পয়েন্ট জোর দেওয়া. আমি মনে করি এআই সিস্টেমগুলিকে যুক্তি দিতে সক্ষম হওয়া দরকার, এবং আমি যে প্রক্রিয়াটির পক্ষে কথা বলছি তা কিছু সুপ্ত ভেরিয়েবলের ক্ষেত্রে কিছু উদ্দেশ্যকে হ্রাস করছে। এটি সিস্টেমগুলিকে পরিকল্পনা এবং যুক্তি দিতে দেয়। আমি মনে করি আমাদের সম্ভাব্য কাঠামো পরিত্যাগ করা উচিত কারণ আমরা যখন উচ্চ-মাত্রিক, অবিচ্ছিন্ন ভেরিয়েবলের মধ্যে নির্ভরতা ক্যাপচার করার মতো জিনিসগুলি করতে চাই তখন এটি জটিল। এবং আমি জেনারেটিভ মডেলগুলি পরিত্যাগ করার পক্ষে পরামর্শ দিচ্ছি কারণ সিস্টেমটিকে এমন জিনিসগুলির ভবিষ্যদ্বাণী করার জন্য অনেকগুলি সংস্থান উত্সর্গ করতে হবে যা ভবিষ্যদ্বাণী করা খুব কঠিন এবং সম্ভবত খুব বেশি সংস্থান গ্রহণ করে৷ এবং thats প্রায় কাছাকাছি এটি. আপনি যদি চান তাহলে এটাই প্রধান বার্তা। এবং তারপর সামগ্রিক স্থাপত্য. তারপরে চেতনার প্রকৃতি এবং কনফিগারারের ভূমিকা সম্পর্কে সেই অনুমান রয়েছে, তবে এটি সত্যিই অনুমান।

জেডডিনেট: আমরা যে পরের বার পেতে হবে. আমি আপনাকে জিজ্ঞাসা করতে যাচ্ছিলাম, আপনি এই জিনিসটি কীভাবে বেঞ্চমার্ক করবেন? কিন্তু আমি মনে করি আপনি এখন বেঞ্চমার্কিং থেকে একটু এগিয়ে আছেন?

YL: অগত্যা যে দূরে, সাজানোর, সরলীকৃত সংস্করণ. নিয়ন্ত্রণ বা শক্তিবৃদ্ধি শেখার ক্ষেত্রে প্রত্যেকে যা করে তা আপনি করতে পারেন, অর্থাৎ, আপনি আটারি গেমস খেলার জন্য প্রশিক্ষণ দেন বা এরকম কিছু বা অন্য কোনো গেম যাতে কিছু অনিশ্চয়তা থাকে।

জেডডিনেট: আপনার সময়ের জন্য ধন্যবাদ, ইয়ান.

উৎস