তত্ত্বাবধানাধীন শিখন

দৃষ্টান্তমূলক প্রবিষ্ট-বহির্গত উপাত্ত জোড়সমূহের উপর ভিত্তি করে কোনও প্রবিষ্ট উপাত্ত থেকে বহি

তত্ত্বাবধানাধীন শিখন (ইংরেজি: Supervised Learning) হল প্রদত্ত উপাত্ত এবং তার ফলাফল থেকে যান্ত্রিক জ্ঞানার্জন প্রক্রিয়া,[১] যা সংজ্ঞায়িত উপাত্ত সমূহ থেকে একটি ফাংশন খুঁজে নেয়। [২] তত্ত্বাবধীন জ্ঞানার্জনে প্রত্যেকটি তথ্য হলো একেকটি জোড়া, যাতে একটি ইনপুট উপাত্ত (যা সাধারণত একটি ভেক্টর) এবং প্রত্যাশিত ফলাফল উপাত্ত (তত্ত্বাবধায়ক সংকেতও বলা হয়) থাকে। একটি তত্ত্বাবধানাধীন শিখন অ্যালগরিদম প্রদত্ত উপাত্ত গুলোকে বিশ্লেষণ করে এবং একটি ফাংশন তৈরি করে নতুন উপাত্তকে সংজ্ঞায়িত করতে সহায়তা করে। উপযুক্ত ক্ষেত্রে আলগরিদমটি নতুন কোন বস্তু (Object) কে সঠিকভাবে শ্রেণীকরণে (Classification) ভূমিকা রাখতে পারে। এক্ষেত্রে এটি যৌক্তিকভাবে প্রদত্ত উপাত্তের সাথে নতুন উপাত্তের সাধারণ সম্পর্ক (Mapping) তৈরি করে। মানুষ এবং প্রাণী মনস্তত্ত্ববিদ্যায় এটিকে প্রায়ই কনসেপ্ট লার্নিং হিসেবে উল্লেখ করা হয়।

ধাপসমূহসম্পাদনা

 
শিরোনাম শনাক্তকরণের জন্য Supervised Learning

তত্ত্বাবধানাধীন শিখন এর কোন সমস্যা সমাধান করতে হলে একজন ব্যক্তিকে অবশ্যই নিম্নোক্ত ধাপসমূহ সম্পন্ন করতে হবে:

  1. প্রদত্ত উপাত্তের ধরন যাচাইকরণঃ অন্য কোন কিছু করার পূর্বে ব্যবহারকারীকে অবশ্যই সিদ্ধান্ত নিতে হবে যে, কোন কোন উপাত্ত ব্যবহার করা হবে। উদাহরণস্বরূপ, হস্তলিপি বিশ্লেষণের ক্ষেত্রে এটি হতে পারে একটি হাতে লেখা বর্ণ, একটি শব্দ কিংবা একটি সম্পূর্ণ বাক্য।
  2. উপাত্ত সংগ্রহ করণঃ উপাত্ত গুলো অবশ্যই বাস্তব জীবনে এ ফাংশনটির প্রয়োগের প্রতিনিধিত্ব করতে হবে। এভাবে বিশেষজ্ঞ ব্যক্তি কিংবা পরিমাপের দ্বারা অনেকগুলো ইনপুট উপাত্ত এবং সংশ্লিষ্ট ফলাফল উপাত্ত (Output Data) সংগ্রহ করা হয়।
  3. প্রদত্ত উপাত্ত গুলোর বৈশিষ্ট্য (Feature) নিরূপণঃ অর্জিত ফাংশনটির নির্ভুলতা নির্ভর করে কিভাবে ইনপুট উপাত্তটির বৈশিষ্ট্য (Feature) নিরূপণ করা হয়েছে। অর্থাৎ ইনপুট উপাত্ত টি একটি বৈশিষ্ট্য ভেক্টর এ রুপান্তর করা, হয় যাতে উক্ত ইনপুট বস্তুটির কিছু সাংখিক বৈশিষ্ট্য থাকে। মাত্রিক সীমাবদ্ধতার কারণে বৈশিষ্ট্যের সংখ্যা খুব বেশি হওয়া উচিত নয় ; কিন্তু ফলাফল অনুমান (Predict) করার জন্য যথেষ্ট সংখ্যক বৈশিষ্ট্য থাকা প্রয়োজন।
  4. অর্জিত ফাংশনের গঠন এবং সংশ্লিষ্ট জ্ঞানার্জন অ্যালগরিদম নির্বাচনঃ উদাহরণস্বরূপ,একজন ইঞ্জিনিয়ার সাপোর্ট ভেক্টর মেশিন অথবা শাখান্বিত সিদ্ধান্ত পদ্ধতি অবলম্বন করতে পারেন।
  5. পরিকল্পনা বাস্তবায়নকরণঃ উপলব্ধ উপাত্ত সমূহ অ্যালগরিদম প্রয়োগ করুন। কিছু অ্যালগরিদম এর ক্ষেত্রে নির্দিষ্ট সংখ্যক নির্ধারক পরামিতি (Parameter) প্রয়োজন হয়। এই পরামিতিগুলো যাচাইকরণ সেটের (Validation Set) অনুকূল পারফরম্যান্সের উপর ভিত্তি করে নির্ধারণ করা হয়।
  6. অর্জিত ফাংশনের নির্ভুলতা যাচাইঃ পরামিতি সমন্বয় এবং শিখনের পর পরীক্ষামূলক সেটে (Test set) প্রাপ্ত ফাংশনের নির্ভুলতা মূল্যায়ন করা হয়।

অ্যালগরিদম নির্বাচনসম্পাদনা

অনেকগুলো তত্ত্বাবধানাধীন শিখন অ্যালগরিদম রয়েছে যার প্রত্যেকের রয়েছে নিজস্ব সফলতা এবং সীমাবদ্ধতা। তত্ত্বাবধানাধীন শিখনের সর্বোত্তম ফলাফল দেয় এমন কোনও অ্যালগরিদম এখন পর্যন্ত নেই।

তত্ত্বাবধানাধীন শিখন নিয়ে মূলত চারটি প্রধান বিষয় বিবেচনা করা হয় :

ধ্রুবক ভেদাঙ্কের পার্থক্যসম্পাদনা

প্রথম বিষয়টি হল ধ্রুবক (Bias) এবং ভেদাঙ্কের (Variance) মাঝে সমন্বয়।[৩] মনে করুন যে, আমাদের কাছে কিছু ভিন্ন ভিন্ন কিন্তু মোটামুটি সমমানের উপাত্ত সেট রয়েছে। যদি একটি উপাত্ত   এর জন্য অর্জিত ফাংশনে কোনো ধ্রুবক থাকে, তবে এসব উপাত্তগুলো দ্বারা প্রশিক্ষণ দেয়া হলে, স্বাভাবিকভাবেই   এর ফলাফল প্রদান করার সময় এটি ভুল করবে। যদি বিভিন্ন উপাত্ত এর উপর প্রশিক্ষণ করার সময় বিভিন্ন ফলাফল প্রদান করে তবে ধরা হয় যে   উপাত্তটির জন্য এর ব্যাপক ভেদাঙ্ক রয়েছে। এক্ষেত্রে অনুমানের ভুলের পরিমাণ ধ্রুবক এবং ভেদাঙ্কের সমষ্টির সঙ্গে সম্পর্কিত। [৪] সাধারণভাবে ধ্রুবক এবং ভেদাঙ্কের মাঝে এক প্রকারের সমন্বয় থাকে। নিম্ন ধ্রুবকবিশিষ্ট কোন লার্নিং অ্যালগরিদম অবশ্যই উপাত্ত সংগ্রহের সঙ্গে মানানসই হওয়ার মতো নমনীয়তা ধারণ করতে হবে। কিন্তু যদি লার্নিং অ্যালগরিদম টি খুব বেশি নমনীয় হয়, তবে এটি প্রত্যেকটি উপাত্তের সঙ্গে মানিয়ে নেবে এবং এতে ব্যাপক ভেদাঙ্ক দেখা যাবে। সুতরাং তত্ত্বাবধানাধীন শিখন পদ্ধতিতে এই ধ্রুবক এবং ভেদাঙ্কসমূহ স্বয়ংক্রিয়ভাবে কিংবা ব্যবহারকারী কর্তৃক নির্ধারিত করে দিতে হয়।

ফাংশন এর জটিলতা এবং প্রশিক্ষণ উপাত্তের পরিমাণসম্পাদনা

দ্বিতীয় বিষয়টি হলো প্রকৃত ফাংশনটির জটিলতার সাপেক্ষে প্রশিক্ষণ উপাত্তের পরিমাণ। যদি প্রকৃত ফাংশনটি সরল আকারের হয়, তবে উচ্চ ধ্রুবক এবং নিম্ন ভেদাঙ্কবিশিষ্ট অনমনীয় প্রশিক্ষণ অ্যালগরিদম সামান্য পরিমাণ উপাত্ত থেকে প্রশিক্ষণ নিতে পারে। কিন্তু যদি প্রকৃত ফাংশনটি ব্যাপক জটিল হয় তবে এটি শুধুমাত্র নিম্ন ধ্রুবক এবং উচ্চ ভেদাঙ্কবিশিষ্ট নমনীয় প্রশিক্ষণ আলগরিদম থেকেই প্রশিক্ষণ নিতে পারে।

ইনপুট ক্ষেত্রের মাত্রিকতাসম্পাদনা

তৃতীয় বিষয়টি হলো ইনপুট ক্ষেত্রের মাত্রিকতা। যদি ইনপুট বৈশিষ্ট্য ভেক্টর এর মাত্রা ব্যাপক বড় হয় তবে, যদিও প্রকৃত ফাংশন সামান্য কিছু বৈশিষ্ট্যের উপর নির্ভর করে, প্রশিক্ষণের সমস্যাটি প্রচুর কঠিন হয়ে যায়। কারণ, এক্ষেত্রে বাড়তি মাত্রা গুলো প্রশিক্ষণ অ্যালগরিদমটিকে বিভ্রান্ত করে দেবে এবং উচ্চ ভেদাঙ্ক আনতে বাধ্য করবে। তাই শুধুমাত্র প্রয়োজনীয় বৈশিষ্ট্য গুলো নির্বাচন করা উচিত। প্রয়োজনীয় বৈশিষ্ট্য নির্বাচন এর জন্য বিভিন্ন অ্যালগরিদম রয়েছে। এগুলো মূলত মাত্রিকতা হ্রাসের একটি সাধারণ রূপ।

ফলাফলে অবাঞ্ছিত মানসম্পাদনা

চতুর্থ বিষয়টি হলো ফলাফল অবাঞ্ছিত মান (Noise) এর মাত্রা। মানুষ কিংবা সেন্সরের কারণে যদি প্রত্যাশিত ফলাফল প্রায়ই ভুল হয়, তবে প্রশিক্ষণ অ্যালগরিদমটি প্রদত্ত উপাত্তগুলোর সঙ্গে যথার্থভাবে মিলে যায় এমন কোন ফাংশন খুঁজে পাবে না। ফলে উপাত্ত গুলোর সঙ্গে মানানসই (Fit) হওয়ার জন্য ফাংশন খুঁজতে গিয়ে প্রশিক্ষণ অ্যালগরিদমটি অতিমান্যতার(Overfitting) দিকে ধাবিত হয়। আপনার প্রশিক্ষণ মডেলের ফাংশনটি যদি ব্যাপক জটিল হয় তবে আপনি অতিমান্যতার দিকে ধাবিত হতে পারেন, এমনকি যদি কোন পরিমাপ ত্রুটি নাও হয় তবুও। এই পরিস্থিতিতে প্রত্যাশিত ফাংশনের যে অংশটি সাধারণীকরণ (Generalisation) করা যায় না, তা আপনার প্রশিক্ষণপ্রাপ্ত উপাত্তসমূহকে বিক্ষিপ্ত করে দেয় - যাকে বলা হয় অবাঞ্ছিত নির্ধারক(Deterministic noise)। যদি কোন একধরনের অবাঞ্ছিত মান বিদ্যমান থাকে তবে নিম্ন ভেদাঙ্ক এবং উচ্চ ধ্রুবকসমৃদ্ধ ফাংশন তুলনামূলক ভালো পারর্ফমেন্স দেয়।

বাস্তবিক ক্ষেত্রে অবাঞ্ছিত মানসমূহ প্রত্যাহার করার জন্য কিছু উপায় রয়েছে, যেমন অতিমান্যতাকে রোধ করার জন্য প্রাকসমাপ্তি(Early stopping) এর পাশাপাশি অস্বাভাবিকতা সনাক্তকরণ এবং প্রশিক্ষণ চলাকালীন অবাঞ্ছিত প্রশিক্ষণ উপাত্ত অপসারণ। [৫][৬]

অন্যান্য প্রয়োজনীয় বিবেচ্য বিষয়সম্পাদনা

প্রশিক্ষণ অ্যালগরিদম নির্বাচন এবং প্রয়োগের জন্য অন্যান্য যেসব বিষয় বিবেচনা করা হয় তা নিম্নরূপ

  • উপাত্তের বিভিন্নতা: যদি বৈশিষ্ট্য ভেক্টর এ বিভিন্ন প্রকারের বৈশিষ্ট্য (বিচ্ছিন্ন, ক্রম বিচ্ছিন্ন, অবিচ্ছিন্ন মান) বিদ্যমান থাকে, তবে কিছু কিছু অ্যালগরিদম বাস্তবায়ন করা তুলনামূলকভাবে সহজ হয় । সাপোর্ট ভেক্টর মেশিন, লিনিয়ার রিগ্রেশন, লজিস্টিক রিগ্রেশন কৃত্রিম নিউরাল নেটওয়ার্ক এবং K-তম নিকটবর্তী প্রতিবেশী অ্যালগোরিদমের মতো অনেক অ্যালগরিদমের ক্ষেত্রে সকল বৈশিষ্ট্য সম পরিসরে (অর্থাৎ [-1,1] ব্যবধিতে) হতে হয়। বিশেষ করে K-তম নিকটবর্তী প্রতিবেশী অ্যালগরিদম এবং সাপোর্ট ভেক্টর মেশিন এ ব্যাপারে অতি সংবেদনশীল। সিদ্ধান্ত বৃক্ষের একটি সুবিধা হলো যে, এটি সহজে বিভিন্ন ধরনের উপাত্তকে ব্যবস্থাপনা করতে পারেন।
  • উপাত্তের পুনরাবৃত্তি: যদি ইনপুট বৈশিষ্ট্যে পুনরাবৃত্তিমূলক কিংবা ব্যাপকভাবে সম্পর্কিত বৈশিষ্ট্য থাকে, তবে লিনিয়ার রিগ্রেশন, লজিস্টিক রিগ্রেশন এবং কে তম নিকটবর্তী প্রতিবেশী অ্যালগরিদম সাংখ্যিক অস্থিতিশীলতার কারণে বাজে পারফরম্যান্স করে। নিয়মিতকরণের মাধ্যমে এসব সমস্যা থেকে উত্তরণে হওয়া যায়।
  • মিথস্ক্রিয়া এবং ও রৈখিক ও উপস্থিতি: যদি প্রত্যেকটি বৈশিষ্ট্য পৃথকভাবে ফলাফলের উপর প্রভাব বিস্তার করে, তবে লিনিয়ার রিগ্রেশন, লজিস্টিক রিগ্রেশন, সাপোর্ট ভেক্টর মেশিন এর মত অ্যালগরিদম গুলো ভালো ফলাফল দেয়। যদি বৈশিষ্ট্য গুলোর মধ্যে জটিল মিথস্ক্রিয়া বিদ্যমান থাকে তবে সিদ্ধান্ত বৃক্ষ এবং কৃত্রিম নিউরাল নেটওয়ার্ক ভালো কাজ করে, কারণ তারা এসব মিথস্ক্রিয়ার জন্য বিশেষভাবে ডিজাইনকৃত। এক্ষেত্রে লৈখিক পদ্ধতিও ব্যবহার করা যেতে পারে, তবে একজন ইঞ্জিনিয়ার অবশ্যই সেটা উল্লেখ করে দিতে হবে কখন মিথস্ক্রিয়া কাজ করবে।

নতুন কোন প্রয়োগ বিবেচনার সময় একজন ইঞ্জিনিয়ার বিভিন্ন প্রশিক্ষণ অ্যালগরিদম হাতে কলমে তুলনা করবেন এবং পরীক্ষা করে দেখবেন কোনটি সবচেয়ে ভালো কাজ করে। (see cross validation). প্রশিক্ষণ অ্যালগোরিদমের পারফরম্যান্স যাচাই অনেক সময় সাপেক্ষ ব্যাপার হতে পারে। সীমাবদ্ধ উপাত্তের ক্ষেত্রে যাচাইকরণের বদলে আরো প্রশিক্ষণ উপাত্ত এবং তথ্যমূলক বৈশিষ্ট্য সঞ্চয়কে প্রাধান্য দিতে হবে।

অ্যালগরিদমসমূহসম্পাদনা

অধিক ব্যবহৃত প্রশিক্ষণ অ্যালগরিদমগুল হল:

কীভাবে তত্ত্বাবধানাধীন শিখন কাজ করেসম্পাদনা

একটি প্রশিক্ষণ উপাত্তের সেট  দেয়া আছে যার গঠন   যেন  -তম উপাত্তের বৈশিষ্ট্য ভেক্টর   এবং এর নির্দেশক (অর্থাৎ, শ্রেণী)  , একটি প্রশিক্ষণ অ্যালগরিদম এমন একটি ফাংশন   খুঁজবে, যেখানে   হল গ্রহণ ক্ষেত্র (Input Space) এবং   হল 'ফলাফল ক্ষেত্র (Output Space)।   ফাংশনটিকে বলা হয় অনুমান ক্ষেত্র (Hypothesis space) নামক সম্ভাব্য সকল ফাংশনের ক্ষেত্র   এর একটি উপাদান।   কে মাঝেমাঝে   আকারে প্রকাশ করা হয় যেখানে সর্বোচ্চ মান :   দেয়া   সমূহ   কে সংজ্ঞায়িত করে। ধরি,   হল সকল স্কোরিং ফাংশনের ক্ষেত্র।

যদিও   এবং   ফাংশনের যেকোনো ক্ষেত্র হতে পারে, অনেক প্রশিক্ষণ অ্যালগরিদম এমনভাবে সম্ভাব্য মডেল তৈরি করে যেন   শর্তাধীন সম্ভাবনা মডেল  , অথবা   সংযুক্ত সম্ভাবনা মডেল   গ্রহণ করে।

  অথবা   নির্বাচন করার দুটি মৌলিক পদ্ধতি রয়েছে : প্রযুক্ত ঝুঁকি হ্রাসকরণ এবং গাঠনিক ঝুঁকি হ্রাসকরণ.[৭] প্রযুক্ত ঝুঁকি হ্রাস করণ এমন ফাংশন খুঁজে, যা প্রশিক্ষণ উপাত্তের সঙ্গে সর্বোত্তমভাবে মানানসই হয়। গাঠনিক ঝুঁকি হ্রাসকরণ ধ্রুবক-ভেদাঙ্ক সমন্বয় ও নিয়ন্ত্রণ করে।

উভয় ক্ষেত্রে ধরা হয় যে, উপাত্ত সমূহ স্বাধীন এবং সমবিভাজিত   আকারে বিস্তৃত। কিভাবে একটি ফাংশন প্রশিক্ষণ উপাত্ত সমূহের সঙ্গে মানানসই হয়, তা পরিমাপ করার জন্য একটি ঋণ ফাংশন (Loss function)   সংজ্ঞায়িত করা হয়।   প্রশিক্ষণ উপাত্তের জন্য   এর বিচ্যুতি    ফাংশনের ঝুঁকি  ,   এর প্রত্যাশিত বিচ্যুতি হিসেবে সংজ্ঞায়িত করা হয়।

প্রশিক্ষণ উপাত্ত হতে হিসাব করা হয়: 

প্রযুক্ত ঝুঁকি হ্রাসকরণসম্পাদনা

প্রযুক্ত ঝুঁকি হ্রাসকরণে প্রশিক্ষণ অ্যালগরিদমটি এমন একটি ফাংশন   খুঁজে যা   কে ন্যূনতম করে। এভাবে তত্ত্বাবধানাধীন শিখন অ্যালগরিদম   কে অনুকূল করে এমন ফাংশন দ্বারা খুব সহজেই গঠন করা যায়। যখন   একটি শর্তাধীন সম্ভাব্য বিভাজন   এবং ঋণ ফাংশনটি ঋণাত্মক লগারিদম:  , তখন প্রযুক্ত ঝুঁকি হ্রাসকরণ সর্বাধিক সম্ভাব্য অনুমানের (Maximum likelihood estimation) এর মতো হয়।

যখন প্রশিক্ষণ সেটটি যথেষ্ট বড় নয় কিংবা একাধিক উপযুক্ত ফাংশন   এ অন্তর্ভুক্ত থাকে তখন প্রযুক্ত ঝুঁকি হ্রাসকরণ উচ্চ ভেদাঙ্ক এবং নিম্ন ধ্রুবকের দিকে গমন করে। প্রশিক্ষণ অ্যালগরিদমটি যথাযথ সাধারণীকরণ ব্যতিরেকেই প্রশিক্ষণ উপাত্তগুলো মুখস্থ করতে শুরু করে। একে বলা হয় অতিমান্যতা (overfitting)।

গাঠনিক ঝুঁকি হ্রাসকরণসম্পাদনা

গাঠনিক ঝুঁকি হ্রাসকরণ অতিমান্যতা রোধ করতে আনুকূল্যকরণে নিয়মিতকরণ ঋণ যুক্ত করে। নিয়মিতকরণের ঋণকে অকামের রেজার এর প্রয়োগ হিসেবে দেখা যেতে পারে, যা অনেক জটিল ফাংশন থেকে সরলতর ফাংশন কে বেশি প্রাধান্য দেয়।

বিভিন্ন জটিলতার বিভিন্ন ঋণ ব্যবহার করা হয়। উদাহরণস্বরূপ, একটি ক্ষেত্রে   ফাংশনটি:   গঠনের একটি রৈখিক ফাংশন। একটি জনপ্রিয় নিয়মিতকরণ ঋণ হল  , যা সহগসমূহের ইউক্লিডীয় নিয়মিতকরণ এর বর্গ যা   নিয়মিতকরণ নামে পরিচিত। অন্যান্য নিয়মিতকরণ গুলোর মধ্যে রয়েছে   নিয়মিতকরণ  ,   নিয়মিতকরণ যা অশূন্য   সমূহের সংখ্যা। ঋণকে   দ্বারা প্রকাশ করা হয়।

গঠনমূলক প্রশিক্ষণসম্পাদনা

উপর্যুক্ত প্রশিক্ষণ পদ্ধতি গুলো পার্থক্যসূচক প্রশিক্ষণ পদ্ধতি, কেননা তারা এমন একটি ফাংশন   খুঁজে, যা বিভিন্ন ফলাফল এর মান কে পার্থক্য করে।(দেখুন discriminative model)। বিশেষ ক্ষেত্রে, যখন   একটি সংযুক্ত সম্ভাবনা বিভাজন এবং ঋণ ফাংশনটি ঋণাত্মক লগারিদম  , তখন ঝুঁকি হ্রাসকরণ অ্যালগরিদম গঠনগত প্রশিক্ষণ শুরু করে। কারণ   কে গঠনগত মডেল হিসেবে ধরা যেতে পারে, যা ব্যাখ্যা করে কিভাবে উপাত্তগুলোর উৎপত্তি হয়েছিল। গঠনমূলক প্রশিক্ষণ অ্যালগরিদমগুলো প্রায়ই পার্থক্যসূচক অ্যালগরিদমগুলোর চেয়ে সরল এবং সহজে হিসাবযোগ্য।

সাধারণীকরণসম্পাদনা

আদর্শ তত্ত্বাবধানাধীন শিখন সমস্যা বিভিন্ন পদ্ধতিতে সাধারণীকৃত হতে পারে:

  • অর্ধ-তত্ত্বাবধানাধীন শিখন: শুধুমাত্র প্রশিক্ষণ উপাত্তের একটি উপসেটের জন্য ফলাফলগুলো দেওয়া থাকে এবং অন্য গুলো অবিন্যস্ত থাকে।
  • সক্রিয় শিখন: সবগুলো প্রশিক্ষণ উপাত্ত প্রথমে আছে ধরে নেওয়ার বদলে সক্রিয় শিক্ষণ অ্যালগরিদম একজন ব্যবহারকারীর কাছে প্রশ্নের মাধ্যমে উপাত্ত গ্রহণ করে।
  • গাঠনিক অনুমান: যখন প্রত্যাশিত ফলাফল মান কোন জটিল অবজেক্ট যেমন পার্স ট্রি অথবা চিহ্নিত গ্রাফ, তখন আদর্শ পদ্ধতি গুলো বর্ধিতকরণ করতে হয়।
  • বিন্যস্তকরণ শিখন: যখন কিছু অবজেক্ট এর সেট ইনপুট এবং তাদের ক্রম ফলাফল হিসেবে থাকে, তখন আবার আদর্শ পদ্ধতিগুলো বর্ধিতকরণ আবশ্যক।

পদ্ধতি এবং অ্যালগরিদমসমূহসম্পাদনা

প্রয়োগসম্পাদনা

সাধারণ বিষয়সম্পাদনা

তথ্যসূত্রসম্পাদনা

  1. Stuart J. Russell, Peter Norvig (2010) Artificial Intelligence: A Modern Approach, Third Edition, Prentice Hall আইএসবিএন ৯৭৮০১৩৬০৪২৫৯৪.
  2. Mehryar Mohri, Afshin Rostamizadeh, Ameet Talwalkar (2012) Foundations of Machine Learning, The MIT Press আইএসবিএন ৯৭৮০২৬২০১৮২৫৮.
  3. S. Geman, E. Bienenstock, and R. Doursat (1992). Neural networks and the bias/variance dilemma. Neural Computation 4, 1–58.
  4. G. James (2003) Variance and Bias for General Loss Functions, Machine Learning 51, 115-135. (http://www-bcf.usc.edu/~gareth/research/bv.pdf)
  5. C.E. Brodely and M.A. Friedl (1999). Identifying and Eliminating Mislabeled Training Instances, Journal of Artificial Intelligence Research 11, 131-167. (http://jair.org/media/606/live-606-1803-jair.pdf ওয়েব্যাক মেশিনে আর্কাইভকৃত ১২ মে ২০১৬ তারিখে)
  6. M.R. Smith and T. Martinez (২০১১)। "Improving Classification Accuracy by Identifying and Removing Instances that Should Be Misclassified"। Proceedings of International Joint Conference on Neural Networks (IJCNN 2011)। পৃষ্ঠা 2690–2697। ডিওআই:10.1109/IJCNN.2011.6033571সাইট সিয়ারX 10.1.1.221.1371  
  7. Vapnik, V. N. The Nature of Statistical Learning Theory (2nd Ed.), Springer Verlag, 2000.

আরো দেখুনসম্পাদনা

বহিঃসংযোগসম্পাদনা