<br />
[[চিত্র:Colored_neural_network.svg|থাম্ব|361x361পিক্সেল| কৃত্রিম নিউরাল নেটওয়ার্ক হল পরস্পরসংযুক্ত একগুচ্ছ নোড, যা [[মস্তিষ্ক|মস্তিষ্কের]] [[স্নায়ুকোষ|নিউরনের]] সরলীকরণ দ্বারা অনুপ্রাণিত । এখানে, প্রতিটি বৃত্তাকার নোড একটি কৃত্রিম নিউরনের প্রতিনিধিত্ব করে এবং একটি তীর একটি কৃত্রিম নিউরনের আউটপুট থেকে অন্য নিউরনের ইনপুটের সংযোগ উপস্থাপন করে। ]]
'''কৃত্রিম নিউরাল নেটওয়ার্ক''' ('''এএনএন''') বা '''সংযোগকারী সিস্টেম''' হল গণনাকারি সিস্টেম যা প্রাণি-[[মস্তিষ্ক|মস্তিস্ক]] গঠনকারি [[নিউরাল নেটওয়ার্ক|জৈবিক স্নায়ু নেটওয়ার্ক]] দ্বারা অনুপ্রাণিত, কিন্তু অপরিহার্যভাবে একই রকম নয়। এ ধরনের সিস্টেমগুলি সাধারণত কোনো কাজ-নির্দিষ্ট নিয়ম দ্বারা প্রোগ্রাম ছাড়াই শুধু উদাহরণ বিবেচনা করে কাজগুলি সম্পাদন করতে শেখে। উদাহরণস্বরূপ, ছবি শনাক্তকরণে, তারা কোনো ছবিতে বিড়াল আছে কি না তা চিহ্নিত করা শিখতে পারে। এক্ষেত্রে তারা "বিড়াল" বা "বিড়াল নয়" হিসাবে পূর্বে লেবেলকৃত বিড়ালের ছবি বিশ্লেষণ করে লেবেল ছাড়া অন্যান্য চিত্রগুলিতে বিড়াল শনাক্ত করতে পারে। তারা বিড়াল সম্পর্কে কোন পূর্বের জ্ঞান ছাড়াই এটি করে, উদাহরণস্বরূপ, তাদের পশম, পুচ্ছ, গোঁফ এবং বিড়ালের মতো মুখ রয়েছে। পরিবর্তে, তারা স্বয়ংক্রিয়ভাবে শেখার উপাদান প্রক্রিয়া করে তা থেকে সনাক্তকরণ বৈশিষ্ট্য উৎপন্ন করে।
একটি এএনএন একদল সংযুক্ত ইউনিট বা নোডের উপর ভিত্তি করে তৈরি হয় যা কৃত্রিম নিউরন নামে পরিচিত এবং যা জৈবিক মস্তিষ্কের [[স্নায়ুকোষ|স্নায়ুতন্ত্রকে]] প্রায় মডেল করে। প্রতিটি সংযোগ, জৈবিক মস্তিষ্কের সিন্যাপসের মত, একটি কৃত্রিম নিউরন থেকে অন্য একটিতে সংকেত প্রেরণ করতে পারে। একটি কৃত্রিম নিউরন সংকেত গ্রহণ করে তা প্রক্রিয়া করতে পারে এবং তারপরে এটি এর সাথে সংযুক্ত অন্যান্য কৃত্রিম নিউরনগুলিকে সংকেত দিতে পারে।
সাধারণ এএনএন বাস্তবায়নে কৃত্রিম নিউরনগুলির মধ্যে সংযোগের সংকেত একটি [[বাস্তব সংখ্যা]] এবং প্রতিটি কৃত্রিম নিউরনের আউটপুট তার ইনপুটগুলির সমষ্টির কিছু অ-রৈখিক ফাংশন দ্বারা গণনা করা হয়। কৃত্রিম নিউরনের মধ্যে সংযোগগুলিকে 'প্রান্ত' বলা হয়। কৃত্রিম নিউরন এবং প্রান্তগুলি সাধারণত একটি ওজন বা গুরুত্ব থাকে যা শেখার অগ্রগতির সাথে সমন্বিত হয়।এই ওজন বা গুরুত্ব একটি সংযোগে সংকেতের শক্তি বৃদ্ধি বা হ্রাস করে। কৃত্রিম নিউরনের একটি থ্রেশহোল্ড বা সূত্রপাতকারি মান থাকতে পারে; সংকেত শুধুমাত্র পাঠানো হয় যখন সমষ্টিগত সিগন্যালটি সেই থ্রেশহোল্ডটি অতিক্রম করে। সাধারণত, কৃত্রিম নিউরনগুলো স্তরে স্তরে সাজানো থাকে। বিভিন্ন স্তর তাদের ইনপুটকে বিভিন্নভাবে রূপান্তর করতে পারে। সংকেতগুলি প্রথম স্তরের (ইনপুট লেয়ার) থেকে শেষ স্তর (আউটপুট লেয়ার) থেকে ভ্রমণ করে, সম্ভবত স্তরগুলিকে একাধিকবার অতিক্রম করার পরে।
এএনএন পদ্ধতির আসল লক্ষ্য ছিল মানব মস্তিষ্কের মতো একই উপায়ে সমস্যার সমাধান করা। যাহোক, সময়ের সাথে সাথে [[জীববিজ্ঞান]] থেকে বিচ্যুত হয়েে এর উদ্দেশ্য দাড়িয়েছে নির্দিষ্ট কাজ সম্পাদনে। কৃত্রিম স্নায়ু নেটওয়ার্ক কম্পিউটার ভিশন, বাচন শনাক্তকরণ, মেশিন অনুবাদ, সামাজিক নেটওয়ার্ক ফিল্টারিং, বোর্ড ও ভিডিও গেম খেলা এবং রোগ নির্ণয়সহ বিভিন্ন ধরণের কাজে ব্যবহৃত হয়েছে।
<br />
== ইতিহাস ==
ওয়ারেন ম্যাককালোক এবং ওয়াল্টার পিটস <ref>{{সাময়িকী উদ্ধৃতি|শিরোনাম=A Logical Calculus of Ideas Immanent in Nervous Activity|শেষাংশ=McCulloch|প্রথমাংশ=Warren|শেষাংশ২=Walter Pitts|বছর=1943|পাতাসমূহ=115–133|doiডিওআই=10.1007/BF02478259}}</ref> (১৯৪৩) [[গণিত]] এবং থ্রেশহোল্ড লজিক নামক [[অ্যালগরিদম|অ্যালগরিদমের]] উপর ভিত্তি করে নিউরাল নেটওয়ার্কের জন্য একটি কম্পিউটেশনাল মডেল তৈরি করেছেন। এই মডেল নিউরাল নেটওয়ার্ক গবেষণাকে দুটি পদ্ধতিতে বিভক্ত করে। এক দৃষ্টিভঙ্গি মস্তিষ্কের জৈবিক প্রক্রিয়ার উপর জোর দেয় এবং অন্যটি [[কৃত্রিম বুদ্ধিমত্তা|কৃত্রিম বুদ্ধিমত্তায়]] নিউরাল নেটওয়ার্কের প্রয়োগের উপর দৃষ্টি নিবদ্ধ করে। এই মডেল নার্ভ নেটওয়ার্ক এবং সীমাবদ্ধ স্বয়ংক্রীয় যন্ত্রের সাথে তার সম্পর্ক নিয়ে গবেষণার পথ প্রসারিত করে। <ref>{{সংবাদ উদ্ধৃতি|ইউআরএল=https://www.degruyter.com/view/books/9781400882618/9781400882618-002/9781400882618-002.xml|শিরোনাম=Representation of Events in Nerve Nets and Finite Automata|শেষাংশ=Kleene|প্রথমাংশ=S.C.|তারিখ=|কর্ম=Annals of Mathematics Studies|সংগ্রহের-তারিখ=2017-06-17|প্রকাশক=Princeton University Press|বছর=1956|পাতাসমূহ=3–41}}</ref>
=== হেবিয়ান শিক্ষণ ===
১৯৪০-এর দশকের শেষ দিকে, ডি.ও. হেবেব <ref>{{বই উদ্ধৃতি|ইউআরএল={{google books |plainurl=y |id=ddB4AgAAQBAJ}}|শিরোনাম=The Organization of Behavior|শেষাংশ=Hebb|প্রথমাংশ=Donald|বছর=1949|প্রকাশক=Wiley|পাতাসমূহ=|আইএসবিএন=978-1-135-63190-1}}</ref> স্নায়ুতন্ত্রের নমনীয়তার উপর ভিত্তি করে একটি শিক্ষণ প্রস্তাবনা দেন যা হেলব্লিয়ান লার্নিং নামে পরিচিতি লাভ করে। হেবিয়ান শিক্ষণ এক ধরনের অতত্ত্বাবধানকৃত শিক্ষণ । এটি দীর্ঘমেয়াদী ক্ষমতায়নের মডেল হিসেবে বিকশিত হয়। গবেষকরা ১৯৪৮ সালে টুরিংয়ের বি-টাইপ মেশিনের মাধ্যমে কম্পিউটেশনাল মডেলে এই ধারণাগুলি প্রয়োগ করতে শুরু করেন।হেবিয়ান নেটওয়ার্ককে অনুকরণ করতে ফার্লি এবং ক্লার্ক <ref>{{সাময়িকী উদ্ধৃতি|শিরোনাম=Simulation of Self-Organizing Systems by Digital Computer|শেষাংশ=Farley|প্রথমাংশ=B.G.|শেষাংশ২=W.A. Clark|বছর=1954|পাতাসমূহ=76–84|doiডিওআই=10.1109/TIT.1954.1057468}}</ref> (১৯৫৪) প্রথম গণনাকারি যন্ত্র ( সেসময় "ক্যালকুলেটর" নামে পরিচিত) ব্যবহার করেছিলেন । রচেস্টার, হল্যান্ড, হাবিট এবং দুডা (১৯৫৬) অন্যান্য নিউরাল নেটওয়ার্ক কম্পিউটেশনাল মেশিন তৈরি করেন। <ref>{{সাময়িকী উদ্ধৃতি|শিরোনাম=Tests on a cell assembly theory of the action of the brain, using a large digital computer|শেষাংশ=Rochester|প্রথমাংশ=N.|শেষাংশ২=J.H. Holland|বছর=1956|পাতাসমূহ=80–93|doiডিওআই=10.1109/TIT.1956.1056810}}</ref> রোজানব্ল্যাট <ref>{{সাময়িকী উদ্ধৃতি|শিরোনাম=The Perceptron: A Probabilistic Model For Information Storage And Organization In The Brain|শেষাংশ=Rosenblatt|প্রথমাংশ=F.|বছর=1958|পাতাসমূহ=386–408|citeseerx=10.1.1.588.3775|doiডিওআই=10.1037/h0042519|pmid=13602029}}</ref> (১৯৫৮) পারসেপট্রন নামক প্যাটার্ন শনাক্তের একটি অ্যালগরিদম তৈরি করেছিলেন। গাণিতিক সংকেত দিয়ে রোজেনল্যাব দেখান যে কিছু সার্কিট মৌলিক পারসেপট্রন- এ অনুপস্থিত, যেমন এক্সক্লুসিভ-অর সার্কিট সে সময়ে নিউরাল নেটওয়ার্ক দ্বারা প্রক্রিয়া করা সম্ভব হয় নি। <ref name="Werbos 1975">{{বই উদ্ধৃতি|ইউআরএল={{google books |plainurl=y |id=z81XmgEACAAJ}}|শিরোনাম=Beyond Regression: New Tools for Prediction and Analysis in the Behavioral Sciences|শেষাংশ=Werbos|প্রথমাংশ=P.J.|বছর=1975|পাতাসমূহ=|আইএসবিএন=}}</ref> ১৯৫৯ সালে [[নোবেল পুরস্কারপ্রাপ্তদের তালিকা|নোবেল বিজয়ী]] [[ডেভিড এইচ হাবেল|হিউবেল]] এবং উইসেলের প্রস্তাবিত জৈবিক মডেলটি প্রাথমিক দর্শন কর্টেক্সে দু ধরণের কোষ : সাধারণ কোষ এবং জটিল কোষ আবিষ্কারের উপর ভিত্তি করে ছিল। <ref>{{বই উদ্ধৃতি|ইউআরএল=https://books.google.com/books?id=8YrxWojxUA4C&pg=PA106|শিরোনাম=Brain and visual perception: the story of a 25-year collaboration|শেষাংশ=David H. Hubel and Torsten N. Wiesel|বছর=2005|প্রকাশক=Oxford University Press US|পাতা=106|আইএসবিএন=978-0-19-517618-6}}</ref> ১৯৬৫ সালে ইভাখেনঙ্কো এবং লাপা প্রথম বহুস্তরবিশিষ্ট কার্যকরী নেটওয়ার্ক প্রকাশ করেন যা ডেটা হ্যান্ডলিংয়ের গ্রুপ পদ্ধতি হয়ে উঠেছে। <ref name="SCHIDHUB2">{{সাময়িকী উদ্ধৃতি|শিরোনাম=Deep Learning in Neural Networks: An Overview|শেষাংশ=Schmidhuber|প্রথমাংশ=J.|বছর=2015|পাতাসমূহ=85–117|arxiv=1404.7828|doiডিওআই=10.1016/j.neunet.2014.09.003|pmid=25462637}}</ref> <ref name="ivak1965">{{বই উদ্ধৃতি|ইউআরএল={{google books |plainurl=y |id=FhwVNQAACAAJ}}|শিরোনাম=Cybernetic Predicting Devices|শেষাংশ=Ivakhnenko|প্রথমাংশ=A. G.|বছর=1973|প্রকাশক=CCM Information Corporation}}</ref> <ref name="ivak1967">{{বই উদ্ধৃতি|ইউআরএল={{google books |plainurl=y |id=rGFgAAAAMAAJ}}|শিরোনাম=Cybernetics and forecasting techniques|শেষাংশ=Ivakhnenko|প্রথমাংশ=A. G.|শেষাংশ২=Grigorʹevich Lapa|প্রথমাংশ২=Valentin|বছর=1967|প্রকাশক=American Elsevier Pub. Co.}}</ref>
[[মার্ভিন মিন্সকি|মিনস্কি]] এবং পেপার্ট (1969) দ্বারা [[মেশিন লার্নিং]] গবেষণার পরে নিউরাল নেটওয়ার্ক গবেষণা স্থগিত থাকে, <ref>{{বই উদ্ধৃতি|ইউআরএল={{google books |plainurl=y |id=Ow1OAQAAIAAJ}}|শিরোনাম=Perceptrons: An Introduction to Computational Geometry|শেষাংশ=Minsky|প্রথমাংশ=Marvin|শেষাংশ২=Papert|প্রথমাংশ২=Seymour|বছর=1969|প্রকাশক=MIT Press|পাতাসমূহ=|আইএসবিএন=978-0-262-63022-1}}</ref> কারণ তারা নিউরাল নেটওয়ার্ক প্রক্রিয়া করে এমন কম্পিউটেশনাল মেশিনগুলির দুটি মূল সমস্যা আবিষ্কার করেন। প্রথমটি হল মৌলিক পারসেপট্রন এক্সক্লুসিভ-অর সার্কিট প্রক্রিয়াকরণ করতে অসমর্থ ছিল। দ্বিতীয়ত বড় আকারের নিউরাল নেটওয়ার্কগুলির প্রয়োজনীয় কাজ পরিচালনা করার জন্য কম্পিউটারের পর্যাপ্ত প্রক্রিয়াকরণ ক্ষমতা ছিল না। কম্পিউটার অনেক বেশি প্রক্রিয়াকরণ ক্ষমতা অর্জন না করা পর্যন্ত নিউরাল নেটওয়ার্ক গবেষণা ধীর ছিল। অধিকাংশ [[কৃত্রিম বুদ্ধিমত্তা]] তখন উচ্চ পর্যায়ের (প্রতীকী) মডেলের উপর দৃষ্টি নিবদ্ধ করেছিল যা [[অ্যালগরিদম]] ব্যবহার করে প্রক্রিয়া করা যেত, উদাহরণস্বরুপ ''যদি-তারপর'' নিয়ম চালিতবিশেষজ্ঞ ব্যবস্থা দিয়ে চিহ্নিত, যে পর্যন্ত না ১৯৮০ সালে গবেষণা নিম্নস্তরের (উপ- প্রতীকী) [[মেশিন লার্নিং]]-এ প্রসারিত হয়, যা একটি জ্ঞানীয় মডেলের পরামিতির মধ্যে অন্তর্ভুক্ত জ্ঞান দ্বারা চিহ্নিত। {{তথ্যসূত্র প্রয়োজন|date=August 2017|reason=Reliable source needed for the whole sentence}}
<sup class="noprint Inline-Template Template-Fact" data-ve-ignore="true">[ ''[[উইকিপিডিয়া:তথ্যসূত্র প্রয়োজন|<span title="Reliable source needed for the whole sentence (August 2017)">উদ্ধৃতি প্রয়োজন</span>]]'' ]</sup>
=== ব্যাকপ্রোপ্যাগেশন বা পশ্চাত-বিস্তার ===
নিউরাল নেটওয়ার্ক এবং শিক্ষার পুনরুজ্জীবিত আগ্রহের মূল সূত্রপাতকারি ছিল ওয়্যারবোস এর (১৯৭৫) ব্যাকপ্রোপ্যাগেশন বা পশ্চাত-বিস্তার অ্যালগরিদম,যা বহুস্তর নেটওয়ার্কগুলির প্রশিক্ষণ সম্ভাবপর ও কার্যকর করে। পশ্চাত-বিস্তার প্রতিটি নোডের ওজন সংশোধন করে স্তরগুলির মধ্যে ত্রুটি পেছন দিকে বিস্তার করে। <ref name="Werbos 1975">{{বই উদ্ধৃতি|ইউআরএল={{google books |plainurl=y |id=z81XmgEACAAJ}}|শিরোনাম=Beyond Regression: New Tools for Prediction and Analysis in the Behavioral Sciences|শেষাংশ=Werbos|প্রথমাংশ=P.J.|বছর=1975|পাতাসমূহ=|আইএসবিএন=}}</ref>
১৯৮০-এর দশকের মাঝামাঝি সময়ে, সংযোগবাদ জনপ্রিয় হয়ে ওঠে সমান্তরাল বিতরণ প্রক্রিয়াকরণ নামে। রুমেলহার্ট এবং ম্যাকক্লেল্যান্ড (১৯৮৬) সংযোগবাদ ব্যবহার কীভাবে স্নায়ুবিক প্রক্রিয়া অনুকরণ করা যায় তা বর্ণনা করেন। <ref>{{বই উদ্ধৃতি|ইউআরএল={{google books |plainurl=y |id=davmLgzusB8C}}|শিরোনাম=Parallel Distributed Processing: Explorations in the Microstructure of Cognition|শেষাংশ=Rumelhart|প্রথমাংশ=D.E|শেষাংশ২=McClelland|প্রথমাংশ২=James|বছর=1986|প্রকাশক=MIT Press|পাতাসমূহ=|আইএসবিএন=978-0-262-63110-5}}</ref>
সাপোর্ট ভেক্টর মেশিন ও রৈখিক শ্রেণিভুক্তকারকের মত অনেক সহজ পদ্ধতি মেশিন লার্নিংকে ধীরে ধীরে নিউরাল নেটওয়ার্কের চেয়ে বেশি জনপ্রিয়তার করে তোলে। যাইহোক, নিউরাল নেটওয়ার্ক-এর ব্যবহার কিছু ডোমেন, যেমন প্রোটিন কাঠামো পূর্বাভাসে আমুল পরিবর্তন ঘটে। <ref>{{সংবাদ উদ্ধৃতি|ইউআরএল=http://www.columbia.edu/~nq6/publications/protein.pdf|শিরোনাম=Predicting the secondary structure of globular proteins using neural network models.|শেষাংশ=Qian|প্রথমাংশ=N.|কর্ম=Journal of Molecular Biology|শেষাংশ২=Sejnowski|প্রথমাংশ২=T.J.|বছর=1988|খণ্ড=202|পাতাসমূহ=865–884|idআইডি=Qian1988}}</ref> <ref>{{সংবাদ উদ্ধৃতি|ইউআরএল=http://www.cs.albany.edu/~berg/sta650/Assignments/RostSander93.pdf|শিরোনাম=Prediction of protein secondary structure at better than 70% accuracy|শেষাংশ=Rost|প্রথমাংশ=B.|কর্ম=Journal of Molecular Biology|শেষাংশ২=Sander|প্রথমাংশ২=C.|বছর=1993|খণ্ড=232|পাতাসমূহ=584–599|idআইডি=Rost1993}}</ref>
১৯৯২ সালে ত্রিমাত্রিক বস্তু শনাক্তকরণে লিস্ট শিফট ইনভেরিয়েন্স এবং বিকৃতির সহনশীলতায় সহায়তা করার জন্য ম্যাক্স পুলিং চালু করা হয়েছিল। <ref name="Weng1992">J. Weng, N. Ahuja and T. S. Huang, "[http://www.cse.msu.edu/~weng/research/CresceptronIJCNN1992.pdf Cresceptron: a self-organizing neural network which grows adaptively]," ''Proc. International Joint Conference on Neural Networks'', Baltimore, Maryland, vol I, pp. 576–581, June, 1992.</ref> <ref name="Weng19932">J. Weng, N. Ahuja and T. S. Huang, "[http://www.cse.msu.edu/~weng/research/CresceptronICCV1993.pdf Learning recognition and segmentation of 3-D objects from 2-D images]," ''Proc. 4th International Conf. Computer Vision'', Berlin, Germany, pp. 121–128, May, 1993.</ref> <ref name="Weng1997">J. Weng, N. Ahuja and T. S. Huang, "[http://www.cse.msu.edu/~weng/research/CresceptronIJCV.pdf Learning recognition and segmentation using the Cresceptron]," ''International Journal of Computer Vision'', vol. 25, no. 2, pp. 105–139, Nov. 1997.</ref> ২০১০ সালে, ম্যাক্স পুলিংয়ের মাধ্যমে পশ্চাত-বিস্তার প্রশিক্ষণ জিপিইউ দ্বারা ত্বরান্বিত হয় এবং অন্যান্য পুলিংয়ের বৈকল্পিকগুলির চেয়ে ভাল সঞ্চালন দেখানো হয়েছিল। <ref name="Scherer2010">Dominik Scherer, Andreas C. Müller, and Sven Behnke: "[https://www.ais.uni-bonn.de/papers/icann2010_maxpool.pdf Evaluation of Pooling Operations in Convolutional Architectures for Object Recognition]," ''In 20th International Conference Artificial Neural Networks (ICANN)'', pp. 92–101, 2010. {{Doi|10.1007/978-3-642-15825-4_10}}.</ref>
ভ্যানিশিং গ্রেডিয়েন্ট সমস্যাটি ব্যাক-প্রোপাগ্যাগেশন ব্যবহার করে এমন বহু-স্তরযুক্ত ফিডফরওয়ার্ড নেটওয়ার্ক এবং পুনরাবৃত্ত নিউরাল নেটওয়ার্ককে প্রভাবিত করে। <ref name="HOCH19912">S. Hochreiter., "[http://people.idsia.ch/~juergen/SeppHochreiter1991ThesisAdvisorSchmidhuber.pdf Untersuchungen zu dynamischen neuronalen Netzen]," ''Diploma thesis. Institut f. Informatik, Technische Univ. Munich. Advisor: J. Schmidhuber'', 1991.</ref> <ref name="HOCH2001">{{বই উদ্ধৃতি|শিরোনাম=A Field Guide to Dynamical Recurrent Networks|শেষাংশ=Hochreiter|প্রথমাংশ=S.|অধ্যায়ের-ইউআরএল={{google books |plainurl=y |id=NWOcMVA64aAC}}|তারিখ=15 January 2001|প্রকাশক=John Wiley & Sons|পাতাসমূহ=|অধ্যায়=Gradient flow in recurrent nets: the difficulty of learning long-term dependencies|আইএসবিএন=978-0-7803-5369-5}}</ref> যখন ত্রুটিগুলি স্তরে স্তরে ছড়িয়ে পড়ে, স্তরের সংখ্যার সাথে তারা দ্রুতগতিতে সঙ্কুচিত হয়,যা সেই ত্রুটিগুলির উপর ভিত্তি করে নিউরন ওজনগুলির সমন্বয়কে আটকে দেয়, বিশেষ করে গভীর নেটওয়ার্কগুলিকে প্রভাবিত করে।
এই সমস্যাটি কাটিয়ে উঠার জন্য, শ্মিডুবার নেটওয়ার্কগুলির একটি বহুস্তরের অনুক্রম (১৯৯২) গ্রহণ করেন, যাতে প্রতি স্তর এক স্তর করে আধাতত্ত্বাবধানকৃত শিক্ষণ মাধ্যমে প্রাক-প্রশিক্ষিত এবং ব্যাকপ্রোপাগেশন দ্বারা সমন্বিত। <ref name="SCHMID1992">J. Schmidhuber., "Learning complex, extended sequences using the principle of history compression," ''Neural Computation'', 4, pp. 234–242, 1992.</ref> বেনকে-এর (২০০৩) ইমেজ পুনর্গঠন এবং মুখ স্থানীয়করণ মত সমস্যা সমাধান শুধুমাত্র গ্রেডিয়েন্ট-এর ( আর.প্রপ ) <ref>{{বই উদ্ধৃতি|ইউআরএল=http://www.ais.uni-bonn.de/books/LNCS2766.pdf|শিরোনাম=Hierarchical Neural Networks for Image Interpretation.|শেষাংশ=Sven Behnke|বছর=2003|ধারাবাহিক=Lecture Notes in Computer Science|প্রকাশক=Springer}}</ref> চিন্হের উপর নির্ভরশীল।
হিন্টন এবং তার সহকর্মীরা (২০০৬) প্রতিটি স্তর মডেল করার জন্য একটি সীমিত বোল্টজম্যান মেশিন- এর <ref name="smolensky1986">{{বই উদ্ধৃতি|শিরোনাম=Parallel Distributed Processing: Explorations in the Microstructure of Cognition|শেষাংশ=Smolensky|প্রথমাংশ=P.|অধ্যায়ের-ইউআরএল=http://portal.acm.org/citation.cfm?id=104290|বছর=1986|পাতাসমূহ=194–281|অধ্যায়=Information processing in dynamical systems: Foundations of harmony theory.|আইএসবিএন=9780262680530}}</ref> সঙ্গে বাইনারি বা বাস্তব-মান বিশিষ্ট প্রচ্ছন্ন চলকের ধারাবাহিক স্তর ব্যবহার করে একটি উচ্চ স্তরের উপস্থাপনা শেখার প্রস্তাবনা দেন। যথেষ্ট সংখ্যক স্তর শিখে গেলে, উচ্চ স্তরের বৈশিষ্ট্যের অ্যাক্টিভেশনগুলি থেকে মডেলটি ("পূর্বপুরুষ ধাপ") নমুনা করার সময় ডেটা পুনরুত্পাদন করে গভীর আর্কিটেকচারটিকে একটি জেনারেটিভ মডেল হিসাবে ব্যবহার করা যেতে পারে। <ref name="hinton2006">{{সাময়িকী উদ্ধৃতি|ইউআরএল=http://www.cs.toronto.edu/~hinton/absps/fastnc.pdf|শিরোনাম=A fast learning algorithm for deep belief nets|শেষাংশ=Hinton|প্রথমাংশ=G. E.|শেষাংশ২=Osindero|প্রথমাংশ২=S.|বছর=2006|পাতাসমূহ=1527–1554|citeseerx=10.1.1.76.1541|doiডিওআই=10.1162/neco.2006.18.7.1527|pmid=16764513}}</ref> <ref>{{সাময়িকী উদ্ধৃতি|ইউআরএল=http://www.scholarpedia.org/article/Deep_belief_networks|শিরোনাম=Deep belief networks|শেষাংশ=Hinton|প্রথমাংশ=G.|বছর=2009|পাতাসমূহ=5947|doiডিওআই=10.4249/scholarpedia.5947|pmc=|pmid=}}</ref> ২০১২ সালে, অং ও ডিন [[ইউটিউব]] ভিডিও থেকে নেওয়া শুধু লেবেল-ছাড়া চিত্র দেখে বিড়ালের মতো উচ্চ স্তরের ধারণাকে চিনতে শেখা একটি নেটওয়ার্ক তৈরি করেছে। <ref name="ng2012">{{Cite arXiv}}</ref>
জিপিইউ এবং বন্টিত কম্পিউটিং ব্যবহার করার মাধ্যমে যখন উপলব্ধ কম্পিউটিং ক্ষমতা বৃদ্ধি পেল, তখন গভীর নিউরাল নেটওয়ার্ক প্রশিক্ষণের প্রাথমিক চ্যালেঞ্জগুলি সফলভাবে অপ্রয়োজনীয় পূর্ব-প্রশিক্ষণের মতো পদ্ধতির সাহায্যে সমাধান করা হয়। নিউরাল নেটওয়ার্ক একটি বড় আকারে, বিশেষত ছবি ও দৃষ্টি শনাক্তকরণ সমস্যার সমাধানে নিযুক্ত করা হয়। এই " গভীর শিক্ষণ " বা “ডিপ লার্নিং” হিসাবে পরিচিত হয়ে ওঠে। {{তথ্যসূত্র প্রয়োজন|date=June 2018}}
=== হার্ডওয়্যার-ভিত্তিক ডিজাইন ===
বায়োফিজিকাল সিমুলেশন এবং নিউরোমর্ফিক কম্পিউটিং উভয়ের জন্য [[সিমস|সিমস (CMOS)]] দিয়ে কম্পিউটেশনাল ডিভাইস তৈরি করা হয়। ন্যানো ডিভাইসগুলো <ref>{{সাময়িকী উদ্ধৃতি|ইউআরএল=|শিরোনাম=Memristive switching mechanism for metal/oxide/metal nanodevices|শেষাংশ=Yang|প্রথমাংশ=J. J.|শেষাংশ২=Pickett|প্রথমাংশ২=M. D.|বছর=2008|পাতাসমূহ=429–433|doiডিওআই=10.1038/nnano.2008.160|pmid=18654568}}</ref> খুব বড় আকারের প্রধান উপাদান বিশ্লেষণ (PCA) ও সংবর্তন বা কনভলুশনে নিউরাল কম্পিউটিং এর একটি নতুন শ্রেণী তৈরি করতে পারে, কারণ মৌলিকভাবে এরা এনালগ (ডিজিটাল নয়) (যদিও প্রথম বাস্তবায়নের ডিজিটাল ডিভাইস ব্যবহার করা যেতে পারে)। <ref>{{সাময়িকী উদ্ধৃতি|ইউআরএল=|শিরোনাম=The missing memristor found|শেষাংশ=Strukov|প্রথমাংশ=D. B.|শেষাংশ২=Snider|প্রথমাংশ২=G. S.|বছর=2008|পাতাসমূহ=80–83|doiডিওআই=10.1038/nature06932|pmid=18451858}}</ref> শ্মিডুবার গ্রুপে সাইয়ারসন এবং সহকর্মীরা (২০১০) <ref name=":3">{{সাময়িকী উদ্ধৃতি|শিরোনাম=Deep, Big, Simple Neural Nets for Handwritten Digit Recognition|শেষাংশ=Cireşan|প্রথমাংশ=Dan Claudiu|শেষাংশ২=Meier|প্রথমাংশ২=Ueli|তারিখ=2010-09-21|পাতাসমূহ=3207–3220|arxiv=1003.0358|doiডিওআই=10.1162/neco_a_00052|issn=0899-7667|pmid=20858131}}</ref> দেখিয়েছেন যে ভ্যানিশিং গ্রেডিয়েন্ট সমস্যাটি সত্ত্বেও, জিপিইউ-এর ব্যবহার বহুস্তর ফিডফরওয়ার্ড নিউরাল নেটওয়ার্কগুলির জন্য ব্যাক-প্রপোগেশন সম্ভবপর করে তোলে।
=== প্রতিযোগিতা ===
২০০৯ থেকে ২০১২ সাল পর্যন্ত শ্মিডুবার-এর গবেষণা দলের রিকারেন্ট নিউরাল নেটওয়ার্ক এবং গভীর ফিডফরওয়ার্ড নিউরাল নেটওয়ার্ক, প্যাটার্ন শনাক্তকরণ এবং [[মেশিন লার্নিং]]-এর আটটি আন্তর্জাতিক প্রতিযোগিতায় জয়ী হয়। <ref>[http://www.kurzweilai.net/how-bio-inspired-deep-learning-keeps-winning-competitions 2012 Kurzweil AI Interview] with [[Jürgen Schmidhuber]] on the eight competitions won by his Deep Learning team 2009–2012</ref> <ref>{{ওয়েব উদ্ধৃতি|ইউআরএল=http://www.kurzweilai.net/how-bio-inspired-deep-learning-keeps-winning-competitions|শিরোনাম=How bio-inspired deep learning keeps winning competitions {{!}} KurzweilAI|শেষাংশ=|প্রথমাংশ=|তারিখ=|ওয়েবসাইট=www.kurzweilai.net|সংগ্রহের-তারিখ=2017-06-16}}</ref> উদাহরণস্বরূপ, গ্রেভস ও সহকর্মীর দ্বিমুখী এবং বহুমাত্রিক দীর্ঘ স্বল্পমেয়াদী স্মৃতি (এলএসটিএম) <ref>Graves, Alex; and Schmidhuber, Jürgen; ''[http://www.idsia.ch/~juergen/nips2009.pdf Offline Handwriting Recognition with Multidimensional Recurrent Neural Networks]'', in Bengio, Yoshua; Schuurmans, Dale; Lafferty, John; Williams, Chris K. I.; and Culotta, Aron (eds.), ''Advances in Neural Information Processing Systems 22 (NIPS'22), 7–10 December 2009, Vancouver, BC'', Neural Information Processing Systems (NIPS) Foundation, 2009, pp. 545–552.
</ref> <ref name="graves 855" /> <ref name="graves20093">{{সাময়িকী উদ্ধৃতি|ইউআরএল=https://papers.nips.cc/paper/3449-offline-handwriting-recognition-with-multidimensional-recurrent-neural-networks|শিরোনাম=Offline Handwriting Recognition with Multidimensional Recurrent Neural Networks|শেষাংশ=Graves|প্রথমাংশ=Alex|শেষাংশ২=Schmidhuber|প্রথমাংশ২=Jürgen|তারিখ=2009|প্রকাশক=Curran Associates, Inc|পাতাসমূহ=545–552|viaমাধ্যম=}}</ref> <ref>{{সাময়িকী উদ্ধৃতি|ইউআরএল=http://ieeexplore.ieee.org/document/4531750/|শিরোনাম=A Novel Connectionist System for Unconstrained Handwriting Recognition|শেষাংশ=Graves|প্রথমাংশ=A.|শেষাংশ২=Liwicki|প্রথমাংশ২=M.|তারিখ=May 2009|পাতাসমূহ=855–868|citeseerx=10.1.1.139.4502|doiডিওআই=10.1109/tpami.2008.137|issn=0162-8828|pmid=19299860}}</ref> ,২০০৯ সালের ডকুমেন্ট বিশ্লেষণ ও শনাক্তকরণ আন্তর্জাতিক সম্মেলন (আইসিডিএআর) -এ তিনটি ভাষা সম্পর্কে পূর্বে কোন জ্ঞান ছাড়াই সংযুক্ত হস্তাক্ষর শনাক্তকরণণের তিনটি প্রতিযোগিতা জিতেছে। <ref name="graves20093" /> <ref name="graves 855">{{সাময়িকী উদ্ধৃতি|ইউআরএল=http://www.idsia.ch/~juergen/tpami_2008.pdf|শিরোনাম=A Novel Connectionist System for Improved Unconstrained Handwriting Recognition|শেষাংশ=Graves|প্রথমাংশ=A.|শেষাংশ২=Liwicki|প্রথমাংশ২=M.|বছর=2009|পাতাসমূহ=855–868|citeseerx=10.1.1.139.4502|doiডিওআই=10.1109/tpami.2008.137|pmid=19299860}}</ref><ref name="graves20093" />
সাইয়ারস এবং সহকর্মীরা আইইআরসিএনএন ২০১১ ট্রাফিক সাইন রেকগিশন কম্পিটিশন, <ref name=":72">{{সাময়িকী উদ্ধৃতি|ইউআরএল=http://www.sciencedirect.com/science/article/pii/S0893608012000524|শিরোনাম=Multi-column deep neural network for traffic sign classification|শেষাংশ=Cireşan|প্রথমাংশ=Dan|শেষাংশ২=Meier|প্রথমাংশ২=Ueli|তারিখ=August 2012|ধারাবাহিক=Selected Papers from IJCNN 2011|পাতাসমূহ=333–338|citeseerx=10.1.1.226.8219|doiডিওআই=10.1016/j.neunet.2012.02.023|pmid=22386783}}</ref> আইআরবিএন ২০১২ ইলেক্ট্রন মাইক্রোস্কোপি স্ট্যাকস চ্যালেঞ্জ-এ নিউরোনাল কাঠামোর বিভাজন সহ <ref name=":8">{{বই উদ্ধৃতি|ইউআরএল=http://papers.nips.cc/paper/4741-deep-neural-networks-segment-neuronal-membranes-in-electron-microscopy-images.pdf|শিরোনাম=Advances in Neural Information Processing Systems 25|শেষাংশ=Ciresan|প্রথমাংশ=Dan|শেষাংশ২=Giusti|প্রথমাংশ২=Alessandro|তারিখ=2012|প্রকাশক=Curran Associates, Inc.|পাতাসমূহ=2843–2851}}</ref> অন্যান্য প্যাটার্ন <a href="./ ডকুমেন্ট বিশ্লেষণ এবং স্বীকৃতি আন্তর্জাতিক সম্মেলন " rel="mw:WikiLink" data-linkid="172" data-cx="{&quot;adapted&quot;:false,&quot;sourceTitle&quot;:{&quot;title&quot;:&quot;International Conference on Document Analysis and Recognition&quot;,&quot;pageprops&quot;:{&quot;wikibase_item&quot;:&quot;Q18626007&quot;},&quot;pagelanguage&quot;:&quot;en&quot;},&quot;targetFrom&quot;:&quot;mt&quot;}" class="cx-link" id="mw1Q" title=" ডকুমেন্ট বিশ্লেষণ এবং স্বীকৃতি আন্তর্জাতিক সম্মেলন ">শনাক্তকরণ</a> প্রতিযোগিতা জিতেছে। ট্র্যাফিক সাইন শনাক্তকরণ (আইজেসিএনএন ২০১২), অথবা এমএনআইআইএসটি হাতের লেখা সংখ্যার সমস্যা হিসাবে মানক-প্রতিযোগিতামূলক বা এমনকি অতিমানবীয় কর্মক্ষমতা <ref name=":92">{{বই উদ্ধৃতি|ইউআরএল=http://ieeexplore.ieee.org/document/6248110/|শিরোনাম=Multi-column deep neural networks for image classification|শেষাংশ=Ciresan|প্রথমাংশ=Dan|শেষাংশ২=Meier|প্রথমাংশ২=U.|তারিখ=June 2012|কর্ম=2012 IEEE Conference on Computer Vision and Pattern Recognition|পাতাসমূহ=3642–3649|viaমাধ্যম=|arxiv=1202.2745|citeseerx=10.1.1.300.3283|doiডিওআই=10.1109/cvpr.2012.6248110|আইএসবিএন=978-1-4673-1228-8}}</ref> অর্জনে তাদের নিউরালনেটওয়ার্কগুলি প্রথম প্যাটার্ন সনাক্তকারী ছিল।
গবেষকরা দেখিয়েছেন যে (২০১০), যদি গভীর নিউরাল নেটওয়ার্কগুলি একটি প্রসঙ্গ-নির্ভর অবস্থাযুক্ত গোপন মার্কভ মডেলের সাথে সংযুক্ত করা হয় যা নিউরাল নেটওয়ার্কের আউটপুট লেয়ারকে সংজ্ঞায়িত করে, তাহলে ভয়েস অনুসন্ধানের মতো বড় শব্দভাণ্ডারযুক্ত বাচন সনাক্তকরণের কাজগুলিতে ত্রুটিগুলি অনেকাংশে কমে যেতে পারে।
এই পদ্ধতির জিপিইউ ভিত্তিক বাস্তবায়ন <ref name=":6">{{সাময়িকী উদ্ধৃতি|ইউআরএল=http://ijcai.org/papers11/Papers/IJCAI11-210.pdf|শিরোনাম=Flexible, High Performance Convolutional Neural Networks for Image Classification|শেষাংশ=Ciresan|প্রথমাংশ=D. C.|শেষাংশ২=Meier|প্রথমাংশ২=U.|তারিখ=2011|পাতাসমূহ=|viaমাধ্যম=|doiডিওআই=10.5591/978-1-57735-516-8/ijcai11-210}}</ref> আইজেসিএনএন ২০১১ ট্রাফিক সাইন রেকগিশন কম্পিটিশন, <ref name=":72">{{সাময়িকী উদ্ধৃতি|ইউআরএল=http://www.sciencedirect.com/science/article/pii/S0893608012000524|শিরোনাম=Multi-column deep neural network for traffic sign classification|শেষাংশ=Cireşan|প্রথমাংশ=Dan|শেষাংশ২=Meier|প্রথমাংশ২=Ueli|তারিখ=August 2012|ধারাবাহিক=Selected Papers from IJCNN 2011|পাতাসমূহ=333–338|citeseerx=10.1.1.226.8219|doi=10.1016/j.neunet.2012.02.023|pmid=22386783}}</ref> আই এস স্ট্যাক চ্যালেঞ্জে নিউরোনাল কাঠামোর বিভাজন, <ref name=":8">{{বই উদ্ধৃতি|ইউআরএল=http://papers.nips.cc/paper/4741-deep-neural-networks-segment-neuronal-membranes-in-electron-microscopy-images.pdf|শিরোনাম=Advances in Neural Information Processing Systems 25|শেষাংশ=Ciresan|প্রথমাংশ=Dan|শেষাংশ২=Giusti|প্রথমাংশ২=Alessandro|তারিখ=2012|প্রকাশক=Curran Associates, Inc.|পাতাসমূহ=2843–2851}}</ref> [[ ImageNet প্রতিযোগিতা |ইমেজনেট প্রতিযোগিতা]] <ref name="krizhevsky2012">{{সাময়িকী উদ্ধৃতি|ইউআরএল=https://papers.nips.cc/paper/4824-imagenet-classification-with-deep-convolutional-neural-networks.pdf|শিরোনাম=ImageNet Classification with Deep Convolutional Neural Networks|শেষাংশ=Krizhevsky|প্রথমাংশ=Alex|শেষাংশ২=Sutskever|প্রথমাংশ২=Ilya|তারিখ=2012|সাময়িকী=|সংগ্রহের-তারিখ=}}</ref> সহ অনেক প্যাটার্ন [[ প্যাটার্ন স্বীকৃতি |শনাক্তকরণ]] প্রতিযোগিতা জিতেছে।
হিন্টন সরল এবং জটিল কোষ দ্বারা অনুপ্রাণিত গভীর, অত্যন্ত ননলিনিয়ার নিউরাল আর্কিটেকচার যা [[ Neocognitron |নিওকোগনিট্রন]] <ref name="K. Fukushima. Neocognitron 1980">{{সাময়িকী উদ্ধৃতি|শিরোনাম=Neocognitron: A self-organizing neural network model for a mechanism of pattern recognition unaffected by shift in position|শেষাংশ=Fukushima, K.|বছর=1980|পাতাসমূহ=93–202|doiডিওআই=10.1007/BF00344251|pmid=7370364}}</ref> এবং "দৃষ্টির আদর্শ স্থাপত্য"-এর মতো <ref>{{সাময়িকী উদ্ধৃতি|শিরোনাম=Hierarchical models of object recognition in cortex|শেষাংশ=Riesenhuber|প্রথমাংশ=M|শেষাংশ২=Poggio|প্রথমাংশ২=T|বছর=1999|পাতাসমূহ=1019–1025|doiডিওআই=10.1038/14819|pmid=10526343}}</ref> , অতত্ত্বাবধানকৃত পদ্ধতি দ্বারা প্রাক- প্রশিক্ষিত করেন। <ref name="hinton2006"/><ref name=":1">{{সাময়িকী উদ্ধৃতি|ইউআরএল=http://www.scholarpedia.org/article/Deep_belief_networks|শিরোনাম=Deep belief networks|শেষাংশ=Hinton|প্রথমাংশ=Geoffrey|তারিখ=2009-05-31|পাতাসমূহ=5947|doiডিওআই=10.4249/scholarpedia.5947|issn=1941-6016}}</ref> <ref name="hinton2006">{{সাময়িকী উদ্ধৃতি|ইউআরএল=http://www.cs.toronto.edu/~hinton/absps/fastnc.pdf|শিরোনাম=A fast learning algorithm for deep belief nets|শেষাংশ=Hinton|প্রথমাংশ=G. E.|শেষাংশ২=Osindero|প্রথমাংশ২=S.|বছর=2006|পাতাসমূহ=1527–1554|citeseerx=10.1.1.76.1541|doi=10.1162/neco.2006.18.7.1527|pmid=16764513}}</ref> তার গবেষণাগার থেকে একটি দল মর্কের পৃষ্ঠপোষকতায় ২০১২ সালের প্রতিযোগিতা জেতে। তারা এমন একটি সফ্টওয়্যার তৈরি করেন যা নতুন ড্রাগস সনাক্ত করতে পারে এমন অণু খুঁজে পেতে সহায়তা করে । <ref>{{সংবাদ উদ্ধৃতি|ইউআরএল=https://www.nytimes.com/2012/11/24/science/scientists-see-advances-in-deep-learning-a-part-of-artificial-intelligence.html|শিরোনাম=Scientists See Promise in Deep-Learning Programs|শেষাংশ=|প্রথমাংশ=John|তারিখ=November 23, 2012|কর্ম=New York Times}}</ref>
=== কনভলুশনাল নিউরাল নেটওয়ার্ক ===
{{As of|2011}} , গভীর শিক্ষা শেখার ফরোয়ার্ড নেটওয়ার্ক শিল্পের অবস্থা, সংকোচকারী স্তর এবং সর্বাধিক পুলিং স্তরগুলির মধ্যে পরিবর্তিত, <ref name=":6">{{সাময়িকী উদ্ধৃতি|ইউআরএল=http://ijcai.org/papers11/Papers/IJCAI11-210.pdf|শিরোনাম=Flexible, High Performance Convolutional Neural Networks for Image Classification|শেষাংশ=Ciresan|প্রথমাংশ=D. C.|শেষাংশ২=Meier|প্রথমাংশ২=U.|তারিখ=2011|পাতাসমূহ=|via=|doi=10.5591/978-1-57735-516-8/ijcai11-210}}</ref> <ref name="martines2013">{{সাময়িকী উদ্ধৃতি|ইউআরএল=https://www.um.edu.mt/library/oar//handle/123456789/29605|শিরোনাম=Learning Deep Physiological Models of Affect|শেষাংশ=Martines|প্রথমাংশ=H.|শেষাংশ২=Bengio|প্রথমাংশ২=Y.|বছর=2013|পাতাসমূহ=20–33|ধরন=Submitted manuscript|doiডিওআই=10.1109/mci.2013.2247823}}</ref> বিভিন্ন সম্পূর্ণ বা সামঞ্জস্যপূর্ণ সংযুক্ত স্তরগুলির দ্বারা শীর্ষস্থানীয় এবং পরবর্তী চূড়ান্ত শ্রেণীকরণ স্তর অনুসরণ করে। শিক্ষা সাধারণত unsupervised প্রাক প্রশিক্ষণ ছাড়া সম্পন্ন করা হয়। সংশ্লেষ স্তর, ইনপুট সঙ্গে convolved হয় ফিল্টার আছে। প্রতিটি ফিল্টার একটি ওজন ভেক্টর সমান যে প্রশিক্ষিত করা আছে।
এই ধরনের তত্ত্বাবধানে গভীর শিক্ষার পদ্ধতিগুলি প্রথম বাস্তব প্রয়োগগুলির উপর মানুষের প্রতিযোগিতামূলক কর্মক্ষমতা অর্জনের প্রথম ছিল। <ref name=":92" >{{বই উদ্ধৃতি|ইউআরএল=http://ieeexplore.ieee.org/document/6248110/|শিরোনাম=Multi-column deep neural networks for image classification|শেষাংশ=Ciresan|প্রথমাংশ=Dan|শেষাংশ২=Meier|প্রথমাংশ২=U.|তারিখ=June 2012|কর্ম=2012 IEEE Conference on Computer Vision and Pattern Recognition|পাতাসমূহ=3642–3649|via=|arxiv=1202.2745|citeseerx=10.1.1.300.3283|doi=10.1109/cvpr.2012.6248110|আইএসবিএন=978-1-4673-1228-8}}</ ref> ▼
কৃত্রিম স্নায়ু নেটওয়ার্কগুলি স্থানান্তরের মতো ছোট এবং বৃহৎ প্রাকৃতিক বস্তুগুলির সাথে সামঞ্জস্য করার জন্য সরানো পরিবর্তনকে গ্যারান্টি প্রদান করতে সক্ষম হয়েছিল, কেবলমাত্র স্থানান্তরের বাইরে বর্ধিত বর্ধিত ধারণাগুলি, অবস্থান, টাইপ (অবজেক্ট ক্লাস লেবেল), স্কেল, আলো এবং অন্যদের. এটি ডেভেলপমেন্টাল নেটওয়ার্কস (ডিএনএস) <ref name="Weng2011">J. Weng, "[http://www.cse.msu.edu/~weng/research/WhyPass-Weng-NI-2011.pdf Why Have We Passed 'Neural Networks Do not Abstract Well'?]," ''Natural Intelligence: the INNS Magazine'', vol. 1, no.1, pp. 13–22, 2011.</ref> যার অঙ্গরাগগুলি কোথায়-কি নেটওয়ার্ক, WWN-1 (2008) <ref name="Weng08">Z. Ji, J. Weng, and D. Prokhorov, "[http://www.cse.msu.edu/~weng/research/ICDL08_0077.pdf Where-What Network 1: Where and What Assist Each Other Through Top-down Connections]," ''Proc. 7th International Conference on Development and Learning (ICDL'08)'', Monterey, CA, Aug. 9–12, pp. 1–6, 2008.</ref> WWN-7 (2013) এর মাধ্যমে। <ref name="Weng13">X. Wu, G. Guo, and J. Weng, "[http://www.cse.msu.edu/~weng/research/WWN7-Wu-ICBM-2013.pdf Skull-closed Autonomous Development: WWN-7 Dealing with Scales]," ''Proc. International Conference on Brain-Mind'', July 27–28, East Lansing, Michigan, pp. 1–9, 2013.</ref> ▼
▲এই ধরনের তত্ত্বাবধানে গভীর শিক্ষার পদ্ধতিগুলি প্রথম বাস্তব প্রয়োগগুলির উপর মানুষের প্রতিযোগিতামূলক কর্মক্ষমতা অর্জনের প্রথম ছিল। <ref name=":92">{{বই উদ্ধৃতি|ইউআরএল=http://ieeexplore.ieee.org/document/6248110/|শিরোনাম=Multi-column deep neural networks for image classification|শেষাংশ=Ciresan|প্রথমাংশ=Dan|শেষাংশ২=Meier|প্রথমাংশ২=U.|তারিখ=June 2012|কর্ম=2012 IEEE Conference on Computer Vision and Pattern Recognition|পাতাসমূহ=3642–3649|via=|arxiv=1202.2745|citeseerx=10.1.1.300.3283|doi=10.1109/cvpr.2012.6248110|আইএসবিএন=978-1-4673-1228-8}}</ref>
▲কৃত্রিম স্নায়ু নেটওয়ার্কগুলি স্থানান্তরের মতো ছোট এবং বৃহৎ প্রাকৃতিক বস্তুগুলির সাথে সামঞ্জস্য করার জন্য সরানো পরিবর্তনকে গ্যারান্টি প্রদান করতে সক্ষম হয়েছিল, কেবলমাত্র স্থানান্তরের বাইরে বর্ধিত বর্ধিত ধারণাগুলি, অবস্থান, টাইপ (অবজেক্ট ক্লাস লেবেল), স্কেল, আলো এবং অন্যদের. এটি ডেভেলপমেন্টাল নেটওয়ার্কস (ডিএনএস) <ref name="Weng2011">J. Weng, "[http://www.cse.msu.edu/~weng/research/WhyPass-Weng-NI-2011.pdf Why Have We Passed 'Neural Networks Do not Abstract Well'?]," ''Natural Intelligence: the INNS Magazine'', vol. 1, no.1, pp. 13–22, 2011.</ref> যার অঙ্গরাগগুলি কোথায়-কি নেটওয়ার্ক, WWN-1 (2008) <ref name="Weng08">Z. Ji, J. Weng, and D. Prokhorov, "[http://www.cse.msu.edu/~weng/research/ICDL08_0077.pdf Where-What Network 1: Where and What Assist Each Other Through Top-down Connections]," ''Proc. 7th International Conference on Development and Learning (ICDL'08)'', Monterey, CA, Aug. 9–12, pp. 1–6, 2008.</ref> WWN-7 (2013) এর মাধ্যমে। <ref name="Weng13">X. Wu, G. Guo, and J. Weng, "[http://www.cse.msu.edu/~weng/research/WWN7-Wu-ICBM-2013.pdf Skull-closed Autonomous Development: WWN-7 Dealing with Scales]," ''Proc. International Conference on Brain-Mind'', July 27–28, East Lansing, Michigan, pp. 1–9, 2013.</ref>
[[বিষয়শ্রেণী:গাণিতিক ও পরিমাণগত পদ্ধতি (অর্থশাস্ত্র)]]
[[বিষয়শ্রেণী:অপর্যালোচিত অনুবাদসহ পাতা]]
|