• Convolutional Neural Networks。 1: Leading Back Propagation Back Propagation Algorithm

    1: নেতৃস্থানীয় ব্যাক প্রচার পিছনে প্রচার অ্যালগরিদম

    নেটওয়ার্ক কাঠামো

    0001
    The classic BP network has a three-layer structure: input layer X, output layer O, and hidden layer Y.
    Input vector: X = (x1, x2, ..., xn) T
    Hidden layer output: Y = (y1, y2, ..., ym) T weight
    V = (v1, v2, ..., vm) T
    Output vector: O = (o1, o2, ..., ol) T weight W = (w1, w2, ..., wl) T
    Expected output: D = (d1, d2, ..., dn) T

    অ্যালগরিদম শিখছে

    লুকানো স্তর গণনা প্রক্রিয়া ইনপুট স্তর:
    0002

    লুকানো স্তর থেকে আউটপুট স্তর পর্যন্ত গণনা প্রক্রিয়া:
    0003

    নেটওয়ার্ক আউটপুট স্তর ত্রুটি ফাংশনটি হ'ল:
    0004
    ত্রুটি ফাংশনটি লুকানো স্তরে প্রসারিত করা হয়:
    0005
    প্রশিক্ষণ প্রক্রিয়াটি চূড়ান্ত ইটিকে সর্বোত্তম মান অর্জনের জন্য যথাসম্ভব ছোট করে তুলতে হবে, তাই ই সর্বোত্তম অর্জনের জন্য প্রতিটি ইনপুট প্যারামিটারের আংশিক ডেরাইভেটিভ হতে পারে। তাই:
    0006
    η একটি আনুপাতিক সহগ। একাধিক গণনার পরে উপরের সূত্রটি রূপান্তরিত হতে পারে:
    00070008
    ওজন ম্যাট্রিক্স ত্রুটি ব্যাক-প্রসারণ হ্রাস করে এবং এটি অনুকূল না হওয়া পর্যন্ত পুনরাবৃত্তি করে সামঞ্জস্য করা হয়।

    দুটি: কনভলিউশনাল নিউরাল নেটওয়ার্কসমূহ

    বিপি নিউরাল নেটওয়ার্কের প্রতিটি স্তর একটি লিনিয়ার এক-মাত্রিক অ্যারে স্টেট হয় এবং স্তরটির স্তরগুলি এবং নেটওয়ার্ক নোডগুলি সম্পূর্ণ সংযুক্ত থাকে। এবং যদি বিপি নেটওয়ার্কের স্তরগুলির মধ্যে নোড সংযোগটি আর পুরোপুরি সংযুক্ত না হয় তবে স্থানীয়ভাবে সংযুক্ত থাকে । এইভাবে, এটি হ'ল সহজতম এক-মাত্রিক সমঝোতা নেটওয়ার্ক। যদি আমরা উপরোক্ত ধারণাটি দুটি মাত্রায় প্রসারিত করি তবে এটি হল বেশিরভাগ তথ্যসূত্রের মধ্যে আমরা দেখতে পাই কনভোলশনাল নিউরাল নেটওয়ার্ক, চিত্র 2:
    0010  0009
    A সম্পূর্ণ সংযুক্ত নেটওয়ার্ক . B আংশিকভাবে সংযুক্ত নেটওয়ার্ক
    চিত্র 2
    চিত্র 2. A: সম্পূর্ণ সংযুক্ত নেটওয়ার্ক। যদি L1 স্তরটিতে 1000 × 1000 পিক্সেল চিত্র থাকে এবং L2 স্তরটিতে 1000,000 লুকানো স্তর নিউরন থাকে, প্রতিটি লুকানো স্তর নিউরন L1 স্তর চিত্রের প্রতিটি পিক্সেল পয়েন্টের সাথে সংযুক্ত থাকে এবং 1000x1000x1000,000 = 10 ^ 12 থাকে সংযোগ, যা, 10 ^ 12 ওজনের পরামিতি।
    চিত্র 2. বি: আংশিকভাবে সংযুক্ত নেটওয়ার্ক। এল 2 স্তরের প্রতিটি নোড এল 1 স্তরটির নোডের একই অবস্থানের নিকটে 10 × 10 উইন্ডোতে সংযুক্ত থাকে, তবে 1 মিলিয়ন লুকানো স্তর নিউরনে কেবল 100w বার 100 থাকে, যা 10 ^ 8 পরামিতি হয়। চারটি ক্রমের পরিমাণ দ্বারা ওজনযুক্ত সংযোগের সংখ্যা হ্রাস পেয়েছে।
    কনভোলশনাল নিউরাল নেটওয়ার্কগুলির আর একটি বৈশিষ্ট্য হ'ল ওজন ভাগাভাগি । উদাহরণস্বরূপ, চিত্র ২. বি তে যেমন দেখানো হয়েছে, ওজন ভাগ করা হয়েছে, এটি বলার জন্য নয় যে সমস্ত লাল রেখার লেবেলের একই সংযোগের ওজন রয়েছে। পরিবর্তে, প্রতিটি রঙের লাইনের একই ওজন সহ একটি লাল রেখা থাকে, তাই দ্বিতীয় স্তরের প্রতিটি নোডের পূর্ববর্তী স্তর থেকে সমাবর্তনের জন্য একই পরামিতি থাকে।
    এফআইজি। 2 এর লুকানো স্তরের প্রতিটি নিউরন 10 × 10 চিত্র অঞ্চলে সংযুক্ত থাকে, অর্থাত প্রতিটি নিউরনে 10 × 10 = 100 সংযোগ ওজনের পরামিতি থাকে। আমাদের নিউরনের জন্য যদি আমাদের 100 পরামিতি একই হয় তবে কী হবে? অন্য কথায়, প্রতিটি নিউরন ইমেজটি ডিকনভল করতে একই কনভলিউশন কার্নেল ব্যবহার করে। সুতরাং আমরা L1 স্তর মাত্র 100 পরামিতি আছে। কিন্তু এইভাবে, চিত্রটির কেবল একটি বৈশিষ্ট্যই বের করা হবে? যদি বিভিন্ন বৈশিষ্ট্যগুলি উত্তোলনের প্রয়োজন হয় তবে আরও কয়েকটি কনভ্যুশনাল কার্নেল যুক্ত করা হবে। সুতরাং ধরুন আমরা 100 ধরণের কনভ্যুশন কার্নেল যুক্ত করি যা 10,000 প্যারামিটার।
    প্রতিটি কনভলিউশন কার্নেলের প্যারামিটারগুলি পৃথক, ইঙ্গিত করে যে এটি ইনপুট চিত্রের বিভিন্ন বৈশিষ্ট্য (বিভিন্ন প্রান্ত) প্রস্তাব করে। এইভাবে, প্রতিটি কনভলিউশন কার্নেল চিত্রের বিভিন্ন বৈশিষ্ট্যগুলির একটি অভিক্ষেপ পেতে চিত্রটিকে ডিকনভল করে We আমরা এটিকে একটি বৈশিষ্ট্য মানচিত্র বলি, যা একটি বৈশিষ্ট্য মানচিত্র।
    এটি লক্ষ করা উচিত যে উপরের আলোচনায় প্রতিটি নিউরনের পক্ষপাতিত্ব বিবেচনা করা হয়নি, পাশাপাশি পক্ষপাতদুষ্ট প্যারামিটারগুলি, প্রতিটি নিউরনের জন্য প্রয়োজনীয় ওজন পরামিতিগুলির সংখ্যা 1 দ্বারা বাড়ানো দরকার।
    উপরের বর্ণনাটি কেবল একটি একক স্তরের নেটওয়ার্ক কাঠামো। ১৯৯৯ সালে ইয়ান লেকান এট আল দ্বারা প্রকাশিত কাগজ "গ্রেডিয়েন্ট-বেসড লার্নিং অ্যাপ্লাইডড ডকুমেন্ট রিকগনিশন" প্রস্তাবিত কনভ্রোশনাল নিউরাল নেটওয়ার্কগুলির উপর ভিত্তি করে একটি পাঠ্য স্বীকৃতি সিস্টেম লেনেট -৫ প্রস্তাব করেছিল, যা পরবর্তী সময়ে ব্যাংক হস্তাক্ষর জন্য ব্যবহৃত হয়েছিল। সংখ্যার সনাক্তকরণ।

    তিন: LeCun - কে এল হয় ই এন এবং -5

    0011
    ইনপুট ছাড়াই, লেনেট -5 এর মোট 7 টি স্তর রয়েছে এবং প্রতিটি স্তরের সংযোগ ওজন রয়েছে (প্রশিক্ষণযোগ্য পরামিতি)। ইনপুট চিত্রটি 32 * 32। আমাদের পরিষ্কার হওয়া দরকার: প্রতিটি স্তরের একাধিক বৈশিষ্ট্য মানচিত্র রয়েছে, প্রতিটি বৈশিষ্ট্য মানচিত্র ইনপুটটির একটি বৈশিষ্ট্য বের করতে একটি কনভোলিউশন ফিল্টার ব্যবহার করে এবং তারপরে প্রতিটি বৈশিষ্ট্যের মানচিত্রে একাধিক নিউরন থাকে।
    সি 1, সি 3, এবং সি 5 হ'ল কনভ্যুশনাল স্তরগুলি এবং এস 2, এস 4 এবং এস 6 ডাউন-স্যাম্পলিং স্তর। স্থানীয় চিত্র সম্পর্কিত সম্পর্কের নীতিটি ব্যবহার করে, চিত্রটি ডাউন স্যাম্পলিং দরকারী তথ্য বজায় রেখে ডেটা প্রসেসিংয়ের পরিমাণ হ্রাস করতে পারে।
    সি 1 স্তরটি একটি রূপান্তর স্তর এবং 6 টি বৈশিষ্ট্য মানচিত্রের সমন্বয়ে গঠিত। বৈশিষ্ট্য মানচিত্রে প্রতিটি নিউরন ইনপুট স্তরের 5 * 5 পাড়ার সাথে সংযুক্ত থাকে। সি 1 এর আকার 28 * 28, যা ইনপুট সংযোগটি সীমানার বাইরে পড়তে বাধা দিতে পারে। সি 1 এর মোট 122,304 সংযোগ সহ 156 প্রশিক্ষণযোগ্য প্যারামিটার রয়েছে।
    প্রশিক্ষণযোগ্য প্যারামিটারগুলি হল কনভ্যুশন কার্নেল ট্রেনযোগ্য প্যারামিটার প্লাস অফসেট প্যারামিটারের সংখ্যা এবং তারপরে বৈশিষ্ট্য মানচিত্রের সংখ্যা দ্বারা গুণিত হয়। (সূত্র)
    সংযোগের সংখ্যাটি বৈশিষ্ট্যের মানচিত্রের আকার দ্বারা প্রশিক্ষণের পরামিতিগুলিকে গুণ করবে। (সূত্র)
    সি 1 এর জন্য:
    (5 * 5 + 1) * 6 = 156 পরামিতি
    156 * (28 * 28) = 122,304 সংযোগ
    এস 2 স্তরটি একটি ডাউন-স্যাম্পলিং স্তর এবং এতে ছয় 14 * 14 বৈশিষ্ট্যযুক্ত মানচিত্র রয়েছে। বৈশিষ্ট্য মানচিত্রের প্রতিটি ঘর সি 1-তে সংশ্লিষ্ট বৈশিষ্ট্য মানচিত্রের 2 * 2 পাড়ার সাথে সংযুক্ত। এস 2 স্তরটির প্রতিটি ইউনিটের 4 টি ইনপুট যোগ করা হয়, একটি প্রশিক্ষণযোগ্য পরামিতি দ্বারা গুণিত করা হয় এবং একটি প্রশিক্ষণযোগ্য অফসেট যুক্ত করা হয়। সিগময়েড ফাংশন দ্বারা ফলাফল গণনা করা হয়। প্রশিক্ষণযোগ্য সহগ এবং পক্ষপাতগুলি সিগময়েড ফাংশনের অ-লিনিয়ারিটি ডিগ্রি নিয়ন্ত্রণ করে। সহগগুলি যদি ছোট হয় তবে অপারেশনটি একটি রৈখিক অপারেশনের সমান এবং সাবম্যাপলিং একটি অস্পষ্ট চিত্রের সমতুল্য। যদি সহগ তুলনামূলকভাবে বড় হয় তবে অফসেটের প্রস্থের উপর নির্ভর করে সাবমপলিংকে একটি শোরগোল বা অপারেশন বা একটি শোরগোল এবং অপারেশন হিসাবে দেখা যেতে পারে। প্রতিটি ইউনিটের 2 * 2 গ্রাহক ক্ষেত্রগুলি ওভারল্যাপ করে না,
    এস 2 এর জন্য:
    প্রতিটি বৈশিষ্ট্য মানচিত্রের আকার সি 1-এ বৈশিষ্ট্য মানচিত্রের আকারের 1/4 হয় (প্রতিটি সারি এবং কলামের জন্য 1/2)। এস 2 স্তরটিতে (1 + 1) * 6 = 12 প্রশিক্ষণযোগ্য প্যারামিটার এবং 14 * 14 * (4 + 1) * 6 = 5880 সংযোগ রয়েছে।
    সি 3 স্তরটিও একটি রূপান্তর স্তর It এটি স্তরটি এস 2 কে 5 × 5 কনভ্যুশন কার্নেলের মাধ্যমেও ডিকনভলভ করে এবং তারপরে বৈশিষ্ট্য মানচিত্রটি কেবল 10 × 10 নিউরন হয় তবে এটির 16 টি পৃথক কনভ্যুশনাল কার্নেল থাকে তাই এখানে 16 টি বৈশিষ্ট্যের মানচিত্র রয়েছে। সি 3-এর প্রতিটি বৈশিষ্ট্য মানচিত্র এস 2-তে সমস্ত 6 বা কয়েকটি বৈশিষ্ট্য মানচিত্রের সাথে সংযুক্ত রয়েছে, যা নির্দেশ করে যে এই স্তরের বৈশিষ্ট্য মানচিত্রটি পূর্ববর্তী স্তর দ্বারা নিষ্কাশিত বৈশিষ্ট্য মানচিত্রের আলাদা সংমিশ্রণ (এটি কেবলমাত্র অনুশীলন নয়) ।
    এস 2-তে প্রতিটি বৈশিষ্ট্য মানচিত্রকে সি 3-তে প্রতিটি বৈশিষ্ট্য মানচিত্রে সংযুক্ত করবেন না কেন? এর দুটি কারণ রয়েছে। প্রথমত, অসম্পূর্ণ সংযোগ ব্যবস্থা একটি যুক্তিসঙ্গত সীমার মধ্যে সংযোগের সংখ্যা রাখে। দ্বিতীয়ত, এটি নেটওয়ার্কের প্রতিসাম্য নষ্ট করে। যেহেতু বিভিন্ন বৈশিষ্ট্যের মানচিত্রের বিভিন্ন ইনপুট রয়েছে তাই তারা বিভিন্ন বৈশিষ্ট্য আহরণ করতে বাধ্য হয়।
    LeCun দ্বারা গৃহীত পদ্ধতিটি হ'ল: C 3 এর প্রথম feature টি বৈশিষ্ট্য মানচিত্র S2 ইনপুট হিসাবে 3 সংলগ্ন বৈশিষ্ট্য মানচিত্রের উপসেট গ্রহণ করে। পরবর্তী ছয় বৈশিষ্ট্যের মানচিত্রগুলি ইনপুট হিসাবে S 2 এ  প্রতিবেশী বৈশিষ্ট্য মানচিত্রের 4 টি উপগ্রহ নেয়। পরের তিনটি নন-সংলগ্ন 4 বৈশিষ্ট্য মানচিত্রের সাবটাকে ইনপুট হিসাবে গ্রহণ করবে। শেষটি এস 2-এ সমস্ত বৈশিষ্ট্য মানচিত্রকে ইনপুট হিসাবে গ্রহণ করে। চিত্রটিতে প্রদর্শিত হয়েছে:
    0012

    এইভাবে, C 3 স্তরটিতে (25 * 3 + 1) * 6 + (25 * 4 + 1) * 6 + (25 * 4 + 1) * 3 + (25 * 6 + 1) * 1 = 1516 প্রশিক্ষণযোগ্য পরামিতি এবং ((25 * 3 + 1) * 6 + (25 * 4 + 1) * 6 + (25 * 4 + 1) * 3 + (25 * 6 + 1) * 1) * (10 * 10) = 151600 সংযোগ ।
    এস 4 স্তরটি একটি ডাউন-স্যাম্পলিং স্তর এবং আকার 5 * 5 এর 16 টি বৈশিষ্ট্যযুক্ত মানচিত্রের সমন্বয়ে গঠিত। বৈশিষ্ট্য মানচিত্রের প্রতিটি ঘর সি 3 এ সম্পর্কিত বৈশিষ্ট্য মানচিত্রের 2 * 2 পাড়ার সাথে সংযুক্ত, যা সি 1 এবং এস 2 এর সংযোগের সমান। এস 4 স্তরটিতে 16 * (1 + 1) = 32 প্রশিক্ষণযোগ্য প্যারামিটার (প্রতিটি বৈশিষ্ট্যের মানচিত্রের জন্য একটি ফ্যাক্টর এবং একটি পক্ষপাত) এবং 5 * 5 * (4 + 1) * 16 = 2000 সংযোগ রয়েছে। (আপনি যদি এই মুহুর্তে সূত্রটি বুঝতে না পারেন তবে আপনি এটি ক্রমবর্ধমানভাবে পড়তে পারেন, প্রথমে সমস্ত সমঝোতার স্তরগুলি দেখুন এবং তারপরে সমস্ত ডাউনস্যাম্পলিং স্তরগুলি দেখুন)
    C 5 স্তরটি একটি বৈশিষ্ট্যযুক্ত 120 টি বৈশিষ্ট্যযুক্ত মানযুক্ত স্তর। প্রতিটি ইউনিট এস 4 স্তরের সমস্ত 16 ইউনিটের 5 * 5 পাড়ার সাথে সংযুক্ত। যেহেতু এস 4 স্তর বৈশিষ্ট্য মানচিত্রের আকারটিও 5 * 5 (ফিল্টারের মতো), তাই সি 5 বৈশিষ্ট্য মানচিত্রের আকার 1 * 1: এটি S 4 এবং C 5 এর মধ্যে একটি সম্পূর্ণ সংযোগ গঠন করে।
    C 5 এখনও পুরোপুরি এসোসিয়েটিভ লেয়ারের পরিবর্তে কনভ্যুশনাল স্তর হিসাবে লেবেলযুক্ত হওয়ার কারণ হ'ল যদি লেনেট -5 এর ইনপুট আরও বড় হয়ে যায় এবং অন্যটি অপরিবর্তিত থাকে, তবে বৈশিষ্ট্যের মানচিত্রের মাত্রা 1 * 1 এর চেয়ে বড় হবে । C 5 স্তরটিতে (5 * 5 * 16 + 1) * 120 = 48120 প্রশিক্ষণযোগ্য পরামিতি রয়েছে Since যেহেতু সি 5 বৈশিষ্ট্য মানচিত্রের আকার 1: 1, সুতরাং 48120 * 1 * 1 = 48120 লিঙ্ক রয়েছে। ট্রেনেবল সংযোগটি উপরে ব্যবহৃত শব্দটির থেকে পৃথক। আপাতত, এর অর্থ এই যে এখানে 48120 প্রশিক্ষণযোগ্য প্যারামিটার এবং 48120 সংযোগ রয়েছে, যা আমাদের গণনার সাথে সামঞ্জস্যপূর্ণ)।
    F 6 স্তরটির 84 টি ইউনিট রয়েছে (এই সংখ্যাটি বেছে নেওয়ার কারণটি আউটপুট স্তরের নকশা থেকে আসে), যা পুরোপুরি সি 5 স্তরের সাথে সংযুক্ত। ক্লাসিক নিউরাল নেটওয়ার্কের মতো, এফ 6 স্তর ইনপুট ভেক্টর এবং ওজন ভেক্টর এবং আরও একটি পক্ষপাতিত্বের মধ্যে ডট পণ্য গণনা করে। এরপরে সিগময়েড ফাংশনে এটি ইউনিট এর একটি রাজ্য উত্পন্ন করার জন্য প্রেরণ করা হয়। (120 + 1) * 84 = 10164 প্রশিক্ষণযোগ্য পরামিতি এবং 10164 সংযোগ রয়েছে।
     অবশেষে, আউটপুট স্তরটিতে ইউক্লিডিয়ান রেডিয়াল বেসিস ফাংশন ইউনিট, প্রতিটি শ্রেণির জন্য একটি ইউনিট এবং প্রতিটিটির জন্য ৮৪ টি ইনপুট থাকে। অন্য কথায়, প্রতিটি আউটপুট আরবিএফ ইউনিট ইনপুট ভেক্টর এবং পরামিতি ভেক্টরের মধ্যে ইউক্লিডিয়ান দূরত্ব গণনা করে। আর ইনপুটটি প্যারামিটার ভেক্টর থেকে, আরবিএফ আউটপুট আরও বড়। একটি আরবিএফ আউটপুট পেনাল্টি শব্দ হিসাবে বোঝা যায় যা আরবিএফের সাথে সম্পর্কিত কোনও মডেলের সাথে ইনপুট প্যাটার্নটি কতটা ভাল মেলে তা পরিমাপ করে। সম্ভাব্য ভাষায়, আরবিএফ আউটপুটটি এফ 6 স্তর কনফিগারেশন স্পেসের গাউসীয় বিতরণের নেতিবাচক লগ-সম্ভাবনা হিসাবে বোঝা যায়। একটি ইনপুট মোড দেওয়া হয়েছে, ক্ষতি ফাংশনটি আরবিএফ প্যারামিটার ভেক্টরের (এটি মোডের প্রত্যাশিত শ্রেণিবিন্যাসের) কাছে যথেষ্ট পরিমাণে F6 এর কনফিগারেশন করতে সক্ষম হবে। এই ইউনিটগুলির প্যারামিটারগুলি ম্যানুয়ালি নির্বাচন করা হয় এবং স্থির রাখা হয় (কমপক্ষে প্রাথমিকভাবে)। এই প্যারামিটার ভেক্টরের উপাদানগুলি -1 বা 1 তে সেট করা আছে। যদিও এই পরামিতিগুলি -1 এবং 1 সম্ভাব্যতার মতো কোনও উপায়ে নির্বাচন করা যেতে পারে, বা ত্রুটি সংশোধন কোড গঠন করা যায় তবে এগুলি সম্পর্কিত অক্ষর শ্রেণীর 7 * 12 আকারের (অর্থাত্ 84) ফর্ম্যাট চিত্র হিসাবে নকশা করা হয়েছে। এই প্রতিনিধিত্ব পৃথক সংখ্যা সনাক্তকরণের জন্য খুব কার্যকর নয়, তবে এটি মুদ্রণযোগ্য ASCII সেটে স্ট্রিং সনাক্তকরণের জন্য দরকারী।
    আউটপুট উত্পাদনের জন্য বেশি ব্যবহৃত "এন এর 1 1" এনকোডিংয়ের পরিবর্তে এই বিতরণযুক্ত এনকোডিংটি ব্যবহার করার আরেকটি কারণ হ'ল, বিভাগগুলি বড় হলে, বিতরণকৃত এনকোডিং কম কার্যকর হয়। কারণ হ'ল অ-বিতরণকৃত এনকোডিংয়ের আউটপুট অবশ্যই বেশিরভাগ সময় 0 হতে হবে। এটি সিগময়েড ইউনিটগুলির সাথে অর্জন করা কঠিন করে তোলে। আরেকটি কারণ হ'ল শ্রেণিবদ্ধকারীরা কেবল অক্ষরগুলি সনাক্ত করতেই নয়, অক্ষরগুলি অস্বীকার করার জন্যও ব্যবহৃত হয়। আরবিএফ বিতরণ কোডিং ব্যবহার করে এই লক্ষ্যের জন্য আরও উপযুক্ত। সিগময়েডের বিপরীতে, তারা ইনপুট স্পেসের আরও ভাল বিধিনিষেধিত অঞ্চলে উত্তেজিত এবং অ-আদর্শিক নিদর্শনগুলি বাইরে পড়ার সম্ভাবনা বেশি।
    rbf  প্যারামিটার ভেক্টর F6 স্তর লক্ষ্য ভেক্টরের ভূমিকা পালন করে। এটি চিহ্নিত করা উচিত যে এই ভেক্টরগুলির উপাদানগুলি +1 বা -1 হয়, যা F6 সিগময়েডের মধ্যে থাকে, সুতরাং এটি সিগময়েড ফাংশনকে স্যাচুরেট হওয়া থেকে আটকাতে পারে। আসলে, +1 এবং -1 সিগময়েড ফাংশনের সর্বাধিক বক্রতার পয়েন্ট। এটি F6 ইউনিটকে সর্বাধিক অ-রৈখিক ব্যাপ্তির মধ্যে কাজ করতে দেয়। সিগময়েড ফাংশনটির স্যাচুরেশন অবশ্যই এড়ানো উচিত, কারণ এটি ক্ষতির ক্রিয়াকলাপটি ধীর গতিবেগ এবং অসুস্থ শর্তযুক্ত সমস্যার দিকে পরিচালিত করবে

    Four: CNNs training process

    সিএনএন প্রশিক্ষণ অ্যালগরিদম প্রচলিত বিপি অ্যালগরিদমের সাথে সমান to এটি 4 টি পদক্ষেপ নিয়ে গঠিত, যা দুটি পর্যায়ে বিভক্ত:
    The first stage, the forward propagation stage:
    a) Take a sample (X, Yp) from the sample set and enter X into the network;
    b) Calculate the corresponding actual output Op.
    এই পর্যায়ে তথ্য ইনপুট স্তর থেকে আউটপুট স্তরে ধাপে ধাপে রূপান্তরিত হয়। প্রশিক্ষণ শেষ করার পরে যখন নেটওয়ার্কটি স্বাভাবিকভাবে চলমান থাকে তখন এই প্রক্রিয়াটিও সম্পাদিত হয়। এই প্রক্রিয়াতে, নেটওয়ার্ক গণনা সম্পাদন করে (প্রকৃতপক্ষে, চূড়ান্ত আউটপুট ফলাফল পেতে প্রতিটি স্তরের ওজন ম্যাট্রিক্স দিয়ে ইনপুট গুণিত হয়):
    Op = Fn (... (F2 (F1 (XpW (1)) W (2)) ...) W (n))
    Second stage, backward propagation stage
    a) Calculate the difference between the actual output Op and the corresponding ideal output Yp;
    b) Backpropagate the adjustment weight matrix by minimizing the error.

    Five: summary

    সিএনএনস অ্যালগরিদম বর্তমানে চিত্রের স্বীকৃতি এবং প্রক্রিয়াকরণে ব্যাপকভাবে ব্যবহৃত হয়। ইমেজনেট ২০১৪ বৃহত আকারের ভিজ্যুয়াল স্বীকৃতি প্রতিযোগিতায়, সিএনএনগুলি ব্যাপকভাবে ব্যবহৃত হয়েছে এবং কেবলমাত্র .6..6৫6% এর ত্রুটি হার সহ অনুকূল এলগরিদমও সিএনএন থেকে প্রাপ্ত।

    ইয়ান লেকুন 90 এর দশকে লেএনট তৈরি করেছিলেন এবং আজ এটি চাক্ষুষ স্বীকৃতির জন্য সবচেয়ে গুরুত্বপূর্ণ প্রযুক্তি হয়ে দাঁড়িয়েছে একদিকে, এটি তার প্রচেষ্টা থেকে অবিচ্ছেদ্য। অন্যদিকে স্নায়বিক নেটওয়ার্কগুলির স্বল্প সময়ের মধ্যে তিনি এই দিকটিতে অবিচল থাকতে আগ্রহী এটি সর্বদা শেখার জন্য উপযুক্ত is আত্মা।
  • 0 comments:

    Post a Comment

    New Research

    Attention Mechanism Based Multi Feature Fusion Forest for Hyperspectral Image Classification.

    CBS-GAN: A Band Selection Based Generative Adversarial Net for Hyperspectral Sample Generation.

    Multi-feature Fusion based Deep Forest for Hyperspectral Image Classification.

    ADDRESS

    388 Lumo Rd, Hongshan, Wuhan, Hubei, China

    EMAIL

    contact-m.zamanb@yahoo.com
    mostofa.zaman@cug.edu.cn

    TELEPHONE

    #
    #

    MOBILE

    +8615527370302,
    +8807171546477