• ইমেজ শ্রেণীবিভাগ জন্য গভীর শিক্ষণ আলগোরিদিম পর্যালোচনা

    ইমেজ শ্রেণীবিভাগ জন্য গভীর শিক্ষণ আলগোরিদিম পর্যালোচনাReview of Deep Learning Algorithms for Image Classification



    কেন আমাদের ইমেজ শ্রেণীবিভাগ প্রয়োজন?
    আগের পোস্টে, আমরা মোবাইল ফোনে (embedded deep learning algorithms)এমবেডেড গভীর লার্নিং অ্যালগরিদমগুলির সুবিধার প্রশংসা করি। অ্যাপ্লিকেশনগুলি অসংখ্য হলেও, আমরা Zyl র হৃদয় কম্পিউটার দৃষ্টি আলগোরিদিমগুলিতে ফোকাস করব। এই ধরনের অ্যালগরিদমগুলির সবচেয়ে জনপ্রিয় কাজটি হল চিত্র শ্রেণীবিভাগ, যেমন একটি ছবিতে কোন বস্তু প্রদর্শিত হয়। প্রকৃতপক্ষে মোবাইল ফোন একটি বৈচিত্রপূর্ণ এবং সমৃদ্ধ ফটো গ্যালারি হোস্ট করে যা বিশেষ করে নির্দিষ্ট ইভেন্টগুলি পুনরুদ্ধার করতে পরিচালনা করার জন্য ব্যক্তিগত ডাটাবেসকে কঠিন করে তোলে। ব্যবহারকারীদের একটি মেমরি আছে এবং সবচেয়ে কার্যকর ভাবে যুক্ত ইমেজ খুঁজে পেতে সক্ষম হওয়া উচিত। একটি প্রথম স্বজ্ঞাত পদ্ধতির ইমেজ কন্টেন্ট অনুরূপ একটি শব্দ টাইপ করা হবে। শব্দের সাথে ছবিগুলি অনুসন্ধান করা, মেশিন লার্নিং পয়েন্ট ভিউ থেকে, ক্লাসের একটি উচ্চ সংখ্যা সহ শ্রেণীবিভাগীকরণের সমস্যা।
    এই পোস্টটির উদ্দেশ্যটি সবচেয়ে জনপ্রিয় লেবেলযুক্ত ডেটাসেট ইমেজনেটের উপর ভিত্তি করে চিত্র শ্রেণিবদ্ধ অ্যালগরিদমগুলির অত্যাধুনিক পর্যালোচনায়ের একটি পর্যালোচনা প্রদান করা। আমরা উল্লেখযোগ্য উন্নতির কারণ যা উদ্ভাবনী স্থাপত্য কিছু বর্ণনা করা হবে। গবেষকরা বিভিন্ন ডেটাসেট ব্যবহার করে তাদের অ্যালগরিদমগুলি পরীক্ষা করে দেখেন (একটি নতুন চিত্রনেট ডেটাসেট প্রতি বছর বিভিন্ন চিত্রের সাথে একটি নতুন চ্যালেঞ্জ হিসাবে মুক্তি পায়)। সুতরাং উদ্ধৃত সংহতি সরাসরি প্রতি সেকেন্ডে তুলনা করা যাবে না।

    ImageNet চ্যালেঞ্জ 

    ইমেজনেট ডাটাবেস Stanford University and Princeton University মধ্যে সহযোগিতার ফলাফল এবং কম্পিউটার দৃষ্টিভঙ্গির ক্ষেত্রে একটি রেফারেন্স হয়ে উঠেছে। এটি মূলত WordNet lexicon tree র Synsets¹ এর সাথে labeled প্রায় চৌদ্দ মিলিয়ন ছবি রয়েছে। মূল চ্যালেঞ্জ একটি সহজ শ্রেণীবিভাগকরণ টাস্ক গঠিত, প্রতিটি একক একক সম্পর্কিত এক হাজার মধ্যে, কুকুর নির্দিষ্ট প্রজনন থেকে সুনির্দিষ্ট খাদ্যের ধরণ. যদিও আসল চ্যালেঞ্জ এখনও চলছে, তবুও এটি প্রতিটি পৃথক বস্তুর চারপাশে আবদ্ধ বাক্সগুলির সাথে একটি বহু-শ্রেণীবদ্ধকরণ কার্যের দিকে অগ্রসর হয়েছে। এই দ্বিতীয় চ্যালেঞ্জ এই পোস্টে cover দেওয়া হবে না।

     

    Example of images in the 2012 ImageNet dataset. Left: Carbonara. Right: English Foxhound. Source: ImageNetছবি চিত্র উদাহরণ 2012 ইমেজনেট ডেটাসেট। বাম: কার্বনারা। ডান: ইংরেজি ফক্সহাউন্ড। উত্স: ImageNet

    The advent of deep learningগভীর শেখার আবির্ভাব

    ImageNet চ্যালেঞ্জটি ঐতিহ্যগতভাবে 90 তম দেরী পর্যন্ত সিজিটের মতো চিত্র বিশ্লেষণ অ্যালগরিদমগুলির সাথে হ্রাস করা হয়েছে। তবে, স্নায়ু নেটওয়ার্ক ব্যবহার করে কর্মক্ষমতা একটি ফাঁক আনা হয়েছে।Y. Lecun et al. (1998) প্রথম গভীর শিক্ষা মডেল A. Krizhevsky et al. (2012) প্রকাশিত। (2012) একটি সিজিটি মডেল ব্যবহার করে 26.2% এর নির্ভুলতার সাথে পূর্বের সর্বোত্তম সেরাটির তুলনায় 15.3% এর শীর্ষ -5 error rate  পেয়ে জনসাধারণের দিকে মনোযোগ আকর্ষণ করে। এই বিখ্যাত মডেল, তথাকথিত "AlexNet" আজকে পাঁচটি ক্রান্তীয় ফিল্টার, সর্বোচ্চ-পুল স্তর এবং তিনটি সম্পূর্ণরূপে সংযুক্ত স্তর সহ একটি সাধারণ স্থাপত্য হিসাবে বিবেচিত হয়।

    LeNet-5 architecture for digit recognition. Source: Y. Lecun et al. (1998)


    AlexNet architecture for training with 2 GPUs. Source: A. Krizhevsky et al. (2012)2 GPUs সঙ্গে প্রশিক্ষণ জন্য AlexNet আর্কিটেকচার। সূত্র: এ। ক্রিজেভিস্কি এবং আল। (2012)

    Going deeperগভীর যাচ্ছে

    ২01২ সালের মাইলফলক থেকে, গবেষকরা ক্রান্তীয় স্তরের ক্রমগুলিতে গভীরতর চেষ্টা করার চেষ্টা করেছেন। ২014 সালে, K. Simonyan & A. Zisserman (2015)  released the VGG16 model, composed of sixteen convolutional layers, multiple max-pool layers and three final fully-connected layers.16 গনতান্ত্রিক স্তর, বহুবিধ সর্বোচ্চ-পুল স্তর এবং তিনটি চূড়ান্ত সম্পূর্ণরূপে সংযুক্ত স্তরগুলির সমন্বয়ে গঠিত VGG16 মডেলটি প্রকাশ করেছিলেন। তার নির্দিষ্টকরণের মধ্যে একটি হল অলাইনার রূপান্তর তৈরি করে ReLU অ্যাক্টিভেশন ফাংশন সহ শৃঙ্খল একাধিক সংহত স্তর। প্রকৃতপক্ষে, nonlinearities প্রবর্তন মডেল আরো জটিল নিদর্শন জানতে অনুমতি দেয়। তাছাড়া তারা প্রতিটি কনভোলিউশনের জন্য 3x3 ফিল্টারগুলি চালু করেছিল (অ্যালেক্সেট মডেলের জন্য 11x11 ফিল্টারের বিরোধিতা করে) এবং খেয়াল করেছিলেন যে তারা ট্রেনের প্যারামিটারগুলির সংখ্যা হ্রাস করার সময় বড় ফিল্টারগুলির তুলনায় একই প্যাটার্নগুলিকে স্বীকৃত করতে পারে। এই রূপান্তরগুলি 2014 ইমেজনেট চ্যালেঞ্জে 7.3% শীর্ষ -5 ত্রুটির হারে পৌঁছেছে, যা AlexNet মডেলের ত্রুটির দুটি ফ্যাক্টর দ্বারা হ্রাস পেয়েছে। সূচনা মডিউল

    Inception modulesসূচনা মডিউল

    এই একই বছর, M. Lin et al. (2014)  "ধারণা মডিউলinception modules" ধারণা উন্নত করেছে। মূল সংশ্লেষ স্তরটি একটি অলাইনার অ্যাক্টিভেশন ফাংশন সহ রৈখিক পরিবর্তনগুলি ব্যবহার করে। তবে, একযোগে একাধিক কনভোলিউশনাল স্তর প্রশিক্ষণ এবং মাল্টি লেয়ার perceptron সঙ্গে সংযুক্ত তাদের বৈশিষ্ট্য মানচিত্র স্ট্যাক এছাড়াও একটি nonlinear রূপান্তর উত্পাদন। এই ধারণাটি C. Szegedy et al. (2014) দ্বারা শোষিত হয়েছে। (২014) মোট 50 টি কনভোলিউশন স্তরগুলির জন্য যেমন "ইনডেমশন মডিউলinception modules" ব্যবহার করে 22 টি স্তর সহ গুগল লেনিট (aka ইনস্পেস V1 (aka Inception V1)) নামে একটি গভীর নেটওয়ার্ক প্রস্তাব করেছিল। প্রতিটি মডিউলটি মডেলের স্পারসিটি বৃদ্ধি এবং বিভিন্ন ধরণের নিদর্শনগুলি পেতে 1x1, 3x3, 5x5 কনভোলিউশন লেয়ার এবং একটি 3x3 সর্বোচ্চ-পুল স্তর গঠিত। উত্পাদিত বৈশিষ্ট্য মানচিত্র পরবর্তী সংযোজন মডিউল দ্বারা সংযোজিত এবং বিশ্লেষণ করা হয়। 2014 ইমেজনেট চ্যালেঞ্জে GoogLeNet(গুগল লেনিট) মডেলের 6.7% error rate  যা VGG16 এর চেয়ে কিছুটা কম কিন্তু বিস্ময়করভাবে ছোট (55 MB বনাম 490 এমবি)। ভিপিজি আর্কিটেকচারের তিনটি বড় সম্পূর্ণরূপে সংযুক্ত স্তরগুলির উপস্থিতির কারণে এই ফাঁকটি প্রধানত।
    Inception module. Source: C. Szegedy et al. (2014)সূচনা মডিউল। উত্স: সি। সিজেডি এট আল। (2014)

    GoogLeNet architecture. Source: C. Szegedy et al. (2014)

    ২015 সালে সি। সিজেডি এট আল। (2015) প্রাথমিকভাবে প্রথম সংস্করণ দ্বারা অনুপ্রাণিত, ইনপুট V2 মডেল উন্নত। তবে লেখকগুলি প্রথম 3x3 ফিল্টারগুলি, 3x3 কনভোলিউশন এবং 3x1 পুরোপুরি সংযুক্ত-প্রথম স্লাইডে সূচনা মডিউলগুলিতে 5x5 ফিল্টারটি পরিবর্তন করেছেন। কনভোলিউশন ফ্যাক্টরাইজেশন বলা এই পদ্ধতিটি প্রতিটি সূচনা মডিউল পরামিতি সংখ্যা হ্রাস করে, এইভাবে কম্পিউটেশনাল খরচ কমিয়ে দেয়। ২01২ সালের ইমেজনেট চ্যালেঞ্জে এই মডেলটি 5.6% এর শীর্ষ -5 ত্রুটি হারে পৌঁছেছে।

    আরও যাচ্ছে, সি Szegedy et al। (2015) ব্যাচ-স্বাভাবিকীকরণকে সুসংহত করেছে এবং উচ্চতর রেজোলিউশন ইনপুট ব্যবহার করেছে, বিখ্যাত ইনস্পেশন V3 মডেল। তারা প্রথম দুটি স্তরগুলির স্তরগুলি হ্রাস করেছিল এবং উচ্চ নির্ভুলতা সহ চিত্র বিশ্লেষণ করতে একটি সর্বোচ্চ পুল স্তর সরিয়েছিল। ২01২ সালের ইমেজনেট চ্যালেঞ্জে তারা অবশেষে 3.58% এর শীর্ষ -5 ত্রুটি হারে পৌঁছেছে।

    Inception module factorization after a nxn convolution. Source: C. Szegedy et al. (2015)কনসোলিউশন nxn পরে সূচনা মডিউল ফ্যাক্টরকরণ। উত্স: সি। সিজেডি এট আল। (2015)

    Inception module factorization application replacing 5x5 convolution by two 3x3 convolutions. Source: C. Szegedy et al. (2015)সূচনা মডিউল ফ্যাক্টরাইজেশন অ্যাপ্লিকেশন 2x3 convolutions দ্বারা 5x5 কনভোলিউশন প্রতিস্থাপন। উত্স: সি। সিজেডি এট আল। (2015)

    Residual learningঅবশিষ্ট শিক্ষা

    সংশ্লেষীয় স্নায়ু নেটওয়ার্ক মডেলের প্রধান সাধারণ প্রবণতা তাদের বৃদ্ধি গভীরতা। কে। তিনি ও আল। (২015) লক্ষ্য করে যে, বাড়তি গভীরতার মধ্যে একটি অতিরিক্ত ত্রুটিযুক্ত মডেল রয়েছে যা অতিমাত্রায় জটিল নয় বরং অত্যন্ত গভীর মডেলগুলিকে প্রশিক্ষণের এবং অপ্টিমাইজ করার সমস্যাগুলির সাথে জড়িত। "রেসিডুয়াল লার্নিং" একটি বা একাধিক সংশ্লেষক স্তরের আউটপুট এবং পরিচয় ম্যাপিংয়ের সাথে তাদের মূল ইনপুটগুলির মধ্যে সংযোগ তৈরি করার জন্য চালু করা হয়েছে। অন্য কথায়, মডেল একটি অবশিষ্টাংশ শিখতে চেষ্টা করছে যা বেশিরভাগ তথ্য রাখে এবং শুধুমাত্র সামান্য পরিবর্তনগুলি তৈরি করে। এর ফলে, ইনপুট ইমেজ থেকে নিদর্শন গভীর স্তরগুলিতে শিখে যেতে পারে। তাছাড়া, এই পদ্ধতিটি কোনও অতিরিক্ত প্যারামিটার যোগ করে না এবং মডেলটির কম্পিউটেশনাল জটিলতাকে বাড়ায় না। এই মডেলটিকে "রেজনেট" ডাব্লু করা হয়েছে, এটি দুটি স্তরগুলির ব্লক দ্বারা অবশিষ্ট শিক্ষা ব্যবহার করে 3x3 ফিল্টারগুলির সাথে 152 সংশ্লেষিক স্তরের গঠিত। ২01২ সালের ইমেজনেট চ্যালেঞ্জের (4.4 ইঞ্চিটির চেয়ে কম) 4.49% এর শীর্ষ -5 ত্রুটি হার পেয়েছে, তবে রেসনেট মডেলটি ২017 সালের চ্যালেঞ্জ ২015 সালের 3.57% এর শীর্ষ -5 ত্রুটি হারের সাথে জিতেছে।


    Residual learning block architecture. Source: K. He et al. (2015)অবশিষ্ট শিক্ষা ব্লক আর্কিটেকচার। উত্স: কে। তিনি et al। (2015)


    ResNet architecture. Source: K. He et al. (2015)ResNet আর্কিটেকচার। উত্স: কে। he  et al। (2015)

    The Inception-ResNe / আরম্ভResNet

    এক বছর পর রেজনেট মডেলের সাফল্যের পর C. Szegedy et al. (2016) (2016) মিলিত সূচনা মডিউল (স্পারসিটি বৃদ্ধিincrease sparsity) এবং অবশিষ্ট বিন্দু (গভীর স্তর শেখার জন্যto learn deeper layers), অবশিষ্ট পুনরুদ্ধারের ব্লক নির্মাণ। fine-tune the layer sizes and to detect more specific patterns. করার জন্য সূচনা মডিউল উন্নত করা হয়েছে। এই মডেলটি নেটওয়ার্কগুলির প্রথম প্রথাগত স্তরগুলির আগে এমনকি গোড়ার সংখ্যাগুলির সংখ্যা বাড়ানোর আগে ব্যাচ-স্বাভাবিকীকরণ ব্যবহার করে না। ফলে ইনসিপেশন ভি 4 (ইনসেপশন-রেসনেট) ² মডেলটি ২018 সালের ইমেজনেট চ্যালেঞ্জের সাথে 3.08% এর শীর্ষ -5 ত্রুটি হারের সাথে আরও অন্যান্য মডেলগুলিকে আরও দ্রুত এবং উন্নত করে তুলতে পারে।



    Architecture of an Inception-resnet-A module. Source: C. Szegedy et al. (2016)




    Inception-ResNet architecture using customized Inception-ResNet modules. Source: C. Szegedy et al. (2016)

    Squeeze and Excitation/ ভাঁজ এবং উত্তেজনা
    প্রতি দিন, কর্মক্ষমতা উন্নতি এবং দ্রুত গতিতে প্রশিক্ষণ নতুন ব্লক প্রস্তাব করা হয়। উদাহরণস্বরূপ, "সুইজ এবং এক্সটাইটেশন" মডিউল (জে। হু, 2017) একাধিক পুরোপুরি সংযুক্ত লেয়ার, সূচনা মডিউল এবং অবশিষ্ট বিন্দু সমন্বয়কারী একটি আর্কিটেকচার ব্যবহার করে। তার প্রধান সুবিধার মধ্যে একটি হল নিম্নমানের পরামিতি (এইভাবে কম্পিউটেশনাল খরচ কমানো) 2.25% এর শীর্ষ -5 ত্রুটি হার বজায় রাখার সময়, 2017 ImageNet চ্যালেঞ্জের বিজয়ীকে প্রচার করে।



    Squeeze-Excitation-ResNet module. Source: J. Hu (2017)

    Neural Architecture Search/নিউরাল স্থাপত্য অনুসন্ধান

    গুগল ব্রেইন গবেষকগণ (B. Zoph and Q.V. Le, 2017) নিউরাল আর্কিটেকচার অনুসন্ধান (NAS) নামে একটি নতুন ধারণা প্রকাশ করেছেন। মূলত, এটি পুনর্মিলন শেখার ব্যবহার করে নিজস্ব স্থাপত্য শিখতে পুনরাবৃত্ত নিউরাল নেটওয়ার্কের একটি সেল হিসাবে ব্যবহৃত হয়। অপারেশন এবং হাইপারপার্মিটারগুলির একটি নির্দিষ্ট পরিসরের জন্য, একটি নির্দিষ্ট ডেটাসেটের জন্য একটি সিগন্যাল পুরস্কার হিসাবে নির্ভুলতাকে সর্বোচ্চ করার জন্য একাধিক ক্রম উপলব্ধ করা হয়। একটি অপ্টিমাইজড আর্কিটেকচার পেতে অপারেশন সেরা ক্রম (সর্বাধিক গভীরতা দেওয়া) শিখতে উদ্দেশ্য। সিএএসএআর -10 ডেটাসেট-এ-অ-আর্ট পরীক্ষা ত্রুটির হার পৌঁছেছে নাএএস-এর সাথে শিখেছে সিএনএন আর্কিটেকচার।

    এই আগের কাজটি ব্যবহার করে, B. Zoph et al. (2017)ইমেজনেট চ্যালেঞ্জ সম্পাদনের জন্য সিফ্রা -10 ডেটাসেটে NAS ব্যবহার করে শিখানো একটি আর্কিটেকচার ব্লকের সাথে একটি মডেল তৈরি করেছে। এই ব্লকগুলিকে সদৃশ এবং "NASNET" মডেল তৈরি করতে তাদের নিজস্ব পরামিতিগুলির সাথে স্ট্যাক করা হয়। ইমেজনেট ডেটাসেটটি NAS পদ্ধতির জন্য ব্যবহার করা খুব বড়, কিন্তু লেখক  C. Szegedy et al. (2016).এর চেয়ে হালকা এবং দ্রুত ব্লক আর্কিটেকচারগুলি তৈরি করতে সফল হন। (2016)। NASNet মডেলের প্যারামিটার ImageNet ব্যবহার করে প্রশিক্ষিত। চিত্রটি ২010 সালের চ্যালেঞ্জে 3.8% এর শীর্ষ -5 ত্রুটির হার অর্জন করেছে। 50 মেগাবাইটেরও কম এরও কম সংস্করণটি অন্য কোনও সমান আকারের মডেলের চেয়ে কম ত্রুটির হার সহও মুক্তি পায়।
    Architecture of the best convolutional modules learnt with NAS computing the next hidden state using the past one as input. Left: the Normal Cell is the module creating the feature maps. Right: the Reduction Cell is the module reducing the size of the feature maps by a factor of two (it replaces max-pooling layers). Source: B. Zoph et al. (2017)ইনপুট হিসাবে গত এক ব্যবহার করে পরবর্তী লুকানো রাষ্ট্র NAS কম্পিউটারের সাথে শিখেছি সেরা সংশোধনমূলক মডিউলগুলির স্থাপত্য। বাম: নরমাল সেল হল মডিউলটি বৈশিষ্ট্য মানচিত্র তৈরি করছে। রাইট: রেডাকশন সেল হল দুটি মাপের বৈশিষ্ট্য দ্বারা মানচিত্রের আকারকে হ্রাসকারী মডিউল (এটি সর্বোচ্চ-পুলিং স্তরগুলি প্রতিস্থাপন করে)। উত্স: বি জফফ এট আল। (2017)

    Progressive Neural Architecture Search/প্রগতিশীল নিউরাল আর্কিটেকচার অনুসন্ধান

    সি। লিউ এট আল। (2017) সম্প্রতি প্রগ্রেসিভ নিউরাল আর্কিটেকচার অনুসন্ধান (পিএনএএস) নামে একটি পদ্ধতি প্রকাশ করেছেন যা বি। জোফ এট আল এর অ্যালগরিদম অনুসন্ধানের স্থান কমাতে। (2017) প্রতিযোগিতামূলক ফলাফল পালন করার সময়।
    পূর্ববর্তী কাজ থেকে অনুপ্রাণিত, তারা উপলব্ধ ফাংশন এবং সমন্বয় অপারেটর সংখ্যা কমে গেছে। তারা একটি প্রগতিশীল অনুসন্ধান তৈরি করতে শক্তিশালীকরণ শিখর অংশ মুছে ফেলা হয়েছে। তারা প্রথম একক ফাংশন সহ সমস্ত সম্ভাব্য সাধারণ কাঠামো তৈরি করে শুরু করে। তাদের প্রত্যেকটি একটি অপারেটর সঙ্গে অন্য কাঠামো স্ট্যাক করা হয় এবং একটি শিখেছি ফাংশন এটি শেখার লাভজনকতা পরিমাণ পরিমাপ তাদের স্কোর predicts। এই স্কোর আদেশ করা হয় এবং K সেরা বেশী অন্য কাঠামো সঙ্গে স্ট্যাক করা নির্বাচন করা হয়। ব্লক সর্বোচ্চ সংখ্যা পৌঁছে না হওয়া পর্যন্ত প্রক্রিয়া পুনরাবৃত্তিমূলক।
    B. Zoph et al. (2017) দ্বারা উন্নত NAS মডেলের তুলনায় PNAS মডেল একই কর্মক্ষমতা অর্জন করেছে (2017) .ফ্যাক্টর দ্বারা হ্রাস করার সময় 5 প্রশিক্ষণ সময়। এই পদ্ধতি গভীর শিক্ষার জন্য প্রতিশ্রুতিবদ্ধ কারণ নতুন স্বজ্ঞাত স্থাপত্যগুলি গবেষকদের দ্বারা খুঁজে পাওয়া কঠিন।
    Cell structure of the best PNAS model. Source: C. Liu et al.(2017)
    উপসংহার 
    এই পোস্টটি ইমেজ শ্রেণীবদ্ধকরণ সমস্যার জন্য গভীরভাবে শেখার মাইলফলকগুলি এবং চিত্র বিশেষ চ্যালেঞ্জ সম্পর্কে আরো বিশদ বর্ণনা করেছে। তবে, এটি সমস্ত বিদ্যমান মডেলের একটি সম্পূর্ণ তালিকা নয়। নতুন প্রতিদিন কম্পিউটারের দৃষ্টিভঙ্গিতে গবেষণার একটি অত্যন্ত সক্রিয় ক্ষেত্রের অনুস্মারক হিসাবে অনুস্মারক হিসাবে প্রদর্শিত হয়।

    Overview of the top-5 error rates on the 2012, 2014, 2015 and 2017 ImageNet challenges.
    তবে এদের মধ্যে বেশিরভাগই মেগাবাইটের আকারের সাথে, প্রয়োজনীয় সংখ্যক অপারেশন জড়িত থাকার কারণে উল্লেখযোগ্য কম্পিউটেশনাল খরচ এমনকি ইনফারেন্স মোডেও প্রয়োজন। মোবাইল ডিভাইসগুলিতে এম্বেড করা গভীর শিক্ষার মডেলগুলির জন্য এটি উদ্বেগের একটি বাস্তব বিষয় গঠন করে। আর্কিটেকচার এবং ওজন পরিমান অপ্টিমাইজেশান এছাড়াও গবেষণা একটি সক্রিয় ক্ষেত্র গঠন করে, যা ভবিষ্যতে পোস্টে করা হবে।
    1 শব্দের সেট 
    2 সি। সিজেডি et al। (2016) একটি বিশুদ্ধ (যেমন অবশিষ্ট অবশিষ্ট ব্লক) ভেতর দিয়ে তৈরি V4 এবং একটি ইনসেপশন-রেসনেট V2 মডেল যা প্রাথমিকভাবে মডিউল এবং অবশিষ্ট ব্লকগুলি ব্যবহার করে। উপরে উল্লেখিত ইনপুট V4 হল ইনসেশন-রেজনেট ভি 2 সেরা পারফরম্যান্স সরবরাহ করে।


  • 0 comments:

    Post a Comment

    New Research

    Attention Mechanism Based Multi Feature Fusion Forest for Hyperspectral Image Classification.

    CBS-GAN: A Band Selection Based Generative Adversarial Net for Hyperspectral Sample Generation.

    Multi-feature Fusion based Deep Forest for Hyperspectral Image Classification.

    ADDRESS

    388 Lumo Rd, Hongshan, Wuhan, Hubei, China

    EMAIL

    contact-m.zamanb@yahoo.com
    mostofa.zaman@cug.edu.cn

    TELEPHONE

    #
    #

    MOBILE

    +8615527370302,
    +8807171546477