• A CNN-based Spatial Feature Fusion Algorithm for Hyperspectral Imagery Classification


    হাইপারস্পেকট্রাল ইমেজগুলির শ্রেণিবিন্যাসে স্নায়বিক নেটওয়ার্ক প্রয়োগে প্রশিক্ষণের নমুনাগুলির অভাব অন্যতম প্রধান প্রতিবন্ধক হিসাবে রয়ে গেছে। স্থানিক এবং বর্ণাল তথ্য ফিউজ করতে পিক্সেল প্যাচগুলি প্রায়শই হয় কোনও মডেলকে প্রশিক্ষণের জন্য ব্যবহার করা হয়েছে, যা আরও এই সমস্যাটি আরও বাড়িয়ে তুলতে পারে। বিদ্যমান কাজগুলিতে সেন্টার-লস (এএনএনসি) তত্ত্বাবধানে একটি এএনএন মডেল প্রবর্তন করা হয়েছিল। কেবল বর্ণালি তথ্য দিয়ে প্রশিক্ষণ দেওয়া, এএনএনসি পরবর্তী শ্রেণিবিন্যাসের জন্য উপযুক্ত বৈষম্যমূলক বর্ণালী বৈশিষ্ট্য অর্জন করে। এই কাগজে, আমরা একটি উপন্যাস প্রস্তাব সিএনএন-ভিত্তিক স্থানিক বৈশিষ্ট্য ফিউশন (সিএসএফএফ) অ্যালগরিদম যা এএনএনসি দ্বারা প্রাপ্ত বর্ণালী বৈশিষ্ট্যগুলিতে স্থানিক তথ্যের একটি স্মার্ট সংহতকরণের অনুমতি দেয়। সিএসএফএফের একটি সমালোচনামূলক অংশ হিসাবে, দুটি পিক্সেল একই শ্রেণীর অন্তর্ভুক্ত কিনা তা অনুমান করার জন্য একটি সিএনএন-ভিত্তিক বৈষম্যমূলক মডেল চালু করা হয়েছিল। পরীক্ষার পর্যায়ে, পরীক্ষার পিক্সেল এবং এর প্রতিবেশীর প্রতিটি দ্বারা উত্পাদিত পিক্সেল জোড়গুলিতে বৈষম্যমূলক মডেল প্রয়োগ করে, স্থানীয় কাঠামোটি অনুমান করা হয় এবং একটি কাস্টমাইজড কনভোলশনাল কার্নেল হিসাবে উপস্থাপিত হয়। বর্ণাল-স্থানীয় বৈশিষ্ট্যটি অনুমান করা কার্নেল এবং স্থানীয় অঞ্চলে সম্পর্কিত বর্ণালী বৈশিষ্ট্যগুলির মধ্যে একটি সংশ্লেষমূলক ক্রিয়াকলাপ দ্বারা উত্পন্ন হয়। চূড়ান্ত লেবেল ফলাফল বর্ণালী - স্থানিক বৈশিষ্ট্য শ্রেণীবদ্ধ করে নির্ধারিত হয়। প্রশিক্ষণের পর্যায়ে প্রশিক্ষণের নমুনাগুলির সংখ্যা বাড়ানো বা পিক্সেল প্যাচগুলি জড়িত না করে, সিএসএফএফ কাঠামো তিনটি সুপরিচিত হাইপারস্পেকট্রাল ইমেজের পরীক্ষায় 20% - 50% শ্রেণিবিন্যাস ব্যর্থতা হ্রাস করে অবস্থা  অর্জন করে।

    একটি হাইপারস্পেকট্রাল চিত্র হল বর্ণালী পিক্সেলের সংকলন। তাদের প্রত্যেকটি নির্দিষ্ট তরঙ্গদৈর্ঘ্যের ব্যাপ্তি জুড়ে কয়েকশ চ্যানেল সহ অবিচ্ছিন্ন প্রতিচ্ছবি একই জমির আচ্ছাদন রেকর্ড করে।
    হাইপারস্পেকট্রাল ইমেজ বিশ্লেষণের ক্ষেত্রে জমি-কভার সামগ্রীর সেটগুলিতে থেসস্পেক্ট্রাল পিক্সেলগুলির শ্রেণিবিন্যাস একটি গুরুত্বপূর্ণ কাজ। এই সমস্যাটির সমাধানের জন্য, প্রচুর বর্ণালি তথ্য শোষণ করে বেশ কয়েকটি বর্ণালী ভিত্তিক কাজ প্রস্তাব করা হয় তথ্য থাকা। এর মধ্যে মাত্রা হ্রাস এবং বৈশিষ্ট্য শ্রেণিবিন্যাসে রৈখিক অ্যালগরিদমগুলি সবচেয়ে তদন্ত করা হয়, উদাহরণস্বরূপ, মূল উপাদান বিশ্লেষণ (পিসিএ) [2], স্বতন্ত্র উপাদান বিশ্লেষণ (আইসিএ) [3] এবং লিনিয়ার বৈষম্যমূলক বিশ্লেষণ (এলডিএ) [4]। বর্ণালীটির আরও ভাল উপস্থাপনা অর্জনের জন্য ননলাইনার মডেল এবং তাদের এক্সটেনশানগুলিও চালু করা হয়েছিল, সীমিত সমর্থন ভেক্টর মেশিন (এসভিএম) সহ নয় তবে [5], বহুগুণে শেখা , এলোমেলো বন ,এবং কার্নেল-ভিত্তিক কৌশলগুলি [8, 9]।

    বর্ণালি এবং স্থানিক উভয় রেজোলিউশন [10] এর ক্রমবর্ধমান চিত্রের গুণাবলী উপকৃত করা, অসংখ্য বর্ণাল-স্থানিক আরও সঠিক শ্রেণিবিন্যাসের কার্যকারিতা [১১-১–] পাওয়ার জন্য অ্যালগরিদমগুলি তৈরি করা হয়েছে। বিশেষ করে, একটি মাল্টি-স্কেল অভিযোজিত স্পর্শ উপস্থাপনা (এমএএসআর) পদ্ধতি প্রস্তাবিত [১৮], যেখানে স্থানিক তথ্য বিভিন্ন স্কেল একসাথে অন্বেষণ করা হয়। এমএএসআর-এ, প্রতিটি প্রতিবেশী পিক্সেল একটি অভিযোজিত স্পার্সের মাধ্যমে প্রতিনিধিত্ব করা হয় প্রশিক্ষণের নমুনাগুলির সংমিশ্রণ এবং কেন্দ্রীকরণ পরীক্ষার পিক্সেলের লেবেলটি উদ্ধার হওয়া স্পার্স দ্বারা নির্ধারিত হয় কোফিসিয়েন্টস। এটি লক্ষণীয় যে এমএএসআর পরীক্ষামূলক পর্যায়ে স্থানিক তথ্য ব্যবহার করে, কেবল বর্ণালি প্রশিক্ষণ পর্যায়ে তথ্য নিযুক্ত করা হয়। এটি প্রশিক্ষণের তথ্যগুলির অভাব কিছুটা হলেও কমিয়ে আনতে সহায়তা করে।
    ডীপ লার্নিং অবকাঠামো, কৃত্রিম নিউরাল নেটওয়ার্ক (ANN) সহ, convolutional স্নায়ুর নেটওয়ার্ক (সিএনএন), এবং পৌনঃপুনিক নিউরাল নেটওয়ার্ক (RNN) সফলভাবে অনেক মেশিন শিক্ষা ও সংকেত প্রক্রিয়াজাতকরণ [19-23] এর সাথে সম্পর্কিত ক্ষেত্রে প্রয়োগ করা হয়েছে। সম্প্রতি, নিউরাল নেটওয়ার্ক-ভিত্তিক মডেলের hyperspectral ইমেজ শ্রেণীবিন্যাস কাজে লাগিয়ে করা হয়েছে, ক্লাসিফিকেশন পারফরম্যান্সের পরিপ্রেক্ষিতে সনাতন পদ্ধতি উপর অসাধারণ উন্নতি অর্জনের। এর আগে কাজ স্তুপীকৃত autoencoder (SAE) [24, 25], গভীর বিশ্বাস নেটওয়ার্ক (Dbn) [26] অন্তর্ভুক্ত ইত্যাদি .. আরও সাম্প্রতিককালে, অনেক গবেষণার গবেষণা যেমন, সিএনএন এবং RNN ভিত্তিক মডেলের বৈচিত্র্যের জন্য নিবেদিত হয় [27-37]

    পিক্সেল প্যাচগুলির সাথে প্রশিক্ষণ বর্ণালি এবং স্থানিক উভয় তথ্যের সুবিধা গ্রহণ করার জন্য একটি প্রাকৃতিক ধারণা এবং উপরোক্ত স্নায়বিক নেটওয়ার্ক-ভিত্তিক অধ্যয়নগুলির বেশিরভাগ দ্বারা গৃহীত হয়
    [27–35, 37]। প্রতিনিধিত্বমূলক কাজের মধ্যে [২৮] তথাকথিত থ্রিডি-সিএনএন অন্তর্ভুক্ত রয়েছে, যেখানে পিক্সেল প্যাচগুলি সরাসরি গভীর মডেলকে খাওয়ানো হয় এবং সংহত বর্ণালী-স্থানিক বৈশিষ্ট্যগুলি হাইপারস্পেকট্রাল ডেটা থেকে বের করা যেতে পারে। তবে এটি লক্ষ করা উচিত যে এই কৌশলটি আরও এগিয়ে যেতে পারে প্রশিক্ষণের তথ্যের অভাবকে বাড়িয়ে তুলুন। অ্যাক্সেসযোগ্য অসংখ্য আরজিবি চিত্র থেকে পৃথক, লেবেলযুক্ত নমুনাগুলি হাইপারস্পেকট্রাল চিত্রায় সীমিত, যা সাধারণত নেটওয়ার্ক প্রশিক্ষণের জন্য অপ্রতুল [২৮]। বর্ণালী-ভিত্তিক মডেলগুলির সাথে তুলনা করে, পিক্সেল-প্যাচ-ভিত্তিকগুলি এই দ্বন্দ্বটিকে দুটি দিক থেকে একত্রিত করে,

    • পিক্সেল প্যাচগুলি প্রায়শই অতিরিক্ত নির্ধারিত পরামিতিগুলি প্রবর্তন করে মডেলটিকে জটিল করে তোলে,এইভাবে আরও প্রশিক্ষণের ডেটা প্রয়োজন;

    •   হাইপারস্পেকট্রাল ইমেজটিতে সাধারণত পিক্সেলওয়ালা নমুনাগুলির চেয়ে নির্দিষ্ট আকারের কম পারস্পরিক পারস্পরিক অ-ওভারল্যাপযুক্ত প্যাচ থাকে।

    প্রশিক্ষণের তথ্যের ঘাটতি কাটিয়ে উঠতে বেশ কয়েকটি প্রচেষ্টা করা হয়েছে,যেমন ভার্চুয়াল নমুনা কৌশল [২৮],প্রাক প্রশিক্ষণ এবং সূক্ষ্ম সুরকরণ কৌশলগুলি [33, 34]।তদুপরি, পিক্সেল প্যাচগুলি প্রশিক্ষণের মাধ্যমে উত্থাপিত বাধা রোধ করতে ফ্রেমওয়ার্কগুলি একটি বর্ণালী ভিত্তিক মডেল এবং একটি পোস্ট স্পেসিয়াল ইনফরমেশন ইন্টিগ্রেশন স্কিমকে সম্মতি দিয়ে তৈরি করা হয়।এই ধারণা অনুসরণ করে, pixel-pair feature algorithm (PPF) [৩৮] এবং ANNC অ্যাডেটিভ spatial-spectral center classifier (ANNC-ASSCC)) [৩৫] হয়েছে সাহিত্যে প্রস্তাবিত।উপরে বর্ণিত MASR and 3D-CNN এর সাথে একসাথে,বিভাগটিতে প্রস্তাবিত CSFF অ্যালগরিদমের সাথে তুলনামূলকভাবে চারটি পদ্ধতি বেছে নেওয়া হয়েছে।PPF কাঠামো CNN ভিত্তিক একটি পিক্সেল-জুড়ি ভিত্তিক শ্রেণিবদ্ধকরণ মডেল তদন্ত করে  X 1 এবং X 2 দুটি হতে দিন যথাক্রমে `(x1) এবং` (x2) সহ পিক্সেল। প্রশিক্ষণের জন্য পিক্সেল-জুড়িটি (x1, x2) হিসাবে তৈরি করা হয়, এর দ্বারা নির্ধারিত লেবেল দ্বারা



    দেখা গেছে যে পিক্সেল-জোড়গুলির সংখ্যা N2 গণনা করে, যেখানে এন প্রশিক্ষণের সেটটির আকার এই বড় প্রশিক্ষণের সেটটির আকার deep CNN  মডেলটির প্রশিক্ষণ সক্ষম করে।মডেলটি পিক্সেল-জুটিকে k + 1 এ শ্রেণীবদ্ধ করেলেবেল 0 এবং 1, 2, ...k, যেখানে কে পিক্সেল ক্লাসের সংখ্যা। পরীক্ষামূলক পর্যায়ে, পিক্সেল-জোড়া প্রথমত পরীক্ষা পিক্সেল এবং তার প্রতিবেশীদের দ্বারা উত্পন্ন, এবং তারপর শিখেছি CNN মডেল দ্বারা k + 1 শ্রেণীতে শ্রেণীবদ্ধ করা হয়।পরীক্ষার পিক্সেলের চূড়ান্ত লেবেলটি শূন্য নয় এমন শ্রেণিবিন্যাসের ফলাফলের মধ্যে ভোটদানের কৌশল দ্বারা নির্ধারিত হয়। [35] এ, একটি ANN ভিত্তিক বৈশিষ্ট্য নিষ্কাশন এবং শ্রেণিবদ্ধকরণ কাঠামো প্রস্তাবিত। তথাকথিত ANNC-ASSCC  র অ্যালগোরিদম দুটি ধারাবাহিক পদক্ষেপ নিয়ে গঠিত:


    •  ANN এর সাথে বর্ণালী বৈশিষ্ট্য নিষ্কাশন
    • • অভিযোজিত স্থানিক তথ্য ফিউশন এবং শ্রেণিবদ্ধকরণ

    প্রথম পদক্ষেপে বর্ণালী বৈশিষ্ট্যগুলি নিষ্কাশনের জন্য একটি সাধারণ তবে দক্ষ এএনএন কাঠামো ডিজাইন করা হয়েছে। ইনফিগ হিসাবে চিত্রি 1, নেটওয়ার্কটিতে 4 টি সম্পূর্ণ সংযুক্ত স্তর রয়েছে এবং সফটম্যাক্স ক্ষতি এবং কেন্দ্রের ক্ষতি একটি যৌথ তত্ত্বাবধান প্রয়োগ করা হয় শ্রেণিবদ্ধকরণ কাজের জন্য। প্রশিক্ষণের পর্যায়ে, কে ক্লাস কেন্দ্রগুলি, অর্থাত্ c1, c 2, ck গড়ে  আপডেট হয় 3 ডি-স্তর স্তরের আউটপুটগুলি সম্পর্কিত ক্লাসের মধ্যে রয়েছে। একটি প্রশিক্ষণ পিক্সেল জন্য, প্রবর্তিত কেন্দ্রের ক্ষতি উত্সাহ দেয় 3-rd স্তরটির আউটপুট ইউক্লিডিয়ান স্থানের সাথে সম্পর্কিত বর্গ কেন্দ্রের চারপাশে জড়ো করা। পরীক্ষার পর্যায়ে, শিখেছি নেটওয়ার্কের প্রথম 3 স্তরগুলি ব্যবহার করা হয় এবং 3-তম স্তরটির আউটপুটগুলি নিষ্ক্রিয় হিসাবে গণ্য করা হয় বর্ণালী বৈশিষ্ট্য। দ্বিতীয় ধাপে, স্থানিক তথ্য নিষ্কাশিত বর্ণালী বৈশিষ্ট্যগুলির গড়ের মাধ্যমে মিশ্রিত করা হয় বিভিন্ন আকারের প্রতিবেশী অঞ্চলগুলির মধ্যে। ফলাফল বৈশিষ্ট্যগুলি শ্রেণীবদ্ধ করার পরে, একটি ভোটদান কৌশল প্রয়োগ করা হয় চূড়ান্ত পূর্বাভাস উত্পন্ন। এই কাগজে, বর্ণালি বৈশিষ্ট্য নিষ্কাশন মডেল হিসাবে আমরা [35] এএএনএনসি নেটওয়ার্কটি চয়ন করি এবং একটি ডিজাইন করি সিএনএন-ভিত্তিক স্পেসিয়াল ফিচার ফিউশন (সিএসএফএফ) স্থানিক তথ্য উত্তরোত্তর সংহত করার জন্য অ্যালগরিদম। প্রস্তাবিত শ্রেণিবদ্ধকরণ কাঠামোর মূল চরিত্রগুলি নীচে তালিকাভুক্ত হয়েছে।
    ১. [৩৫] এ ব্যবহারিত অন্তর্নিহিত স্থানিক তথ্যের পরিবর্তে সুস্পষ্ট স্থানিক কাঠামোটি আমাদের উপন্যাস সিএনএন-ভিত্তিক মডেল দ্বারা উত্পাদিত হয়। অতএব, সিএসএফএফ আগের কাজের গড় ফিউশন কৌশলের চেয়ে বেশি যুক্তিসঙ্গতভাবে কাজ করে [35]

    figure 1
    Figure 1: Structure of the spectral feature extracting network [35].

    ২. সিএসএফএফ অ্যালগরিদম বর্ণালী বৈশিষ্ট্য নিষ্কাশন মডেলের সাথে একই প্রশিক্ষণের ডেটা ভাগ করে এই কাগজে এএনএনসি হিসাবে নির্বাচিত। প্রশিক্ষণের সেটটির আকার না বাড়িয়ে এই বন্দোবস্তটি রাখে পুরো কাঠামো অল্প পরিমাণে প্রশিক্ষণের ডেটা নিয়ে কাজ করে।

    ৩. কাঠামোর প্রতিনিধি ক্ষমতা বাড়ানোর জন্য, সিএসএফএফের স্থানিক কাঠামো নিষ্কাশন অ্যালগরিদম এএনএনসি থেকে একেবারে পৃথক নেটওয়ার্ক কাঠামো তৈরির জন্য ডিজাইন করা হয়েছে, যেমন দুটি মডেল বৈশিষ্ট্য প্রকাশ এবং বিমূর্ততা স্তরে আলাদা করা হয়। সুনির্দিষ্টভাবে বলতে গেলে, এএনএনসি বর্ণালীগুলির অগভীর বৈশিষ্ট্যগুলি প্রকাশ করেছে, যখন স্থানিক কাঠামো নিষ্কাশন অ্যালগরিদম আরও গভীর এবং আরও কিছু সঙ্গে বিমূর্ত বৈশিষ্ট্য উত্পাদন করে জটিল মডেল কাঠামো। এটি এই দুটি মডেলের মধ্যে পারস্পরিক সম্পর্ককে হ্রাস করতে সহায়তা করে, এইভাবে বৃদ্ধি পাচ্ছে পুরো কাঠামোর কর্মক্ষমতা।

    আরও প্রশিক্ষণের ডেটা প্রয়োজন না করে উপরোক্ত অক্ষরগুলির সুবিধা গ্রহণ করে, প্রস্তাবিত সিএসএফএফ অ্যালগরিদম পরীক্ষায় 20% - 50% শ্রেণিবিন্যাস ব্যর্থতা হ্রাস করে আধুনিক রাষ্ট্রকে অর্জন করতে দেয় এই কাগজটির অনুস্মারকটি নিম্নরূপে সংগঠিত হয়েছে। পুরো ফ্রেমওয়ার্কের রূপরেখা এবং সিএসএফএফ অ্যালগরিদম বিভাগ ২ তে আলোচনা করা হয়েছে, বিভাগ 3 পরীক্ষামূলক ফলাফল এবং বিশ্লেষণের প্রতিবেদন করেছে। বিভাগে 4, কিছু সমাপ্তি মন্তব্য উপস্থাপন করা হয়।

    2 Framework outline and the CNN-based spatial feature fusion algorithm

    এই বিভাগে, আমরা একটি শেষ থেকে শেষ বর্ণালী-স্থানীয় বৈশিষ্ট্য নিষ্কাশন এবং শ্রেণিবদ্ধকরণ কাঠামো উপস্থাপন করি। সমগ্র কাঠামোটি প্রথমে তিনটি উপাদানগুলির প্রতিটি সম্পর্কে বিশদ ব্যাখ্যা সহ প্রথমে বর্ণিত। এর মূল উপাদান হিসাবে পুরো কাঠামোটি, নতুন প্রস্তাবিত সিএনএন-ভিত্তিক উপর জোর দিয়ে সিএসএফএফ অ্যালগরিদম চালু করা হয়েছে বৈষম্যমূলক মডেল, যা একই শ্রেণীর অন্তর্ভুক্ত দুটি পিক্সেলের সম্ভাব্য সম্ভাবনা প্রকাশ করে।

    2.1 Framework outline
    পূর্বে আলোচনা হিসাবে, পিক্সেল প্যাচগুলির সাথে প্রশিক্ষণ লেবেলযুক্ত নমুনাগুলির অভাবকে আরও সংহত করতে পারে। ভিত্তিক এই উদ্বেগ, প্রস্তাবিত কাঠামোর প্রশিক্ষণ পর্যায়ে বর্ণালি ডেটা ব্যবহার করে সঞ্চালিত হয়, যখন স্থানিক তথ্য পরীক্ষার পর্যায়ে উত্তরোত্তর জড়িত। প্রস্তাবিত কাঠামোটি সমন্বয়ে তৈরি করা হয়েছে তিনটি অংশ, যথা
    • spectral feature extraction; 
    • spatial structure extraction and fusion of spectral feature and spatial structure; 
    • classification of the spectral-spatial feature. 

    The flowchart of the whole framework is given in Fig. 2.
    প্রথম অংশে, আমরা সরাসরি প্রয়োগ করে পুরো হাইপারস্পেকট্রাল চিত্রটির বর্ণালী বৈশিষ্ট্যগুলি বের করি এএনএনসি মডেল প্রস্তাবিত [35]। এই বর্ণালী-ভিত্তিক মডেলটি কেন্দ্রের ক্ষতি এবং একটি যৌথ ক্ষতি সহ তদারকি করা হয় সফটম্যাক্স ক্ষতি, অভ্যন্তরীণ-শ্রেণীর সংক্ষিপ্ততা এবং আন্তঃ শ্রেণীর বৈচিত্র সহ বৈষম্যমূলক বর্ণালী বৈশিষ্ট্য উত্পাদন করে। এর সুবিধা গ্রহণ করে, শিখেছি এএনএনসি মডেল দ্বারা প্রাপ্ত বর্ণালী বৈশিষ্ট্যগুলি ধারাবাহিক 
    figure 2
    চিত্র 2: প্রস্তাবিত কাঠামোর ফ্লোচার্টের জন্য উপযুক্ত। তিনটি উপাদান তিনটি ভাঙা আয়তক্ষেত্র দ্বারা প্রতিনিধিত্ব করা হয়। প্রশিক্ষণ এবং পরীক্ষার স্তরগুলি যথাক্রমে পাতলা এবং ঘন কঠিন তীর দ্বারা পৃথক করা হয়। ড্যাশড তীরগুলি বৈশিষ্ট্যগুলির শ্রেণি কেন্দ্রগুলির অনুমানের প্রতিনিধিত্ব করুন। পাড়ার মোড় এবং প্রশিক্ষণের নমুনাগুলি সাদা পিক্সেল দ্বারা প্রতিনিধিত্ব করা হয়, এবং পরীক্ষার পর্যায়ে বাদ দেওয়া হয়।
    spatial information fusion step. In the following, we use the notations x and fANNC(x) to denote a given pixel and its corresponding spectral feature extracted by the ANNC model.
    দ্বিতীয় অংশ, একটি স্থানিক গঠন নিষ্কাশন আলগোরিদিম একটি প্রদত্ত জন্য স্থানীয় গঠন অন্বেষণ করতে ডিজাইন করা হয়েছে
    কিছু পূর্বনির্ধারিত পাড়ার মধ্যে পিক্সেল। আরও স্পষ্টভাবে, স্থানীয় কাঠামোটি স্বনির্ধারিত বৈশিষ্ট্যযুক্ত
    "Convolutional কার্নেল"। ভুতুড়ে-স্থানিক তথ্য লয় একটি "convolutional" অপারেশন দ্বারা নিরূপিত হয় কার্নেল এবং পার্শ্ববর্তী অঞ্চলে নিষ্কাশিত বর্ণালী বৈশিষ্ট্যগুলির মধ্যে। যাক এন (x) এর একটি পাড়া হতে এ পিক্সেল x এবং ডব্লিউ (এন (x) এর) কেন্দ্র করে কাস্টমাইজড "সংবর্তন কার্নেল" হতে। থেকে স্বরলিপি fANNC (এন (x) এর) ব্যবহার করুন পার্শ্ববর্তী N (x), যেখানে i, j-th এর মধ্যে নিষ্কাশিত বর্ণালী বৈশিষ্ট্য দ্বারা গঠিত ডেটা কিউব উপস্থাপন করে ,এন্ট্রি দ্বারা সংজ্ঞায়িত করা হয়



    References 

    [1] D. Lu and Q. Weng, “A survey of image classification methods and techniques for improving classification performance,” International Journal of Remote Sensing, vol. 28, no. 5, pp. 823–870, 2007. 
    [2] G. Licciardi, P. R. Marpu, J. Chanussot, and J. A. Benediktsson, “Linear versus nonlinear PCA for the classification of hyperspectral data based on the extended morphological profiles,” IEEE Geoscience and Remote Sensing Letters, vol. 9, no. 3, pp. 447–451, May 2012. 
    [3] A. Villa, J. A. Benediktsson, J. Chanussot, and C. Jutten, “Hyperspectral image classification with independent component discriminant analysis,” IEEE Transactions on Geoscience and Remote Sensing, vol. 49, no. 12, pp. 4865–4876, Dec. 2011. 
    [4] T. V. Bandos, L. Bruzzone, and G. Camps-Valls, “Classification of hyperspectral images with regularized linear discriminant analysis,” IEEE Transactions on Geoscience and Remote Sensing, vol. 47, no. 3, pp. 862–873, Mar. 2009. 
    [5] F. Melgani and L. Bruzzone, “Classification of hyperspectral remote sensing images with support vector machines,” IEEE Transactions on Geoscience and Remote Sensing, vol. 42, no. 8, pp. 1778–1790, Aug. 2004. 
    [6] D. Lunga, S. Prasad, M. M. Crawford, and O. Ersoy, “Manifold-learning-based feature extraction for classification of hyperspectral data: A review of advances in manifold learning,” IEEE Signal Processing Magazine, vol. 31, no. 1, pp. 55–66, Jan. 2014. 12 


    [7] J. Ham, Y. Chen, M. M. Crawford, and J. Ghosh, “Investigation of the random forest framework for classification of hyperspectral data,” IEEE Transactions on Geoscience and Remote Sensing, vol. 43, no. 3, pp. 492–501, 2005. 

    [8] B. C. Kuo, C. H. Li, and J. M. Yang, “Kernel nonparametric weighted feature extraction for hyperspectral image classification,” IEEE Transactions on Geoscience and Remote Sensing, vol. 47, no. 4, pp. 1139–1155, Apr. 2009. 

    [9] B. Sch¨olkopf and A. J. Smola, Learning with kernels: support vector machines, regularization, optimization, and beyond. Cambridge, MA: MIT press, 2002. 

    [10] M. Fauvel, Y. Tarabalka, J. A. Benediktsson, J. Chanussot, and J. C. Tilton, “Advances in spectral-spatial classification of hyperspectral images,” Proceedings of the IEEE, vol. 101, no. 3, pp. 652–675, Mar. 2013. 

    [11] Y. Chen, N. M. Nasrabadi, and T. D. Tran, “Hyperspectral image classification using dictionary-based sparse representation,” IEEE Transactions on Geoscience and Remote Sensing, vol. 49, no. 10, pp. 3973–3985, Oct. 2011. 

    [12] M. Fauvel, J. A. Benediktsson, J. Chanussot, and J. R. Sveinsson, “Spectral and spatial classification of hyperspectral data using svms and morphological profiles,” IEEE Transactions on Geoscience and Remote Sensing, vol. 46, no. 11, pp. 3804–3814, Nov. 2008. 

    table 5

    Table 5: Classification accuracies (averaged over 5 runs) of MASR, PPF, 3D-CNN, ANNC-ASSCC and CSFF on Salinas

    table 6


    Table 6: Classification accuracies (averaged over 5 runs) of MASR, PPF, 3D-CNN, ANNC-ASSCC and CSFF on Pavia Centre
    table 7
    Table 7: Classification accuracies (averaged over 5 runs) of kNN, SVM and center classifier on spectral-spatial feature of Pavia University scene

    table 8

    Table 8: Classification accuracies (averaged over 5 runs) of kNN, SVM and center classifier on spectral-spatial feature of Salinas scene
    table 9

    Table 9: Classification accuracies (averaged over 5 runs) of kNN, SVM and center classifier on spectral-spatial feature of Pavia Centre scene
    table 10


    [13] L. Z. Huo and P. Tang, “Spectral and spatial classification of hyperspectral data using svms and gabor textures,” in Proceedings of the IEEE International Geoscience and Remote Sensing Symposium, Jul. 2011, pp. 1708–1711. 

    [14] J. Li, J. M. Bioucas-Dias, and A. Plaza, “Spectral-spatial classification of hyperspectral data using loopy belief propagation and active learning,” IEEE Transactions on Geoscience and Remote Sensing, vol. 51, no. 2, pp. 844–856, Feb. 2013. 

    [15] A. Plaza, J. Plaza, and G. Martin, “Incorporation of spatial constraints into spectral mixture analysis of remotely sensed hyperspectral data,” in Proceedings of the IEEE International Workshop on Machine Learning for Signal Processing, Sep. 2009, pp. 1–6. 

    [16] B. Song, J. Li, M. D. Mura, P. Li, A. Plaza, J. M. Bioucas-Dias, J. A. Benediktsson, and J. Chanussot, “Remotely sensed image classification using sparse representations of morphological attribute profiles,” IEEE Transactions on Geoscience and Remote Sensing, vol. 52, no. 8, pp. 5122–5136, Aug. 2014. 

    [17] R. Hang, Q. Liu, Y. Sun, X. Yuan, H. Pei, J. Plaza, and A. Plaza, “Robust matrix discriminative analysis for feature extraction from hyperspectral images,” IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, vol. 10, no. 5, pp. 2002–2011, 2017.

     [18] L. Fang, S. Li, X. Kang, and J. A. Benediktsson, “Spectral-spatial hyperspectral image classification via multiscale adaptive sparse representation,” IEEE Transactions on Geoscience and Remote Sensing, vol. 52, no. 12, pp. 7738–7749, Dec. 2014.

    [19] T. Hill, L. Marquez, M. O’Connor, and W. Remus, “Artificial neural network models for forecasting and decision making,” International Journal of Forecasting, vol. 10, no. 1, pp. 5–15, 1994. 

    [20] G. P. Zhang, “Neural networks for classification: a survey,” IEEE Transactions on Systems, Man, and Cybernetics, Part C (Applications and Reviews), vol. 30, no. 4, pp. 451–462, Nov 2000. 

    [21] A. Krizhevsky, I. Sutskever, and G. E. Hinton, “Imagenet classification with deep convolutional neural networks,” in Advances in neural information processing systems, 2012, pp. 1097–1105. 

    [22] J. Schmidhuber, “Deep learning in neural networks: An overview,” Neural Networks, vol. 61, no. Supplement C, pp. 85–117, 2015. [Online]. Available: http://www.sciencedirect.com/science/article/pii/S0893608014002135 

    [23] S. Hochreiter and J. Schmidhuber, “Long short-term memory,” Neural computation, vol. 9, no. 8, pp. 1735– 1780, 1997. 

    [24] J. A. Benediktsson, J. A. Palmason, and J. R. Sveinsson, “Classification of hyperspectral data from urban areas based on extended morphological profiles,” IEEE Transactions on Geoscience and Remote Sensing, vol. 43, no. 3, pp. 480–491, Mar. 2005. 

    [25] Y. Chen, Z. Lin, X. Zhao, G. Wang, and Y. Gu, “Deep learning-based classification of hyperspectral data,” IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, vol. 7, no. 6, pp. 2094– 2107, Jun. 2014. 

    [26] Y. Chen, X. Zhao, and X. Jia, “Spectral-spatial classification of hyperspectral data based on deep belief network,” IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, vol. 8, no. 6, pp. 2381–2392, Jun. 2015. 

    [27] V. Slavkovikj, S. Verstockt, W. De Neve, S. Van Hoecke, and R. Van de Walle, “Hyperspectral image classification with convolutional neural networks,” in Proceedings of the ACM international conference on Multimedia. ACM, 2015, pp. 1159–1162. 

    [28] Y. Chen, H. Jiang, C. Li, X. Jia, and P. Ghamisi, “Deep feature extraction and classification of hyperspectral images based on convolutional neural networks,” IEEE Transactions on Geoscience and Remote Sensing, vol. 54, no. 10, pp. 6232–6251, Oct. 2016. 

    [29] H. Liang and Q. Li, “Hyperspectral imagery classification using sparse representations of convolutional neural network features,” Remote Sensing, vol. 8, no. 2, p. 99, 2016. 

    [30] W. Zhao and S. Du, “Spectral-spatial feature extraction for hyperspectral image classification: A dimension reduction and deep learning approach,” IEEE Transactions on Geoscience and Remote Sensing, vol. 54, no. 8, pp. 4544–4554, Aug. 2016. 

    [31] A. Romero, C. Gatta, and G. Camps-Valls, “Unsupervised deep feature extraction for remote sensing image classification,” IEEE Transactions on Geoscience and Remote Sensing, vol. 54, no. 3, pp. 1349–1362, Mar. 2016. 

    [32] S. Yu, S. Jia, and C. Xu, “Convolutional neural networks for hyperspectral image classification,” Neurocomputing, vol. 219, pp. 88–98, 2017. 

    [33] L. Jiao, M. Liang, H. Chen, S. Yang, H. Liu, and X. Cao, “Deep fully convolutional network-based spatial distribution prediction for hyperspectral image classification,” IEEE Transactions on Geoscience and Remote Sensing, vol. 55, no. 10, pp. 5585–5599, Oct. 2017. 

    [34] K. Nogueira, O. A. B. Penatti, and J. A. D. Santos, “Towards better exploiting convolutional neural networks for remote sensing scene classification,” Pattern Recognition, vol. 61, pp. 539–556, 2017. 

    [35] A. J. Guo and F. Zhu, “Spectral-spatial feature extraction and classification by ann supervised with center loss in hyperspectral imagery,” arXiv preprint arXiv:1711.07141, 2017. 

    [36] L. Mou, P. Ghamisi, and X. X. Zhu, “Deep recurrent neural networks for hyperspectral image classification,” IEEE Transactions on Geoscience and Remote Sensing, vol. 55, no. 7, pp. 3639–3655, Apr. 2017. 

    [37] Q. Liu, F. Zhou, R. Hang, and X. Yuan, “Bidirectional-convolutional lstm based spectral-spatial feature learning for hyperspectral image classification,” Remote Sensing, 2017. 

    [38] W. Li, G. Wu, F. Zhang, and Q. Du, “Hyperspectral image classification using deep pixel-pair features,” IEEE Transactions on Geoscience and Remote Sensing, vol. 55, no. 2, pp. 844–853, Feb. 2017. 

    [39] Y. Jia, E. Shelhamer, J. Donahue, S. Karayev, J. Long, R. Girshick, S. Guadarrama, and T. Darrell, “Caffe: Convolutional architecture for fast feature embedding,” in Proceedings of the ACM International Conference on Multimedia. ACM, 2014, pp. 675–678. 

    [40] M. Abadi, P. Barham, J. Chen, Z. Chen, A. Davis, J. Dean, M. Devin, S. Ghemawat, G. Irving, M. Isard et al., “Tensorflow: a system for large-scale machine learning.” in OSDI, vol. 16, 2016, pp. 265–283. 

    [41] N. S. Altman, “An introduction to kernel and nearest-neighbor nonparametric regression,” The American Statistician, vol. 46, no. 3, pp. 175–185, 1992. 

    [42] C.-C. Chang and C.-J. Lin, “Libsvm: A library for support vector machines,” ACM Trans. Intell. Syst. Technol., vol. 2, no. 3, pp. 27:1–27:27, May 2011










  • 0 comments:

    Post a Comment

    New Research

    Attention Mechanism Based Multi Feature Fusion Forest for Hyperspectral Image Classification.

    CBS-GAN: A Band Selection Based Generative Adversarial Net for Hyperspectral Sample Generation.

    Multi-feature Fusion based Deep Forest for Hyperspectral Image Classification.

    ADDRESS

    388 Lumo Rd, Hongshan, Wuhan, Hubei, China

    EMAIL

    contact-m.zamanb@yahoo.com
    mostofa.zaman@cug.edu.cn

    TELEPHONE

    #
    #

    MOBILE

    +8615527370302,
    +8807171546477