হাইপারস্পেকট্রাল ইমেজগুলির শ্রেণিবিন্যাসে স্নায়বিক নেটওয়ার্ক প্রয়োগে প্রশিক্ষণের নমুনাগুলির অভাব অন্যতম প্রধান প্রতিবন্ধক হিসাবে রয়ে গেছে। স্থানিক এবং বর্ণাল তথ্য ফিউজ করতে পিক্সেল প্যাচগুলি প্রায়শই হয় কোনও মডেলকে প্রশিক্ষণের জন্য ব্যবহার করা হয়েছে, যা আরও এই সমস্যাটি আরও বাড়িয়ে তুলতে পারে। বিদ্যমান কাজগুলিতে সেন্টার-লস (এএনএনসি) তত্ত্বাবধানে একটি এএনএন মডেল প্রবর্তন করা হয়েছিল। কেবল বর্ণালি তথ্য দিয়ে প্রশিক্ষণ দেওয়া, এএনএনসি পরবর্তী শ্রেণিবিন্যাসের জন্য উপযুক্ত বৈষম্যমূলক বর্ণালী বৈশিষ্ট্য অর্জন করে। এই কাগজে, আমরা একটি উপন্যাস প্রস্তাব সিএনএন-ভিত্তিক স্থানিক বৈশিষ্ট্য ফিউশন (সিএসএফএফ) অ্যালগরিদম যা এএনএনসি দ্বারা প্রাপ্ত বর্ণালী বৈশিষ্ট্যগুলিতে স্থানিক তথ্যের একটি স্মার্ট সংহতকরণের অনুমতি দেয়। সিএসএফএফের একটি সমালোচনামূলক অংশ হিসাবে, দুটি পিক্সেল একই শ্রেণীর অন্তর্ভুক্ত কিনা তা অনুমান করার জন্য একটি সিএনএন-ভিত্তিক বৈষম্যমূলক মডেল চালু করা হয়েছিল। পরীক্ষার পর্যায়ে, পরীক্ষার পিক্সেল এবং এর প্রতিবেশীর প্রতিটি দ্বারা উত্পাদিত পিক্সেল জোড়গুলিতে বৈষম্যমূলক মডেল প্রয়োগ করে, স্থানীয় কাঠামোটি অনুমান করা হয় এবং একটি কাস্টমাইজড কনভোলশনাল কার্নেল হিসাবে উপস্থাপিত হয়। বর্ণাল-স্থানীয় বৈশিষ্ট্যটি অনুমান করা কার্নেল এবং স্থানীয় অঞ্চলে সম্পর্কিত বর্ণালী বৈশিষ্ট্যগুলির মধ্যে একটি সংশ্লেষমূলক ক্রিয়াকলাপ দ্বারা উত্পন্ন হয়। চূড়ান্ত লেবেল ফলাফল বর্ণালী - স্থানিক বৈশিষ্ট্য শ্রেণীবদ্ধ করে নির্ধারিত হয়। প্রশিক্ষণের পর্যায়ে প্রশিক্ষণের নমুনাগুলির সংখ্যা বাড়ানো বা পিক্সেল প্যাচগুলি জড়িত না করে, সিএসএফএফ কাঠামো তিনটি সুপরিচিত হাইপারস্পেকট্রাল ইমেজের পরীক্ষায় 20% - 50% শ্রেণিবিন্যাস ব্যর্থতা হ্রাস করে অবস্থা অর্জন করে।
একটি হাইপারস্পেকট্রাল চিত্র হল বর্ণালী পিক্সেলের সংকলন। তাদের প্রত্যেকটি নির্দিষ্ট তরঙ্গদৈর্ঘ্যের ব্যাপ্তি জুড়ে কয়েকশ চ্যানেল সহ অবিচ্ছিন্ন প্রতিচ্ছবি একই জমির আচ্ছাদন রেকর্ড করে।
হাইপারস্পেকট্রাল ইমেজ বিশ্লেষণের ক্ষেত্রে জমি-কভার সামগ্রীর সেটগুলিতে থেসস্পেক্ট্রাল পিক্সেলগুলির শ্রেণিবিন্যাস একটি গুরুত্বপূর্ণ কাজ। এই সমস্যাটির সমাধানের জন্য, প্রচুর বর্ণালি তথ্য শোষণ করে বেশ কয়েকটি বর্ণালী ভিত্তিক কাজ প্রস্তাব করা হয় তথ্য থাকা। এর মধ্যে মাত্রা হ্রাস এবং বৈশিষ্ট্য শ্রেণিবিন্যাসে রৈখিক অ্যালগরিদমগুলি সবচেয়ে তদন্ত করা হয়, উদাহরণস্বরূপ, মূল উপাদান বিশ্লেষণ (পিসিএ) [2], স্বতন্ত্র উপাদান বিশ্লেষণ (আইসিএ) [3] এবং লিনিয়ার বৈষম্যমূলক বিশ্লেষণ (এলডিএ) [4]। বর্ণালীটির আরও ভাল উপস্থাপনা অর্জনের জন্য ননলাইনার মডেল এবং তাদের এক্সটেনশানগুলিও চালু করা হয়েছিল, সীমিত সমর্থন ভেক্টর মেশিন (এসভিএম) সহ নয় তবে [5], বহুগুণে শেখা , এলোমেলো বন ,এবং কার্নেল-ভিত্তিক কৌশলগুলি [8, 9]।
বর্ণালি এবং স্থানিক উভয় রেজোলিউশন [10] এর ক্রমবর্ধমান চিত্রের গুণাবলী উপকৃত করা, অসংখ্য বর্ণাল-স্থানিক আরও সঠিক শ্রেণিবিন্যাসের কার্যকারিতা [১১-১–] পাওয়ার জন্য অ্যালগরিদমগুলি তৈরি করা হয়েছে। বিশেষ করে, একটি মাল্টি-স্কেল অভিযোজিত স্পর্শ উপস্থাপনা (এমএএসআর) পদ্ধতি প্রস্তাবিত [১৮], যেখানে স্থানিক তথ্য বিভিন্ন স্কেল একসাথে অন্বেষণ করা হয়। এমএএসআর-এ, প্রতিটি প্রতিবেশী পিক্সেল একটি অভিযোজিত স্পার্সের মাধ্যমে প্রতিনিধিত্ব করা হয় প্রশিক্ষণের নমুনাগুলির সংমিশ্রণ এবং কেন্দ্রীকরণ পরীক্ষার পিক্সেলের লেবেলটি উদ্ধার হওয়া স্পার্স দ্বারা নির্ধারিত হয় কোফিসিয়েন্টস। এটি লক্ষণীয় যে এমএএসআর পরীক্ষামূলক পর্যায়ে স্থানিক তথ্য ব্যবহার করে, কেবল বর্ণালি প্রশিক্ষণ পর্যায়ে তথ্য নিযুক্ত করা হয়। এটি প্রশিক্ষণের তথ্যগুলির অভাব কিছুটা হলেও কমিয়ে আনতে সহায়তা করে।
ডীপ লার্নিং অবকাঠামো, কৃত্রিম নিউরাল নেটওয়ার্ক (ANN) সহ, convolutional স্নায়ুর নেটওয়ার্ক (সিএনএন), এবং পৌনঃপুনিক নিউরাল নেটওয়ার্ক (RNN) সফলভাবে অনেক মেশিন শিক্ষা ও সংকেত প্রক্রিয়াজাতকরণ [19-23] এর সাথে সম্পর্কিত ক্ষেত্রে প্রয়োগ করা হয়েছে। সম্প্রতি, নিউরাল নেটওয়ার্ক-ভিত্তিক মডেলের hyperspectral ইমেজ শ্রেণীবিন্যাস কাজে লাগিয়ে করা হয়েছে, ক্লাসিফিকেশন পারফরম্যান্সের পরিপ্রেক্ষিতে সনাতন পদ্ধতি উপর অসাধারণ উন্নতি অর্জনের। এর আগে কাজ স্তুপীকৃত autoencoder (SAE) [24, 25], গভীর বিশ্বাস নেটওয়ার্ক (Dbn) [26] অন্তর্ভুক্ত ইত্যাদি .. আরও সাম্প্রতিককালে, অনেক গবেষণার গবেষণা যেমন, সিএনএন এবং RNN ভিত্তিক মডেলের বৈচিত্র্যের জন্য নিবেদিত হয় [27-37]
পিক্সেল প্যাচগুলির সাথে প্রশিক্ষণ বর্ণালি এবং স্থানিক উভয় তথ্যের সুবিধা গ্রহণ করার জন্য একটি প্রাকৃতিক ধারণা এবং উপরোক্ত স্নায়বিক নেটওয়ার্ক-ভিত্তিক অধ্যয়নগুলির বেশিরভাগ দ্বারা গৃহীত হয়
[27–35, 37]। প্রতিনিধিত্বমূলক কাজের মধ্যে [২৮] তথাকথিত থ্রিডি-সিএনএন অন্তর্ভুক্ত রয়েছে, যেখানে পিক্সেল প্যাচগুলি সরাসরি গভীর মডেলকে খাওয়ানো হয় এবং সংহত বর্ণালী-স্থানিক বৈশিষ্ট্যগুলি হাইপারস্পেকট্রাল ডেটা থেকে বের করা যেতে পারে। তবে এটি লক্ষ করা উচিত যে এই কৌশলটি আরও এগিয়ে যেতে পারে প্রশিক্ষণের তথ্যের অভাবকে বাড়িয়ে তুলুন। অ্যাক্সেসযোগ্য অসংখ্য আরজিবি চিত্র থেকে পৃথক, লেবেলযুক্ত নমুনাগুলি হাইপারস্পেকট্রাল চিত্রায় সীমিত, যা সাধারণত নেটওয়ার্ক প্রশিক্ষণের জন্য অপ্রতুল [২৮]। বর্ণালী-ভিত্তিক মডেলগুলির সাথে তুলনা করে, পিক্সেল-প্যাচ-ভিত্তিকগুলি এই দ্বন্দ্বটিকে দুটি দিক থেকে একত্রিত করে,
- পিক্সেল প্যাচগুলি প্রায়শই অতিরিক্ত নির্ধারিত পরামিতিগুলি প্রবর্তন করে মডেলটিকে জটিল করে তোলে,এইভাবে আরও প্রশিক্ষণের ডেটা প্রয়োজন;
- হাইপারস্পেকট্রাল ইমেজটিতে সাধারণত পিক্সেলওয়ালা নমুনাগুলির চেয়ে নির্দিষ্ট আকারের কম পারস্পরিক পারস্পরিক অ-ওভারল্যাপযুক্ত প্যাচ থাকে।
প্রশিক্ষণের তথ্যের ঘাটতি কাটিয়ে উঠতে বেশ কয়েকটি প্রচেষ্টা করা হয়েছে,যেমন ভার্চুয়াল নমুনা কৌশল [২৮],প্রাক প্রশিক্ষণ এবং সূক্ষ্ম সুরকরণ কৌশলগুলি [33, 34]।তদুপরি, পিক্সেল প্যাচগুলি প্রশিক্ষণের মাধ্যমে উত্থাপিত বাধা রোধ করতে ফ্রেমওয়ার্কগুলি একটি বর্ণালী ভিত্তিক মডেল এবং একটি পোস্ট স্পেসিয়াল ইনফরমেশন ইন্টিগ্রেশন স্কিমকে সম্মতি দিয়ে তৈরি করা হয়।এই ধারণা অনুসরণ করে, pixel-pair feature algorithm (PPF) [৩৮] এবং ANNC অ্যাডেটিভ spatial-spectral center classifier (ANNC-ASSCC)) [৩৫] হয়েছে সাহিত্যে প্রস্তাবিত।উপরে বর্ণিত MASR and 3D-CNN এর সাথে একসাথে,বিভাগটিতে প্রস্তাবিত CSFF অ্যালগরিদমের সাথে তুলনামূলকভাবে চারটি পদ্ধতি বেছে নেওয়া হয়েছে।PPF কাঠামো CNN ভিত্তিক একটি পিক্সেল-জুড়ি ভিত্তিক শ্রেণিবদ্ধকরণ মডেল তদন্ত করে X 1 এবং X 2 দুটি হতে দিন যথাক্রমে `(x1) এবং` (x2) সহ পিক্সেল। প্রশিক্ষণের জন্য পিক্সেল-জুড়িটি (x1, x2) হিসাবে তৈরি করা হয়, এর দ্বারা নির্ধারিত লেবেল দ্বারা
দেখা গেছে যে পিক্সেল-জোড়গুলির সংখ্যা N2 গণনা করে, যেখানে এন প্রশিক্ষণের সেটটির আকার এই বড় প্রশিক্ষণের সেটটির আকার deep CNN মডেলটির প্রশিক্ষণ সক্ষম করে।মডেলটি পিক্সেল-জুটিকে k + 1 এ শ্রেণীবদ্ধ করেলেবেল 0 এবং 1, 2, ...k, যেখানে কে পিক্সেল ক্লাসের সংখ্যা। পরীক্ষামূলক পর্যায়ে, পিক্সেল-জোড়া প্রথমত পরীক্ষা পিক্সেল এবং তার প্রতিবেশীদের দ্বারা উত্পন্ন, এবং তারপর শিখেছি CNN মডেল দ্বারা k + 1 শ্রেণীতে শ্রেণীবদ্ধ করা হয়।পরীক্ষার পিক্সেলের চূড়ান্ত লেবেলটি শূন্য নয় এমন শ্রেণিবিন্যাসের ফলাফলের মধ্যে ভোটদানের কৌশল দ্বারা নির্ধারিত হয়। [35] এ, একটি ANN ভিত্তিক বৈশিষ্ট্য নিষ্কাশন এবং শ্রেণিবদ্ধকরণ কাঠামো প্রস্তাবিত। তথাকথিত ANNC-ASSCC র অ্যালগোরিদম দুটি ধারাবাহিক পদক্ষেপ নিয়ে গঠিত:
- ANN এর সাথে বর্ণালী বৈশিষ্ট্য নিষ্কাশন
- • অভিযোজিত স্থানিক তথ্য ফিউশন এবং শ্রেণিবদ্ধকরণ
প্রথম পদক্ষেপে বর্ণালী বৈশিষ্ট্যগুলি নিষ্কাশনের জন্য একটি সাধারণ তবে দক্ষ এএনএন কাঠামো ডিজাইন করা হয়েছে। ইনফিগ হিসাবে চিত্রি 1, নেটওয়ার্কটিতে 4 টি সম্পূর্ণ সংযুক্ত স্তর রয়েছে এবং সফটম্যাক্স ক্ষতি এবং কেন্দ্রের ক্ষতি একটি যৌথ তত্ত্বাবধান প্রয়োগ করা হয় শ্রেণিবদ্ধকরণ কাজের জন্য। প্রশিক্ষণের পর্যায়ে, কে ক্লাস কেন্দ্রগুলি, অর্থাত্ c1, c 2, ck গড়ে আপডেট হয় 3 ডি-স্তর স্তরের আউটপুটগুলি সম্পর্কিত ক্লাসের মধ্যে রয়েছে। একটি প্রশিক্ষণ পিক্সেল জন্য, প্রবর্তিত কেন্দ্রের ক্ষতি উত্সাহ দেয় 3-rd স্তরটির আউটপুট ইউক্লিডিয়ান স্থানের সাথে সম্পর্কিত বর্গ কেন্দ্রের চারপাশে জড়ো করা। পরীক্ষার পর্যায়ে, শিখেছি নেটওয়ার্কের প্রথম 3 স্তরগুলি ব্যবহার করা হয় এবং 3-তম স্তরটির আউটপুটগুলি নিষ্ক্রিয় হিসাবে গণ্য করা হয় বর্ণালী বৈশিষ্ট্য। দ্বিতীয় ধাপে, স্থানিক তথ্য নিষ্কাশিত বর্ণালী বৈশিষ্ট্যগুলির গড়ের মাধ্যমে মিশ্রিত করা হয় বিভিন্ন আকারের প্রতিবেশী অঞ্চলগুলির মধ্যে। ফলাফল বৈশিষ্ট্যগুলি শ্রেণীবদ্ধ করার পরে, একটি ভোটদান কৌশল প্রয়োগ করা হয় চূড়ান্ত পূর্বাভাস উত্পন্ন। এই কাগজে, বর্ণালি বৈশিষ্ট্য নিষ্কাশন মডেল হিসাবে আমরা [35] এএএনএনসি নেটওয়ার্কটি চয়ন করি এবং একটি ডিজাইন করি সিএনএন-ভিত্তিক স্পেসিয়াল ফিচার ফিউশন (সিএসএফএফ) স্থানিক তথ্য উত্তরোত্তর সংহত করার জন্য অ্যালগরিদম। প্রস্তাবিত শ্রেণিবদ্ধকরণ কাঠামোর মূল চরিত্রগুলি নীচে তালিকাভুক্ত হয়েছে।
১. [৩৫] এ ব্যবহারিত অন্তর্নিহিত স্থানিক তথ্যের পরিবর্তে সুস্পষ্ট স্থানিক কাঠামোটি আমাদের উপন্যাস সিএনএন-ভিত্তিক মডেল দ্বারা উত্পাদিত হয়। অতএব, সিএসএফএফ আগের কাজের গড় ফিউশন কৌশলের চেয়ে বেশি যুক্তিসঙ্গতভাবে কাজ করে [35]
Figure 1: Structure of the spectral feature extracting network [35].
২. সিএসএফএফ অ্যালগরিদম বর্ণালী বৈশিষ্ট্য নিষ্কাশন মডেলের সাথে একই প্রশিক্ষণের ডেটা ভাগ করে এই কাগজে এএনএনসি হিসাবে নির্বাচিত। প্রশিক্ষণের সেটটির আকার না বাড়িয়ে এই বন্দোবস্তটি রাখে পুরো কাঠামো অল্প পরিমাণে প্রশিক্ষণের ডেটা নিয়ে কাজ করে।
৩. কাঠামোর প্রতিনিধি ক্ষমতা বাড়ানোর জন্য, সিএসএফএফের স্থানিক কাঠামো নিষ্কাশন অ্যালগরিদম এএনএনসি থেকে একেবারে পৃথক নেটওয়ার্ক কাঠামো তৈরির জন্য ডিজাইন করা হয়েছে, যেমন দুটি মডেল বৈশিষ্ট্য প্রকাশ এবং বিমূর্ততা স্তরে আলাদা করা হয়। সুনির্দিষ্টভাবে বলতে গেলে, এএনএনসি বর্ণালীগুলির অগভীর বৈশিষ্ট্যগুলি প্রকাশ করেছে, যখন স্থানিক কাঠামো নিষ্কাশন অ্যালগরিদম আরও গভীর এবং আরও কিছু সঙ্গে বিমূর্ত বৈশিষ্ট্য উত্পাদন করে জটিল মডেল কাঠামো। এটি এই দুটি মডেলের মধ্যে পারস্পরিক সম্পর্ককে হ্রাস করতে সহায়তা করে, এইভাবে বৃদ্ধি পাচ্ছে পুরো কাঠামোর কর্মক্ষমতা।
আরও প্রশিক্ষণের ডেটা প্রয়োজন না করে উপরোক্ত অক্ষরগুলির সুবিধা গ্রহণ করে, প্রস্তাবিত সিএসএফএফ অ্যালগরিদম পরীক্ষায় 20% - 50% শ্রেণিবিন্যাস ব্যর্থতা হ্রাস করে আধুনিক রাষ্ট্রকে অর্জন করতে দেয় এই কাগজটির অনুস্মারকটি নিম্নরূপে সংগঠিত হয়েছে। পুরো ফ্রেমওয়ার্কের রূপরেখা এবং সিএসএফএফ অ্যালগরিদম বিভাগ ২ তে আলোচনা করা হয়েছে, বিভাগ 3 পরীক্ষামূলক ফলাফল এবং বিশ্লেষণের প্রতিবেদন করেছে। বিভাগে 4, কিছু সমাপ্তি মন্তব্য উপস্থাপন করা হয়।
2 Framework outline and the CNN-based spatial feature fusion algorithm
এই বিভাগে, আমরা একটি শেষ থেকে শেষ বর্ণালী-স্থানীয় বৈশিষ্ট্য নিষ্কাশন এবং শ্রেণিবদ্ধকরণ কাঠামো উপস্থাপন করি। সমগ্র কাঠামোটি প্রথমে তিনটি উপাদানগুলির প্রতিটি সম্পর্কে বিশদ ব্যাখ্যা সহ প্রথমে বর্ণিত। এর মূল উপাদান হিসাবে পুরো কাঠামোটি, নতুন প্রস্তাবিত সিএনএন-ভিত্তিক উপর জোর দিয়ে সিএসএফএফ অ্যালগরিদম চালু করা হয়েছে বৈষম্যমূলক মডেল, যা একই শ্রেণীর অন্তর্ভুক্ত দুটি পিক্সেলের সম্ভাব্য সম্ভাবনা প্রকাশ করে।
2.1 Framework outline
পূর্বে আলোচনা হিসাবে, পিক্সেল প্যাচগুলির সাথে প্রশিক্ষণ লেবেলযুক্ত নমুনাগুলির অভাবকে আরও সংহত করতে পারে। ভিত্তিক এই উদ্বেগ, প্রস্তাবিত কাঠামোর প্রশিক্ষণ পর্যায়ে বর্ণালি ডেটা ব্যবহার করে সঞ্চালিত হয়, যখন স্থানিক তথ্য পরীক্ষার পর্যায়ে উত্তরোত্তর জড়িত। প্রস্তাবিত কাঠামোটি সমন্বয়ে তৈরি করা হয়েছে তিনটি অংশ, যথা
• spectral feature extraction;
• spatial structure extraction and fusion of spectral feature and spatial structure;
• classification of the spectral-spatial feature.
The flowchart of the whole framework is given in Fig. 2.
প্রথম অংশে, আমরা সরাসরি প্রয়োগ করে পুরো হাইপারস্পেকট্রাল চিত্রটির বর্ণালী বৈশিষ্ট্যগুলি বের করি এএনএনসি মডেল প্রস্তাবিত [35]। এই বর্ণালী-ভিত্তিক মডেলটি কেন্দ্রের ক্ষতি এবং একটি যৌথ ক্ষতি সহ তদারকি করা হয় সফটম্যাক্স ক্ষতি, অভ্যন্তরীণ-শ্রেণীর সংক্ষিপ্ততা এবং আন্তঃ শ্রেণীর বৈচিত্র সহ বৈষম্যমূলক বর্ণালী বৈশিষ্ট্য উত্পাদন করে। এর সুবিধা গ্রহণ করে, শিখেছি এএনএনসি মডেল দ্বারা প্রাপ্ত বর্ণালী বৈশিষ্ট্যগুলি ধারাবাহিক
চিত্র 2: প্রস্তাবিত কাঠামোর ফ্লোচার্টের জন্য উপযুক্ত। তিনটি উপাদান তিনটি ভাঙা আয়তক্ষেত্র দ্বারা প্রতিনিধিত্ব করা হয়। প্রশিক্ষণ এবং পরীক্ষার স্তরগুলি যথাক্রমে পাতলা এবং ঘন কঠিন তীর দ্বারা পৃথক করা হয়। ড্যাশড তীরগুলি বৈশিষ্ট্যগুলির শ্রেণি কেন্দ্রগুলির অনুমানের প্রতিনিধিত্ব করুন। পাড়ার মোড় এবং প্রশিক্ষণের নমুনাগুলি সাদা পিক্সেল দ্বারা প্রতিনিধিত্ব করা হয়, এবং পরীক্ষার পর্যায়ে বাদ দেওয়া হয়।
spatial information fusion step. In the following, we use the notations x and fANNC(x) to denote a given pixel and
its corresponding spectral feature extracted by the ANNC model.
দ্বিতীয় অংশ, একটি স্থানিক গঠন নিষ্কাশন আলগোরিদিম একটি প্রদত্ত জন্য স্থানীয় গঠন অন্বেষণ করতে ডিজাইন করা হয়েছে
কিছু পূর্বনির্ধারিত পাড়ার মধ্যে পিক্সেল। আরও স্পষ্টভাবে, স্থানীয় কাঠামোটি স্বনির্ধারিত বৈশিষ্ট্যযুক্ত
"Convolutional কার্নেল"। ভুতুড়ে-স্থানিক তথ্য লয় একটি "convolutional" অপারেশন দ্বারা নিরূপিত হয় কার্নেল এবং পার্শ্ববর্তী অঞ্চলে নিষ্কাশিত বর্ণালী বৈশিষ্ট্যগুলির মধ্যে। যাক এন (x) এর একটি পাড়া হতে এ পিক্সেল x এবং ডব্লিউ (এন (x) এর) কেন্দ্র করে কাস্টমাইজড "সংবর্তন কার্নেল" হতে। থেকে স্বরলিপি fANNC (এন (x) এর) ব্যবহার করুন পার্শ্ববর্তী N (x), যেখানে i, j-th এর মধ্যে নিষ্কাশিত বর্ণালী বৈশিষ্ট্য দ্বারা গঠিত ডেটা কিউব উপস্থাপন করে ,এন্ট্রি দ্বারা সংজ্ঞায়িত করা হয়
References
[1] D. Lu and Q. Weng, “A survey of image classification methods and techniques for improving classification
performance,” International Journal of Remote Sensing, vol. 28, no. 5, pp. 823–870, 2007.
[2] G. Licciardi, P. R. Marpu, J. Chanussot, and J. A. Benediktsson, “Linear versus nonlinear PCA for the classification of hyperspectral data based on the extended morphological profiles,” IEEE Geoscience and Remote
Sensing Letters, vol. 9, no. 3, pp. 447–451, May 2012.
[3] A. Villa, J. A. Benediktsson, J. Chanussot, and C. Jutten, “Hyperspectral image classification with independent
component discriminant analysis,” IEEE Transactions on Geoscience and Remote Sensing, vol. 49, no. 12, pp.
4865–4876, Dec. 2011.
[4] T. V. Bandos, L. Bruzzone, and G. Camps-Valls, “Classification of hyperspectral images with regularized linear
discriminant analysis,” IEEE Transactions on Geoscience and Remote Sensing, vol. 47, no. 3, pp. 862–873,
Mar. 2009.
[5] F. Melgani and L. Bruzzone, “Classification of hyperspectral remote sensing images with support vector machines,” IEEE Transactions on Geoscience and Remote Sensing, vol. 42, no. 8, pp. 1778–1790, Aug. 2004.
[6] D. Lunga, S. Prasad, M. M. Crawford, and O. Ersoy, “Manifold-learning-based feature extraction for classification of hyperspectral data: A review of advances in manifold learning,” IEEE Signal Processing Magazine,
vol. 31, no. 1, pp. 55–66, Jan. 2014.
12
[7] J. Ham, Y. Chen, M. M. Crawford, and J. Ghosh, “Investigation of the random forest framework for classification of hyperspectral data,” IEEE Transactions on Geoscience and Remote Sensing, vol. 43, no. 3, pp.
492–501, 2005.
[8] B. C. Kuo, C. H. Li, and J. M. Yang, “Kernel nonparametric weighted feature extraction for hyperspectral
image classification,” IEEE Transactions on Geoscience and Remote Sensing, vol. 47, no. 4, pp. 1139–1155,
Apr. 2009.
[9] B. Sch¨olkopf and A. J. Smola, Learning with kernels: support vector machines, regularization, optimization,
and beyond. Cambridge, MA: MIT press, 2002.
[10] M. Fauvel, Y. Tarabalka, J. A. Benediktsson, J. Chanussot, and J. C. Tilton, “Advances in spectral-spatial
classification of hyperspectral images,” Proceedings of the IEEE, vol. 101, no. 3, pp. 652–675, Mar. 2013.
[11] Y. Chen, N. M. Nasrabadi, and T. D. Tran, “Hyperspectral image classification using dictionary-based sparse
representation,” IEEE Transactions on Geoscience and Remote Sensing, vol. 49, no. 10, pp. 3973–3985, Oct.
2011.
[12] M. Fauvel, J. A. Benediktsson, J. Chanussot, and J. R. Sveinsson, “Spectral and spatial classification of
hyperspectral data using svms and morphological profiles,” IEEE Transactions on Geoscience and Remote
Sensing, vol. 46, no. 11, pp. 3804–3814, Nov. 2008.
Table 5: Classification accuracies (averaged over 5 runs) of MASR, PPF, 3D-CNN, ANNC-ASSCC and CSFF on
Salinas
Table 6: Classification accuracies (averaged over 5 runs) of MASR, PPF, 3D-CNN, ANNC-ASSCC and CSFF on
Pavia Centre
Table 7: Classification accuracies (averaged over 5 runs) of kNN, SVM and center classifier on spectral-spatial
feature of Pavia University scene
Table 8: Classification accuracies (averaged over 5 runs) of kNN, SVM and center classifier on spectral-spatial
feature of Salinas scene
Table 9: Classification accuracies (averaged over 5 runs) of kNN, SVM and center classifier on spectral-spatial
feature of Pavia Centre scene
[13] L. Z. Huo and P. Tang, “Spectral and spatial classification of hyperspectral data using svms and gabor textures,”
in Proceedings of the IEEE International Geoscience and Remote Sensing Symposium, Jul. 2011, pp. 1708–1711.
[14] J. Li, J. M. Bioucas-Dias, and A. Plaza, “Spectral-spatial classification of hyperspectral data using loopy belief
propagation and active learning,” IEEE Transactions on Geoscience and Remote Sensing, vol. 51, no. 2, pp.
844–856, Feb. 2013.
[15] A. Plaza, J. Plaza, and G. Martin, “Incorporation of spatial constraints into spectral mixture analysis of
remotely sensed hyperspectral data,” in Proceedings of the IEEE International Workshop on Machine Learning
for Signal Processing, Sep. 2009, pp. 1–6.
[16] B. Song, J. Li, M. D. Mura, P. Li, A. Plaza, J. M. Bioucas-Dias, J. A. Benediktsson, and J. Chanussot,
“Remotely sensed image classification using sparse representations of morphological attribute profiles,” IEEE
Transactions on Geoscience and Remote Sensing, vol. 52, no. 8, pp. 5122–5136, Aug. 2014.
[17] R. Hang, Q. Liu, Y. Sun, X. Yuan, H. Pei, J. Plaza, and A. Plaza, “Robust matrix discriminative analysis for
feature extraction from hyperspectral images,” IEEE Journal of Selected Topics in Applied Earth Observations
and Remote Sensing, vol. 10, no. 5, pp. 2002–2011, 2017.
[18] L. Fang, S. Li, X. Kang, and J. A. Benediktsson, “Spectral-spatial hyperspectral image classification via
multiscale adaptive sparse representation,” IEEE Transactions on Geoscience and Remote Sensing, vol. 52,
no. 12, pp. 7738–7749, Dec. 2014.
[19] T. Hill, L. Marquez, M. O’Connor, and W. Remus, “Artificial neural network models for forecasting and
decision making,” International Journal of Forecasting, vol. 10, no. 1, pp. 5–15, 1994.
[20] G. P. Zhang, “Neural networks for classification: a survey,” IEEE Transactions on Systems, Man, and Cybernetics, Part C (Applications and Reviews), vol. 30, no. 4, pp. 451–462, Nov 2000.
[21] A. Krizhevsky, I. Sutskever, and G. E. Hinton, “Imagenet classification with deep convolutional neural networks,” in Advances in neural information processing systems, 2012, pp. 1097–1105.
[22] J. Schmidhuber, “Deep learning in neural networks: An overview,” Neural Networks, vol. 61, no. Supplement C,
pp. 85–117, 2015. [Online]. Available: http://www.sciencedirect.com/science/article/pii/S0893608014002135
[23] S. Hochreiter and J. Schmidhuber, “Long short-term memory,” Neural computation, vol. 9, no. 8, pp. 1735–
1780, 1997.
[24] J. A. Benediktsson, J. A. Palmason, and J. R. Sveinsson, “Classification of hyperspectral data from urban areas
based on extended morphological profiles,” IEEE Transactions on Geoscience and Remote Sensing, vol. 43,
no. 3, pp. 480–491, Mar. 2005.
[25] Y. Chen, Z. Lin, X. Zhao, G. Wang, and Y. Gu, “Deep learning-based classification of hyperspectral data,”
IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, vol. 7, no. 6, pp. 2094–
2107, Jun. 2014.
[26] Y. Chen, X. Zhao, and X. Jia, “Spectral-spatial classification of hyperspectral data based on deep belief
network,” IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, vol. 8, no. 6,
pp. 2381–2392, Jun. 2015.
[27] V. Slavkovikj, S. Verstockt, W. De Neve, S. Van Hoecke, and R. Van de Walle, “Hyperspectral image classification with convolutional neural networks,” in Proceedings of the ACM international conference on Multimedia.
ACM, 2015, pp. 1159–1162.
[28] Y. Chen, H. Jiang, C. Li, X. Jia, and P. Ghamisi, “Deep feature extraction and classification of hyperspectral
images based on convolutional neural networks,” IEEE Transactions on Geoscience and Remote Sensing,
vol. 54, no. 10, pp. 6232–6251, Oct. 2016.
[29] H. Liang and Q. Li, “Hyperspectral imagery classification using sparse representations of convolutional neural
network features,” Remote Sensing, vol. 8, no. 2, p. 99, 2016.
[30] W. Zhao and S. Du, “Spectral-spatial feature extraction for hyperspectral image classification: A dimension
reduction and deep learning approach,” IEEE Transactions on Geoscience and Remote Sensing, vol. 54, no. 8,
pp. 4544–4554, Aug. 2016.
[31] A. Romero, C. Gatta, and G. Camps-Valls, “Unsupervised deep feature extraction for remote sensing image
classification,” IEEE Transactions on Geoscience and Remote Sensing, vol. 54, no. 3, pp. 1349–1362, Mar.
2016.
[32] S. Yu, S. Jia, and C. Xu, “Convolutional neural networks for hyperspectral image classification,” Neurocomputing, vol. 219, pp. 88–98, 2017.
[33] L. Jiao, M. Liang, H. Chen, S. Yang, H. Liu, and X. Cao, “Deep fully convolutional network-based spatial
distribution prediction for hyperspectral image classification,” IEEE Transactions on Geoscience and Remote
Sensing, vol. 55, no. 10, pp. 5585–5599, Oct. 2017.
[34] K. Nogueira, O. A. B. Penatti, and J. A. D. Santos, “Towards better exploiting convolutional neural networks
for remote sensing scene classification,” Pattern Recognition, vol. 61, pp. 539–556, 2017.
[35] A. J. Guo and F. Zhu, “Spectral-spatial feature extraction and classification by ann supervised with center
loss in hyperspectral imagery,” arXiv preprint arXiv:1711.07141, 2017.
[36] L. Mou, P. Ghamisi, and X. X. Zhu, “Deep recurrent neural networks for hyperspectral image classification,”
IEEE Transactions on Geoscience and Remote Sensing, vol. 55, no. 7, pp. 3639–3655, Apr. 2017.
[37] Q. Liu, F. Zhou, R. Hang, and X. Yuan, “Bidirectional-convolutional lstm based spectral-spatial feature learning
for hyperspectral image classification,” Remote Sensing, 2017.
[38] W. Li, G. Wu, F. Zhang, and Q. Du, “Hyperspectral image classification using deep pixel-pair features,” IEEE
Transactions on Geoscience and Remote Sensing, vol. 55, no. 2, pp. 844–853, Feb. 2017.
[39] Y. Jia, E. Shelhamer, J. Donahue, S. Karayev, J. Long, R. Girshick, S. Guadarrama, and T. Darrell, “Caffe:
Convolutional architecture for fast feature embedding,” in Proceedings of the ACM International Conference
on Multimedia. ACM, 2014, pp. 675–678.
[40] M. Abadi, P. Barham, J. Chen, Z. Chen, A. Davis, J. Dean, M. Devin, S. Ghemawat, G. Irving, M. Isard et al.,
“Tensorflow: a system for large-scale machine learning.” in OSDI, vol. 16, 2016, pp. 265–283.
[41] N. S. Altman, “An introduction to kernel and nearest-neighbor nonparametric regression,” The American
Statistician, vol. 46, no. 3, pp. 175–185, 1992.
[42] C.-C. Chang and C.-J. Lin, “Libsvm: A library for support vector machines,” ACM Trans. Intell. Syst. Technol.,
vol. 2, no. 3, pp. 27:1–27:27, May 2011
0 comments:
Post a Comment