• গভীর শিক্ষার উপর ভিত্তি করে উচ্চ-রেজোলিউশন রিমোট সংবেদনের চিত্র লক্ষ্য সনাক্তকরণ প্রযুক্তির বর্তমান গবেষণা স্থিতি

    গভীর শিক্ষার উপর ভিত্তি করে উচ্চ-রেজোলিউশন রিমোট সংবেদনের চিত্র লক্ষ্য সনাক্তকরণ প্রযুক্তির বর্তমান গবেষণা স্থিতি

    নির্দেশিকা

    1, ওভারভিউ

    2, সাধারণ লক্ষ্য সনাক্তকরণ পদ্ধতি

    1.1ক্লাস ভারসাম্যহীন সমস্যা

    1.2. জটিল পটভূমি

    1.৩. লক্ষ্যমাত্রার স্কেল পরিবর্তন

    1.4. বিশেষ দৃষ্টিকোণ

    1.5. ছোট লক্ষ্য

    3, নির্দিষ্ট লক্ষ্য সনাক্তকরণ

    3.1, শহর

    3.2, এয়ারপোর্ট

    3.3, নির্মাণ

    3.4, বিমান

    3.5, জাহাজ

    3.6, গাড়ির

    3.7, মেঘ

    3.8.সিস বরফ

    4, তথ্যসূত্র

    ওভারভিউ
    উচ্চ-রেজোলিউশন রিমোট সেন্সিং লক্ষ্য সনাক্তকরণের বর্তমান গবেষণা ফলাফলগুলি প্রধানত দুটি বিভাগে বিভক্ত করা হয়েছে, নির্দিষ্ট লক্ষ্য সনাক্তকরণ এবং সাধারণ লক্ষ্য সনাক্তকরণ। নির্দিষ্ট লক্ষ্য সনাক্তকরণের মধ্যে প্রধানত শহরগুলি [1], বিমানবন্দরগুলি [2], ভবনগুলি [3], বিমান [4], জাহাজ [5] - [6], যানবাহন [7] - [8], মেঘ [9], সমুদ্র রয়েছে রিং সেন্সিং চিত্রগুলিতে বিং [10] এবং অন্যান্য আরও গুরুত্বপূর্ণ এবং মূল্যবান লক্ষ্য। সাধারণ লক্ষ্য সনাক্তকরণ গবেষণার সমস্যাগুলি হ'ল মূলত লক্ষ্য সনাক্তকরণে যে সমস্যাগুলি দেখা যায় সেগুলির মধ্যে প্রধান সমস্যাগুলি হ'ল: শ্রেণি ভারসাম্যহীনতা [১১], জটিল পটভূমি [१२], লক্ষ্যগুলির স্কেল পরিবর্তন [১৩], বিশেষ দৃষ্টিভঙ্গি [১৪] - [ 16], ছোট লক্ষ্য [17] - [18] এবং আরও অনেক কিছু। নিম্নলিখিতটি সাধারণ লক্ষ্য সনাক্তকরণ এবং নির্দিষ্ট লক্ষ্য সনাক্তকরণের প্রবর্তন (অবশ্যই, নির্দিষ্ট লক্ষ্য সনাক্তকরণে আরও অনেক বিভাগ রয়েছে, আমরা সেগুলি একে একে তালিকাবদ্ধ করতে পারি না অনেক সাহিত্যে ডেটা সেট প্রস্তাবও করেছেন, এখানে আমরা কেবল পদ্ধতিগুলিই প্রবর্তন করি।
    সাধারণ লক্ষ্য সনাক্তকরণ পদ্ধতি
    ক্লাস ভারসাম্যহীন সমস্যা
    ক্লাস ভারসাম্যহীনতা প্রাকৃতিক চিত্র এবং রিমোট সেন্সিং ইমেজগুলির একটি সাধারণ সমস্যা এটি মূলত এই বিষয়টিকে বোঝায় যে প্রস্তাবটি বের করার সময় প্রচুর পরিমাণে প্রস্তাবিত পটভূমি হিসাবে ব্যবহৃত হয়  প্রশিক্ষণের সময়, এটি গ্রেডিয়েন্ট বংশোদ্ভূত হবে এবং প্রশিক্ষকের কার্যকারিতা হ্রাস পাবে। ফোকাল ক্ষতি, জিএইচএম, ওএইচএমই এবং অন্যান্য জাতীয় প্রাকৃতিক চিত্রগুলির লক্ষ্য সনাক্তকরণে অনেকগুলি পদ্ধতির প্রস্তাব দেওয়া হয়েছে।

    এলোমেলো অ্যাক্সেস স্মৃতি: উচ্চ রেজোলিউশন এরিয়াল রিমোট সেন্সিং চিত্রগুলিতে লক্ষ্য সনাক্তকরণের জন্য একটি নতুন দৃষ্টান্ত।
    ছোট টার্গেট প্রিয়ারদের শর্তে উচ্চ-রেজোলিউশন এরিয়াল রিমোট সেন্সিং ইমেজ টার্গেট সনাক্তকরণের জন্য লেখক একটি নতুন পদ্ধতি প্রস্তাব করেছেন। পূর্ববর্তী রিমোট সেন্সিং লক্ষ্য সনাক্তকরণ পদ্ধতিগুলিতে সনাক্তকরণ মডেল + শ্রেণীর লেবেল এবং ফ্রেম স্থানাঙ্কের অনুক্রমের শেখার হিসাবে সনাক্তকরণকে সংজ্ঞায়িত করা হয়েছিল। লেখক বায়েসের দৃষ্টিকোণ থেকে, অনুক্রমের পর্যায়ে, প্রশিক্ষণ এবং পর্যবেক্ষণের মাধ্যমে সনাক্তকরণের মডেলটিকে তার উত্তরোত্তর মান সর্বাধিকতর করতে অভিযোজিতভাবে আপডেট করা হয়। "র‌্যাম" বলা হয়। এই দৃষ্টান্তে, "মেমরি" ট্রেনিং ডেটা থেকে যে কোনও মডেল বিতরণ শেখা হিসাবে বোঝা যায় এবং কোনও অদৃশ্য পরীক্ষার তথ্যের আরও ভাল বিতরণ পেতে সনাক্তকরণের পর্যায়ে "এলোমেলোভাবে অ্যাক্সেস" মেমরিটি অ্যাক্সেস করা এবং এলোমেলোভাবে মডেলটি সামঞ্জস্য করা বোঝায় অভিযোজন।

    2. জটিল পটভূমি
    জটিল ব্যাকগ্রাউন্ডটি প্রকৃত চিত্রের চেয়ে দূরবর্তী সংবেদনশীল চিত্রটির একটি বিস্তৃত ক্ষেত্রের অবস্থান বোঝায় তবে প্রাকৃতিক চিত্রটিতে ব্যাকগ্রাউন্ডটি সাধারণত একক। উদাহরণস্বরূপ, প্রাকৃতিক চিত্রগুলিতে সেন্সরগুলির দ্বারা প্রাপ্ত যানবাহনের পটভূমি (যেমন প্যাসকাল ভোক এবং কোকো ডেটাসেটগুলি) সাধারণত রাস্তা, ঘর এবং আকাশ remote অতএব, জটিল পটভূমির অধীনে লক্ষ্য সনাক্তকরণ একটি গুরুত্বপূর্ণ বিষয়।

    ভিএইচআর রিমোট সেন্সিং চিত্রগুলিতে অবজেক্ট সনাক্তকরণের জন্য মাল্টিস্কেল ভিজ্যুয়াল এ্যাটেনশন নেটওয়ার্কগুলি।
    লেখকরা একটি শেষ থেকে শেষ পর্যন্ত বহু-স্কেল ভিজ্যুয়াল মনোযোগ নেটওয়ার্ক (এমএস-ভ্যান) পদ্ধতির প্রস্তাব দেয়। পূর্ণ-স্কেল চিত্রগুলি থেকে বহু-স্কেল বৈশিষ্ট্যগুলি সরাতে স্কিপ-সংযুক্ত কোডেক মডেলগুলি ব্যবহার করুন। প্রতিটি স্কেল বৈশিষ্ট্যের মানচিত্রের জন্য, আমরা লক্ষ্য অঞ্চলটির বৈশিষ্ট্যগুলি হাইলাইট করে এবং পটভূমির গোলমাল দমন করে একটি ভিজ্যুয়াল মনোযোগ নেটওয়ার্ক, তারপরে একটি শ্রেণিবদ্ধকরণ শাখা এবং একটি রিগ্রেশন শাখা শিখেছি। এমএস-ভ্যানস মডেলটি একটি মিশ্র ক্ষতি কর্মের সাথে প্রশিক্ষিত হয়, যা মনোযোগ হ্রাস, শ্রেণিবিন্যাস ক্ষতি এবং রিগ্রেশন হ্রাসের একটি ওজনযুক্ত পরিমাণ।

    ৩. লক্ষ্যমাত্রার স্কেল পরিবর্তন
    মাল্টি-স্কেল পরিবর্তন একই ধরণের টার্গেটের আকারের মধ্যে পরিবর্তনকে বোঝায় small ছোট লক্ষ্য সমস্যাটি পুরো চিত্রের সাথে লক্ষ্যমাত্রার আকারকে বোঝায় multi মাল্টি-স্কেল পদ্ধতিটি প্রাকৃতিক চিত্রগুলিতেও একটি গরম সমস্যা।

    খুব উচ্চ-রেজোলিউশন রিমোট সেন্সিং অবজেক্ট সনাক্তকরণের জন্য হায়ারার্কিকাল এবং মজবুত কনভলিউশনাল নিউরাল নেটওয়ার্ক।
    এই কাগজটি একটি স্তরযুক্ত শক্তসমর্থ সিএনএন উপস্থাপন করে। শ্রেণিবদ্ধ স্থানিক শব্দার্থক তথ্য উপস্থাপনের জন্য প্রথমত, বহু-স্তরের সমাবর্তন বৈশিষ্ট্যগুলি নিষ্কাশন করা হয়। দ্বিতীয়ত, ঘূর্ণন এবং স্কেলিংয়ের দৃust়তা উন্নতির জন্য একাধিক সম্পূর্ণ সংযুক্ত স্তর বৈশিষ্ট্য একসাথে যুক্ত করা হয়।

    4. বিশেষ দৃষ্টিকোণ
    প্রাকৃতিক চিত্রগুলিতে লক্ষ্যটি বেশিরভাগ অনুভূমিক হয়, তবে রিমোট সেন্সিং ইমেজে থাকায়, কারণ বোর্ড এবং অন-বোর্ড চিত্র সেন্সরগুলি কেবল শট নিতে পারে, প্রাকৃতিক চিত্রের তুলনায় দেখার কোণটি তুলনামূলকভাবে বিশেষ। অতএব, শীর্ষ দর্শনে লক্ষ্য সনাক্তকরণ এবং লক্ষ্যটির ঘূর্ণন আগ্রাসন গুরুত্বপূর্ণ বিষয়।

    ভিএইচআর অপটিকাল রিমোট সেন্সিং ইমেজগুলিতে অবজেক্ট সনাক্তকরণের জন্য রোটেশন-ইনভেরিয়েন্ট কনভলিউশনাল নিউরাল নেটওয়ার্কগুলি শিখছি।
    এই কাগজটি আবর্তন ইনভেরিয়েন্ট সিএনএন (আর আই সি এন এন) মডেল শেখার জন্য একটি উপন্যাস এবং কার্যকর পদ্ধতির প্রস্তাব দেয় It এটি বিদ্যমান সিএনএন আর্কিটেকচারের উপর ভিত্তি করে নতুন রোটেশন ইনভারিয়েট স্তরগুলি পরিচয় করিয়ে এবং শিখিয়ে লক্ষ্য সনাক্তকরণের কার্যকারিতা উন্নত করে। Traditionalতিহ্যবাহী সিএনএন মডেল প্রশিক্ষণের থেকে পৃথক, কেবলমাত্র একাধিক লজিস্টিক রিগ্রেশন উদ্দেশ্যমূলকভাবে অনুকূলিত হয়েছে।আরসিএনএন মডেল প্রশিক্ষণ একটি নতুন উদ্দেশ্য ফাংশনটিকে অনুকূল করে এবং প্রশিক্ষণের নমুনাগুলির বৈশিষ্ট্য উপস্থাপনের ঘূর্ণন ম্যাপিংকে স্পষ্টভাবে কার্যকর করতে নিয়মিতকরণের সীমাবদ্ধতাগুলি ব্যবহার করে। ঘূর্ণন চালান। প্রশিক্ষণের সুবিধার্থে প্রথমে ঘূর্ণন-আক্রমণকারী স্তরটি প্রশিক্ষণ দিন এবং তারপরে পারফরম্যান্স আরও উন্নত করতে পুরো আরআইসিএনএন নেটওয়ার্কে ডোমেন-নির্দিষ্ট সূক্ষ্ম সুরকরণ করুন।

    রিমোট সেন্সিং চিত্রগুলিতে আবর্তন-সংবেদনশীল এবং প্রসঙ্গ-সংযুক্ত বস্তু সনাক্তকরণ।
    গভীর শিক্ষার উপর ভিত্তি করে রিমোট সেন্সিং ইমেজগুলির জন্য একটি অবজেক্ট সনাক্তকরণ কাঠামো প্রস্তাব করা হয়, এতে রিমোট সেন্সিং ইমেজগুলির জন্য একটি আঞ্চলিক পরামর্শ নেটওয়ার্ক (আরপিএন) এবং স্থানীয় প্রসঙ্গ বৈশিষ্ট্য ফিউশন নেটওয়ার্ক রয়েছে। বিশেষত, আরপিএন traditionalতিহ্যবাহী মাল্টি-স্কেল এবং মাল্টি-অ্যাসপেক্ট রেশিও অ্যাঙ্করগুলির ভিত্তিতে একটি মাল্টি-অ্যাঙ্গেল অ্যাঙ্কর যুক্ত করে, যাতে এটি ভূ-স্থানীয় বস্তুর মাল্টি-এঙ্গেল এবং মাল্টি-স্কেল বৈশিষ্ট্যগুলি পরিচালনা করতে পারে। অস্পষ্ট চেহারাগুলির সমস্যা সমাধানের জন্য, আমরা একটি দ্বৈত চ্যানেল বৈশিষ্ট্য ফিউশন নেটওয়ার্কের প্রস্তাব করি, যা দুটি স্বতন্ত্র পথ ধরে স্থানীয় এবং প্রসঙ্গ বৈশিষ্ট্যগুলি শিখতে পারে। একটি শক্তিশালী যৌথ উপস্থাপনা গঠনের জন্য, এই দুটি বৈশিষ্ট্য চূড়ান্ত প্রক্রিয়াজাতকরণ স্তরে একত্রিত করা হয়েছে।

    ওআরএসআইএম সনাক্তকারী: স্থানিক-ফ্রিকোয়েন্সি চ্যানেল বৈশিষ্ট্যগুলি ব্যবহার করে অপটিক্যাল রিমোট সেন্সিং চিত্রায়নের একটি উপন্যাস অবজেক্ট ডিটেকশন ফ্রেমওয়ার্ক।
    এই কাগজটিতে অপটিকাল রিমোট সেন্সিং ইমেজ ডিটেক্টর (ওআরএসআইএম ডিটেক্টর) নামে একটি নতুন টার্গেট শনাক্তকরণ কাঠামোর প্রস্তাব দেওয়া হয়েছে, যা একাধিক চ্যানেল বৈশিষ্ট্য নিষ্কাশন, বৈশিষ্ট্য শেখা, দ্রুত ইমেজ পিরামিড মেলানো এবং বর্ধন কৌশলগুলিকে একীভূত করে। ওআরএসআইএম ডিটেক্টর একটি অভিনব স্পেস-ফ্রিকোয়েন্সি চ্যানেল বৈশিষ্ট্য (এসএফসিএফ) ব্যবহার করে, যা ফ্রিকোয়েন্সি ডোমেনে নির্মিত আবর্তনীয়ভাবে চক্রের বৈশিষ্ট্য এবং মূল স্থানিক চ্যানেল বৈশিষ্ট্যগুলি (যেমন রঙ চ্যানেল এবং গ্রেডিয়েন্ট প্রশস্ততা) বিবেচনা করে।

    5. ছোট লক্ষ্য
    যেহেতু রিমোট সেন্সিং ইমেজের সাধারণত দেখার ক্ষেত্রটি বৃহত্তর থাকে তাই চিত্রের তুলনায় লক্ষ্যটির আকার ছোট হয় ছোট ছোট লক্ষ্য এবং ছোট লক্ষ্য একটি গুরুত্বপূর্ণ পয়েন্ট এবং একটি কঠিন সমস্যা a

    কনভোলিউশনাল নিউরাল নেটওয়ার্কগুলির উপর ভিত্তি করে রিমোট সেন্সিং চিত্রগুলিতে সঠিক অবজেক্ট স্থানীয়করণ।
    ছোট টার্গেট স্থানীয়করণের দুর্বল পারফরম্যান্সের লক্ষ্যে, লেখকরা নিরীক্ষণযোগ্য স্কোরের উপর ভিত্তি করে একটি বাউন্ডিং বক্স রিগ্রেশন (ইউএসবি-বিবিআর) অ্যালগরিদম প্রস্তাব করেছিলেন এবং সনাক্ত করা লক্ষ্য অঞ্চলের বাউন্ডিং বক্সটি অনুকূলিত করতে অ-সর্বাধিক দমন অ্যালগরিদমকে একত্রিত করেছিলেন।

    আর-সিএনএন: বৃহত্তর স্কেল রিমোট সেন্সিং চিত্রগুলিতে দ্রুত ক্ষুদ্র বস্তু সনাক্তকরণ।
    রিমোট সেন্সিং ইমেজগুলির বৃহত-স্কেল এবং বৃহত আকারের দৃশ্যে ক্ষুদ্র লক্ষ্যে লক্ষ্য রেখে লেখক একটি ক্ষুদ্র-নেট লক্ষ্য সনাক্তকরণ পদ্ধতির প্রস্তাব করেন। জিএফ -1 চিত্রটি 29.4 সেকেন্ডের মধ্যে একটি কনভোলশনাল নিউরাল নেটওয়ার্কে (আর 2-সিএনএন) প্রসেস করা যেতে পারে It এটি ব্যাকবোন টিনি-নেট, অন্তর্বর্তী গ্লোবাল ফোকাস ব্লক, চূড়ান্ত শ্রেণিবদ্ধ এবং ডিটেক্টর নিয়ে গঠিত। টিনি-নেট একটি হালকা ওজনের অবশিষ্টাংশ যা ইনপুট থেকে দ্রুত এবং শক্তিশালী বৈশিষ্ট্য নিষ্কাশনকে সমর্থন করে structure মিথ্যা ইতিবাচক দমনে টিনি-নেট উপর বিশ্বব্যাপী মনোযোগ ব্লকগুলি নির্মিত। তারপরে প্রতিটি প্যাচে লক্ষ্য অস্তিত্বের পূর্বাভাস দেওয়ার জন্য শ্রেণিবদ্ধকারীটি ব্যবহার করুন, যদি লক্ষ্যটিকে সঠিকভাবে সনাক্ত করার জন্য উপযুক্ত ডিটেক্টর থাকে। শেষ থেকে শেষের প্রশিক্ষণের মাধ্যমে শ্রেণিবদ্ধকারী এবং সনাক্তকারী পারস্পরিকভাবে উন্নত হয় যা প্রক্রিয়াকরণের গতি আরও বাড়িয়ে তোলে এবং তিতিয়ান এক্স-তে কেবলমাত্র একক থ্রেড ব্যবহার করা এড়িয়ে যায় which

    তৃতীয়, নির্দিষ্ট লক্ষ্য সনাক্তকরণ
    1, শহর
    ডিপ কনভোলিউশনাল নিউরাল নেটওয়ার্কগুলি ব্যবহার করে খুব উচ্চ রেজোলিউশন রিমোট সেন্সিং চিত্রগুলিতে নগর অঞ্চল সনাক্তকরণ।
    এই কাগজটি DCNN- এর ভিত্তিতে নগর অঞ্চল সনাক্তকরণের জন্য একটি পদ্ধতির প্রস্তাব দেয়। পদ্ধতিটিতে মূলত তিনটি পদক্ষেপ অন্তর্ভুক্ত রয়েছে: (১) প্রাক-প্রশিক্ষিত ডিসিএনএন দ্বারা প্রাপ্ত গভীরতার বৈশিষ্ট্যগুলির ভিত্তিতে একটি ভিজ্যুয়াল অভিধান অর্জন; (২) শহর শব্দভাণ্ডার লেবেলযুক্ত চিত্রগুলি থেকে শিখেছে; (iii) নিকটবর্তী অভিধান শব্দ শব্দের মানদণ্ডের ভিত্তিতে, নতুন ছবিতে শহর অঞ্চল।

    2, এয়ারপোর্ট
    পরিপূরক স্যালেন্সি বিশ্লেষণ এবং স্যালিয়েন্সি ওরিয়েন্টেড অ্যাক্টিভ কনট্যুর মডেলের মাধ্যমে বিমানবন্দর নিষ্কাশন।
    এই কাগজটি আরএসআইগুলির জন্য একটি কার্যকর বিমানবন্দর নিষ্কাশন কাঠামো তৈরি করে। প্রথম ধাপে, বিমান-অবস্থানের অবস্থান অনুমানের জন্য দ্বি-মুখী পরিপূরক স্যালেন্সি বিশ্লেষণ (সিএসএ) প্রকল্প যা দৃষ্টিভঙ্গি নির্ধারণী জ্ঞান এবং জ্ঞান-ভিত্তিক স্যালিয়েন্সির সমন্বয়ে প্রস্তাবিত। দ্বিতীয় ধাপে, বিমানবন্দর কনট্যুর ট্র্যাকিংয়ের জন্য স্যালিয়েন্সি অ্যাক্টিভ কনট্যুর মডেল (এসওএসিএম) তৈরি করা হয়, এবং স্তরের সেটের উপর ভিত্তি করে শক্তি ফাংশনে স্যালিয়েন্সির দিক শব্দটি চালু করা হয়। সিএসএ দ্বারা প্রাপ্ত প্রধান বৈশিষ্ট্য উপস্থাপনার দিকনির্দেশনায় এসওএসিএম একটি সুস্পষ্ট সংজ্ঞায়িত এবং অত্যন্ত নির্ভুল টার্গেট কনট্যুর পেতে পারে obtain

    3, নির্মাণ
    আকার-নির্দিষ্ট ডিটেক্টরগুলির এনসেম্বল ব্যবহার করে উপগ্রহ চিত্র থেকে বিল্ডিং ডিটেকশন।
    একটি সহজ তবে কার্যকর মাল্টি-টাস্ক মডেল প্রস্তাবিত। মডেলটি একাধিক ডিটেক্টর শেখে, যার প্রত্যেকটি নির্দিষ্ট আকারের বিল্ডিংয়ের জন্য নিবেদিত। এছাড়াও, রাস্তা নিষ্কাশন কার্য এবং বিল্ডিং সনাক্তকরণ টাস্ক একই সাথে প্রশিক্ষণের মাধ্যমে মডেল প্রাসঙ্গিক তথ্যগুলি অন্তর্নিহিতভাবে ব্যবহার করে। অন্য প্রাক-প্রশিক্ষিত সিএনএন থেকে জ্ঞান আহরণের মাধ্যমে রাস্তা নিষ্ক্রিয়কারীকে প্রশিক্ষণ দেওয়া হয় এবং এর প্রশিক্ষণে রাস্তার লেবেলের প্রয়োজন হয় না।

    4, বিমান
    বিমান সনাক্তকরণের জন্য যুগল কনভোলিউশনাল নিউরাল নেটওয়ার্কগুলির উপর ভিত্তি করে দুর্বল তত্ত্বাবধানে পড়াশুনা।
    এই কাগজটি কাপল কনভোলশনাল নিউরাল নেটওয়ার্ক (সিএনএন) এর উপর ভিত্তি করে বিমান সনাক্তকরণের জন্য দুর্বল তত্ত্বাবধানের শিক্ষার কাঠামোর প্রস্তাব দিয়েছে, যা একই সাথে এই সমস্যাগুলি সমাধান করতে পারে। প্রথমে উচ্চ-স্তরের বৈশিষ্ট্য এবং বস্তুগুলির শ্রেণিবদ্ধ বৈশিষ্ট্য উপস্থাপনা নিষ্কাশন করতে একটি সিএনএন ভিত্তিক পদ্ধতি বিকাশ করুন। তারপরে পুনরাবৃত্তিগতভাবে দুর্বল তত্ত্বাবধানে শেখার কাঠামোটি মূল চিত্র থেকে প্রশিক্ষিত ডেটা সেটটি স্বয়ংক্রিয়ভাবে খনি এবং প্রসারিত করতে ব্যবহৃত হয়। তারপরে, একটি যুগল সিএনএন পদ্ধতি প্রস্তাব করা হয়, যা প্রার্থী অঞ্চল পরামর্শ নেটওয়ার্ক এবং পজিশনিং নেটওয়ার্কগুলিকে একসাথে সুপারিশগুলি আহরণ করতে এবং বিমানটি সনাক্ত করতে একত্রিত করে large বৃহত আকারের ভিএইচআর চিত্রগুলিতেও এই পদ্ধতিটি আরও দক্ষ এবং নির্ভুল।

    5, জাহাজ
    স্পেসবাহিত অপটিক্যাল চিত্রগুলি থেকে ভেসেল সনাক্তকরণ এবং শ্রেণিবিন্যাস: একটি সাহিত্যের সমীক্ষা।
    এই নিবন্ধটি জাহাজ সনাক্তকরণ এবং অপটিক্যাল উপগ্রহ চিত্রগুলি থেকে শ্রেণিবিন্যাস সম্পর্কিত বিদ্যমান সাহিত্য পর্যালোচনা করে। যদিও সিন্থেটিক অ্যাপারচার রাডার (এসএআর) এখনও সমুদ্র পর্যবেক্ষণের জন্য প্রধান প্রযুক্তি, তবুও অপটিক্যাল স্যাটেলাইটের তথ্যের উপর ভিত্তি করে অধ্যয়নের সংখ্যা দ্রুত বাড়ছে। 1978 থেকে মার্চ 2017 পর্যন্ত অপটিকাল শিপ সনাক্তকরণ এবং শ্রেণিবিন্যাস সম্পর্কিত মোট ১১৯ টি পেপার বিশ্লেষণ করা হয়েছিল। আমরা প্রথমে জাহাজ সনাক্তকরণের জন্য বিদ্যমান সমস্ত সেন্সর সিস্টেম চালু করেছি, তবে তারপরে কেবলমাত্র অপটিক্যাল ইমেজিং উপগ্রহের উপর দৃষ্টি নিবদ্ধ রেখেছি। এই নিবন্ধটি অপটিক্যাল উপগ্রহের বৈশিষ্ট্যগুলির সময়ের বিবর্তন বর্ণনা করে এবং এটিকে জাহাজ সনাক্তকরণের প্রকাশনাগুলির সংখ্যা এবং ফ্রিকোয়েন্সি সম্পর্কিত করে। অর্জিত শনাক্তকরণ নির্ভুলতার সাথে মিলিত অপটিক্যাল চিত্রগুলির উপর ভিত্তি করে জাহাজ সনাক্তকরণ এবং শ্রেণিবদ্ধকরণ পদ্ধতির বিশদ পরিচিতির ভিত্তিতে, অন্যান্য ডেটা উত্সগুলির সাথে অপটিক্যাল ডেটা ফিউজ করার সম্ভাবনা প্রস্তাব করা হয়েছে। গবেষণায় দেখা গেছে যে জাহাজ সনাক্তকরণের নির্ভুলতার উপর সবচেয়ে সাধারণ কারণগুলি প্রভাবিত করে: হ'ল বিভিন্ন আবহাওয়া পরিস্থিতি যা সমুদ্রের পৃষ্ঠের বৈশিষ্ট্যগুলি, মেঘ এবং কুঁচকায়, সূর্যের কোণ এবং ইমেজিং সেন্সরের বৈশিষ্ট্যগুলিকে প্রভাবিত করে। এই সমস্ত কারণগুলি সর্বাধিক উপযুক্ত পদ্ধতিটি বেছে নেওয়ার ক্ষেত্রে একটি বড় পার্থক্য সৃষ্টি করে; কিছু চ্যালেঞ্জ অমীমাংসিত থেকে যায়। উচ্চতর পারস্পরিক সম্পর্ক এবং বৃহত্তর অ্যাপ্লিকেশনগুলি পেতে, এই কাগজটি পরামর্শ দেয় যে সনাক্তকরণ এবং শ্রেণিবিন্যাসের জন্য ব্যবহৃত অ্যালগরিদমগুলির একাধিক লক্ষ্য এবং আবহাওয়া সংক্রান্ত অবস্থাকে সমর্থন করা উচিত এবং আদর্শিকভাবে একাধিক অপটিক্যাল উপগ্রহ সেন্সরকে সমর্থন করা উচিত। খুব কমপক্ষে, বিভিন্ন শর্তে তাদের অনেকগুলি চিত্রের উপর পরীক্ষা করা উচিত। বিদ্যমান সাহিত্যে এটি সাধারণ নয়। আমরা আরও লক্ষ্য করেছি যে অনেক লেখক সঠিক পারফরম্যান্সের পরিমাণকে অগ্রাহ্য করেছেন, যা ব্যবহারিক মূল্যায়ন এবং বিদ্যমান অ্যালগরিদমের সংখ্যাগত মানের তুলনা করার জন্য গুরুত্বপূর্ণ। সংক্ষেপে, মহাশূন্যে অপটিক্যাল চিত্র জাহাজের পর্যবেক্ষণ একটি উষ্ণ গবেষণার বিষয় satellite স্যাটেলাইট ডেটার প্রচুর পরিমাণের কারণে বেশিরভাগ ডেটা নিখরচায় এবং উন্মুক্ত, সুতরাং অদূর ভবিষ্যতে এটির দুর্দান্ত প্রয়োগের সম্ভাবনা রয়েছে।

    এইচএসএফ-নেট: অপটিকাল রিমোট সেন্সিং চিত্রায় শিপ সনাক্তকরণের জন্য মাল্টিস্কেল গভীর বৈশিষ্ট্য এম্বেডিং।
    এই কাগজটি গভীরতার বৈশিষ্ট্যগুলির ভিত্তিতে একটি নতুন শিপ রিমোট সেন্সিং চিত্র সনাক্তকরণ পদ্ধতির প্রস্তাব দিয়েছে। এই পদ্ধতিটি গভীর সমঝোতা সংক্রান্ত নিউরাল নেটওয়ার্কগুলির দ্বারা উত্পন্ন বৈশিষ্ট্য মানচিত্রগুলি ব্যবহার করে এবং প্রার্থী জাহাজগুলি উত্পাদন করতে অঞ্চল পরামর্শ নেটওয়ার্ক ব্যবহার করে। বিভিন্ন আকারের জাহাজগুলি কার্যকরভাবে সনাক্ত করার জন্য, একটি স্ক্রিনশৈলিক নির্বাচন ফিল্টার স্তরটি বিভিন্ন স্কেলের বৈশিষ্ট্যগুলিকে একই স্কেল স্পেসে ম্যাপ করার প্রস্তাব দেওয়া হয়। প্রস্তাবিত পদ্ধতিটি একটি শেষ-শেষ প্রান্তের নেটওয়ার্ক যা দশমিক পিক্সেল থেকে একসাথে কয়েক হাজার পিক্সেল পর্যন্ত কাছের এবং নিকটবর্তী জাহাজগুলি সনাক্ত করতে পারে।

    6, গাড়ির
    আর ^ 3-নেট: বায়বীয় চিত্র এবং ভিডিওগুলিতে বহুমাত্রিক যানবাহন সনাক্তকরণের জন্য একটি গভীর নেটওয়ার্ক।
    এই কাগজটি বায়বীয় চিত্র এবং ভিডিওগুলিতে মাল্টি-টার্গেট যানবাহন সনাক্ত করার জন্য একটি নতুন গভীর নেটওয়ার্ক, রোটারি অঞ্চল রেসিডুয়াল নেটওয়ার্ক (আর 3-নেট) উপস্থাপন করেছে। আরও সুনির্দিষ্টভাবে, অর্ধ স্থানাঙ্ক সিস্টেমে আবর্তনযোগ্য আয়তক্ষেত্রাকার লক্ষ্য বাক্স তৈরি করতে আর 3-নেট ব্যবহার করা হয়। প্রথমত, একটি ঘূর্ণনযোগ্য অঞ্চল পরামর্শ নেটওয়ার্ক (আর-আরপিএন) একটি গভীর কনসিভনসিয়াল নিউরাল নেটওয়ার্ক দ্বারা উত্পন্ন বৈশিষ্ট্য মানচিত্র থেকে আবর্তনের যোগ্য অঞ্চল (আর-রোআই) তৈরি করতে ব্যবহৃত হয়। এখানে, ব্যাচের গড় ঘূর্ণনযোগ্য অ্যাঙ্করিং কৌশলটি প্রার্থীর গাড়ির আকৃতির সূচনা করার জন্য প্রস্তাবিত। এরপরে, আর-রো-র চূড়ান্ত শ্রেণিবদ্ধকরণ এবং রিগ্রেশনের জন্য একটি ঘূর্ণনযোগ্য ডিটেকশন নেটওয়ার্ক (আর-ডিএন) প্রস্তাব করা হয়েছিল। আর-ডিএন-তে, একটি নতুন আবর্তনযোগ্য অবস্থান-সংবেদনশীল পুলটি অবস্থান এবং ওরিয়েন্টেশন সম্পর্কিত তথ্য বজায় রাখার সময় আর-রো বৈশিষ্ট্য মানচিত্রটি ডাউন-নমুনার জন্য নকশা করা হয়েছে। চূড়ান্ত মডেলটিতে আর-আরপিএন এবং আর-ডিএনকে যৌথভাবে প্রশিক্ষণ দেওয়া যেতে পারে।

    সম্মিলিত অপটিকাল এবং উন্নয়নের ডেটা ব্যবহার করে অবজেক্ট ভিত্তিক যানবাহন সনাক্তকরণ।
    এই কাগজটি এমন একটি ওয়ার্কফ্লো উপস্থাপন করেছে যা দূরবর্তী সেনসেশনযুক্ত শহরগুলিতে গাড়ির ডেটা সনাক্ত করতে অপটিক্যাল এবং উচ্চতা ডেটা ব্যবহার করে। কর্মপ্রবাহে টানা তিনটি পর্যায় অন্তর্ভুক্ত: প্রার্থীর স্বীকৃতি, শ্রেণিবিন্যাস এবং একক যানবাহন নিষ্কাশন। বেশিরভাগ পূর্ববর্তী পদ্ধতির মতো নয়, এই দুটি ডেটা উত্সের ফিউশনটি সব পর্যায়েই জোরালো চাহিদা রয়েছে। প্রথম পর্যায়টি বেশিরভাগ কৃত্রিম বস্তুগুলি আয়তক্ষেত্রাকার, এবং দ্বিতীয় এবং তৃতীয় পর্যায়ে নির্দিষ্ট বৈশিষ্ট্যগুলিকে একত্রিত করে এমন মেশিন লার্নিং কৌশল ব্যবহার করে of এই পর্যায়গুলি একাধিক সেন্সর ইনপুটগুলি পরিচালনা করার জন্য ডিজাইন করা হয়েছে, যার ফলে উল্লেখযোগ্য উন্নতি হয়েছে।

    7, মেঘ
    মাল্টিস্কেল বৈশিষ্ট্য-কনভোলিউশনাল নিউরাল নেটওয়ার্কের উপর ভিত্তি করে রিমোট সেন্সিং চিত্রগুলিতে মেঘ সনাক্তকরণ।
    এই কাগজটি একযোগে দূরবর্তী সেন্সিং চিত্রগুলিতে পাতলা মেঘ, ঘন মেঘ এবং নন-ক্লাউড পিক্সেল সনাক্ত করার জন্য বহু-স্কেল বৈশিষ্ট্য কনভ্যুশনাল নিউরাল নেটওয়ার্ক (এমএফ-সিএনএন) এর ভিত্তিতে একটি পদ্ধতি প্রস্তাব করে। প্রস্তাবিত এমএফ-সিএনএন মডেলের বৈধতাটি বিভিন্ন মেঘের কভার স্তর সহ ল্যান্ডস্যাট 8 উপগ্রহ চিত্র ব্যবহার করে যাচাই করা হয়। বিস্তৃত বর্ণালী তথ্য পেতে আমরা প্রথমে ল্যান্ডসেট 8 চিত্রের দৃশ্যমান, নিকট-ইনফ্রারেড, শর্ট ওয়েভ, সিরাস এবং তাপ ইনফ্রারেড ব্যান্ডকে সুপারমোজ করেছি। তারপরে ইনপুট চিত্রের মাল্টি-স্কেল গ্লোবাল বৈশিষ্ট্যগুলি জানতে টিএমএফ-সিএনএন মডেলটি ব্যবহার করুন। বৈশিষ্ট্য শেখার প্রক্রিয়া চলাকালীন উচ্চ-স্তরের শব্দার্থক তথ্য এবং নিম্ন-স্তরের স্থানিক তথ্যের সংমিশ্রণের মাধ্যমে চিত্রটি ঘন, পাতলা এবং অ-মেঘ অঞ্চলে বিভক্ত। গুণগত এবং পরিমাণগত উভয় দিকেই, প্রস্তাবিত মডেলটিকে বিভিন্ন সাধারণভাবে ব্যবহৃত মেঘ সনাক্তকরণ পদ্ধতির সাথে তুলনা করা হয়েছিল।

    8.সিস বরফ
    কনভলিউশনাল নিউরাল নেটওয়ার্ক ব্যবহার করে জিএনএসএস-আর ডেটা থেকে সমুদ্র বরফ সেন্সিং।
    একটি শ্রেণিবদ্ধকরণ ভিত্তিক সমুদ্র বরফ সনাক্তকরণ সিএনএন এবং একটি রিগ্রেশন-ভিত্তিক এসআইসি অনুমান সিএনএন নকশা করা হয়েছে। এখানে আমরা ডিডিএম চিত্রটিকে ইনপুট হিসাবে নিই, নিম্বাস-7 স্ক্যানিং মাল্টি-চ্যানেল মাইক্রোওয়েভ রেডিওমিটারের এসআইসি তথ্য এবং জাতীয় প্রতিরক্ষা আবহাওয়া স্যাটেলাইট প্রোগ্রামের বিশেষ সেন্সর মাইক্রোওয়েভ ইমেজারকে লক্ষ্য আউটপুটে পরিবর্তন করি পরীক্ষামূলক পর্যায়ে, সিএনএন আউটপুট ফলাফলগুলি পূর্ণ-আকারের ডিডিএম ডেটা (128 × 20 পিক্সেল) ইনপুট করে প্রাপ্ত এনএনএন-ভিত্তিক পদ্ধতির চেয়ে আরও সঠিক। এছাড়াও, সিএনএন এবং এনএনগুলি যে ইনপুট ডেটা (40 × 20 পিক্সেল, প্রতিটি চিত্রের স্থির অবস্থান) প্রক্রিয়া করে তাদেরও মূল্যায়ন করা হয়েছিল, যা দুটি নেটওয়ার্কের কার্যকারিতা উন্নত করেছে।

    table of Contents

    I. Overview

    Second, the general target detection method

    1.Class imbalance problem

    2. Complex background

    3. Scale change of target

    4.Special perspective

    5.Small goals

    Third, specific target detection

    1.City

    Airport

    3.Building

    4.Airplane

    5.Ship

    Vehicle

    Cloud

    8.Sea ice

    References

    I. Overview
    The current research results of high-resolution remote sensing target detection are mainly divided into two categories, specific target detection and general target detection. Specific target detection mainly includes cities [1], airports [2], buildings [3], airplanes [4], ships [5]-[6], vehicles [7]-[8], clouds [9], sea Bing [10] and other more important and valuable targets in remote sensing images. The problems of general target detection research are mainly the problems faced in target detection. The main problems are: class imbalance [11], complex background [12], scale change of targets [13], special perspectives [14]-[ 16], small goals [17]-[18] and so on. The following is the introduction of general target detection and specific target detection (Of course, specific target detection also contains many other categories, we cannot list them one by one. Many literatures have also proposed data sets, and we only introduce methods here.

    Second, the general target detection method
    1.Class imbalance problem
    Class imbalance is a common problem in natural images and remote sensing images. It mainly refers to the fact that a large number of proposals are used as the background when extracting the proposal. When training, it will dominate the gradient descent and cause the performance of the trainer to be reduced. Many methods have been proposed in the target detection of natural images, such as focal loss, GHM, OHME and so on.

    Random Access Memories: A New Paradigm for Target Detection in High Resolution Aerial Remote Sensing Images.
    The author proposes a new method for high-resolution aerial remote sensing image target detection under the condition of small target priors. In the previous remote sensing target detection methods, detection was defined as the learning of the detection model + inference of class labels and frame coordinates. From the viewpoint of the author Bayes, in the inference stage, through training and observation, the detection model is adaptively updated to maximize its posterior value. Called "RAM". In this paradigm, "memory" can be understood as any model distribution learned from the training data, and "random access" refers to accessing the memory and randomly adjusting the model during the detection phase to obtain a better distribution of any invisible test data Adaptability.

    2. Complex background
    Complex background refers to the fact that the remote sensing image has a wider field of view than the natural image, but the background is generally single in the natural image. For example, the background of vehicles (such as pascal voc and coco datasets) obtained by sensors in natural images is generally streets, houses, and sky. The background of remote sensing images is more diverse, such as cities, forests, grasslands, and deserts. There may be vehicles. Therefore, target detection under complex background is an important issue.

    Multiscale Visual Attention Networks for Object Detection in VHR Remote Sensing Images.
    The authors propose an end-to-end multi-scale visual attention network (MS-VANs) method. Use skip-connected codec models to extract multi-scale features from full-scale images. For feature maps at each scale, we learned a visual attention network, then a classification branch and a regression branch, highlighting the features of the target area and suppressing the clutter of the background. The MS-VANs model is trained with a mixed loss function, which is a weighted sum of attention loss, classification loss, and regression loss.

    3. Scale change of target
    Multi-scale change refers to the change between the sizes of the same type of target, while the small target problem refers to the size of the target relative to the entire image. The multi-scale method is also a hot issue in natural images.

    Hierarchical and Robust Convolutional Neural Network for Very High-Resolution Remote Sensing Object Detection.
    This paper presents a layered robust CNN. First, multi-scale convolutional features are extracted to represent hierarchical spatial semantic information. Second, multiple fully connected layer features are added together to improve the robustness of rotation and scaling.

    4.Special perspective
    In natural images, the target is mostly horizontal, while in the remote sensing image, because the on-board and on-board image sensors can only take down shots, the angle of view is relatively special compared to the natural image. Therefore, the target detection and the rotation invariance of the target in the top view are important issues.

    Learning Rotation-Invariant Convolutional Neural Networks for Object Detection in VHR Optical Remote Sensing Images.
    This paper proposes a novel and effective method for learning a rotation invariant CNN (RICNN) model. It improves the performance of target detection by introducing and learning a new rotation invariant layer based on the existing CNN architecture. Different from the traditional CNN model training, only the multiple logistic regression is optimized objectively. The RICNN model training optimizes a new objective function and uses regularization constraints to explicitly execute the rotation mapping of the feature representation of the training samples. Rotation invariance. To facilitate training, first train the rotation-invariant layer, and then perform domain-specific fine-tuning on the entire RICNN network to further improve performance.

    Rotation-Insensitive and Context-Augmented Object Detection in Remote Sensing Images.
    An object detection framework for remote sensing images based on deep learning is proposed, including a regional suggestion network (RPN) and a local context feature fusion network for remote sensing images. Specifically, RPN adds a multi-angle anchor on the basis of the traditional multi-scale and multi-aspect ratio anchors, so that it can handle the multi-angle and multi-scale features of geospatial objects. To solve the problem of fuzzy appearance, we propose a dual-channel feature fusion network, which can learn local and context attributes along two independent paths. To form a powerful joint representation, these two features are combined in the final processing layer.

    ORSIm Detector: A Novel Object Detection Framework in Optical Remote Sensing Imagery Using Spatial-Frequency Channel Features.
    This paper proposes a new target detection framework, called Optical Remote Sensing Image Detector (ORSIm Detector), which integrates multiple channel feature extraction, feature learning, fast image pyramid matching and enhancement strategies. The ORSIm detector uses a novel space-frequency channel feature (SFCF), which takes into account the rotationally invariant channel features constructed in the frequency domain and the original spatial channel features (such as color channels and gradient amplitudes).

    5.Small goals
    Since the remote sensing image generally has a larger field of view, the size of the target relative to the image is smaller. Small targets and tiny targets are an important point and a difficult problem.

    Accurate Object Localization in Remote Sensing Images Based on Convolutional Neural Networks.
    Aiming at the poor performance of small target localization, the authors proposed a bounding box regression (USB-BBR) algorithm based on unsupervised score, and combined the non-maximum suppression algorithm to optimize the bounding box of the detected target area.

    R²-CNN: Fast Tiny Object Detection in Large-Scale Remote Sensing Images.
    Aiming at tiny targets in large-scale and large-scale scenes of remote sensing images, the author proposes a Tiny-Net target detection method. The GF-1 image can be processed in a convolutional neural network (R2-CNN) in 29.4 seconds. It consists of the backbone Tiny-Net, the intermediate global attention block, the final classifier, and the detector. Tiny-Net is a lightweight residual structure that supports fast and powerful feature extraction from input. Global attention blocks are built on Tiny-Net to suppress false positives. Then use the classifier to predict the existence of the target in each patch, if there is a suitable detector to accurately locate the target. Through end-to-end training, the classifier and detector are mutually enhanced, which further speeds up processing and avoids using only single thread on Titian X.

    Third, specific target detection
    1.City
    Urban Area Detection in Very High Resolution Remote Sensing Images Using Deep Convolutional Neural Networks.
    This paper proposes a method for urban area detection based on DCNNs. The method mainly includes three steps: (1) Obtaining a visual dictionary based on the depth features extracted by pre-trained DCNNs; (2) City vocabulary is learned from labeled images; (iii) Based on the nearest dictionary word criteria, in the new City area in the image.

    Airport
    Airport Extraction via Complementary Saliency Analysis and Saliency-Oriented Active Contour Model.
    This paper constructs an efficient airport extraction framework for RSIs. In the first step, a two-way complementary saliency analysis (CSA) scheme for airport location estimation that combines vision-oriented saliency and knowledge-oriented saliency is proposed. In the second step, a saliency active contour model (SOACM) for airport contour tracking is constructed, and a saliency direction term is introduced into the energy function based on the level set. Under the guidance of the salient feature representation obtained by CSA, SOACM can obtain a well-defined and highly accurate target contour.

    3.Building
    Building Detection from Satellite Imagery using Ensemble of Size-Specific Detectors.
    A simple but effective multi-task model is proposed. The model learns multiple detectors, each of which is dedicated to a specific size building. In addition, the model uses the contextual information implicitly by training the road extraction task and the building detection task simultaneously. The road extractor is trained by extracting knowledge from another pre-trained CNN, and it does not need road labels in its training.

    4.Airplane
    Weakly Supervised Learning Based on Coupled Convolutional Neural Networks for Aircraft Detection.
    This paper proposes a weakly supervised learning framework for aircraft detection based on coupled convolutional neural networks (CNNs), which can simultaneously solve these problems. First, develop a cnn-based method to extract high-level features and hierarchical feature representations of objects. Then iteratively weakly supervised learning framework is used to automatically mine and expand the training data set from the original image. Then, a coupled CNN method is proposed, which combines the candidate area suggestion network and the positioning network to extract recommendations and locate the aircraft at the same time. This method is more efficient and accurate even in large-scale VHR images.

    5.Ship
    Vessel detection and classification from spaceborne optical images: A literature survey.
    This article reviews the existing literature on ship detection and classification from optical satellite images. Although synthetic aperture radar (SAR) is still the dominant technology for maritime monitoring, the number of studies based on optical satellite data is rapidly increasing. From 1978 to March 2017, a total of 119 papers on optical ship detection and classification were analyzed. We first introduced all existing sensor systems for ship detection, but then focused only on optical imaging satellites. This article describes the time evolution of optical satellite characteristics and relates it to the number and frequency of ship detection publications. Based on the detailed introduction of ship detection and classification methods based on optical images, combined with the achieved detection accuracy, the possibility of fusing optical data with other data sources is proposed. Studies have shown that the most common factors affecting ship detection accuracy are: different weather conditions that affect sea surface characteristics, cloud and haze, sun angle, and imaging sensor characteristics. All these factors make a big difference in choosing the most appropriate method; some challenges remain unresolved. In order to obtain higher correlation and wider applications, this paper suggests that the algorithms used for detection and classification should support multiple targets and meteorological conditions, and ideally should also support multiple optical satellite sensors. At the very least, they should be tested on many images under different conditions. This is not common in the existing literature. We also noticed that many authors ignored proper performance quantification, which is critical for practical evaluation and comparison of numerical values ​​of existing algorithms. In summary, spaceborne optical image ship monitoring is a hot research topic. Due to the large amount of satellite data, most of the data is free and open, so it has great application potential in the near future.

    HSF-Net: Multiscale Deep Feature Embedding for Ship Detection in Optical Remote Sensing Imagery.
    This paper proposes a new ship remote sensing image detection method based on depth features. This method uses feature maps generated by deep convolutional neural networks, and uses the region suggestion network to generate candidate ships. In order to effectively detect ships of different scales, a hierarchical selection filter layer is proposed to map the features of different scales to the same scale space. The proposed method is an end-to-end network that can detect nearshore and nearshore vessels from tens of pixels to thousands of pixels simultaneously.

    Vehicle
    R ^ 3-Net: A Deep Network for Multioriented Vehicle Detection in Aerial Images and Videos.
    This paper presents a new deep network, the Rotary Region Residual Network (R3-Net), for detecting multi-target vehicles in aerial images and videos. More specifically, R3-Net is used to generate a rotatable rectangular target box in a half coordinate system. First, a rotatable region suggestion network (R-RPN) is used to generate a rotatable region of interest (R-RoIs) from a feature map generated by a deep convolutional neural network. Here, a batch average rotatable anchoring strategy is proposed to initialize the shape of the candidate vehicle. Next, a rotatable detection network (R-DN) was proposed for final classification and regression of r-roi. In R-DN, a new rotatable position-sensitive pool is designed to down-sample the r-roi feature map while maintaining position and orientation information. In the final model, R-RPN and R-DN can be jointly trained.

    Object-based detection of vehicles using combined optical and elevation data.
    This paper presents a workflow that uses optical and elevation data to detect vehicle data in remotely sensed cities. The workflow includes three consecutive stages: candidate recognition, classification, and single vehicle extraction. Unlike most previous methods, the fusion of these two data sources is in strong demand at all stages. The first stage takes advantage of the fact that most artificial objects are rectangular, and the second and third stages use machine learning techniques that combine specific features. These stages are designed to handle multiple sensor inputs, which has led to a significant improvement.

    Cloud
    Cloud Detection in Remote Sensing Images Based on Multiscale Features-Convolutional Neural Network.
    This paper proposes a method based on multi-scale feature convolutional neural network (MF-CNN) to detect thin cloud, thick cloud and non-cloud pixels in remote sensing images simultaneously. The validity of the proposed MF-CNN model is verified by using landsat8 satellite images with different cloud cover levels. We first superimposed the visible, near-infrared, short-wave, cirrus, and thermal infrared bands of the landsat8 image to obtain comprehensive spectral information. Then use TheMF-CNN model to learn the multi-scale global features of the input image. The image is divided into thick, thin, and non-cloud regions by combining high-level semantic information and low-level spatial information obtained during the feature learning process. In both qualitative and quantitative aspects, the proposed model was compared with various commonly used cloud detection methods.

    8.Sea ice
    Sea Ice Sensing From GNSS-R Data Using Convolutional Neural Networks.
    A classification-based sea ice detection CNN and a regression-based SIC estimation CNN are designed. Here, the DIC image is used as input, and the SIC data of the Nimbus-7 scanning multi-channel microwave radiometer and the special sensor microwave imager of the National Defense Meteorological Satellite Program are modified to the target output. In the experimental stage, CNN output results obtained by inputting full-size DDM data (128 × 20 pixels) are more accurate than existing nnn-based methods. In addition, CNNs and NNs that further processed the input data (40 × 20 pixels, fixed position in each image) were also evaluated, which improved the performance of the two networks.

    Reference
    Tian, T., et al. (2018). Urban Area Detection in Very High Resolution Remote Sensing Images Using Deep Convolutional Neural Networks.
    Zhang, Q., et al. (2018). "Airport Extraction via Complementary Saliency Analysis and Saliency-Oriented Active Contour Model." IEEE Geoscience and Remote Sensing Letters 15(7): 1085-1089.
    Hamaguchi, R. and S. Hikosaka (2018). Building Detection from Satellite Imagery using Ensemble of Size-Specific Detectors. 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW).
    Zhang, F., et al. (2016). "Weakly Supervised Learning Based on Coupled Convolutional Neural Networks for Aircraft Detection." IEEE Transactions on Geoscience and Remote Sensing 54(9): 5553-5563.
    Kanjir, U., et al. (2018). Vessel detection and classification from spaceborne optical images: A literature survey.
    Li, Q., et al. (2018). "HSF-Net: Multiscale Deep Feature Embedding for Ship Detection in Optical Remote Sensing Imagery." IEEE Transactions on Geoscience and Remote Sensing 56(12): 7147-7161.
    Li, Q., et al. (2019). "R3-Net: A Deep Network for Multioriented Vehicle Detection in Aerial Images and Videos." IEEE Transactions on Geoscience and Remote Sensing 57(7): 5028-5042. 
    Schilling, H., et al. (2017). Object-based detection of vehicles using combined optical and elevation data.
    Shao, Z., et al. (2019). "Cloud Detection in Remote Sensing Images Based on Multiscale Features-Convolutional Neural Network." IEEE Transactions on Geoscience and Remote Sensing: 1-15.
    Yan, Q. and W. Huang (2018). "Sea Ice Sensing From GNSS-R Data Using Convolutional Neural Networks." IEEE Geoscience and Remote Sensing Letters 15(10): 1510-1514.
    Zou, Z. and Z. Shi (2018). "Random Access Memories: A New Paradigm for Target Detection in High Resolution Aerial Remote Sensing Images." IEEE Transactions on Image Processing 27(3): 1100-1111.
    Wang, C., et al. (2018). Multiscale Visual Attention Networks for Object Detection in VHR Remote Sensing Images.
    Zhang, Y., et al. (2019). Hierarchical and Robust Convolutional Neural Network for Very High-Resolution Remote Sensing Object Detection.
    Cheng, G., et al. (2016). "Learning Rotation-Invariant Convolutional Neural Networks for Object Detection in VHR Optical Remote Sensing Images." IEEE Transactions on Geoscience and Remote Sensing 54(12): 7405-7415.
    Li, K., et al. (2018). "Rotation-Insensitive and Context-Augmented Object Detection in Remote Sensing Images." IEEE Transactions on Geoscience and Remote Sensing 56(4): 2337-2348.
    Wu, X., et al. (2019). "ORSIm Detector: A Novel Object Detection Framework in Optical Remote Sensing Imagery Using Spatial-Frequency Channel Features." IEEE Transactions on Geoscience and Remote Sensing 57(7): 5146-5158.
    Long, Y., et al. (2017). "Accurate Object Localization in Remote Sensing Images Based on Convolutional Neural Networks." IEEE Transactions on Geoscience and Remote Sensing 55(5): 2486-2498.
    Pang, J., et al. (2019). "R²-CNN: Fast Tiny Object Detection in Large-Scale Remote Sensing Images." IEEE Transactions on Geoscience and Remote Sensing: 1-13.


























  • 0 comments:

    Post a Comment

    New Research

    Attention Mechanism Based Multi Feature Fusion Forest for Hyperspectral Image Classification.

    CBS-GAN: A Band Selection Based Generative Adversarial Net for Hyperspectral Sample Generation.

    Multi-feature Fusion based Deep Forest for Hyperspectral Image Classification.

    ADDRESS

    388 Lumo Rd, Hongshan, Wuhan, Hubei, China

    EMAIL

    contact-m.zamanb@yahoo.com
    mostofa.zaman@cug.edu.cn

    TELEPHONE

    #
    #

    MOBILE

    +8615527370302,
    +8807171546477