مقاله انگلیسی رایگان در مورد شبکه های عصبی پیچشی عمیق با منبع مقرون به صرفه برای تقسیم بندی تصویر ابرطیفی – الزویر 2020

 

مشخصات مقاله
ترجمه عنوان مقاله به سمت شبکه های عصبی پیچشی عمیق با منبع مقرون به صرفه برای تقسیم بندی تصویر ابرطیفی
عنوان انگلیسی مقاله Towards resource-frugal deep convolutional neural networks for hyperspectral image segmentation
انتشار مقاله سال 2020
تعداد صفحات مقاله انگلیسی 14 صفحه
هزینه دانلود مقاله انگلیسی رایگان میباشد.
پایگاه داده نشریه الزویر
نوع نگارش مقاله
مقاله پژوهشی (Research Article)
مقاله بیس این مقاله بیس نمیباشد
نمایه (index) Scopus – Master Journals List – JCR
نوع مقاله ISI
فرمت مقاله انگلیسی  PDF
ایمپکت فاکتور(IF)
1.434 در سال 2019
شاخص H_index 33 در سال 2020
شاخص SJR 0.264 در سال 2019
شناسه ISSN 0141-9331
شاخص Quartile (چارک) Q3 در سال 2019
مدل مفهومی ندارد
پرسشنامه ندارد
متغیر ندارد
رفرنس دارد
رشته های مرتبط کامپیوتر
گرایش های مرتبط مهندسی الگوریتم ها و محاسبات، هوش مصنوعی
نوع ارائه مقاله
ژورنال
مجله  ریزپردازنده ها و ریزسیستم ها – Microprocessors And Microsystems
دانشگاه KP Labs Konarskiego 18C, Gliwice 44-100, Poland
کلمات کلیدی تصویربرداری ابرطیفی، شبکه عصبی عمیق، شبکه عصبی پیچشی، تدریج، تقسیم بندی، طبقه بندی
کلمات کلیدی انگلیسی Hyperspectral imaging، Deep neural network، Convolutional neural network، Quantization، Segmentation، Classification
شناسه دیجیتال – doi
https://doi.org/10.1016/j.micpro.2020.102994
کد محصول E14338
وضعیت ترجمه مقاله  ترجمه آماده این مقاله موجود نمیباشد. میتوانید از طریق دکمه پایین سفارش دهید.
دانلود رایگان مقاله دانلود رایگان مقاله انگلیسی
سفارش ترجمه این مقاله سفارش ترجمه این مقاله

 

فهرست مطالب مقاله:
Abstract

1- Introduction

2- Related literature

3- Quantized convolutional neural networks for HSI segmentation

4- Experiments

5- Conclusions and future work

References

بخشی از متن مقاله:

Abstract

Hyperspectral image analysis has been gaining research attention thanks to the current advances in sensor design which have made acquiring such imagery much more affordable. Although there exist various approaches for segmenting hyperspectral images, deep learning has become the mainstream. However, such large-capacity learners are characterized by significant memory footprints. This is a serious obstacle in employing deep neural networks on board a satellite for Earth observation. In this paper, we introduce resource-frugal quantized convolutional neural networks, and greatly reduce their size without adversely affecting the classification capability. Our experiments performed over two hyperspectral benchmarks showed that the quantization process can be seamlessly applied during the training, and it leads to much smaller and still well-generalizing deep models.

Introduction

Hyperspectral imaging (HSI) is being continuously applied in a variety of fields, including biochemisty, biology, mineralogy, and remote sensing [90]. It captures a wide spectrum of light, and forms an array of usually more than a hundred of reflectance values acquired for every pixel in the image. Such amount of information can be effectively used to classify each pixel to a specific class, and to find the boundaries of objects within a scene imaged using a hyperspectral sensor in the process of HSI segmentation1 [62]. The remote sensing community currently struggles with applying hyperspectral segmentation engines in constrained hardware settings, in the context of on-board Earth observation. It is in contrast to the post processing of such imagery which is performed back on Earth, after transferring images from a satellite equipped with a hyperspectral camera. This data transfer is extremely costly and time-consuming, and it is not feasible in the majority of Earth observation use cases where short re-visit times that can be seen as the temporal resolution of hyperspectral data, and rapid response to the events captured within a scene are critical practical issues. Disaster prevention, monitoring, and post-crisis operation alongside precision agriculture are the most notable examples of such applications [80].

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا