مقاله انگلیسی رایگان در مورد به سمت توضیحات قوی برای شبکه های عصبی عمیق – الزویر 2021

 

مشخصات مقاله
ترجمه عنوان مقاله به سمت توضیحات قوی برای شبکه های عصبی عمیق
عنوان انگلیسی مقاله Towards robust explanations for deep neural networks
انتشار مقاله سال 2021
تعداد صفحات مقاله انگلیسی 20 صفحه
هزینه دانلود مقاله انگلیسی رایگان میباشد.
پایگاه داده نشریه الزویر
نوع نگارش مقاله
مقاله پژوهشی (Research Article)
مقاله بیس این مقاله بیس نمیباشد
نمایه (index) Scopus – Master Journals List – JCR
نوع مقاله ISI
فرمت مقاله انگلیسی  PDF
ایمپکت فاکتور(IF)
7.740 در سال 2020
شاخص H_index 210 در سال 2020
شاخص SJR 1.492 در سال 2020
شناسه ISSN 0031-3203
شاخص Quartile (چارک) Q1 در سال 2020
فرضیه ندارد
مدل مفهومی ندارد
پرسشنامه ندارد
متغیر ندارد
رفرنس دارد
رشته های مرتبط مهندسی کامپیوتر
گرایش های مرتبط مهندسی نرم افزار، هوش مصنوعی
نوع ارائه مقاله
ژورنال
مجله  الگو شناسی – Pattern Recognition
کلمات کلیدی روش توضیح، نقشه شوری، حملات خصمانه، دستکاری – اعمال نفوذ، شبکه های عصبی
کلمات کلیدی انگلیسی https://doi.org/10.1016/j.patcog.2021.108194Explanation method – Saliency map – Adversarial attacks – Manipulation – Neural networks
شناسه دیجیتال – doi
کد محصول E15603
وضعیت ترجمه مقاله  ترجمه آماده این مقاله موجود نمیباشد. میتوانید از طریق دکمه پایین سفارش دهید.
دانلود رایگان مقاله دانلود رایگان مقاله انگلیسی
سفارش ترجمه این مقاله سفارش ترجمه این مقاله

 

فهرست مطالب مقاله:
Abstract
Graphical abstract
Keywords
Introduction
Theoretical considerations
Methods for robuster explanations
Experimental analysis
Conclusion
Declaration of Competing Interest
Acknowledgments
Appendix A. Proof of Theorem 1
Appendix B. Relu networks
Appendix C. Interchangeability of softplus
Appendix D. Experimental analysis
Appendix E. Hessian norm approximation
Appendix F. Additional network structures and data sets
Appendix G. Targeted adversarial attacks
Appendix H. Accuracy-robustnes tradeoff
References

بخشی از متن مقاله:
abstract
Explanation methods shed light on the decision process of black-box classifiers such as deep neural networks. But their usefulness can be compromised because they are susceptible to manipulations. With this work, we aim to enhance the resilience of explanations. We develop a unified theoretical framework for deriving bounds on the maximal manipulability of a model. Based on these theoretical insights, we present three different techniques to boost robustness against manipulation: training with weight decay, smoothing activation functions, and minimizing the Hessian of the network. Our experimental results confirm the effectiveness of these approaches.
Introduction
In recent years, deep neural networks have revolutionized many different areas. Despite their impressive performance, the reasoning behind their decision processes remains difficult to grasp for humans. This can limit their usefulness in applications that require transparency. Explanation methods promise to make neural networks interpretable.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا