مقاله انگلیسی رایگان در مورد به سمت توضیحات قوی برای شبکه های عصبی عمیق – الزویر ۲۰۲۱

elsevier

 

مشخصات مقاله
ترجمه عنوان مقاله به سمت توضیحات قوی برای شبکه های عصبی عمیق
عنوان انگلیسی مقاله Towards robust explanations for deep neural networks
انتشار مقاله سال ۲۰۲۱
تعداد صفحات مقاله انگلیسی ۲۰ صفحه
هزینه دانلود مقاله انگلیسی رایگان میباشد.
پایگاه داده نشریه الزویر
نوع نگارش مقاله
مقاله پژوهشی (Research Article)
مقاله بیس این مقاله بیس نمیباشد
نمایه (index) Scopus – Master Journals List – JCR
نوع مقاله ISI
فرمت مقاله انگلیسی  PDF
ایمپکت فاکتور(IF)
۷٫۷۴۰ در سال ۲۰۲۰
شاخص H_index ۲۱۰ در سال ۲۰۲۰
شاخص SJR ۱٫۴۹۲ در سال ۲۰۲۰
شناسه ISSN ۰۰۳۱-۳۲۰۳
شاخص Quartile (چارک) Q1 در سال ۲۰۲۰
فرضیه ندارد
مدل مفهومی ندارد
پرسشنامه ندارد
متغیر ندارد
رفرنس دارد
رشته های مرتبط مهندسی کامپیوتر
گرایش های مرتبط مهندسی نرم افزار، هوش مصنوعی
نوع ارائه مقاله
ژورنال
مجله  الگو شناسی – Pattern Recognition
کلمات کلیدی روش توضیح، نقشه شوری، حملات خصمانه، دستکاری – اعمال نفوذ، شبکه های عصبی
کلمات کلیدی انگلیسی https://doi.org/10.1016/j.patcog.2021.108194Explanation method – Saliency map – Adversarial attacks – Manipulation – Neural networks
شناسه دیجیتال – doi
کد محصول E15603
وضعیت ترجمه مقاله  ترجمه آماده این مقاله موجود نمیباشد. میتوانید از طریق دکمه پایین سفارش دهید.
دانلود رایگان مقاله دانلود رایگان مقاله انگلیسی
سفارش ترجمه این مقاله سفارش ترجمه این مقاله

 

فهرست مطالب مقاله:
Abstract
Graphical abstract
Keywords
Introduction
Theoretical considerations
Methods for robuster explanations
Experimental analysis
Conclusion
Declaration of Competing Interest
Acknowledgments
Appendix A. Proof of Theorem 1
Appendix B. Relu networks
Appendix C. Interchangeability of softplus
Appendix D. Experimental analysis
Appendix E. Hessian norm approximation
Appendix F. Additional network structures and data sets
Appendix G. Targeted adversarial attacks
Appendix H. Accuracy-robustnes tradeoff
References

بخشی از متن مقاله:
abstract
Explanation methods shed light on the decision process of black-box classifiers such as deep neural networks. But their usefulness can be compromised because they are susceptible to manipulations. With this work, we aim to enhance the resilience of explanations. We develop a unified theoretical framework for deriving bounds on the maximal manipulability of a model. Based on these theoretical insights, we present three different techniques to boost robustness against manipulation: training with weight decay, smoothing activation functions, and minimizing the Hessian of the network. Our experimental results confirm the effectiveness of these approaches.
Introduction
In recent years, deep neural networks have revolutionized many different areas. Despite their impressive performance, the reasoning behind their decision processes remains difficult to grasp for humans. This can limit their usefulness in applications that require transparency. Explanation methods promise to make neural networks interpretable.

ارسال دیدگاه

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *