مشخصات مقاله | |
ترجمه عنوان مقاله | به سمت توضیحات قوی برای شبکه های عصبی عمیق |
عنوان انگلیسی مقاله | Towards robust explanations for deep neural networks |
انتشار | مقاله سال 2021 |
تعداد صفحات مقاله انگلیسی | 20 صفحه |
هزینه | دانلود مقاله انگلیسی رایگان میباشد. |
پایگاه داده | نشریه الزویر |
نوع نگارش مقاله |
مقاله پژوهشی (Research Article) |
مقاله بیس | این مقاله بیس نمیباشد |
نمایه (index) | Scopus – Master Journals List – JCR |
نوع مقاله | ISI |
فرمت مقاله انگلیسی | |
ایمپکت فاکتور(IF) |
7.740 در سال 2020 |
شاخص H_index | 210 در سال 2020 |
شاخص SJR | 1.492 در سال 2020 |
شناسه ISSN | 0031-3203 |
شاخص Quartile (چارک) | Q1 در سال 2020 |
فرضیه | ندارد |
مدل مفهومی | ندارد |
پرسشنامه | ندارد |
متغیر | ندارد |
رفرنس | دارد |
رشته های مرتبط | مهندسی کامپیوتر |
گرایش های مرتبط | مهندسی نرم افزار، هوش مصنوعی |
نوع ارائه مقاله |
ژورنال |
مجله | الگو شناسی – Pattern Recognition |
کلمات کلیدی | روش توضیح، نقشه شوری، حملات خصمانه، دستکاری – اعمال نفوذ، شبکه های عصبی |
کلمات کلیدی انگلیسی | https://doi.org/10.1016/j.patcog.2021.108194Explanation method – Saliency map – Adversarial attacks – Manipulation – Neural networks |
شناسه دیجیتال – doi |
|
کد محصول | E15603 |
وضعیت ترجمه مقاله | ترجمه آماده این مقاله موجود نمیباشد. میتوانید از طریق دکمه پایین سفارش دهید. |
دانلود رایگان مقاله | دانلود رایگان مقاله انگلیسی |
سفارش ترجمه این مقاله | سفارش ترجمه این مقاله |
فهرست مطالب مقاله: |
Abstract Graphical abstract Keywords Introduction Theoretical considerations Methods for robuster explanations Experimental analysis Conclusion Declaration of Competing Interest Acknowledgments Appendix A. Proof of Theorem 1 Appendix B. Relu networks Appendix C. Interchangeability of softplus Appendix D. Experimental analysis Appendix E. Hessian norm approximation Appendix F. Additional network structures and data sets Appendix G. Targeted adversarial attacks Appendix H. Accuracy-robustnes tradeoff References |
بخشی از متن مقاله: |
abstract Explanation methods shed light on the decision process of black-box classifiers such as deep neural networks. But their usefulness can be compromised because they are susceptible to manipulations. With this work, we aim to enhance the resilience of explanations. We develop a unified theoretical framework for deriving bounds on the maximal manipulability of a model. Based on these theoretical insights, we present three different techniques to boost robustness against manipulation: training with weight decay, smoothing activation functions, and minimizing the Hessian of the network. Our experimental results confirm the effectiveness of these approaches. Introduction In recent years, deep neural networks have revolutionized many different areas. Despite their impressive performance, the reasoning behind their decision processes remains difficult to grasp for humans. This can limit their usefulness in applications that require transparency. Explanation methods promise to make neural networks interpretable. |