Inception-v4، Inception-ResNet و تاثیر اتصالات باقی مانده بر یادگیری
Inception-v4, Inception-ResNet and the Impact of Residual Connections on Learning
مشخصات کلی
سال انتشار | 2017 |
کد مقاله | 2636 |
فرمت فایل ترجمه | Word |
تعداد صفحات ترجمه | 9 |
نام مجله | Proceedings of the Thirty-First AAAI Conference on Artificial Intelligence |
نشریه | aaai |
درج جداول و شکل ها در ترجمه | انجام شده است |
جداول داخل مقاله | ترجمه شده است |
چکیده فارسی
شبکه های کانولوشن بسیار عمیق بر محور بزرگترین پیشرفت های عملکرد تشخیص تصویر در سال های اخیر قرار داشته اند. یک مثال آن، معماری Inception می باشد که دستیابی به عملکرد بسیار خوبی را در هزینه محاسباتی نسبتا کم نشان داده است. اخیرا، معرفی اتصالات باقی مانده در ارتباط با معماری سنتی، پیشرفته ترین عملکرد را در سال 2015 به همراه آورده است. چالش ILSVRC این است که عملکرد آن مشابه با تولید شبکه Inception-v3 بود. این پرسش مطرح است: آیا مزایای ترکیب معماری Inception با اتصالات باقیمانده وجود دارد؟. در اینجا ما شواهد تجربی واضحی ارائه می دهیم مبنی بر اینکه آموزش با اتصالات باقی مانده، آموزش شبکه های Inception را به میزان قابل توجهی افزایش می دهد. همچنین شواهدی از شبکه های Inception باقی مانده وجود دارد که شبکه های Inception پر هزینه مشابه بدون اتصالات باقی مانده با حاشیه نازک عملکرد بهتری دارد. ما همچنین چندین معماری ساده جدید برای شبکه های Inception باقی مانده و غیر باقی مانده ارائه می دهیم. این تغییرات، عملکرد تشخیص تک فریم را در وظیفه طبقه بندی ILSVRC 2012 بطور معنی داری بهبود می دهد. ما بیشتر نشان می دهیم که چگونه مقیاس بندی فعال سازی مناسب باعث تثبیت آموزش بسیار گسترده شبکه های Inception باقی مانده می شود. با مجموعه ای از سه شبکه باقی مانده و یک شبکه Inception- v4، ما به 3.08٪ خطای بالای 5 در مجموعه آزمون از چالش های طبقه بندی ImageNet (CLS) دستیابی می کنیم.
چکیده لاتین
Very deep convolutional networks have been central to the largest advances in image recognition performance in recent years. One example is the Inception architecture that has been shown to achieve very good performance at relatively low computational cost. Recently, the introduction of residual connections in conjunction with a more traditional architecture has yielded state-of-the-art performance in the 2015 ILSVRC challenge; its performance was similar to the latest generation Inception-v3 network. This raises the question: Are there any benefits to combining Inception architectures with residual connections? Here we give clear empirical evidence that training with residual connections accelerates the training of Inception networks significantly. There is also some evidence of residual Inception networks outperforming similarly expensive Inception networks without residual connections by a thin margin. We also present several new streamlined architectures for both residual and nonresidual Inception networks. These variations improve the single-frame recognition performance on the ILSVRC 2012 classification task significantly. We further demonstrate how proper activation scaling stabilizes the training of very wide residual Inception networks.With an ensemble of three residual and one Inception-v4 networks, we achieve 3.08% top-5 error on the test set of the ImageNet classification (CLS) challenge.
خرید و دانلود ترجمه این مقاله:
جهت خرید این مقاله ابتدا روی لینک زیر کلیک کنید، به صفحه ای وارد می شوید که باید نام و ایمیل خود را وارد کنید و پس از آن روی دکمه خرید و پرداخت کلیک نمایید، پس از پرداخت بلافاصله به سایت بازگشته و می توانید فایل خود را دانلود کنید، همچنین لینک دانلود به ایمیل شما نیز ارسال خواهد شد.
هیچ دیدگاهی برای این مقاله ثبت نشده است
دیدگاه ها