太阳城集团亚洲娱乐城-澳门太阳城集团娱乐城最新地址_百家乐电影网_全讯网xb112 (中国)·官方网站

Optimization and Generalization of Gradient Methods for Shallow Neural Networks淺層神經網絡的梯度方法優化與泛化

時間:2024-04-24 10:01    來源:     閱讀:

光華講壇——社會名流與企業家論壇第6504

Optimization and Generalization of Gradient Methods for Shallow Neural Networks淺層神經網絡的梯度方法優化與泛化

主講人香港大學 雷云文博士

主持人統計學院 林華珍教授

時間:4月26日 10:30-11:30

直播平臺及會議ID騰訊會議,670-601-110

主辦單位:統計研究中心和統計學院 科研處

主講人簡介:

雷云文是香港大學數學系的助理教授。他的主要研究興趣包括學習理論和優化,主要集中在算法穩定性分析、深度學習以及隨機優化等主題。

內容簡介

Neural networks have achieved impressive performance in various applications. In this talk, we discuss the optimization and generalization of shallow neural networks (SNNs). We consider both gradient descent (GD) and stochastic gradient descent (SGD) to train SNNs. We show how the optimization and generalization should be balanced to obtain consistent error bounds under a relaxed overparameterization setting. We improve the existing estimates on the weak-convexity parameter of SNNs along the trajectories of optimization process.

神經網絡在各種應用中已經取得了令人印象深刻的性能。在本次演講中,我們討論了淺層神經網絡(SNNs)的優化與泛化。我們考慮使用梯度下降(GD)和隨機梯度下降(SGD)來訓練SNNs。我們展示了如何在放松的超參數設置下平衡優化與泛化,以獲得一致的誤差界。我們改進了關于SNNs弱凸性參數在優化過程軌跡上的現有估計。

西南財經大學  版權所有 webmaster@swufe.edu.cn     蜀ICP備 05006386-1號      川公網安備51010502010087號
百家乐官网职业打| 百家乐赌博大赢家| 百家乐官网娱乐平台网| 大发888官| 百家乐赌博现金网平台排名| 金城百家乐官网买卖路| 武功县| 凤凰网上娱乐| 大发888 ipad版| 大发888娱乐城哪个好| 免费百家乐缩水| 二八杠怎么赢钱| bet365体育在线投注 jxhymp| 老虎机游戏在线玩| 大发888备用网址大发娱乐城| 泰无聊棋牌游戏中心| 舟山星空棋牌下载| bet365体育在线注册| 大嘴棋牌手机版| 牌九百家乐的玩法技巧和规则| 华泰百家乐的玩法技巧和规则| 威尼斯人娱乐城图| 娱乐城免费送彩金| 博彩e族| 丹江口市| KK百家乐官网现金网| 澳门赌百家乐官网打法| 大哥大百家乐官网的玩法技巧和规则 | 长赢百家乐官网赌徒| 线上百家乐可靠吗| 百家乐长龙怎么预判| 凤翔县| 百家乐官网英皇娱乐城| 肥乡县| 现场百家乐官网玩法| 百家乐官网手机投注平台| 永利百家乐官网娱乐网| 7人百家乐官网桌子| 做生意门朝哪个方向好| 百家乐路子分| 真人游戏机|