网上赌钱-盈乐博娱乐城_百家乐详解_sz新全讯网xb112 (中国)·官方网站

Optimization and Generalization of Gradient Methods for Shallow Neural Networks淺層神經網絡的梯度方法優化與泛化

時間:2024-04-24 10:01    來源:     閱讀:

光華講壇——社會名流與企業家論壇第6504

Optimization and Generalization of Gradient Methods for Shallow Neural Networks淺層神經網絡的梯度方法優化與泛化

主講人香港大學 雷云文博士

主持人統計學院 林華珍教授

時間:4月26日 10:30-11:30

直播平臺及會議ID騰訊會議,670-601-110

主辦單位:統計研究中心和統計學院 科研處

主講人簡介:

雷云文是香港大學數學系的助理教授。他的主要研究興趣包括學習理論和優化,主要集中在算法穩定性分析、深度學習以及隨機優化等主題。

內容簡介

Neural networks have achieved impressive performance in various applications. In this talk, we discuss the optimization and generalization of shallow neural networks (SNNs). We consider both gradient descent (GD) and stochastic gradient descent (SGD) to train SNNs. We show how the optimization and generalization should be balanced to obtain consistent error bounds under a relaxed overparameterization setting. We improve the existing estimates on the weak-convexity parameter of SNNs along the trajectories of optimization process.

神經網絡在各種應用中已經取得了令人印象深刻的性能。在本次演講中,我們討論了淺層神經網絡(SNNs)的優化與泛化。我們考慮使用梯度下降(GD)和隨機梯度下降(SGD)來訓練SNNs。我們展示了如何在放松的超參數設置下平衡優化與泛化,以獲得一致的誤差界。我們改進了關于SNNs弱凸性參數在優化過程軌跡上的現有估計。

西南財經大學  版權所有 webmaster@swufe.edu.cn     蜀ICP備 05006386-1號      川公網安備51010502010087號
威尼斯人娱乐城真钱百家乐| 百家乐官网技术辅助软件| 大发888老虎机技巧| 百家乐官网平六亿财富网| 王牌百家乐的玩法技巧和规则| 大发888官网 官方| 真人百家乐官网软件云南景| 百家乐路单破| 百家乐官网园棋牌| 百家乐桌颜色可定制| 百家乐官网能作弊吗| 太阳城真人娱乐城| 百家乐官网傻瓜式投注法| 博九百家乐游戏| 百家乐官网路单下注| 马尼拉百家乐的玩法技巧和规则| 奇台县| 赌片百家乐官网的玩法技巧和规则 | 澳门百家乐官网技巧经| 找真人百家乐的玩法技巧和规则| 百家乐官网游戏论坛| 百家乐庄闲比率| 百家乐官网巴厘岛娱乐城| 大发888在线娱乐二十一点| 百家乐园zyylc| 青州市| 澳门百家乐赌| 百苑百家乐官网的玩法技巧和规则 | 威尼斯人娱乐城怎么赢| 百家乐官网有无技巧| 铁杆国际娱乐城| 真人百家乐试玩游戏| 百家乐官网赌场讨论群| 广发百家乐的玩法技巧和规则| 澳门百家乐官网网上赌城| 大发888官方下载168| 百家乐评级网站| 百家乐官网龙虎斗等| 威尼斯人娱乐城是骗子| 百家乐视频免费下载| 百家乐官网游戏平台架设|