网上赌钱-盈乐博娱乐城_百家乐详解_sz新全讯网xb112 (中国)·官方网站

Optimization and Generalization of Gradient Methods for Shallow Neural Networks淺層神經網絡的梯度方法優化與泛化

時間:2024-04-24 10:01    來源:     閱讀:

光華講壇——社會名流與企業家論壇第6504

Optimization and Generalization of Gradient Methods for Shallow Neural Networks淺層神經網絡的梯度方法優化與泛化

主講人香港大學 雷云文博士

主持人統計學院 林華珍教授

時間:4月26日 10:30-11:30

直播平臺及會議ID騰訊會議,670-601-110

主辦單位:統計研究中心和統計學院 科研處

主講人簡介:

雷云文是香港大學數學系的助理教授。他的主要研究興趣包括學習理論和優化,主要集中在算法穩定性分析、深度學習以及隨機優化等主題。

內容簡介

Neural networks have achieved impressive performance in various applications. In this talk, we discuss the optimization and generalization of shallow neural networks (SNNs). We consider both gradient descent (GD) and stochastic gradient descent (SGD) to train SNNs. We show how the optimization and generalization should be balanced to obtain consistent error bounds under a relaxed overparameterization setting. We improve the existing estimates on the weak-convexity parameter of SNNs along the trajectories of optimization process.

神經網絡在各種應用中已經取得了令人印象深刻的性能。在本次演講中,我們討論了淺層神經網絡(SNNs)的優化與泛化。我們考慮使用梯度下降(GD)和隨機梯度下降(SGD)來訓練SNNs。我們展示了如何在放松的超參數設置下平衡優化與泛化,以獲得一致的誤差界。我們改進了關于SNNs弱凸性參數在優化過程軌跡上的現有估計。

西南財經大學  版權所有 webmaster@swufe.edu.cn     蜀ICP備 05006386-1號      川公網安備51010502010087號
百家乐庄闲下载| 开店做生意的风水摆件| 亚洲百家乐官网新全讯网| 百家乐鞋业| E乐博百家乐官网娱乐城| 大发888开户博盈国际| 百家乐官网任你博娱乐| 88娱乐城备用网址| 百家乐破解秘籍| 顶级赌场真假的微博| 百家乐注册送10彩金| 百家乐官网玩法与规则| 威尼斯人娱乐场有什么玩 | 澳门百家乐官网哪家信誉最好| 君怡百家乐的玩法技巧和规则| 星河百家乐官网的玩法技巧和规则 | 澳门百家乐官网赌技术| 大发888网页版游戏| 百家乐打立了| 百家乐官网路单下| 双色球大赢家| 罗浮宫百家乐的玩法技巧和规则 | 大发888客服电话| 十三张百家乐的玩法技巧和规则| 网上百家乐官网真钱游戏| 百家乐官网赌神| 科尔| 姚记娱乐城信誉最好| 威尼斯人娱乐城上不了| 百家乐投注方法新版| 百家乐官网游戏免费下| 百家乐官网最新庄闲投注法| 大发888娱乐场 ylc8| 威尼斯人娱乐城轮盘| 威尼斯人娱乐城信誉最好| 百家乐网络娱乐场开户注册| 百家乐最低投注| 澳门百家乐小游戏| 在线百家乐纸牌游戏| 网络百家乐破解平台| 娱乐城百家乐高手|