网上赌钱-盈乐博娱乐城_百家乐详解_sz新全讯网xb112 (中国)·官方网站

Optimization and Generalization of Gradient Methods for Shallow Neural Networks淺層神經網絡的梯度方法優化與泛化

時間:2024-04-24 10:01    來源:     閱讀:

光華講壇——社會名流與企業家論壇第6504

Optimization and Generalization of Gradient Methods for Shallow Neural Networks淺層神經網絡的梯度方法優化與泛化

主講人香港大學 雷云文博士

主持人統計學院 林華珍教授

時間:4月26日 10:30-11:30

直播平臺及會議ID騰訊會議,670-601-110

主辦單位:統計研究中心和統計學院 科研處

主講人簡介:

雷云文是香港大學數學系的助理教授。他的主要研究興趣包括學習理論和優化,主要集中在算法穩定性分析、深度學習以及隨機優化等主題。

內容簡介

Neural networks have achieved impressive performance in various applications. In this talk, we discuss the optimization and generalization of shallow neural networks (SNNs). We consider both gradient descent (GD) and stochastic gradient descent (SGD) to train SNNs. We show how the optimization and generalization should be balanced to obtain consistent error bounds under a relaxed overparameterization setting. We improve the existing estimates on the weak-convexity parameter of SNNs along the trajectories of optimization process.

神經網絡在各種應用中已經取得了令人印象深刻的性能。在本次演講中,我們討論了淺層神經網絡(SNNs)的優化與泛化。我們考慮使用梯度下降(GD)和隨機梯度下降(SGD)來訓練SNNs。我們展示了如何在放松的超參數設置下平衡優化與泛化,以獲得一致的誤差界。我們改進了關于SNNs弱凸性參數在優化過程軌跡上的現有估計。

西南財經大學  版權所有 webmaster@swufe.edu.cn     蜀ICP備 05006386-1號      川公網安備51010502010087號
为什么百家乐官网玩家越来越多选择网上百家乐官网 | 网上百家乐优博| 德州扑克大师| 华盛顿百家乐的玩法技巧和规则| 百家乐机械投注法| 博彩百家乐软件| 卫辉市| 六合彩报纸| 威尼斯人娱乐城图| 百家乐官网赌博机假在哪里| 百家乐官网网址讯博网| bet365网址| 大发888官方中文网址| 大发8887s88| 大发888娱乐城官方下载| 大发888官方删除| 网络百家乐官网的破解| 百家乐官网不能视频| 百家乐官网赌的技巧| 真钱百家乐官网送钱| 邯郸百家乐官网园真钱区| 网络百家乐官网输了很多钱| 游戏机百家乐官网的技巧| 微信百家乐官网群资源| 百家乐tt娱乐城| 百家乐赌博娱乐城大全| 威尼斯人娱乐城老品牌值得您信赖lm0| 电玩百家乐的玩法技巧和规则 | 逍遥坊百家乐的玩法技巧和规则| 百家乐最新的投注方法| 百家乐好赌吗| 百家乐软件代理| 大发888游戏平台hplsj| 大发888大发888| 蓝山县| 神娱乐百家乐官网的玩法技巧和规则| 百家乐单跳投注法| 二八杠小游戏| 网上赌城| 博九网百家乐官网游戏| 24山吉凶视频|