网上赌钱-盈乐博娱乐城_百家乐详解_sz新全讯网xb112 (中国)·官方网站

Optimization and Generalization of Gradient Methods for Shallow Neural Networks淺層神經網絡的梯度方法優化與泛化

時間:2024-04-24 10:01    來源:     閱讀:

光華講壇——社會名流與企業家論壇第6504

Optimization and Generalization of Gradient Methods for Shallow Neural Networks淺層神經網絡的梯度方法優化與泛化

主講人香港大學 雷云文博士

主持人統計學院 林華珍教授

時間:4月26日 10:30-11:30

直播平臺及會議ID騰訊會議,670-601-110

主辦單位:統計研究中心和統計學院 科研處

主講人簡介:

雷云文是香港大學數學系的助理教授。他的主要研究興趣包括學習理論和優化,主要集中在算法穩定性分析、深度學習以及隨機優化等主題。

內容簡介

Neural networks have achieved impressive performance in various applications. In this talk, we discuss the optimization and generalization of shallow neural networks (SNNs). We consider both gradient descent (GD) and stochastic gradient descent (SGD) to train SNNs. We show how the optimization and generalization should be balanced to obtain consistent error bounds under a relaxed overparameterization setting. We improve the existing estimates on the weak-convexity parameter of SNNs along the trajectories of optimization process.

神經網絡在各種應用中已經取得了令人印象深刻的性能。在本次演講中,我們討論了淺層神經網絡(SNNs)的優化與泛化。我們考慮使用梯度下降(GD)和隨機梯度下降(SGD)來訓練SNNs。我們展示了如何在放松的超參數設置下平衡優化與泛化,以獲得一致的誤差界。我們改進了關于SNNs弱凸性參數在優化過程軌跡上的現有估計。

西南財經大學  版權所有 webmaster@swufe.edu.cn     蜀ICP備 05006386-1號      川公網安備51010502010087號
最好的百家乐官网博彩公司| 长方形百家乐官网筹码| 大发888九州娱乐城| 百家乐官网棋牌官网| 澳门百家乐官网介绍| 大发888网址怎么找| 百家乐游戏百家乐| e世博百家乐官网娱乐场| 水果机单机版| 在线百家乐技巧| 百盛百家乐官网软件| 波音平台| 金宝博百家乐娱乐城| 百家乐官网分析概率原件| bet365提款多久到账| 澳门百家乐会出老千吗| 百家乐官网在线娱乐场| 维也纳国际娱乐城| 威尼斯人娱乐场 28| 新手百家乐指点迷津| 百家乐官网英皇娱乐城| 乐众国际娱乐| 全讯网社区| 百家乐网上真钱娱乐网| 百家乐官网园好又多| 澳门百家乐官网的赢钱不倒翁| 缅甸百家乐赌城| 凯斯百家乐官网的玩法技巧和规则| 网站百家乐假| 百家乐官网五湖四海娱乐城| 凌海市| 大发888使用条款| 天堂鸟百家乐的玩法技巧和规则 | 百家乐官网试玩全讯网2| 德州扑克网页游戏| G3百家乐的玩法技巧和规则| 网络百家乐可信吗| 定制百家乐官网桌子| 川宜百家乐官网分析软件| 澄江县| 包头市|