北京智源人工智能研究院(简称“智源研究院”)是落实“北京智源行动计划”的重要举措,是在科技部和北京市委市政府的指导和支持下,由北京市科委和海淀区政府于2018年11月推动成立的新型研发机构。

为支持科学家勇闯人工智能科技前沿“无人区”,挑战最基础的问题和最关键的难题,推动人工智能理论、方法、工具、系统和应用取得变革性、颠覆性突破,智源研究院先后成立了「人工智能的数理基础」、「机器学习」、「智能信息检索与挖掘」、「智能体系架构与芯片」、「自然语言处理」、「人工智能的认知神经基础」等六个重大研究方向。

「人工智能的数理基础」重大方向,以北京大学张平文院士牵头,分别来自北大、清华、中科院的12位学者,围绕当前人工智能面临的可计算性、可解释性、泛化性、稳定性的重大理论挑战,以期打破基于计算机实验和神经科学的人工智能管用建模范式,建立以数学与统计理论为第一原理的新一代人工智能方法论

为促进该领域最前沿研究在国内广泛、快速地传播,以及提供学科交叉碰撞的平台,智源研究院「人工智能的数理基础」方向的诸位学者将不定期邀请世界范围内的顶尖学者进行系列前沿报告。

本期报告,我们分别邀请了中山大学计算机科学与工程学院教授凌青、北京大学光华管理学院教授王汉生、中国科学院深圳先进技术研究院副研究员陈荣亮,就其最新研究做报告讲解。

时间形式

  1. 会议时间:2021年4月28日14:00-17:00

  2. 活动形式:腾讯会议(ID :779 449 843)

报名入群:

(入会、交流、资料获取)

活动日程

会议详情

报告一

报告主题:Federated Variance-Reduced Stochastic Gradient Descent With Robustness to Byzantine Attacks

报告人:凌青

个人简介:凌青,2001年获中国科学技术大学自动化学士学位,2006年获中国科学技术大学控制理论与控制工程博士学位。2006年至2009年在美国密歇根州立大学电气与计算机工程系从事博士后研究,2009年至2017年在中国科学技术大学自动化系担任副教授,现为中山大学计算机科学与工程学院教授。他目前的研究兴趣包括分布式和分散优化及其在机器学习中的应用。作为导师,他获得了2017年IEEE信号处理学会青年作者最佳论文奖,他是 IEEE SIGNAL PROCESSING LETTERS 的高级领域编辑。

报告摘要:This talk discusses distributed finite-sum optimization for learning over multiple workers in the presence of malicious Byzantine attacks. Most resilient approaches so far combine stochastic gradient descent (SGD) with different robust aggregation rules. However, the sizeable SGD-induced stochastic gradient noise challenges discerning malicious messages sent by the Byzantine attackers from noisy stochastic gradients sent by the ‘honest’ workers. This motivates reducing the variance of stochastic gradients as a means of robustifying SGD. To this end, a novel Byzantine attack resilient distributed (Byrd-) SAGA approach is introduced for federated learning tasks involving multiple workers. Rather than the mean employed by distributed SAGA, the novel Byrd-SAGA relies on the geometric median to aggregate the corrected stochastic gradients sent by the workers. When less than half of the workers are Byzantine attackers, Byrd-SAGA attains provably linear convergence to a neighborhood of the optimal solution, with the asymptotic learning error determined by the number of Byzantine workers. Numerical tests corroborate the robustness to various Byzantine attacks, as well as the merits of Byrd-SAGA over Byzantine attack resilient distributed SGD.


报告二

报告主题:基于局部二次逼近的自动学习率

报告人:王汉生

个人简介:王汉生,北京大学光华管理学院商务统计与经济计量系,教授,博导,系主任。全国工业统计学教学研究会青年统计学家协会创始会长,美国统计学会(ASA)Fellow,国际统计协会(ISI)Elected Member。先后历任8个国际学术期刊副主编(Associate Editor)。在国内外各种专业杂志上发表文章100+篇,并合著有英文专著共1本,(合)著中文教材4本。是爱思唯尔中国高被引学者(数学类,2014—2018)。

在理论研究方面,王汉生教授主要关注变量选择、数据降维、高维数据分析、以及复杂网络数据分析等领域。其所有这些研究都是以大规模、复杂、超高维数据分析为核心。相关的应用领域包括但不局限于:中文文本、网络结构、位置轨迹。在业界实践方面,其曾担任博雅立方科技有限公司首席科学家(2009—2015),百分点首席统计学家(2015—现在)。此外,其与量帮科技、考拉征信、彩虹无线、蓬景数字、西门子、三一重工、格灵深瞳、天罡仪表、广联达等众多企业均有联合研究工作,涉及量化投资、互联网征信、车联网、移动设备RTB广告竞价、搜索引擎营销、电子商务、重装制造业等多个重要行业。

报告摘要:In deep learning tasks, the update step size determined by the learning rate at each iteration plays a critical role in gradient-based optimization. However, determining the appropriate learning rate in practice typically relies on subjective judgement. In this work, we propose a novel optimization method based on local quadratic approximation (LQA). In each update step, we locally approximate the loss function along the gradient direction by using a standard quadratic function of the learning rate. Subsequently, we propose an approximation step to obtain a nearly optimal learning rate in a computationally efficient manner. The proposed LQA method has three important features. First, the learning rate is automatically determined in each update step. Second, it is dynamically adjusted according to the current loss function value and parameter estimates. Third, with the gradient direction fixed, the proposed method attains a nearly maximum reduction in the loss function. Extensive experiments were conducted to prove the effectiveness of the proposed LQA method.


报告三

报告主题:High Performance Blood Flow Simulation Algorithms and Applications

报告人:陈荣亮

个人简介:陈荣亮,博士,中国科学院深圳先进技术研究院副研究员,深圳市E级工程与科学计算实验室副主任,深圳市海外高层次人才。湖南大学计算数学学士(2006.07),湖南大学和美国科罗拉多大学联合培养博士(2012.07)。主要从事面向工程应用的并行算法和软件研发工作。研究方向包括:高性能计算理论、算法和软件,流体、固体及流固耦合计算等。研究领域涉及人体血流动力学模拟,航空航天飞行器气动分析,汽车、高速列车和大型风能发电的气动优化设计,城市污染物扩散计算等。目前已发表学术论文四十余篇,主持国自然金青年基金、面上项目、国家重点研发计划国际合作、深圳市优秀青年基金、深圳市基础研究学科布局等多项科研项目。

报告摘要:Image data can provide increasingly detailed information of anatomy and flow, but imaging alone is not a predictive tool. Patient-specific blood flow simulations have the potential to provide quantitative predictive tools for virtual surgery, treatment planning, and risk stratification. To accurately resolve the blood flows based on the patient-specific geometry and parameters is still a big challenge because of the complex geometry and the turbulence, and it is also important to obtain the results in a short amount of computing time so that the simulation can be used in clinical diagnosis and surgery planning. In this talk, we will discuss some scalable parallel methods for the simulation of blood flow in compliant arteries on large-scale supercomputers. As applications, we will show some patient-specific blood flow simulations in cerebral, coronary, liver, abdominal aorta etc.

青源 Forum | 人工智能的数理基础前沿系列报告 · 第 4 期相关推荐

  1. 青源 Forum | 人工智能的数理基础前沿系列报告 · 第 5 期

    ‍‍ ‍‍ ‍‍ ‍‍ 北京智源人工智能研究院(简称"智源研究院")是落实"北京智源行动计划"的重要举措,是在科技部和北京市委市政府的指导和支持下,由北京市科委 ...

  2. 青源Forum | 人工智能的数理基础前沿系列报告 · 第 3 期

    北京智源人工智能研究院(简称"智源研究院")是落实"北京智源行动计划"的重要举措,是在科技部和北京市委市政府的指导和支持下,由北京市科委和海淀区政府于2018年 ...

  3. 智源论坛 | 人工智能的数理基础(系列报告)

    活动亮点 智源论坛,AI技术前沿精粹尽览 独家经验分享,顶尖学者零距离 探讨前沿技术,亦分享职业经验 助你成为更好的研究者.工程师 当前人工智能面临如下重大理论挑战:可计算性.可解释性.泛化性.稳定性 ...

  4. 人工智能数理基础 · 前沿系列报告议程 第 6 期

    北京智源人工智能研究院(简称"智源研究院")是落实"北京智源行动计划"的重要举措,是在科技部和北京市委市政府的指导和支持下,由北京市科委和海淀区政府于2018年 ...

  5. “人工智能的数理基础”主题论坛,五位学者从数学角度解决AI问题

    导语:来自北京大学的五位学者参加了"人工智能的数理基础"主题论坛,他们从数学.统计和计算的角度做了学术报告. 智东西5月9日消息,围绕当前人工智能面临的可计算性.可解释性.泛化性. ...

  6. 人工智能的大统一理论? | 智源大会-「人工智能的数理基础」专题论坛

    当下人工智能面临着可计算性.可解释性.泛化性.稳定性等诸多重大理论挑战,如何打破基于计算机实验和认知神经科学的人工智能传统建模范式,建立起以数学与统计理论为第一原理的新一代人工智能方法论,依然是待开垦 ...

  7. 青职院人工智能03机器学习基础(二)

    2.2 机器学习学习方式 根据数据类型的不同,对一个问题的建模有不同的方式.依据不同的学习方式和输入数据,机器学习主要分为以下四种学习方式. 2.2.1 监督学习 特点:监督学习是使用已知正确答案的示 ...

  8. 论坛报名 | 数理基础:人工智能的重大理论挑战和最新成果

    与6位图灵奖得主和100多位专家 共同探讨人工智能的下一个十年 长按图片或点击阅读原文,内行盛会,首次免费注册 北京智源大会倒计时:10天 2020年6月21-24日,第二届北京智源大会(官网:htt ...

  9. AI:2023年6月9日北京智源大会演讲分享之基础模型前沿技术论坛—《工程化打造AI中的CPU》、《构建一个AI系统:在LLM上应用带有RLHF来推进定制》、《多模态预训练的进展回顾与展望》、《扩展大

    AI:2023年6月9日北京智源大会演讲分享之基础模型前沿技术论坛-<工程化打造AI中的CPU>.<构建一个AI系统:在LLM上应用带有RLHF来推进定制>.<多模态预训 ...

最新文章

  1. MySQL面试题 | 附答案解析(八)
  2. 修改模拟器的IMEI号
  3. Petrozavodsk Summer-2016. Ural FU Dandelion Contest
  4. struts2 防止表单重复提交--令牌机制
  5. 深度学习之自编码器AutoEncoder
  6. python使用教程pandas-python之pandas简单介绍及使用(一)
  7. 使用 IIS 在 Windows 上托管 ASP.NET Core2.0
  8. python中的创建对象
  9. host文件注释 ubuntu_Redis and MongoDB 设置密码验证(scrapy)(win)(ubuntu)
  10. 布式事务实践 解决数据一致性 Spring事务机制
  11. redis-使用问题
  12. linux 下mysql忘记密码或者安装好linux后不知道mysql初始密码解决方案
  13. chown r mysql var_Mysql 常用命令
  14. 三国古城和108将地图已恢复
  15. 我裂开了,教给他如何搭建和使用代理服务器,他居然用来做这么不正经的事(爬虫,代理ip)
  16. 【LeetCode】72. Edit Distance
  17. BIOS设置中功能的翻译及介绍
  18. 面试常问的 C/C++ 问题,你能答上来几个?
  19. 策略性发疯_如何使自己的房屋“智能”而不发疯
  20. photoshop入门笔记1:PS的快捷键

热门文章

  1. matplotlb添加中文字体
  2. c51矩形波输出汇编语言,51单片机汇编语言编程:用定时器控制输出矩形波
  3. 大学学了java可以做点什么_学习Java的,大学毕业一般从事些什么工作?
  4. 说说你对 SVG 理解?
  5. 计算机房做法图集,万科建筑标准工程做法通用图集(全套)
  6. SpringBoot集成FreeMarker
  7. 索引中丢失 IN 或 OUT 参数:: 103,解决办法
  8. nginx基于域名的日志切割脚本
  9. ×××linux下samba服务器
  10. Oracle 表空间 创建参数 说明