当前位置:首页 > 人工智能(AI)之深度学习

人工智能(AI)之深度学习研修班

2023年8月26-27日(两天两晚)/线上

点击在线报名

【课程介绍】深度学习(Deep Learning)是机器学习(Machine Learning)研究中的一个新领域,其动机在于建立、模拟人脑进行分析学习的神经网络,它模仿人脑的机制来解释数据,例如图像,声音和文本,是近年来最受瞩目的技术热点。 随着人工智能(AI)科学技术的发展和应用,深度学习在学术界和工业界取得了广泛的成功,逐渐受到了高度重视。同样对于教育科研单位,或是产品开发的企业,谁能率先掌握这门技术都将有利于在未来的竞争中占据先机。本次课程对前沿的深度学习方法及应用进行了全面的讲解,同时进行深入的案例分析,帮助学员掌握和利用深度学习进行具体工作的开展。

【主讲专家】陶老师:博士,985高校副教授,硕士生导师。长期从事深度学习、人工智能、机器学习、计算机视觉等领域的教学与研究工作。主持和参与国家自然科学基金项目5项、主持省部级项目多项。以一作/通讯作者发表SCI论文30余篇;授权中国发明专利10余项。

【培训目标】1、采用深入浅出的方法讲解理论知识,并结合实例配以大量代码练习,重点讲解深度学习框架模型、科学算法、训练过程技巧。2、能够把握深度学习的技术发展趋势,可以熟练掌握深度学习的核心技术、主要模型、实践技巧、并配以大量代码练习,同时针对工作中存在的疑难问题进行分析讲解和专题讨论,有效提升学员解决复杂问题的能力。3、掌握深度学习平台PyTorch训练网络搭建与配置、掌握数据价值的深度挖掘。4、亲手挑战图像分类、语义分割、图像生成等实战项目,在实操中完全掌握深度学习核心技能。5、根据自己的项目课题,掌握应用深度学习进行框架修改和训练优化完善的尝试。

【课程安排】2023年8月26日-27日(9:00-12:00;14:00-17:00;19:00-22:00)

培训主题
培训内容

 

 

 

 

 

前馈神经网络

1. 人工神经网络(生物神经元、人工神经元、人工神经网络网络结构
2. 前馈神经网络(定义、深层前馈神经网络、全连接前馈神经网络、通用近似定理)
3. 前馈神经网络的应用
4. 前馈神经网络的损失函数
5. 前馈神经网络的数学模型
6. 参数学习(神经网络模型的网络参数学习、参数学习问题的数学定义)
7. 梯度下降法(几个数学概念、下山与梯度下降法、梯度下降法的基本思想、梯度下降法所确定搜索方向、梯度下降法的算法步骤)
8. 梯度下降法在网络参数学习问题中的应用(随机梯度下降法、参数更新方法)
9. 反向传播算法(几个数学知识、反向传播算法的数学推导、反向传播算法的算法步骤)
10. 网络参数学习流程
11. 参数学习的挑战
12. 参数学习的解决策略
13. 策略之模型优化
14. 策略之优化算法改进
15. 策略之参数初始化和数据预处理
16. 策略之网络正则化

 

 

 

 

卷积神经网络

1. 卷积神经网络的提出动机
2. 卷积神经网络的网络结构
3. 卷积神经网络中的卷积层(卷积、卷积层中的几个基本概念、卷积层学会了什么、卷积层和全连接层的联系)
4. 卷积神经网络中的池化层(最大池化、平均池化、全局平均池化)
5. 卷积神经网络中的拉平操作和全连接层
6. 卷积神经网络中的归一化、SoftMax层、DropOut
7. 卷积神经网络中图像尺寸的变化
8. 关于卷积的几个问题
9. 几种常见卷积(空洞卷积、反卷积、分组卷积、可变形卷积、可分离卷积、Involution、SlimConv、非局部网络、SKNet、GhostNet、Tied block convolution)
10. 损失函数概述
11. 常见的几种损失函数(范数损失、交叉熵损失、负对数似然损失、Focal Loss、对抗损失、位置损失等)
12. 大脑中的注意力
13. 人工神经网络中的注意力机制
14. 几种注意力机制模型(SENet、CBAM、频率通道注意力、全局关系感知注意力、统计注意力、空间金字塔注意力、注意力金字塔、两阶段注意力等)

 

 

深度生成网络

1. 什么是深度生成网络
2. 深度生成网络的原理(机器学习的两种范式、从概率生成模型讲起、密度估计、样本生成)
3. 深度生成网络的应用
变分自编码器(数学知识补充、算法思想、整体网络结构、判别网络、生成网络、损失函数、再参数化、训练方法、学习的隐变量流形)
1. 生成对抗网络(显式密度模型和隐式密度模型、算法思想、网络架构、判别网络、生成网络、损失函数、训练方法、对抗过程演示)
1. 扩散模型(算法思想、前向过程(扩散过程)、逆扩散过程、损失函数、算法伪代码)

 

 

循环神经网络

1. 循环神经网络定义(提出动机、带自反馈的神经元、网络结构框架)
2. 一种简单循环神经网络(网络结构设计、通用近似定理)
3. 循环神经网络的参数学习(参数学习方法、长程依赖问题)
4. 循环神经网络的应用(序列到类别、同步的序列到序列模式、异步的序列到序列模式、其他应用)
5. 基于门控的循环神经网络(门控机制概述、长短期记忆网络、LSTM的各种变体、门控循环单元网络)
6. 深层循环神经网络(堆叠循环神经网络、双向循环神经网络)
7. 递归神经网络

PyTorch框架环境配置

1. 实践演示:完整环境配置流程
2. 常用命令代码总结
3. 编程常用操作汇总

分类模型实战

1. 分类概述(相关概念、评价指标)
2. 图像分类(ResNet、DenseNet)
3. 视频分类(C3D)
4. 以ResNet模型为例,实现分类,对代码逐句讲解。

分割模型实战

1. 分割概述(相关概念、评价指标)
2. 语义分割(UNet、UNet++、FCN、DeepLabV3、RefineNet、PSPNet、SegNet)
3. 以UNet模型为例,实现分割,对代码逐句讲解
生成模型实战
1. 生成概述(相关概念、评价指标)
2. 以VAE和GAN模型为例,实现生成,对代码逐句讲解
备注
理论方面的内容可能会根据学员掌握情况略有调整

【注意事项】此次课程为线上直播教学模式(腾讯会议平台授课,课后提供视频回放复习和巩固),报名付费成功后,会务组将在开班前一周内发给您培训需要安装的软件及电子版课件资料。参加的学员课后可通过微信群继续同授课老师交流,长期获得指导机会。

【主办单位】合肥博科会务有限公司;上海馨宇文化传播有限公司

【参加对象】高等院校,科研机构及企事业单位相关的科研人员,技术开发人员及需要学习深造的有关人员。

【注册费用】3300元/人,三人或以上一同报名,即可享受团队优惠,在原价格基础上各减免300。课后统一可提供正式发票及会议通知,如提前需要请联系会务组。

【缴费方式】
1.银行汇款
户名:合肥博科会务有限公司
账号:1302010109024182302
开户行:工商银行合肥市四牌楼支行
2.支付宝汇款
账号:hefeiboke@163.com(户名:合肥博科会务有限公司)
3.公务卡或信用卡汇款
请联系王秘书13564138859(微信同号)

【联系咨询】
王老师:13564138859(微信同号) 邮箱:bkmeeting@163.com

【报名方法】学员请通过在线提交报名或通过填写回执表报名,我们收到您的报名信息后将及时与您联系确认。

点击在线报名

填写回执报名

 

—————————————————————联系我们—————————————————————
电话微信:135 6413 8859
联系邮箱:bkmeeting@163.com
版权所有:合肥博科会务有限公司