设为首页收藏本站language 语言切换
查看: 1068|回复: 0
收起左侧

HCIA-AI课程大纲

[复制链接]
发表于 2024-6-7 16:16:15 | 显示全部楼层 |阅读模式
该阶段详细介绍各个机器学习范式方法,涵盖有监督、无监督、半监督、强化学习,以及深度学习算法基础,共计 72 课时。
第一节:华为云 ModelArts 云服务开发环境搭建 - (2 课时)
- 华为云 ModelArts 云服务简介;
- ModelArts 实例购买及创建;ModelArts 实例配置;
- 本地 Pycharm+ModelArts 云服务搭建本地-云端混合开发环境;
第二节:分类模型之 KNN 模型 - (2 课时)
- KNN:k 最邻近算法基本原理;算法实现过程;样本距离的计算;
- Python 原生代码手撕 KNN 基本算法实现;
- SCIKIT-LEARN 机器学习算法库介绍;:SCIKIT-LEARN 实现 KNN 算法:红酒数据检测;SCIKIT-LEARN 实现 KNN 算法:威斯康辛州女性乳腺癌检测;
第三节:分类模型的评估及优化方案 - (2 课时)
- 超参数 K;超参数学习曲线;交叉验证;K 折交叉验证;带有 K 折交叉验证的超参数学习曲线;关于交叉验证的折数问题;
- 特征转换与缩放;什么是标准化、归一化、中心化;数据的量纲问题;网格搜索:网格搜索原理与实现;
第四节:分类模型之决策树模型① - (2 课时)
- 决策树基本组成结构详解;决策树的基本原理;决策树的决策过程与条件概率分布;
- 决策树的学习算法;决策树构建过程;决策树的属性划分选择;不纯性度量方法:信息熵、基尼指数、分类误差;信息增益、信息增益率;数据集划分;数据集最佳切分函数;
第五节:分类模型之决策树模型② - (2 课时)
- Python 原生代码手撕决策树 ID3 算法实现;决策树的拟合度优化;决策树的剪枝;
- CCP 后剪枝算法原理;决策树的 C4.5 算法;决策树的 CART 算法;CART 分类回归树模型;
- 使用 SCIKIT-LEARN 实现决策树模型;树模型的常用参数、属性和方法;剪枝超参数;决策树算法总结;
第六节:分类模型的评估指标 - (2 课时)
- 什么是样本不均衡问题;混淆矩阵的概念:准确率、精确度、召回率、F1 曲线、ROC曲线、PR 曲线;
- Sklearn 的混淆矩阵相关 API;
第七节:分类模型之贝叶斯分类器模型 - (2 课时)
- 条件概率的理论回顾:条件概率的定义;条件概率的乘法定理;全概率公式及贝叶斯公式;条件概率的独立性;
- 贝叶斯决策论;极大似然估计法估计后验概率;朴素贝叶斯分类器算法的基本原理;原生 Python 代码手撕朴素贝叶斯分类器算法实现;
- 朴素贝叶斯分类器的 SCIKIT-LEARN 实现;半朴素贝叶斯分类器及贝叶斯网络;
第八节:分类模型之逻辑回归模型 - (2 课时)
- 逻辑回归算法的基本原理;梯度下降法;梯度下降和梯度上升;梯度下降法的调优;
- 逻辑回归算法的 SCIKIT-LEARN 实现;
第九节:分类模型之 SVM 支持向量机 - (2 课时)
- SVM 算法基本原理;基本概念;Hard-margin SVM;SVM 求解划分超平面;
- SVM 的核方法;常用的核函数;线性可分与线性不可分;SCIKIT-LEARN 实现 SVM模型;
第十节:回归模型之线性回归① - (2 课时)
- 线性回归算法基本原理;回归算法的核心逻辑;线性回归的优化目标;最小二乘法原理推导;
- 多元线性回归的原生 Python 手撕代码实现;线性回归的模型评估指标;
- 线性回归的 SCIKIT-LEARN 实现;
第十一节:回归模型之线性回归② - (2 课时)
- 多重共线性问题;多重共线性的问题推导及解决方案;
- L1 与 L2 正则化:岭回归与套索回归;
- L1 正则化与嵌入式特征选择算法;
第十二节:聚类模型之基于划分的聚类:KMeans 聚类 - (2 课时)
- K 均值聚类算法的基本原理;簇内误差平方和的定义与基本原理;
- 原生 Python 代码手撕 K 均值聚类算法实现;K 均值聚类算法的 SCIKIT-LEARN 实现;K 均值聚类器对象常用属性和方法;
- K-Mediods:K 中心点聚类算法原理;K 中心点聚类算法的手撕 Python 实现及sklearn 实现;GMM 高斯混合聚类算法原理;高斯混合聚类的 sklearn 实现;
第十三节:聚类模型之基于层次的聚类及基于密度的聚类 - (2 课时)
- 聚类模型的评估指标:轮廓系数;基于轮廓系数选择最优超参数;层次聚类算法:AGNES、BIRCH、CURE;
- 密度聚类算法:DBSCAN、OPTICS;谱聚类算法;
第十四节:数据预处理之数据清洗 - (2 课时)
- 缺失值填充;为何需要处理缺失值;缺失值填充方法:均值填充;0 值填充;众数填充;中位数填充;
- Sklearn 的缺失值填充 API;异常值检测原理;四分位数检测法;箱线图检测法;3𝜎检测法;异常值填充方法;
第十五节:数据预处理之特征工程:特征编码与特征转换 - (2 课时)
- 特征离散化处理;等宽分箱法;等频分箱法;信息熵分箱法;决策树分箱法;卡方分箱法;
- 类别型特征的特征编码及转换;哑变量编码;读热编码;序列化编码;
- 连续型特征的特征编码及转换;标准化处理、归一化处理、中心化处理;
第十六节:数据预处理之特征工程:特征选择 - (2 课时)
- 子集搜索与评价;过滤式特征选择;方差过滤法;卡方检验法;皮尔逊相关系数法;
- 嵌入式特征选择法:L1 正则化;
第十七节:数据预处理之特征工程:降维算法 - (2 课时)
- 降维算法 MDS 的原理推导;PCA 降维算法的原理推导;特征值分解基本原理;
- 奇异值分解 SVD 介绍;SVD 与 PCA 的关系;PCA 主成分分析降维算法的 sklearn 实现;
- 降维算法之 K 均值聚类算法的降维应用:非结构化数据的矢量量化技术实现;
第十八节:集成学习之 Bagging 集成法:决策树与随机森林 - (2课时)
- 个体与集成的关系;集成学习算法的基本通用思想;
- Bagging 集成算法的基本原理;随机森林算法基本原理;
- 分类随机森林的 sklearn 实现;随机森林的超参数学习曲线及模型调优;
- 回归随机森林的 sklearn 实现;回归随机森林的应用案例:使用回归森林预测并填充缺失值;
第十九节:集成学习之 Boosting 提升法:Adaboost 自适应增强模型 - (2 课时)
- Adaboost 自适应增强算法的原理推导;Adaboost 的误差界;
- Adaboost 分类器的 sklearn 实现;Adaboost 回归器的 sklearn 实现;
第二十节:集成学习之 Boosting 提升法:GBDT\GBRT 梯度提升树模型与 xgboost 模型 - (2 课时)
- GBDT\GBRT 梯度提升分类回归树算法基本原理;梯度下降法在梯度提升树中的应用;
- GBDT\GBRT 的 sklearn 实现;Xgboost 算法原理;xgboost 的 sklearn 实现;
第二十一节:深度学习基础理论与神经网络基础① - (2 课时)
- 什么是神经网络;什么是深度学习;
- 人工神经网络基本结构;关于深度学习的学习路线推荐与经验分享;深度学习模型构建流程;
- 由逻辑回归模型引入单层与多层感知机;深度学习任务的数据集划分及预处理;初始化模型参数方法:Kaiming 法与 Xavier 法;
第二十二节:深度学习基础理论与神经网络基础② - (2 课时)
- 激活函数的定义;激活函数的作用;常见的激活函数及其性质和应用;
- 梯度不稳定问题与激活函数的关系;
- 优化器原理;常见的梯度下降法优化器;
- Normalization 数据规范化;BN 规范与 LN 规范;
- 正则化提升模型表现;分类模型的评估指标;
第二十三节:CNN 卷积神经网络基础① - (2 课时)
- 卷积神经网络基本概念;计算机视觉技术的应用前景介绍;
- 卷积网络的卷积运算原理;
- 卷积的各种类型;池化层与全连接层;
第二十四节:CNN 卷积神经网络基础② - (2 课时)
- CNN 经典网络论文精读:AlexNet 深度卷积神经网络论文精读;
- CNN 经典网络论文精读:ResNet 深度卷积神经网络论文精读;
- CNN 经典网络论文:GoogleNet、VGG 网络介绍;
第二十五节:RNN 循环神经网络基础① - (2 课时)
- 循环神经网络基本概念;循环神经网络的典型应用常见;
- 循环神经网络的原理;循环神经网络的训练;标准 RNN 网络存在的问题;
第二十六节:RNN 循环神经网络基础② - (2 课时)
- RNN 网络经典变体:LSTM 长短期记忆网络、GRU 门控循环单元论文精读;
- LSTM、GRU 网络实战项目;
第二十七节:生成式模型代表:生成式对抗网络(GAN)① - (2课时)
- 生成式模型简介;常见的生成式模型种类;
- GAN 网络核心原理;
- 早期原始 GAN 网络论文精读;
第二十八节:生成式模型代表:生成式对抗网络(GAN)② - (2课时)
- GAN 网络经典变体:CycleGAN 论文精读;
- GAN 网络经典变体:StyleGAN 论文精读;
- GAN 网络经典变体:DCGAN 论文精读;
第二十九节:独立于传统有/无监督学习的第三种机器学习范式:强化学习① - (2 课时)
- 强化学习简介;强化学习的定义与背景;强化学习的应用领域;强化学习与其他机器学习范式的对比;
- 强化学习基本概念:智能体、环境、动作、状态、奖励;
- 强化学习的奖励假设;强化学习的马尔可夫决策过程(MDP)模型;
第三十节:独立于传统有/无监督学习的第三种机器学习范式:强化学习② - (2 课时)
- 强化学习的核心算法:值函数与测录;基于值函数的强化学习算法:Q-Learning;
- 基于策略的强化学习算法:策略梯度方法;
第三十一节:独立于传统有/无监督学习的第三种机器学习范式:强化学习③ - (2 课时)
- 强化学习与深度学习的结合:深度强化学习简介;
- 深度 Q 网络、深度策略网络、深度确定性策略梯度算法;
第三十二节:独立于传统有/无监督学习的第三种机器学习范式:强化学习④ - (2 课时)
- 高级强化学习算法:双重深度 Q 网络、深度 Q 网络的经验回放;
- 高级强化学习算法:深度 Q 网络的目标网络、预测性动作选择;
第三十三节:领先的机器学习范式:半监督学习① - (2 课时)
- 什么是半监督学习;半监督学习发展简史、半监督学习的应用领域;
- 半监督学习发展的重要性解读;
- 有监督学习与无监督学习回顾;半监督学习与有/无监督学习的联系和区别;


附赠①:Python 基础编程快速入门(录播,36 课时)
该阶段详细介绍机器学习所必须掌握的 Python 编程知识,共计 36 课时。

附赠②:机器学习的数学理论基础(录播,84 课时)
该阶段详细介绍学习数据挖掘算法所必须的数学理论,包含微积分、线性代数、概率论与数理统计及凸优化理论,共计 84 课时。


您需要登录后才可以回帖 登录 | 论坛注册

本版积分规则

QQ|Archiver|手机版|小黑屋|sitemap|鸿鹄论坛 ( 京ICP备14027439号 )  

GMT+8, 2025-2-5 16:40 , Processed in 0.052415 second(s), 11 queries , Redis On.  

  Powered by Discuz!

  © 2001-2025 HH010.COM

快速回复 返回顶部 返回列表