南京理工大学
《机器学习(II)》课程内容简介
课程编码 B106C006 课程类别 选修课
课程名称 机器学习(II)
英文名称 Machine Learning (II)
开课院系 计算机科学与工程学院
开课季节 秋学期 授课方式 面授讲课
考核方式 考试 课件地址
考试方式 闭卷 成绩计算方法 期末100%
课程总学时 32 课程学分 2
实验学时 适用对象
课程类型 理论课 课程属性 必修
任 课 教 师
教师姓名性别所属院系职称年龄
陈强 计算机科学与工程学院 教授 42

教学目标:
本课程的教学目的是系统介绍机器学习的基础算法,如线性回归、逻辑斯蒂回归、决策树、聚类、支持向量机、朴素贝叶斯模型、EM算法、高斯混合模型、集成学习等;讲述机器学习中的核心概念与核心思想,如模型假设、模型学习、模型推理、模型评估、模型选择、模型泛化等;介绍前沿的迁移学习、强化学习、深度学习等;使得学生掌握基础的机器学习理论与实践能力,了解当前的机器学习最新研究进展。

课程内容:
1  引言(1学时)
1.1  什么是机器学习
1.2  机器学习的实例
2  机器学习基本概念(2学时)
2.1  监督学习的概念
2.2  半监督、无监督机器学习的概念
2.3  准则函数与模型学习
2.3  模型评估与模型选择
2.4  泛化性能与正则化基础
3  线性回归(2学时)
3.1  回归与分类
3.2  最小二乘准则
3.3  最大似然估计
3.4  线性回归的实例
4. 逻辑斯蒂回归(2学时)
4.1  逻辑斯蒂回归模型假设
4.2  模型参数的学习
4.3  梯度下降、牛顿法与拟牛顿法
4.4  多类逻辑斯蒂回归
5.决策树(2学时)
5.1  基本流程
5.2  划分选择
5.3  剪枝处理
5.4  多变量决策树
6.  支持向量机(3学时)
6.1  最大间隔分类准则
6.2  对偶优化
6.3  软间隔最大化算法
6.4  非线性分类与核函数
6.5  序列最小优化算法
7. 朴素贝叶斯模型(3学时)
7.1  生成式与判别式
7.2  多变量伯努力分布与多项分布
7.3  基于最大似然估计的模型学习
7.4  贝叶斯判别准则
7.5  朴素贝叶斯模型应用实例
8. 期望最大化算法(2学时)
8.1  面向缺失数据的最大似然估计
8.2  期望最大化(EM)算法
8.3  EM算法的收敛性
8.4  EM算法的推广
9.  高斯混合模型与聚类(4学时)
9.1无监督机器学习
9.2  高斯混合模型与无监督学习
9.3  基于EM算法的高斯混合模型学习
9.4  K-均值聚类算法
9.5  密度聚类
9.6  层次聚类
9.7  FCM聚类
10. 半监督机器学习(2学时)
10.1  基于EM算法的半监督朴素贝叶斯模型
10.2  自学习算法
10.3  互学习算法
10.4  半监督支持向量机算法
11. 集成学习(2学时)
11.1  集成学习的思想
11.2  集成的规则
11.3  Bagging算法
11.4  Boosting算法
11.5  其他集成学习算法
12.  机器学习中的最优化方法(3学时)
12.1  解析法
12.2  梯度下降法
12.3  随机梯度下降法
12.4  牛顿法
12.5  拟牛顿法
12.6  L-BFGS法
    12.7 共轭梯度法
    12.8 其他的优化问题与优化方法
13. 机器学习的发展与动向(4学时)
    13.1 序列模型、图模型
    13.2 主题模型
13.3 迁移学习
13.4 强化学习
    13.5 深度学习
13.6机器学习的其他新进展

适用学生:
全日制硕士    非全日制硕士    留学硕士    进修硕士    硕博连读    本科直博    全日制博士    留学博士    进修博士    在职专硕    其他    

预修课程:
预修课程:
概率与统计,线性代数,最优化方法

参考书目:
教材:
周志华. 机器学习. 清华大学出版社, 2016.
李航. 统计学习方法. 清华大学出版社, 2012.
参考书:
Bishop C. M. Pattern recognition and machine learning. New York: springer, 2006.
Tom M. Mitchell, Machine Learning, McGraw Hill, 1997
必读参考资料:
1.线性回归:http://cs229.stanford.edu/notes/cs229-notes1.pdf
2. 支持向量机:
http://cs229.stanford.edu/notes/cs229-notes3.pdf
http://blog.pluskid.org/?page_id=683
http://ntu.csie.org/~piaip/svm/svm_tutorial.html
3. 朴素贝叶斯:
http://cs229.stanford.edu/notes/cs229-notes2.pdf
4. EM算法:
http://cs229.stanford.edu/notes/cs229-notes8.pdf
http://www.cs.columbia.edu/~mcollins/em.pdf
5. 高斯混合模型
http://cs229.stanford.edu/notes/cs229-notes7a.pdf
http://cs229.stanford.edu/notes/cs229-notes7b.pdf
http://home.in.tum.de/~xiaoh/pub/em.pdf
Bishop 《Pattern recognition and machine learning》第9章

备注: