南京理工大学
《神经计算》课程内容简介
课程编码 S106C012 课程类别 选修课
课程名称 神经计算
英文名称 Neurocomputing
开课院系 计算机科学与工程学院
开课季节 秋学期 授课方式 面授讲课
考核方式 考试 课件地址
考试方式 闭卷 成绩计算方法 期末100%
课程总学时 32 课程学分 2
实验学时 适用对象
课程类型 理论课 课程属性 必修
任 课 教 师
教师姓名性别所属院系职称年龄
谢晋 计算机科学与工程学院 教授 40

教学目标:
掌握神经计算的基本概念、基本原理与算法,为解决各专业用传统方法难以解决的计算问题提供新工具,为进一步的研究奠定基础。

课程内容:
教学主要内容:
第一章  概述(2学时)
§1.1 神经计算的基本概念
§1.2 发展史
§1.3 神经计算的研究方法
§1.4 主要应用
第二章模式识别的基本原理(2学时)
§2.1 监督分类
§2.2 非监督分类
§2.3 分类器的设计与性能评价
第三章 多层前向网络(4学时)
§3.1 感知机及其学习算法
§3.2 由MP神经元构成的多层前向网络
§3.3 由Sigmoid神经元构成的多层前向网络(MLP)
§3.4  BP学习算法
§3.5 MLP的主要特性、有关改进及应用
§3.6 径向基函数网络模型
第四章竞争神经网络(2学时)
§4.1 自组织特征映射(SOM)
§4.1.1 基本概念
§4.1.2 单元特性
§4.1.3 网络拓扑结构
§4.1.4 学习算法
§4.1.5 主要特点
§4.1.6 应用
§4.2自适应共振理论
第五章 主分量分析网络(2学时)
§5.1 主分量分析方法
§5.2 主分量分析网络及算法
§5.3 应用
第六章 卷积网络(4学时)
§6.1 卷积与池化
§6.2 基本卷积函数的变体
§6.3 结构化输出
§6.4 数据类型
§6.5 高效的卷积算法
§6.6 随机或无监督的特征
§6.7 卷积网络的神经科学基础
§6.8 卷积网络与深度学习的历史
第七章循环和递归网络(4学时)
§7.1 展开计算图
§7.2 循环神经网络
§7.3 双向 RNN
§7.4 基于编码 - 解码的序列到序列架构
§7.5 深度循环网络
§7.6 递归神经网络
§7.7 长期依赖的挑战
§7.8 回声状态网络
§7.9 渗漏单元和其他多时间尺度的策略
§7.10 长短期记忆和其他门控 RNN
§7.11 优化长期依赖
第八章自编码器(4学时)
§8.1 欠完备自编码器
§8.2 正则自编码器
§8.3 表示能力、层的大小和深度
§8.4 随机编码器和解码器
§8.5 去噪自编码器详解
§8.6 使用自编码器学习流形
§8.7 收缩自编码器
§8.8 预测稀疏分解
§8.9 自编码器的应用

对学生的要求:
上课认真听讲并及时消化教师讲授内容,进行必要的计算机算法实践;课后认真准备研讨内容。

适用学生:
全日制硕士    非全日制硕士    留学硕士    进修硕士    硕博连读    本科直博    全日制博士    留学博士    进修博士    在职专硕    其他    

预修课程:
预修课程:
高等数学,线性代数,概率统计

参考书目:
教材:赵申剑,黎彧君,符天凡,李凯[翻译]. 深度学习. 人民邮电出版社.2017
主要参考书:Ian Goodfellow,Yoshua Bengio,Aaron Courville. Deep Learning. The MIT Press, 2016.

备注: