新書推薦:
《
不被他人左右:基于阿德勒心理学的无压力工作法
》
售價:HK$
66.1
《
SDGSAT-1卫星热红外影像图集
》
售價:HK$
445.8
《
股市趋势技术分析(原书第11版)
》
售價:HK$
221.8
《
汉匈战争全史
》
售價:HK$
99.7
《
恶的哲学研究(社会思想丛书)
》
售價:HK$
109.8
《
不止江湖
》
售價:HK$
98.6
《
天才留步!——从文艺复兴到新艺术运动(一本关于艺术天才的鲜活故事集,聚焦艺术史的高光时刻!)
》
售價:HK$
154.6
《
双城史
》
售價:HK$
110.9
編輯推薦:
本书对机器学习算法的全面介绍,既包含经典机器学习方法,也包括深度学习和增强学习。
內容簡介:
本书兼顾机器学习基础、经典方法和深度学习方法,对组成机器学习的基础知识和基本算法进行了比 较细致的介绍,对广泛应用的经典算法如线性回归、逻辑回归、朴素贝叶斯、支持向量机、决策树和集成学 习等算法都给出了深入的分析并讨论了无监督学习的基本方法,对深度学习和强化学习进行了全面的叙 述,比较深入地讨论了反向传播算法、多层感知机、CNN、RNN 和 LSTM 等深度神经网络的核心知识和结 构;对于强化学习,不仅介绍了经典表格方法,还讨论了深度强化学习。 本书是面向大学理工科和管理类各专业的宽口径、综合性机器学习的教材,可供本科生和一年级研究 生课程使用,也可供科技人员、工程师和程序员自学机器学习的原理和算法使用。本书对基础和前沿、经 典方法和热门技术进行了尽可能的平衡,使得读者不仅能在机器学习领域打下一个良好的基础,同时也可 以利用所学知识解决遇到的实际问题并为进入学科前沿打好基础。
關於作者:
张旭东:清华大学电子工程系长聘教授,博士生导师,教学指导委员会主席。主要研究方向为信号处理和机器学习。先后承担国家级、省部级和国际合作项目数十项,在IEEE、IET、ACM等重要刊物和NIPS、AAAI、ICASSP、SIGIR等重要会议上发表学术论文150余篇,出版著作5部。获得Elsevier最高引用奖(The Most Cited Paper Award)和IET国际雷达年会最优论文奖,两次获得清华大学教学成果一等奖,三次获得清华大学优秀教材奖。
目錄 :
第一部分基础知识和基本方法
第1章机器学习概述
微课视频 185分钟
1.1什么是机器学习
1.2机器学习的类型
1.2.1基本分类
1.2.2监督学习及其功能分类
1.3构建机器学习系统的基本问题
1.3.1机器学习的基本元素
1.3.2机器学习的一些基本概念
1.4从简单示例理解机器学习
1.4.1一个简单的回归示例
1.4.2一个简单的分类示例
1.5深度学习简介
1.6本章小结
习题
第2章统计与优化基础
微课视频 168分钟
2.1概率论基础
2.1.1离散随机变量
2.1.2连续随机变量
2.1.3随机变量的统一表示
2.1.4随机变量的基本特征
2.1.5随机特征的蒙特卡洛逼近
2.2概率实例
2.2.1离散随机变量示例
2.2.2高斯分布
2.2.3指数族
2.2.4混合高斯过程
2.2.5马尔可夫过程
2.3最大似然估计
2.4贝叶斯估计
2.5贝叶斯决策
2.5.1机器学习中的决策
2.5.2分类的决策
2.5.3回归的决策
2.6随机变量的熵特征
2.6.1熵的定义和基本性质
2.6.2KL散度
2.7非参数方法
2.8优化技术概述
2.9本章小结
习题
第3章基本回归算法
微课视频 85分钟
3.1线性回归
3.1.1基本线性回归
3.1.2线性回归的递推学习
3.1.3多输出线性回归
3.2正则化线性回归
3.3线性基函数回归
3.4本章小结
习题
第4章基本分类算法
微课视频 86分钟
4.1基本分类问题
4.2线性判别函数模型
4.2.1Fisher线性判别分析
*4.2.2感知机
4.3逻辑回归
4.3.1二分类问题的逻辑回归
4.3.2多分类问题的逻辑回归
4.4朴素贝叶斯方法
4.5高斯生成模型分类器
4.5.1相同协方差矩阵情况的二分类
4.5.2不同协方差矩阵情况的二分类
4.5.3多分类情况
4.6本章小结
习题
第5章机器学习的性能与评估
5.1模型的训练、验证与测试
5.2机器学习模型的性能评估
5.3机器学习模型的误差分解
5.4机器学习模型的泛化性能
5.4.1假设空间有限时的泛化误差界
*5.4.2假设空间无限时的泛化误差界
5.5本章小结
习题
第二部分经典算法
第6章支持向量机与核函数方法
微课视频 90分钟
6.1线性可分的支持向量机
6.1.1不等式约束的优化
6.1.2线性可分情况SVM的原理
6.1.3线性可分情况SVM的优化解
6.2线性不可分情况的SVM
6.2.1线性不可分情况SVM的优化解
6.2.2合页损失函数
6.3非线性支持向量机
6.3.1SVM分类算法小结
6.3.2核函数方法
6.4SVM用于多分类问题
*6.5支持向量回归
6.6本章小结
习题
第7章决策树算法
微课视频 75分钟
7.1基本决策树算法
7.1.1决策树的基本结构
7.1.2信息增益和ID3算法
7.1.3信息增益率和C4.5算法
7.2CART算法
7.2.1分类树
7.2.2回归树
7.3决策树的一些实际问题
7.3.1连续数值变量
7.3.2正则化和剪枝技术
7.3.3缺失属性的训练样本问题
7.4本章小结
习题
第8章集成学习算法
微课视频 60分钟
8.1Bagging和随机森林
8.1.1自助采样和Bagging算法
8.1.2随机森林算法
8.2提升和AdaBoost算法
8.3提升树算法
8.3.1加法模型和提升树
8.3.2梯度提升树
8.4本章小结
习题
第三部分进阶方法
第9章神经网络与深度学习之一: 基础
微课视频 90分钟
9.1神经网络的基本结构
9.1.1神经元结构
9.1.2多层神经网络解决异或问题
9.1.3多层感知机
9.1.4神经网络的逼近定理
9.2神经网络的目标函数和优化
9.2.1神经网络的目标函数
9.2.2神经网络的优化
9.3误差反向传播算法
9.3.1反向传播算法的推导
9.3.2反向传播算法的向量形式
9.4神经网络学习中的一些问题
9.4.1初始化
9.4.2正则化
9.4.3几类等价正则化技术
9.5本章小结
习题
第10章神经网络与深度学习之二: 结构与优化
微课视频 180分钟
10.1卷积神经网络
10.1.1基本CNN的结构
*10.1.2卷积的一些扩展结构
*10.1.3CNN示例介绍
10.2循环神经网络
10.2.1基本RNN
10.2.2RNN的计算流程
*10.2.3RNN的扩展BP算法
10.2.4深度RNN
*10.2.5长短期记忆模型
*10.2.6门控循环单元
10.3深度学习中的优化算法
10.3.1小批量SGD算法
10.3.2动量SGD算法
10.3.3自适应学习率算法
10.4深度学习训练的正则化技术
10.4.1Dropout技术
10.4.2批归一化
10.5本章小结
习题
第11章无监督学习算法
微课视频 85分钟
11.1聚类算法
11.1.1K均值聚类算法
11.1.2其他度量和聚类算法
11.2EM算法
11.2.1独立同分布情况
*11.2.2通过KL散度对EM算法的解释
11.3EM算法求解高斯混合模型参数
11.3.1GMM参数估计
11.3.2GMM的软聚类
11.4主分量分析
11.4.1主分量分析原理
11.4.2广义Hebb算法
11.5本章小结
习题
第12章强化学习
微课视频 160分钟
12.1强化学习的基本问题
12.2马尔可夫决策过程
12.2.1MDP的定义
12.2.2贝尔曼方程
12.2.3最优策略
12.2.4强化学习的类型
12.2.5探索与利用
12.3动态规划
12.3.1策略迭代方法
12.3.2值函数迭代方法
12.4强化学习的蒙特卡洛方法
12.4.1MC部分策略评估
12.4.2MC策略改进
12.5强化学习的时序差分方法
12.5.1基本时序差分学习和Sarsa算法
12.5.2Q学习
12.5.3DP、MC和TD算法的简单比较
12.6强化学习的值函数逼近
12.6.1基本线性值函数逼近
12.6.2深度Q网络
12.7策略梯度方法
12.7.1MC策略梯度算法Reinforce
12.7.2行动器评判器方法
*12.8多臂赌博机
12.9本章小结
习题
参考文献
附录A课程的实践型作业实例
A.1第1次实践作业
A.2第2次实践作业
A.3第3次实践作业
附录B函数对向量和矩阵的求导
视 频 名 称时长/分钟位置
ML01导论1651.1节节首
ML02导论2601.3节节首
ML03导论3601.4节节首
ML04统计基础1702.1节节首
ML05统计基础2402.5节节首
ML06统计基础3582.6节节首
ML07回归学习853.1节节首
ML08分类学习1504.1节节首
ML09分类学习2364.4节节首
ML10核与SVM906.1节节首
ML11决策树757.1节节首
ML12集成学习608.1节节首
ML13神经网络909.1节节首
ML14深度学习18010.1节节首
ML15深度学习24410.2节节首
ML16深度学习35610.3节节首
ML17无监督学习16511.1节节首
ML18无监督学习22011.4节节首
ML19强化学习19012.1节节首
ML20强化学习27012.3节节首
內容試閱 :
前言
机器学习已经成为一种解决诸多问题的有效工具,广泛应用于多学科交叉领域。本书以理工科本科生和一年级研究生的基础知识为起点,以面向工程应用为目标,适度侧重电子信息专业学生,并尽可能满足其他专业需求,是一本通用性和专业性兼顾的机器学习入门教材。通过学习本书,读者可以为掌握机器学习包括深度学习的本质和算法、解决实际问题及开展与本领域相关的研究打下基础。
本书是作者《机器学习导论》(以下称《导论》)的姐妹篇,是对《导论》的精简。但本书不是经过简单删削的简化版,而是对内容进行了重新梳理和编排,更适合作为一个学期“机器学习”课程的基本教材。《导论》更适合作为对机器学习课程要求更高并留有一定自学材料的教材。与《导论》类似,本书在内容选择上尽可能地进行了平衡,既反映机器学习的基础知识和经典方法,又重视近期非常活跃的深度学习和强化学习的内容。深度学习很重要,尤其当前的一些商业化应用(包括计算机视觉、语音识别、自然语言处理、推荐系统、信息检索等),既有大数据支持,又可以通过大规模计算系统进行训练(学习),取得了许多重要进展。但并不是所有应用都有必要使用深度学习,许多问题用传统机器学习技术就可以取得很好的结果,尤其是一些工程中的专门领域,获取大数据集是非常困难的,在这些领域中,经典的机器学习方法可得到更广泛的应用。
全书内容共12章,分为3部分。
第一部分涵盖前5章,包括基础性介绍和一些需要补充的基础知识。第1章是机器学习概述,介绍了机器学习要解决的基本问题,以及一些基本术语、基本类型和构成模型的基本元素; 第2章是
统计与优化基础,介绍了概率和统计基础、决策论基础、信息理论入门知识和优化原理入门知识,目的是使本书尽可能满足具有不同背景的读者需求;第3章和第4章分别介绍了基本回归算法和基本分类算法,包括线性回归、线性基函数回归、Fisher线性判别分析、感知机、逻辑回归和朴素贝叶斯方法; 第5章介绍了机器学习的评估和机器学习理论的相关知识。
第二部分由第6~8章组成,介绍了机器学习的3种重要算法: 支持向量机、决策树和集成学习。由于这3类算法较为重要,每类都用一章的篇幅进行专题介绍。
第三部分由最后4章组成,包括深度学习、无监督学习和强化学习。关于神经网络与深度学习的专题,用两章的篇幅做了较深入的讨论。第9章是神经网络的基础,讨论了网络的结构、表示定理、目标函数、基本优化方法、梯度计算、初始化和正则化等,最重要的是给出了反向传播算法的详细介绍; 第10章详细介绍深度学习中的两大类网络结构: 卷积神经网络和循环神经网络,分别介绍了其基本结构、扩展结构,以及几个有影响的网络结构的例子,给出了残差网络、LSTM、GRU等新结构的介绍,然后介绍了深度网络的优化技术、正则化和归一化。第11章是关于无监督学习算法的专题,讨论了聚类算法、EM算法及主分量分析。第12章介绍了强化学习原理和算法,首先讨论了强化学习的表格方法,然后介绍了值函数逼近和策略梯度两类算法,这两类算法都可以结合深度神经网络构成深度强化学习。
目录中标记星号的章节属于选读内容。
作为一本教材,本书每章都设置了适量的习题供选用。作者在附录A中给出了课程的实践型作业实例。在作者自己开设的课程中,每学期均要求学生完成若干实践型作业,作业一般来自网络资源中的实际数据,需要学生自己选择预处理方法,实践型作业的效果非常好。每年的作业都有变化,为了提供完整的参考性,附录A给出某年的全部实践型作业的原题,仅供使用本书作为教材的老师参考。对于不同的院校、不同的专业,可以有不同的要求,但应该至少完成一项实践型作业。对于自学本书的科技人员,可以自行选择一些题目测试自己的学习效果。真正掌握好机器学习既需要较强的数学知识,从而理解各种算法; 又需要有较强的实践能力,编程、调试完成一些实践型作业。本书以原理和算法为主,若读者需要学习编程基础,如Python语言,可自行选择相关的编程教材或指南,本书附录A的最后介绍了几个编程指南的网络链接。
作为一本综合性、导论性的机器学习教材,本书对深度学习和强化学习的介绍在深度和广度上都做了很大的努力,希望读者在学习到机器学习基础知识的同时,对深度学习和强化学习有深入的了解,尽快进入这些领域的前沿。
本书作为一本适合一学期课程使用的基本教材,参考文献只列出了教材和专著,《导论》则包含了更多较新的研究论文,考虑篇幅和基本教材的定位,本书没有再列出这些文献。
许多同行和研究生对本书的出版做出了贡献。微软亚洲研究院的刘铁岩博士对课程内容的设置提出了宝贵意见,秦涛博士对本书的内容给出了若干有价值的建议,清华大学电子工程系的同事汪玉、王剑、袁坚和沈渊等教授提供了各种帮助,谨表示感谢!作者的学生王超博士,曾多次作为课程助教,协助进行课程内容的完善和实践型作业的设计,并仔细阅读了本书的初稿,提出若干修改意见; 助教博士生金月、邱云波帮助绘制了多幅插图,金月帮助实现了3.3节的实例,在此一并表示感谢。
尽管做了很大努力,但由于作者水平、时间和精力所限,本书难免有缺点和不足,希望读者批评指正。
张旭东
2023年3月于清华园