数据科学与工程技术丛书
Python机器学习
Python Machine Learning
(美)塞巴斯蒂安·拉施卡(Sebastian Raschka) 著
高明 徐莹 陶虎成 译
ISBN:978-7-111-55880-4
本书纸版由机械工业出版社于2017年出版,电子版由华章分社(北京华章图文信息有限公司,北京奥维博世图书发行有限公司)全球范围内制作与发行。
版权所有,侵权必究
客服热线:+ 86-10-68995265
客服信箱:service@bbbvip
官方网址:www.hzmedia
新浪微博 @华章数媒
华章电子书(号:hzebook)
目录译者序
推荐序
作者简介
审校者简介
前言
第1章 赋予计算机学习数据的能力
1.1 构建智能机器将数据转化为知识
1.2 机器学习的三种不同方法
1.2.1 通过监督学习对未来事件进行预测
1.2.2 通过强化学习解决交互式问题
1.2.3 通过无监督学习发现数据本身潜在的结构
1.2.4 基本术语及符号介绍
1.3 构建机器学习系统的蓝图
1.3.1 数据预处理
1.3.2 选择预测模型类型并进行训练
1.3.3 模型验证与使用未知数据进行预测
1.4 Python在机器学习中的应用
本章小结
第2章 机器学习分类算法
2.1 人造神经元—早期机器学习概览
2.2 使用Python实现感知器学习算法
2.3 自适应线性神经元及其学习的收敛性
2.3.1 通过梯度下降最小化代价函数
2.3.2 使用Python实现自适应线性神经元
2.3.3 大规模机器学习与随机梯度下降
本章小结
第3章 使用scikit-learn实现机器学习分类算法
3.1 分类算法的选择
3.2 初涉scikit-learn的使用
3.3 逻辑斯谛回归中的类别概率
3.3.1 初识逻辑斯谛回归与条件概率
3.3.2 通过逻辑斯谛回归模型的代价函数获得权重
3.3.3 使用scikit-learn训练逻辑斯谛回归模型
3.3.4 通过正则化解决过拟合问题
3.4 使用支持向量机最大化分类间隔
3.4.1 对分类间隔最大化的直观认识
3.4.2 使用松弛变量解决非线性可分问题
3.4.3 使用scikit-learn实现SVM
3.5 使用核SVM解决非线性问题
3.6 决策树
3.6.1 最大化信息增益—获知尽可能准确的结果
3.6.2 构建决策树
3.6.3 通过随机森林将弱分类器集成为强分类器3.7 惰性学习算法—k-近邻算法
本章小结
第4章 数据预处理——构建好的训练数据集
4.1 缺失数据的处理
4.1.1 将存在缺失值的特征或样本删除
4.1.2 缺失数据填充
4.1.3 理解scikit-learn预估器的API
4.2 处理类别数据
4.2.1 有序特征的映射
4.2.2 类标的编码
4.2.3 标称特征上的独热编码
4.3 将数据集划分为训练数据集和测试数据集4.4 将特征的值缩放到相同的区间
4.5 选择有意义的特征
4.5.1 使用L1正则化满足数据稀疏化
4.5.2 序列特征选择算法python系统
4.6 通过随机森林判定特征的重要性
本章小结
第5章 通过降维压缩数据
5.1 无监督数据降维技术—主成分分析
5.1.1 总体方差与贡献方差
5.1.2 特征转换
5.1.3 使用scikit-learn进行主成分分析
5.2 通过线性判别分析压缩无监督数据
5.2.1 计算散布矩阵
5.2.2 在新特征子空间上选取线性判别算法
5.2.3 将样本映射到新的特征空间
5.2.4 使用scikit-learn进行LDA分析
5.3 使用核主成分分析进行非线性映射
5.3.1 核函数与核技巧
5.3.2 使用Python实现核主成分分析
5.3.3 映射新的数据点
5.3.4 scikit-learn中的核主成分分析

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。