`
belldeep
  • 浏览: 39107 次
  • 性别: Icon_minigender_1
  • 来自: 广州
社区版块
存档分类
最新评论

python : 机器学习实战 中文目录

阅读更多
机器学习实战
    数字版权声明  2
    作、译者简介  3
    扉页  4
    版权页  5
    致约瑟夫与米洛  6
    译者序  7
    前言  9
    关于本书  11
    致谢  15
    关于封面  14
    目录  16
        第一部分 分类  20
            第1 章 机器学习基础  21
                1.1 何谓机器学习  22
                    1.1.1 传感器和海量数据  23
                    1.1.2 机器学习非常重要  24
                1.2 关键术语  24
                1.3 机器学习的主要任务  26
                1.4 如何选择合适的算法  27
                1.5 开发机器学习应用程序的步骤  28
                1.6 Python语言的优势  29
                    1.6.1 可执行伪代码  29
                    1.6.2 Python 比较流行  29
                    1.6.3 Python 语言的特色  30
                    1.6.4 Python 语言的缺点  30
                1.7 NumPy函数库基础  31
                1.8 本章小结  32
            第2 章 k-近邻算法  34
                2.1 k-近邻算法概述  34
                    2.1.1 准备:使用Python 导入数据  36
                    2.1.2 从文本文件中解析数据  38
                    2.1.3 如何测试分类器  39
                2.2 示例:使用k-近邻算法改进约会网站的配对效果  39
                    2.2.1 准备数据:从文本文件中解析数据  40
                    2.2.2 分析数据:使用Matplotlib 创建散点图  42
                    2.2.3 准备数据:归一化数值  44
                    2.2.4 测试算法:作为完整程序验证分类器  45
                    2.2.5 使用算法:构建完整可用系统  47
                2.3 示例:手写识别系统  47
                    2.3.1 准备数据:将图像转换为测试向量  48
                    2.3.2 测试算法:使用k-近邻算法识别手写数字  49
                2.4 本章小结  50
            第3 章 决策树  51
                3.1 决策树的构造  52
                    3.1.1 信息增益  54
                    3.1.2 划分数据集  56
                    3.1.3 递归构建决策树  59
                3.2 在Python中使用Matplotlib注解绘制树形图  61
                    3.2.1 Matplotlib 注解  62
                    3.2.2 构造注解树  64
                3.3 测试和存储分类器  67
                    3.3.1 测试算法:使用决策树执行分类  68
                    3.3.2 使用算法:决策树的存储  69
                3.4 示例:使用决策树预测隐形眼镜类型  69
                3.5 本章小结  71
            第4 章 基于概率论的分类方法:朴素贝叶斯  72
                4.1 基于贝叶斯决策理论的分类方法  72
                4.3 使用条件概率来分类  75
                4.4 使用朴素贝叶斯进行文档分类  76
                4.5 使用Python进行文本分类  77
                    4.5.1 准备数据:从文本中构建词向量  77
                    4.5.2 训练算法:从词向量计算概率  79
                    4.5.3 测试算法:根据现实情况修改分类器  81
                    4.5.4 准备数据:文档词袋模型  83
                4.6 示例:使用朴素贝叶斯过滤垃圾邮件  83
                    4.6.1 准备数据:切分文本  84
                    4.6.2 测试算法:使用朴素贝叶斯进行交叉验证  85
                4.7 示例:使用朴素贝叶斯分类器从个人广告中获取区域倾向  87
                    4.7.1 收集数据:导入RSS 源  87
                    4.7.2 分析数据:显示地域相关的用词  90
                4.8 本章小结  91
            第5 章 Logistic 回归  92
                5.1 基于Logistic回归和Sigmoid函数的分类  93
                5.2 基于最优化方法的最佳回归系数确定  94
                    5.2.1 梯度上升法  95
                    5.2.2 训练算法:使用梯度上升找到最佳参数  96
                    5.2.3 分析数据:画出决策边界  98
                    5.2.4 训练算法:随机梯度上升  99
                5.3 示例:从疝气病症预测病马的死亡率  104
                    5.3.1 准备数据:处理数据中的缺失值  104
                5.4 本章小结  107
            第6 章 支持向量机  108
                6.1 基于最大间隔分隔数据  108
                6.2 寻找最大间隔  110
                    6.2.1 分类器求解的优化问题  111
                    6.2.2 SVM 应用的一般框架  112
                6.3 SMO高效优化算法  113
                    6.3.1 Platt 的SMO 算法  113
                    6.3.2 应用简化版SMO 算法处理小规模数据集  113
                6.4 利用完整Platt SMO算法加速优化  118
                6.5 在复杂数据上应用核函数   124
                    6.5.1 利用核函数将数据映射到高维空间  125
                    6.5.2 径向基核函数  125
                    6.5.3 在测试中使用核函数  127
                6.6 示例:手写识别问题回顾  130
                6.7 本章小结  132
            第7 章 利用AdaBoost 元算法提高分类性能  134
                7.1 基于数据集多重抽样的分类器   134
                    7.1.1 bagging:基于数据随机重抽样的分类器构建方法  135
                    7.1.2 boosting  135
                7.2 训练算法:基于错误提升分类器的性能   136
                7.3 基于单层决策树构建弱分类器  137
                7.4 完整AdaBoost算法的实现  141
                7.5 测试算法:基于AdaBoost的分类  143
                7.6 示例:在一个难数据集上应用AdaBoost   144
                7.7 非均衡分类问题   146
                    7.7.1 其他分类性能度量指标:正确率、召回率及ROC 曲线  147
                    7.7.2 基于代价函数的分类器决策控制  150
                    7.7.3 处理非均衡问题的数据抽样方法  151
                7.8 本章小结  151

        第二部分 利用回归预测数值型数据  154
            第8 章 预测数值型数据:回归  154
                8.1 用线性回归找到最佳拟合直线  154
                8.2 局部加权线性回归  159
                8.3 示例:预测鲍鱼的年龄  163
                8.4 缩减系数来“理解”数据  164
                    8.4.1 岭回归  164
                    8.4.2 lasso  166
                    8.4.3 前向逐步回归  167
                8.5 权衡偏差与方差  170
                8.6 示例:预测乐高玩具套装的价格  171
                    8.6.1 收集数据:使用Google 购物的API  172
                    8.6.2 训练算法:建立模型  173
                8.7 本章小结  176
            第9 章 树回归  177
                9.1 复杂数据的局部性建模  177
                9.2 连续和离散型特征的树的构建  178
                9.3 将CART算法用于回归  181
                    9.3.1 构建树  181
                    9.3.2 运行代码  183
                9.4 树剪枝  185
                    9.4.1 预剪枝  185
                    9.4.2 后剪枝  187
                9.5 模型树  188
                9.6 示例:树回归与标准回归的比较  191
                9.7 使用Python的Tkinter库创建GUI  194
                    9.7.1 用Tkinter 创建GUI  195
                    9.7.2 集成Matplotlib 和Tkinter  197
                9.8 本章小结  200

        第三部分 无监督学习  202
            第10 章 利用K-均值聚类算法对未标注数据分组  202
                10.1 K-均值聚类算法  203
                10.2 使用后处理来提高聚类性能  207
                10.3 二分K-均值算法  208
                10.4 示例:对地图上的点进行聚类  211
                    10.4.1 Yahoo! PlaceFinder API  212
                    10.4.2 对地理坐标进行聚类  214
                10.5 本章小结  216
            第11 章 使用Apriori 算法进行关联分析  218
                11.1 关联分析  219
                11.2 Apriori原理  220
                11.3 使用Apriori算法来发现频繁集  222
                    11.3.1 生成候选项集  222
                    11.3.2 组织完整的Apriori 算法  225
                11.4 从频繁项集中挖掘关联规则  227
                11.5 示例:发现国会投票中的模式  230
                    11.5.1 收集数据:构建美国国会投票记录的事务数据集  231
                    11.5.2 测试算法:基于美国国会投票记录挖掘关联规则  237
                11.6 示例:发现毒蘑菇的相似特征  238
                11.7 本章小结  239
            第12 章 使用FP-growth 算法来高效发现频繁项集  241
                12.1 FP树:用于编码数据集的有效方式  242
                12.2 构建FP树  243
                    12.2.1 创建FP 树的数据结构  244
                    12.2.2 构建FP 树  245
                12.3 从一棵FP树中挖掘频繁项集  249
                    12.3.1 抽取条件模式基  249
                    12.3.2 创建条件FP 树  250
                12.4 示例:在Twitter源中发现一些共现词  253
                12.5 示例:从新闻网站点击流中挖掘  256
                12.6 本章小结  257

        第四部分 其他工具  258
            第13 章 利用PCA 来简化数据  259
                13.1 降维技术  259
                13.2 PCA  260
                    13.2.1 移动坐标轴  261
                    13.2.2 在NumPy 中实现PCA  263
                13.3 示例:利用PCA对半导体制造数据降维  265
                13.4 本章小结  268
            第14 章 利用SVD 简化数据  269
                14.1 SVD的应用  269
                    14.1.1 隐性语义索引  270
                    14.1.2 推荐系统  270
                14.2 矩阵分解  271
                14.3 利用Python实现SVD  272
                14.4 基于协同过滤的推荐引擎   274
                    14.4.1 相似度计算  275
                    14.4.2 基于物品的相似度还是基于用户的相似度?  277
                    14.4.3 推荐引擎的评价  277
                14.5 示例:餐馆菜肴推荐引擎  277
                    14.5.1 推荐未尝过的菜肴  278
                    14.5.2 利用SVD 提高推荐的效果  280
                    14.5.3 构建推荐引擎面临的挑战  282
                14.6 基于SVD的图像压缩  283
                14.7 本章小结  285
            第15 章 大数据与MapReduce  287
                15.1 MapReduce:分布式计算的框架  288
                15.2 Hadoop流  290
                    15.2.1 分布式计算均值和方差的mapper  290
                    15.2.2 分布式计算均值和方差的reducer  291
                15.3 在Amazon网络服务上运行Hadoop程序  292
                    15.3.1 AWS 上的可用服务  293
                    15.3.2 开启Amazon 网络服务之旅  293
                    15.3.3 在EMR 上运行Hadoop 作业  295
                15.4 MapReduce上的机器学习  299
                15.5 在Python中使用mrjob来自动化MapReduce  300
                    15.5.1 mrjob 与EMR 的无缝集成  300
                    15.5.2 mrjob 的一个MapReduce 脚本剖析  301
                15.6 示例:分布式SVM的Pegasos算法  303
                    15.6.1 Pegasos 算法  304
                    15.6.2 训练算法:用mrjob 实现MapReduce 版本的SVM  305
                15.7 你真的需要MapReduce吗?  309
                15.8 本章小结  309
        附录A Python 入门  311
        附录B 线性代数  320
        附录C 概率论复习  326
        附录D 资源  329
        索引  330
        版权声明  333
    图书介绍  334
    封底  335
    欢迎加入图灵社区  336
分享到:
评论

相关推荐

Global site tag (gtag.js) - Google Analytics