|
介绍:: i7 p& v2 F5 d
6 M1 U, x1 [+ Q- v7 V+ I9 { 《机器学习实战》没有从理论角度来揭示机器学习算法背后的数学原理,而是通过“原理简述+问题实例+实际代码+运行效果”来介绍每一个算法。学习计算机的人都知道,计算机是一门实践学科,没有真正实现运行,很难真正理解算法的精髓。这本书的好处就是边学边用,非常适合于急需迈进机器学习领域的人员学习。实际上,即使对于那些对机器学习有所了解的人来说,通过代码实现也能进一步加深对机器学习算法的理解。
9 \+ C( d* n: } 《机器学习实战》的代码采用Python语言编写。Python代码简单优雅、易于上手,科学计算软件包众多,已经成为不少大学和研究机构进行计算机教学和科学计算的语言。相信Python编写的机器学习代码也能让读者尽快领略到这门学科的精妙之处。
7 [4 W2 J: j! b0 V/ W( O
6 e( i! D" @3 S, X1 T/ J
' {7 O; M: |4 ?$ {) T
0 `3 u9 g2 {5 a/ f- P q! Q6 \
8 H: \% A9 \ s+ N7 v( S; N4 ^3 u$ f* _- @% c% w- M& x
5 r0 T- c* _9 ?* \. M# B
内容简介:5 [) N/ E8 S- S7 F4 y. m
* f9 l* w1 k# m$ j- O/ _! X, W, r
, ]4 u% }* K5 a$ a' c; N/ n
机器学习是人工智能研究领域中一个极其重要的研究方向,在现今的大数据时代背景下,捕获数据并从中萃取有价值的信息或模式,成为各行业求生存、谋发展的决定性手段,这使得这一过去为分析师和数学家所专属的研究领域越来越为人们所瞩目。9 b0 i' [% Z `2 e! r& A, d
& v* h6 T. K k" s: b5 h$ U0 k0 x9 ]: X
) L8 M) e: x4 q9 l# p& f! f; n& D$ P- N4 [
《机器学习实战》主要介绍机器学习基础,以及如何利用算法进行分类,并逐步介绍了多种经典的监督学习算法,如k近邻算法、朴素贝叶斯算法、Logistic回归算法、支持向量机、AdaBoost集成方法、基于树的回归算法和分类回归树(CART)算法等。第三部分则重点介绍无监督学习及其一些主要算法:k均值聚类算法、Apriori算法、FP-Growth算法。第四部分介绍了机器学习算法的一些附属工具。 6 [- P' J& q9 {$ |) Z/ e3 x4 y# U+ i* y9 r
' ]7 G l* H* K/ G
* V: G" i! z* h 《机器学习实战》通过精心编排的实例,切入日常工作任务,摒弃学术化语言,利用高效的可复用Python代码来阐释如何处理统计数据,进行数据分析及可视化。通过各种实例,读者可从中学会机器学习的核心算法,并能将其运用于一些策略性任务中,如分类、预测、推荐。另外,还可用它们来实现一些更高级的功能,如汇总和简化等。
( H% Y" v- x& k" j9 R0 t
, q6 \$ I# h+ ]8 K# h
* x% A7 y7 s; d: g3 M作者简介:3 ^- J$ L. ?- G4 r& g7 G/ u0 a7 r
! |; m! D T! E' Z% n
- r t% H5 p# W$ R X$ r
拥有电气工程学士和硕士学位,他曾经在美国加州和中国的英特尔公司工作7年。Peter拥有5项美国专利,在三种学术期刊上发表过文章。他现在是Zillabyte公司的首席科学家,在加入该公司之前,他曾担任2年的机器学习软件顾问。Peter在业余时间还参加编程竞赛和建造3D打印机。
6 w6 c; t# X) Y% g
! `. }7 P W, {1 I( g! j1 U
/ S6 H' Z3 l m {- H经典点评:7 `) b9 M6 {2 m4 N2 T S! u
) E' c2 Y. E3 v" U, r9 A
5 A* U$ _2 K7 N$ V# ^ “易学易懂,用处很大。” 3 p/ x. T F5 z1 E0 H
——Alexandre Alves,Oracle CEP的架构师 + u8 |& b6 W9 x* @4 ]! N$ G
7 w O) D" T3 x% S1 o
/ N5 a, i+ f, }) u
“精心织构的代码完美地诠释出机器学习的核心要义。” ' [* A& U3 L7 h0 j
——Patrick Toohey,Mettler-Toledo Hi-Speed软件工程师
* S7 Z$ I. ^$ B% X; j/ C# b, K. Y: c0 q" B$ v, n; {
7 I) v( ?; m' V$ y
“实例很棒!可用于任何领域!”
. ^3 i8 V/ y+ |; R$ q ——John Griffin,Hibernate Search in Action一书的合作者 ; C3 z+ Y6 S x4 C" M
8 |( m3 Z7 e( \4 [4 E
- N7 a+ F6 A, y2 K& v “叙述循序渐进,巧妙地阐述了算法之间的差异。” ) v7 i, \: d+ w
——Stephen McKamey,Isomer Innovations技术实践总监0 t, I! ]% ]0 h# {6 D( I
% d8 u4 ]. _+ U2 O
+ b8 m% F' p! @# W# M8 J书籍目录:
; L) w3 S, ^9 N1 C7 V2 b# c
4 I/ `, }6 Q6 t3 p- |, l0 O
7 Z2 G0 v6 I) b) j第一部分 分类
1 | U6 y0 C9 e8 s! A7 ?第1章 机器学习基础
/ ~0 S. Q- H2 L4 l& p( z' t& Y1.1 何谓机器学习
3 v# i7 X: O% W4 Z/ v8 N. A3 v2 v: B/ Y1.1.1 传感器和海量数据
8 p2 e/ W0 ?3 s6 ~( n2 O" S, \$ b1.1.2 机器学习非常重要 ) @6 c) L6 e1 F$ o6 h( Y9 @% L: l4 m
1.2 关键术语
; {: ~! k! L/ F/ D/ ?, r1.3 机器学习的主要任务
& O0 r. c" I& A0 i" S1.4 如何选择合适的算法
; r7 {/ R! o! [2 B' ~7 P) c8 O7 O1.5 开发机器学习应用程序的步骤 . O$ J8 S3 |0 L9 ]0 q
1.6 Python语言的优势
; c: r6 y+ @& b& G1.6.1 可执行伪代码
9 }/ a# g* q& G8 T1.6.2 Python比较流行
: o& l0 a4 s5 l1 J: {) B* e E1.6.3 Python语言的特色
0 R) X" y2 p( g8 V3 j& P! T! b1.6.4 Python语言的缺点 * |, A( i" s/ T, x' V. |
1.7 NumPy函数库基础
2 d- U# _' \, Z0 k/ Y1.8 本章小结 4 u3 n6 g* {4 y' Q
第2章 k-近邻算法
& x( s( p8 T- o9 E0 {2 [/ q+ f2.1 k-近邻算法概述 : c5 `6 |* F5 W
2.1.1 准备:使用Python导入数据 $ z- J' o. t5 i- B( }/ x
2.1.2 从文本文件中解析数据 - ^" T0 k2 T! y! L1 c, c; W
2.1.3 如何测试分类器 3 R! I6 a5 O1 w% h; a# [
2.2 示例:使用k-近邻算法改进约会网站的配对效果 " k- w) S. l" B( i4 H" ?
2.2.1 准备数据:从文本文件中解析数据
% h; E4 K- }* m2 \2.2.2 分析数据:使用Matplotlib创建散点图
' i7 i( x& ~$ ?2.2.3 准备数据:归一化数值 ) V/ `- X$ I$ h3 \
2.2.4 测试算法:作为完整程序验证分类器
. |) @5 D8 @8 a6 i: h" X2.2.5 使用算法:构建完整可用系统
. }% |& q1 t5 S/ Z/ |- ~6 I2.3 示例:手写识别系统 $ E1 }: e2 }$ H+ j) Q/ f
2.3.1 准备数据:将图像转换为测试向量
- Y- H8 m+ n7 Q! N, w2.3.2 测试算法:使用k-近邻算法识别手写数字 6 P1 t- y4 V/ e( p
2.4 本章小结 : h% g# i3 H2 h0 ^2 F& P
第3章 决策树 ; L2 H' B& b$ e; _: K/ \- ~
3.1 决策树的构造
8 W# ?5 b3 s5 j3.1.1 信息增益 " w0 E9 [' g! P# b+ E
3.1.2 划分数据集 " L; @5 \2 D3 t: i
3.1.3 递归构建决策树 , G7 T2 U' t% u; K" W# l! B& q
3.2 在Python中使用Matplotlib注解绘制树形图 ; q$ V8 @' {" T, {0 n/ F
3.2.1 Matplotlib注解
% s) H5 W. c& a4 l/ c! F3.2.2 构造注解树 * I) W' ]$ j7 c6 k
3.3 测试和存储分类器 4 ] q7 o& W2 v$ B: o0 Q% l/ S
3.3.1 测试算法:使用决策树执行分类 / T6 X. g" s7 B) @. v
3.3.2 使用算法:决策树的存储
# s7 L# l x4 Q0 ^3 Q8 l9 m- u0 Y3.4 示例:使用决策树预测隐形眼镜类型
* `5 m% T& P( M) ~ ^& q5 L3.5 本章小结
/ d6 ]( Q5 U( }& A5 u第4章 基于概率论的分类方法:朴素贝叶斯 / ~: ~1 H( }. T( t3 P5 c
4.1 基于贝叶斯决策理论的分类方法
1 `4 E. d2 r) Q5 J3 n8 f4.2 条件概率
/ E8 [$ A2 F0 k8 `& H$ P g4.3 使用条件概率来分类
3 _( }* D) t& C! s H9 b4.4 使用朴素贝叶斯进行文档分类
) j- D" C# K2 s: _$ G4.5 使用Python进行文本分类 $ `7 O O8 m4 X( Q2 w9 P1 [
4.5.1 准备数据:从文本中构建词向量
3 X9 Y2 e" P, K* u1 C7 V7 W6 ^3 ]( V4.5.2 训练算法:从词向量计算概率 , J: ^( {/ A- }$ J0 {
4.5.3 测试算法:根据现实情况修改分类器 $ T+ f9 a( C! F: p% \
4.5.4 准备数据:文档词袋模型
) h' t% q; A8 L- R+ O* n4.6 示例:使用朴素贝叶斯过滤垃圾邮件 5 o9 @6 I! R: l2 H) J2 g @
4.6.1 准备数据:切分文本 * ]$ ]+ Q/ Y3 T; Q* E1 N8 B& r
4.6.2 测试算法:使用朴素贝叶斯进行交叉验证 8 c$ z# @2 x+ k W. U4 G! ~
4.7 示例:使用朴素贝叶斯分类器从个人广告中获取区域倾向
. c! A) k4 P; Z4.7.1 收集数据:导入RSS源 7 E, X) F- v- b* H
4.7.2 分析数据:显示地域相关的用词
3 d2 ~7 p# _* ^0 Z. y2 z% B4.8 本章小结 I$ O( ?) M( ?- \
第5章 Logistic回归
0 G7 t# ~1 S0 {3 `8 s5.1 基于Logistic回归和Sigmoid函数的分类
9 f' g# I7 M, s' H' @5.2 基于最优化方法的最佳回归系数确定 / K0 l- p( ^: X# l$ G3 E( Z. f
5.2.1 梯度上升法 + |: T* L+ {7 c; ?
5.2.2 训练算法:使用梯度上升找到最佳参数
7 K; F, C. H, I1 N" D$ i. L8 \5.2.3 分析数据:画出决策边界
! P- f* q) t+ G! F) p( e" e5.2.4 训练算法:随机梯度上升 ) X+ R" h' ?4 a6 M# S( n2 G
5.3 示例:从疝气病症预测病马的死亡率
) c+ @& k- a( E, V: g$ N) C: m* R5.3.1 准备数据:处理数据中的缺失值 : ~1 D ^( n" Z! i5 [3 c9 n+ v5 f
5.3.2 测试算法:用Logistic回归进行分类
; l$ H. M8 H6 W# b; v- j5.4 本章小结 , r+ j a, h( D5 k
第6章 支持向量机
. h4 B4 ~* \% @4 E3 _6.1 基于最大间隔分隔数据
% I0 g4 U/ F9 G7 O6.2 寻找最大间隔 : w- E8 w5 `# T' J% b) ]: J. f
6.2.1 分类器求解的优化问题 . |& R+ f( h7 e9 p& v+ u$ b! R% P
6.2.2 SVM应用的一般框架
6 Q4 e) D+ C4 s4 H* r" [6.3 SMO高效优化算法
" Q2 J* u" {$ i, j! e. ^6.3.1 Platt的SMO算法
3 p5 t$ o7 f, l' t p6.3.2 应用简化版SMO算法处理小规模数据集
, c3 i x- f7 A6.4 利用完整Platt SMO算法加速优化 & G6 y& f# ?9 |" u8 G
6.5 在复杂数据上应用核函数
* w( u/ z$ P0 d% C0 p( s6 D6.5.1 利用核函数将数据映射到高维空间 " g$ N2 X* b' A" b) ^5 G) d
6.5.2 径向基核函数
* ~9 X9 P; K6 G1 e% @6.5.3 在测试中使用核函数 8 b- M7 B2 M$ X' e+ |9 E/ D
6.6 示例:手写识别问题回顾 & j5 H" Y& _2 G; `! t5 Y# q: C* W
6.7 本章小结
$ ]0 Q' h! s: R G1 [5 H第7章 利用AdaBoost元算法提高分类 - \3 J1 y0 B7 D
性能 9 E$ n) N4 i, s+ k, N, M1 V- s+ I: [
7.1 基于数据集多重抽样的分类器 / |2 K1 B* S; L+ f) I
7.1.1 bagging:基于数据随机重抽样的分类器构建方法 " A, ^6 I3 R) n3 f
7.1.2 boosting 2 n: |/ c1 k& j+ ]; [
7.2 训练算法:基于错误提升分类器的性能 C" X" l& R( ~9 f
7.3 基于单层决策树构建弱分类器
" G# B2 J" T2 l. K# c- s3 U7.4 完整AdaBoost算法的实现 ( U+ q! S7 U! Q# _ I
7.5 测试算法:基于AdaBoost的分类
# n, ?, n7 N5 J ^7.6 示例:在一个难数据集上应用AdaBoost 1 _3 g' l. S, N @$ {( K
7.7 非均衡分类问题
6 s8 i$ m6 y# C% e7.7.1 其他分类性能度量指标:正确率、召回率及ROC曲线
) h+ L2 c# P' O0 u S7 \1 D7.7.2 基于代价函数的分类器决策控制
5 F8 y9 m0 h3 K& G2 z) G2 ]7.7.3 处理非均衡问题的数据抽样方法
& D* V1 \' k8 F, m9 s7.8 本章小结
, \1 }* l! L2 J第二部分 利用回归预测数值型数据 0 l Y8 j. i" l3 a! W* v' h
第8章 预测数值型数据:回归 1 ?/ H7 g. Q/ _# J" ~/ T. T
8.1 用线性回归找到最佳拟合直线 , o8 M1 s4 w# n( N' S, m; v7 h
8.2 局部加权线性回归 8 a- }! l% T+ p0 H
8.3 示例:预测鲍鱼的年龄
+ R# [% ~+ y* I5 V1 G+ V8.4 缩减系数来“理解”数据 & J# _3 { Z+ P8 I* r+ R1 W; D$ d# O
8.4.1 岭回归
8 O2 k$ T( U# v8.4.2 lasso
4 Z7 W& }' Z4 ~3 M: T8 U8.4.3 前向逐步回归 8 Y0 Z! y( Z: |. o
8.5 权衡偏差与方差
. y" a4 {: r& ^( r8.6 示例:预测乐高玩具套装的价格 & l }6 H/ W$ J0 w% @' C; R9 Z, i4 N
8.6.1 收集数据:使用Google购物的API & O, | C' h/ K/ S0 w( J
8.6.2 训练算法:建立模型
' h* L4 u! G& X% h# |( V( h2 J8 k) e8.7 本章小结 5 ]# N: M! l3 i, ?$ F- N2 {
第9章 树回归 3 C; C: I6 w. j3 K% }9 S
9.1 复杂数据的局部性建模 % k' K; T. C h: q
9.2 连续和离散型特征的树的构建
. l% U) L, k: E( Q( `1 U3 \9.3 将CART算法用于回归 ' o' \# j7 ^2 d. h+ E$ b* c5 h: Q
9.3.1 构建树
2 R, q& @- s! H l/ l9.3.2 运行代码 7 g% u- B5 \- O
9.4 树剪枝 % P, }: K: b: \6 N
9.4.1 预剪枝 + x X0 Q: o( E( d' {. Y
9.4.2 后剪枝
- ]5 \; b( a) c* ?% s m9.5 模型树 9 `6 Q) r+ ^5 t/ ^$ O8 S6 n" p' Z
9.6 示例:树回归与标准回归的比较 ' ]7 q3 T3 H3 C
9.7 使用Python的Tkinter库创建GUI ( o2 f# @8 {/ a# @
9.7.1 用Tkinter创建GUI
9 Y& k, ^; T" M1 E0 X5 L) l9.7.2 集成Matplotlib和Tkinter # F/ s3 A6 p( o8 R& I4 z
9.8 本章小结 ( ?1 \4 o: n) \
第三部分 无监督学习 ! x/ h1 m% b" g% z( Q8 D# _
第10章 利用K-均值聚类算法对未标注数据分组
6 T1 x0 L7 x8 m10.1 K-均值聚类算法
, q' K) o5 O' b10.2 使用后处理来提高聚类性能
$ ?% c$ } l4 U0 a10.3 二分K-均值算法
" J4 R4 P8 K1 r10.4 示例:对地图上的点进行聚类 8 p& P" u T+ \/ _% e
10.4.1 Yahoo! PlaceFinder API
$ Y+ v+ Y# }- A* t& E5 w$ `10.4.2 对地理坐标进行聚类 6 t5 ]% k3 y6 z/ r
10.5 本章小结
% a; _ S* h8 v' ?- @/ |第11章 使用Apriori算法进行关联分析 4 w$ K" h% b; b6 q: X0 K x3 `: }
11.1 关联分析 , V! J5 W# i$ W* P" Q) r3 E
11.2 Apriori原理 M6 r7 F& E; L/ Q4 s
11.3 使用Apriori算法来发现频繁集
$ Z/ Z1 D t" d4 X1 S! [/ X11.3.1 生成候选项集 Z z0 V# p4 F( Q
11.3.2 组织完整的Apriori算法
8 f& q% c, {& h; _11.4 从频繁项集中挖掘关联规则 2 b. V# S* f% n q! ~
11.5 示例:发现国会投票中的模式
5 S- W: d; T5 P1 w, B/ n8 V11.5.1 收集数据:构建美国国会投票记录的事务数据集
2 B4 \9 y6 U% [; u11.5.2 测试算法:基于美国国会投票记录挖掘关联规则 . L7 H" J; D& K2 T- {/ q
11.6 示例:发现毒蘑菇的相似特征
3 _( h( s3 K+ Z. `" G8 p11.7 本章小结 7 P1 J5 a" S/ v
第12章 使用FP-growth算法来高效发现频繁项集
- [: L, X4 Z/ r1 H, a12.1 FP树:用于编码数据集的有效方式
7 v7 `* ]* b( L0 h( F12.2 构建FP树
3 v5 e0 E' [9 b9 S12.2.1 创建FP树的数据结构 + U. T" X' G$ N0 D* N Z
12.2.2 构建FP树 $ U" X+ a% \5 y: B
12.3 从一棵FP树中挖掘频繁项集
4 V5 M8 \% }( u0 U12.3.1 抽取条件模式基
, Z, C# a2 b( |4 R+ z12.3.2 创建条件FP树
$ |7 r4 j( F0 j! d12.4 示例:在Twitter源中发现一些共现词 : T# d1 j( {# S A7 { I
12.5 示例:从新闻网站点击流中挖掘 0 c4 g& `1 |) ^$ d* b O
12.6 本章小结
% E) W9 g5 }& g2 x- m* s+ x第四部分 其他工具 0 ^ S& n7 F l. Q& Z+ l
第13章 利用PCA来简化数据
& y: K1 `# F! v8 v& l3 `13.1 降维技术
# M# Q& m6 L3 y13.2 PCA
9 V! x; n! Z4 [# y1 Y; P13.2.1 移动坐标轴 7 i9 j- ^5 L9 O7 t7 q0 V! k' |
13.2.2 在NumPy中实现PCA % }1 M1 H! B& E0 A! V6 E
13.3 示例:利用PCA对半导体制造数据降维 v5 X4 i2 l' f, s& {2 }& R
13.4 本章小结 % D2 e9 b' f: b6 l
第14章 利用SVD简化数据 + Y6 w* s, j% D) F
14.1 SVD的应用 - s0 D4 w" D( |
14.1.1 隐性语义索引 8 w; k7 B( J! r0 L& J0 a7 b! w
14.1.2 推荐系统
. H9 X! J+ w2 X+ O4 G/ r6 t# \14.2 矩阵分解
; ^3 I$ D, r. a/ |$ ?- _! \14.3 利用Python实现SVD 7 [ \! t( n; H* E
14.4 基于协同过滤的推荐引擎
/ }8 m6 o* x6 v( N# Q( J, R: S14.4.1 相似度计算
: R; ]6 E. O3 V6 _14.4.2 基于物品的相似度还是基于用户的相似度?
5 j/ C& E1 s* f14.4.3 推荐引擎的评价
% j4 V a) F& m2 T14.5 示例:餐馆菜肴推荐引擎 % ]1 X; h; k% E' D7 z7 A
14.5.1 推荐未尝过的菜肴 6 ^" c+ q. T8 \
14.5.2 利用SVD提高推荐的效果 ! r- x& v1 K# z7 W: h; Q, u
14.5.3 构建推荐引擎面临的挑战 * ?7 r: o! X: L4 \$ H
14.6 基于SVD的图像压缩 - p+ h Q; P2 k j4 O' a
14.7 本章小结 ! \7 S. Z7 e/ G; D7 O" W. G
第15章 大数据与MapReduce
$ q: Y$ M1 @- ~$ Q, f2 ~ ^15.1 MapReduce:分布式计算的框架
e; @1 ]( M6 g* a& U. A+ a15.2 Hadoop流 # I: m- l8 M7 {
15.2.1 分布式计算均值和方差的mapper
2 G D# o& t# S/ \: y2 Q9 t0 u! Y15.2.2 分布式计算均值和方差的reducer ) F; K& C! L8 q. H7 T, p; O! }
15.3 在Amazon网络服务上运行Hadoop程序
2 ~3 p) t2 ~; I) X+ v" F8 l15.3.1 AWS上的可用服务 6 `0 q' T9 X: b- ]. g) y* `
15.3.2 开启Amazon网络服务之旅 ; b1 H/ r, @% [% z
15.3.3 在EMR上运行Hadoop作业
8 B' x4 A2 r# C7 k- ]15.4 MapReduce上的机器学习 ; r1 @9 F- G6 v& c; N$ H/ }- H
15.5 在Python中使用mrjob来自动化MapReduce 4 g( S7 m) Q7 @: H
15.5.1 mrjob与EMR的无缝集成
* y$ f' c" s; b8 F! A15.5.2 mrjob的一个MapReduce脚本剖析 " V! ]2 `9 j6 U, C( U7 W
15.6 示例:分布式SVM的Pegasos算法 " \; _, L+ J- P0 S7 A$ Q7 P
15.6.1 Pegasos算法 3 r8 I( V+ D8 a7 w- E$ }0 G: X$ H
15.6.2 训练算法:用mrjob实现MapReduce版本的SVM " a! X$ E( Z- d% I
15.7 你真的需要MapReduce吗?
) H! J' I# X x( U1 r x15.8 本章小结 . x3 Q0 y( Q! O, i' G
附录A Python入门 2 a/ q7 J6 s& `. o6 L
附录B 线性代数 + x" c F% t6 I
附录C 概率论复习 5 Z$ ]/ d; u& L! {# D9 j
附录D 资源
+ S9 U. I) o7 `% x& y7 z. X# N: W2 m7 b, w
8 x0 ], G) [5 q. w% f- f, n. [
/ }4 S. [7 ^. N2 a& z& s: `9 t! Y& h1 |; ? A: C7 W
q- ?3 E: P& t# j9 D资源下载地址和密码(百度云盘): [/hide] 百度网盘信息回帖可见
' {+ m H' d" D- Z1 J
1 c' {5 G) N, y; J: C, S/ E, D. w p @! f$ x. F \3 H, P
) \" k F, O" I5 z S本资源由Java自学网收集整理【www.javazx.com】 |
|