|
Java视频教程名称:价值366元 大数据 Spark SQL日志分析视频教程 spark视频教程
5 [& \" _* ]. H1 W5 f( B" J百度网盘下载链接:" l W6 b' N/ l
[/hide]
$ x C4 B0 A' W4 x2 f密码: 78fe 【解压密码:javazx.com】
6 C/ @: u( Y+ m, Q8 ?9 s集数合计:11章
) h* P6 h3 W0 j% q2 x6 O! M( V1 W4 d
8 l- [3 w, L: M6 x/ U
+ n* n# ^0 |: ]4 E0 x+ i% t% @: P
链接失效声明:如果本链接地址失效,请及时联系站长QQ:40069106
, m1 w. n; V! w/ D- J( k* q如何获取资源:VIP升级: https://www.javazx.com/tpgao_wmcard-wmcard.html
! s( u Y; f% f5 v+ A# eVIP说明: 月度VIP:使用期限30天
1 |7 z! Z1 e& H6 z* s& ~ 年度VIP:使用期限365天7 H1 I3 U2 ]% y9 }
终身VIP:使用期限永久6 ^; r2 a t; o6 H$ J& Z
+ |0 Y1 g* B) A/ _: @* {
Java视频教程详情描述:
, X" n5 D+ n# _0 B6 aA0247《价值366元 大数据 Spark SQL日志分析视频教程》本课程以“慕课网日志分析”这一大数据应用案例为主线,使用慕课网真实日志,以目前主流的、最新的Spark稳定版2.1.x为基础,依次介绍相关的大数据技术:Hadoop、Hive、Spark SQL,涉及数据清洗、统计存储、处理入库以及数据可视化(Echarts、Zeppelin),最终会形成一个完整的大数据项目。java视频教程配套
' Z& c$ @8 j; V" j$ {( a" ^! L' p' _
Java视频教程目录:
( \; b/ O5 n9 b6 h+ F) T ^ h" v
1 \% [" K2 ?+ S. M$ w4 l" j! t5 R
第2章 Spark及其生态圈概述* V" B2 T% ]: f7 }$ K
Spark作为近几年最火爆的大数据处理技术,是成为大数据工程师必备的技能之一。本章将从如下几个方面对Spark进行一个宏观上的介绍:Spark产生背景、特点、发展史、Databricks官方调查结果、Spark与Hadoop的对比、Spark开发语言及运行模式介绍 ...
3 E. u; _4 D1 w3 s0 B! m) L; {0 v; L4 i$ F# J% x2 m
2-1 -课程目录9 ^9 v' D5 h: a+ V1 t9 V% C
2-2 -Spark概述及特点3 z* g- d! g# o- k$ j5 y# V$ o( }
2-3 -Spark产生背景! H6 X& Z$ A5 {% |; X V3 i
2-4 -Spark发展历史5 X P6 d& x) Q S7 B8 I; n
2-5 -Spark Survey( @3 t8 ?+ B& N q$ _& n
2-6 -Spark对比Hadoop$ u, h7 h$ Y& p M% z# P' n
2-7 -Spark和Hadoop的协作性
5 {& l$ z }# |6 i: U- X, |第3章 实战环境搭建
4 [* P K* r( P( ~工欲善其事必先利其器,本章讲述Spark源码编译、Spark Local模式运行、Spark Standalone模式运行
! e" ?2 a- F9 ~【Java自学网 www.javazx.com】0 O. f' o: k7 h& z
3-1 -课程目录
, x" c: ?+ @4 b6 {/ n6 h3-2 -Spark源码编译
: a+ h9 r8 P' R3-3 补录:Spark源码编译中的坑+ g( s7 `5 y- u/ {/ F; l
3-4 Spark Local模式环境搭建
( B+ v; ~( w& T3 m% d$ e3-5 Spark Standalone模式环境搭建
$ @& y) M" `. }) A& p) Y3-6 Spark简单使用
; E9 U5 D9 V2 E5 E第4章 Spark SQL概述
+ B5 L5 h0 x$ G2 r6 _! KSpark SQL面世已来,它不仅接过了Shark的接力棒,继续为Spark用户提供高性能SQL on Hadoop解决方案,还为Spark带来了通用、高效、多元一体的结构化数据处理能力。本章将从Spark SQL前世今生、SQL on Hadoop框架、Spark SQL概述、愿景、架构,这几个角度进行展开讲解...7 O; B0 X R# [: K% `
3 u( `4 m8 M5 U! \4-1 课程目录
# J' ^# G( \ f4-2 -Spark SQL前世今生
6 ]- d* `& B+ m' {( q1 Z4-3 -SQL on Hadoop常用框架介绍
. n' E5 d% P, \! j, x. H4-4 -Spark SQL概述+ l! }/ r& ], J6 ^- p; q( ]4 l
4-5 -Spark SQL愿景* y; h1 x! S- P q6 ]5 j5 c
4-6 -Spark SQL架构
$ j1 n9 t& f5 } l第5章 从Hive平滑过渡到Spark SQL
9 K* c, S) }! X" KHive是SQL-on-Hadoop的解决方案和默认的标准,如何将数据处理从Hive过渡到Spark SQL上来是我们必须要掌握的。本章我们将讲解在Spark中操作Hive中的数据几种方式8 e' E3 ?0 u: B2 B
% h5 w" b, I" X7 F3 B
5-1 -课程目录
1 w$ y; Q% }# q) ^5-2 -A SQLContext的使用
# g% i9 U: h- q. y! d) A# y- j5-3 -B HiveContext的使用
/ ~5 V& L) B9 A2 Q$ |, ~5-4 -C SparkSession的使用
+ ]% R8 A& n( w0 C) C+ h& W" I5-5 spark-shell&spark-sql的使用" E' o# G* Z J6 S8 _! H3 U
5-6 -thriftserver&beeline的使用
' i# B1 h& N! I9 }3 O$ F5-7 -jdbc方式编程访问0 ]. x% x0 b Q( W/ {
第6章 DateFrame&Dataset( C3 H0 A& H% `0 l' r
DataFrame&Dataset是Spark2.x中最核心的编程对象,Spark2.x中的子框架能够使用DataFrame或Dataset来进行数据的交互操作。本章将从DataFrame的产生背景、DataFrame对比RDD、DataFrame API操作等方面对DataFrame做详细的编程开发讲解' a% U2 ?8 p2 N
8 U! K, m5 Y4 q0 ?5 A6-1 -课程目录* h7 J& J/ J8 u6 j
6-2 -DataFrame产生背景
5 Y, t: W/ Z2 I2 t4 |" t8 o6-3 -DataFrame概述
* M) t& b9 z8 _) u% v, G7 V& o8 G! j6-4 -DataFrame和RDD的对比
5 Z( z+ I+ A& i6-5 -DataFrame基本API操作' p$ \; i& ^" p
6-6 -DataFrame与RDD互操作方式一+ `0 z& C% u0 S6 y
6-7 -DataFrame与RDD互操作方式二# W3 T! t& K4 A( F
6-8 -DataFrame API操作案例实战! {4 D8 v) M) J9 P7 [1 _
6-9 -Dataset概述及使用8 z6 W* W) l9 i' ^- M* w0 `5 m
第7章 External Data Source
% E! w2 P9 {; O" A4 {Spark SQL中的核心功能,可以使用外部数据源非常方便的对存储在不同系统上的不同格式的数据进行操作。本章将讲解如何使用外部数据源来操作Hive、Parquet、MySQL中的数据以及综合使用' o; }) U* H7 I5 n' `
' s; d% A5 N2 |8 g6 z: h6 U" w7-1 -课程目录
$ l' w+ L* s: J7-2 -产生背景
6 X1 p2 o; m* z4 }8 C# l7-3 -概述
% `8 l8 M4 V0 F* }5 U7-4 -目标
' k( W; ^4 R, N* r# d; I/ ?# w6 S' l7-5 -操作Parquet文件数据
) H# G* c. U, `( w4 C7-6 -操作Hive表数据0 B6 A8 R; T. T) z0 u! A
7-7 -操作MySQL表数据$ m& }) d2 \1 ]" e" {1 l
7-8 -Hive和MySQL综合使用
$ t2 c8 U) f- c/ V' Q* S6 Z4 h第8章 SparkSQL愿景
3 N: l9 z% m: d7 s本章将讲解Spark的愿景:写更少的代码、读更少的数据、让优化器自动优化程序
; f* x0 e6 |9 j1 P- C: p0 m% I1 k! m) [, q- e- f
8-1 -A SparkSQL愿景之一写更少的代码(代码量和可读性)
$ V9 S( g. k7 \: Q' U8-2 -B SparkSQL愿景之一写更少的代码(统一访问操作接口)% C& r- ?1 V+ E- u8 c' D
8-3 -C SparkSQL愿景之一写更少的代码(强有力的API支持)
. ^& C+ h7 ?% w6 O1 {; d8-4 -D SparkSQL愿景之一些更少的代码(Schema推导). E G% c7 o+ S5 Z5 J, B
8-5 -E SparkSQL愿景之一写更少的代码(Schema Merge)
7 `5 V" L# D' u- ?# b( D8-6 -F SparkSQL愿景之一写更少的代码(Partition Discovery)
4 s. ]0 V3 G9 {5 e8-7 -G SparkSQL愿景之一写更少的代码(执行速度更快)
8 |8 V! c+ [: {/ q# _8-8 -SparkSQL愿景之二读取更少的数据: L4 G& o" ]) \: N' X
8-9 -SparkSQL愿景之三让查询优化器帮助我们优化执行效率
& l2 u3 c1 }" O( M8 B; s) T8-10 -SparkSQL愿景总结
& g9 G7 F7 w, L" @5 p$ H$ J第9章 慕课网日志实战2 T3 q; c' U( r" Q( \0 k7 N- w# S
本章使用Spark SQL对慕课网主站的访问日志进行各个维度的统计分析操作,涉及到的过程有:数据清洗、数据统计、统计结果入库、数据的可视化、调优及Spark on YARN。通过本实战项目将Spark SQL中的知识点融会贯通,达到举一反三的效果 ...
' i' v- C+ W/ \# ^5 J6 k, o Y% Y* C: g
9-1 -课程目录3 d2 k% B$ i# O3 s& p T0 H5 n
9-2 -用户行为日志概述4 q& v: W W8 W4 g% Y5 }% P
9-3 -离线数据处理架构/ k9 Z2 p) v7 g2 {
9-4 -项目需求
/ }9 l9 W0 D- z# U9-5 imooc网主站日志内容构成
1 F4 I, T4 T7 D) m% X( M, _9-6 数据清洗之第一步原始日志解析0 e, V% s% V" ~3 }; d9 H M0 Y, F
9-7 -数据清洗之二次清洗概述
$ y; t: E& k" X# e9-8 -数据清洗之日志解析- o1 o7 M; \. f' k9 }
9-9 -数据清洗之ip地址解析
% b3 v3 K5 g! U: x4 |9-10 -数据清洗存储到目标地址
/ A1 [! n* S* D! W; I u9-11 -需求一统计功能实现5 e9 |/ ?+ c. e0 e
9-12 -Scala操作MySQL工具类开发6 |: P) X# E5 j: |
9-13 -需求一统计结果写入到MySQL
' b" \' E2 O2 B7 V$ X4 c% i9-14 -需求二统计功能实现, V( a" B+ v3 W/ ]" \' P
9-15 -需求二统计结果写入到MySQL
2 t* ^6 C1 s/ @. j4 m; T9-16 -需求三统计功能实现4 q4 f8 c6 D; k# M% E# n
9-17 -需求三统计结果写入到MySQL# z& X, h4 e4 b% Q
9-18 -代码重构之删除指定日期已有的数据4 I; B6 ^' J& k' o
9-19 -功能实现之数据可视化展示概述
) F n, g0 |) I0 L# J; p9-20 -ECharts饼图静态数据展示! z$ ~. L' \, u" l; R: |" ^
9-21 -ECharts饼图动态展示之一查询MySQL中的数据
# T& J! C. h" I& r9 k. w9-22 -ECharts饼图动态展示之二前端开发4 w1 c( d7 J! A+ ~$ `
9-23 -使用Zeppelin进行统计结果的展示
7 a( Q6 H! d) `) k/ ]0 _) p9-24 -Spark on YARN基础
) b/ ~5 V7 s' G9-25 -数据清洗作业运行到YARN上7 u, x: M9 b9 o
9-26 -统计作业运行在YARN上
/ I+ `- ?) n' J r' `/ N9-27 -性能优化之存储格式的选择5 R$ X+ W, P& r: w
9-28 -性能调优之压缩格式的选择
8 I( y' R7 ]6 D" I% ~5 }% f8 c% m9-29 -性能优化之代码优化
# ?% n, x4 x0 a! e. \9-30 -性能调优之参数优化
; S3 n; D' m# t2 a第10章 Spark SQL扩展和总结
+ i$ S; _4 B" x; A* H( k- a9 L本章将列举Spark SQL在工作中经常用到的方方方面的总结0 b* q2 k1 p8 A8 [( T4 O, x
( l$ V& A( P4 ^% y8 a# K9 H g10-1 -课程目录
% Y& Y' H. j+ l8 P: w6 A10-2 -Spark SQL使用场景( A. g0 d& U2 O% f" P8 S
10-3 -Spark SQL加载数据
2 e& Q0 m) m8 _: V, l10-4 -DataFrame与SQL的对比
) |7 i! M3 G( [$ p10-5 -Schema6 o+ ` i' C( f- s$ ]& G
10-6 -SaveMode- _& Z1 j' S$ m" l; J/ Y
10-7 -处理复杂的JSON数据) f# s. W3 s. y
10-8 -SQL的覆盖程度
6 `$ |0 m+ H" H2 T& \8 w10-9 -外部数据源
0 F0 V2 K8 G( }% r1 C8 P第11章 补充内容! @+ b( K! x" c$ y2 Z
Spark SQL自定义外部数据源使用实战
0 f4 T3 x& ~: n; Y
; n; o. c% @ m; w1 _$ o11-1 -课程安排: O( @# k. p1 X$ O- s5 K6 o+ J
11-2 -外部数据源接口7 ~) I' r) [. |6 k
11-3 -JDBC外部数据源实现源码分析4 ~8 W& z- m2 v1 {* q! N- P
11-4 -文本数据自定义外部数据源实现案例分享
5 M5 G# u4 ~- r2 C8 _5 T
5 a6 r# b m$ l' D; e
* a/ I2 ^( p- ]$ y5 g( C" Q% B' k
* V; d7 F8 E# P& m, I) P1 l/ b9 W7 |/ g& L6 p# N
5 N& i; v3 u/ x% ~9 E- }4 T7 i
|
|