java视频教程名称:大数据技术电视收视率企业项目实战(hadoop+Spark) 大数据视频教程 , v- g; }9 @' I. z: H
百度网盘下载链接:; D+ c% ^4 o8 c; e4 } T; x
[/hide]/ V7 Y' I+ K/ s" Y
密码:a1z9【解压密码:javazx.com】. F" L4 {$ P" a$ T
集数合计:58节0 o& o& M2 ^% v9 a' a& S
) S' Y7 n+ z6 v: p9 J+ d; L1 P
链接失效声明:如果本链接地址失效,请及时联系站长QQ:400691062 B' H2 m ?; {' U" V/ T$ h# Q& A
如何获取资源:VIP升级: https://www.javazx.com/plugin.php?id=yinxingfei_thinfellpay_vip: o7 \; q9 v1 N) y! P. A
VIP说明: 月度VIP:使用期限30天
1 p9 z3 r; x- P8 k& }# U7 Q 年度VIP:使用期限365天
3 o H+ F/ O# `& i i 终身VIP:使用期限永久
2 T* P v, i7 i
7 E" ]6 I9 e# n; E2 d) ljava视频教程详情描述: , i2 D L# y/ j( J2 K- G( m3 V
A0102《大数据技术电视收视率企业项目实战(hadoop+Spark)》本课程将通过一个电视收视率项目实战驱动讲解,项目案例是国内的一家广电企业作为非洲国家的一个运营商,以用户收视行为数据作为基础数据,通过对频道和节目的分析,采用多维度统计分析的方法挖掘用户的收视行为特征。
d, p0 u1 H: L3 @$ G0 L通过此案例可以学习大数据整体开发流程,课程是围绕一个大数据整理流程而做的教学课程,让大家明白大数据不同技术的相互协调,从收集数据,过滤数据,数据分析,数据展示, 调度的使用而开发的课程,而且怎么从hadoop,hive应用快速的过度到spark上面而做的整套流程。学完此课程可以企业流程做一个整体的认识。 - k4 v$ M/ h+ \) h. @
2 K- ]" u: B9 K( G( t. E! z
课程目录:
) H# [# H0 I/ ^' X5 T
\; \6 V4 X5 \% e- q. b! M3 u第1节项目的简介 [免费观看] 00:05:45分钟 第2节项目的背景 [免费观看] 00:07:38分钟 第3节项目流程演示 [免费观看] 00:11:57分钟 第4节讲课的内容和对应的知识点 [免费观看] 00:11:53分钟 第5节php展示统计分析之后的数据 [免费观看] 00:02:28分钟 第6节大数据架构介绍并且企业使用的测试集群环境和人员配置 [免费观看] 00:07:15分钟 第7节VM的安装 [免费观看] 00:05:56分钟 第8节centos的安装和网络配置00:24:10分钟 第9节通过第三方连接centos的方法00:06:48分钟 第10节CentOS的yum源更新已经关闭防火墙00:15:37分钟 第11节JAVA的安装和hadoop安装00:12:18分钟 第12节完全分布式搭建(上)00:26:30分钟 第13节完全分布式搭建(下)00:08:00分钟 第14节通过hadoop自带的demo运行单词统计00:09:03分钟 第15节写一个sh脚本,可以通过一台机器控制多台机器00:16:15分钟 第16节hadoop常用的命令简单介绍00:05:55分钟 第17节maven的安装00:13:26分钟 第18节maven的使用时出现的问题以及解决问题方法00:02:04分钟 第19节MAPREDUCE 示例编写及编程规范00:15:22分钟 第20节安装时间同步工具,让所有电脑进行同步00:09:55分钟 第21节Hive简介和工作流程00:09:42分钟 第22节Mysql的安装,centos7安装mysql注意点00:12:45分钟 第23节安装Hive,并且使用Hive做一个小案例00:31:15分钟 第24节把txt文件的数据导入到Hive表中00:07:20分钟 第25节Flume采集系统结构图00:07:40分钟 第26节Flume的安装部署和实战00:35:15分钟 第27节sqoop数据迁移和安装00:08:22分钟 第28节sqoop数据从hadoop里面导入到mysql里面00:07:35分钟 第29节sqoop数据从mysql里面导入到hadoop里面00:14:39分钟 第30节Azkaban介绍和安装00:14:03分钟 第31节Azkaban创建SSL配置和配置文件00:15:57分钟 第32节Azkaban实战通过5个不同场景介绍原理00:34:21分钟 第33节电视采集项目流程篇之通过linux日志收集数据到hdfs上面00:38:42分钟 第34节电视采集项目流程篇之通过MAPREDUCE 把收集数据进行清洗00:19:01分钟 第35节电视采集项目流程篇之清洗数据绑定到hive表中(上)00:03:27分钟 第36节电视采集项目流程篇之清洗数据绑定到hive表中(下)00:17:03分钟 第37节电视采集项目流程篇之根据hive绑定数据统计计算保存到hive表中00:04:46分钟 第38节电视采集项目流程篇之把hive表中数据导入到mysql中00:13:13分钟 第39节电视采集项目流程篇之安装php环境并且快速熟悉php语法00:09:48分钟 第40节电视采集项目流程篇之安装php和echarts进行结合展示图表00:18:23分钟 第41节电视采集项目流程篇之Azkaban调度脚本的编写00:32:04分钟 第42节电视采集项目流程篇之Azkaban流程调度演示,最终在php页面展示00:05:35分钟 第43节hadoop和hive项目怎么平滑的转到spark上面介绍00:05:40分钟 第44节Spark介绍和整体架构00:08:04分钟 第45节Spark历史和特点00:05:01分钟 第46节Spark下载源码和安装和使用00:34:04分钟 第47节Spark创建RDD集合00:46:16分钟 第48节Spark中transformation的介绍00:25:15分钟 第49节Spark中action的介绍00:07:30分钟 第50节Spark SQL发展史00:05:26分钟 第51节HiveContext00:08:01分钟 第52节Spark SQL和DataFrame00:14:56分钟 第53节电视采集项目流程如何把hadoop项目平滑过渡到spark项目上00:03:59分钟 第54节电视采集项目流程spark篇通过sparksql处理业务逻辑上00:09:21分钟 第55节电视采集项目流程spark篇通过sparksql处理业务逻辑下00:13:31分钟 第56节电视采集项目流程spark篇通过Azkaban调度spark00:20:22分钟 第57节项目总体总结00:07:10分钟 第58节简历指导00:09:52分钟 # E9 Q' s$ E" o. M0 r
6 f) H- z% E- `3 x3 D" s6 G
; ?8 N& g4 [0 L7 C) | o
; \7 s& B" U* I! L0 s; x4 H: N |