班級(jí)規(guī)模及環(huán)境--熱線:4008699035 手機(jī):15921673576( 微信同號(hào)) |
每期人數(shù)限3到5人。 |
上課時(shí)間和地點(diǎn) |
上課地點(diǎn):【上海】:同濟(jì)大學(xué)(滬西)/新城金郡商務(wù)樓(11號(hào)線白銀路站) 【深圳分部】:電影大廈(地鐵一號(hào)線大劇院站)/深圳大學(xué)成教院 【北京分部】:北京中山學(xué)院/福鑫大樓 【南京分部】:金港大廈(和燕路) 【武漢分部】:佳源大廈(高新二路) 【成都分部】:領(lǐng)館區(qū)1號(hào)(中和大道) 【沈陽分部】:沈陽理工大學(xué)/六宅臻品 【鄭州分部】:鄭州大學(xué)/錦華大廈 【石家莊分部】:河北科技大學(xué)/瑞景大廈 【廣州分部】:廣糧大廈 【西安分部】:協(xié)同大廈
最近開課時(shí)間(周末班/連續(xù)班/晚班):2020年3月16日 |
實(shí)驗(yàn)設(shè)備 |
◆課時(shí): 共5 部份,30學(xué)時(shí)
☆注重質(zhì)量
☆邊講邊練
☆合格學(xué)員免費(fèi)推薦工作
★實(shí)驗(yàn)設(shè)備請(qǐng)點(diǎn)擊這兒查看★ |
質(zhì)量保障 |
1、培訓(xùn)過程中,如有部分內(nèi)容理解不透或消化不好,可免費(fèi)在以后培訓(xùn)班中重聽;
2、培訓(xùn)結(jié)束后,授課老師留給學(xué)員聯(lián)系方式,保障培訓(xùn)效果,免費(fèi)提供課后技術(shù)支持。
3、培訓(xùn)合格學(xué)員可享受免費(fèi)推薦就業(yè)機(jī)會(huì)。 |
大綱 |
|
1)scala解釋器、變量、常用數(shù)據(jù)類型等 2)scala的條件表達(dá)式、輸入輸出、循環(huán)等控制結(jié)構(gòu) 3)scala的函數(shù)、默認(rèn)參數(shù)、變長(zhǎng)參數(shù)等 4)scala的數(shù)組、變長(zhǎng)數(shù)組、多維數(shù)組等 5)scala的映射、元組等操作 6)scala的類,包括bean屬性、輔助構(gòu)造器、主構(gòu)造器等 7)scala的對(duì)象、單例對(duì)象、伴生對(duì)象、擴(kuò)展類、apply方法等 8)scala的包、引入、繼承等概念 9)scala的特質(zhì) 10)scala的操作符 11)scala的高階函數(shù) 12)scala的集合 13)scala數(shù)據(jù)庫連接
五、Spark2.0 core大數(shù)據(jù)編程 1)Spark2.0介紹 2)Spark應(yīng)用場(chǎng)景 3)Spark和Hadoop MR、Storm的比較和優(yōu)勢(shì) 4)RDD 5)Transformation 6)Action 7)Spark計(jì)算PageRank 8)Lineage 9)Spark模型簡(jiǎn)介 10)Spark緩存策略和容錯(cuò)處理 11)寬依賴與窄依賴 12)Spark配置講解 13)Spark集群搭建 14)集群搭建常見問題解決 15)Spark原理核心組件和常用RDD 16)數(shù)據(jù)本地性 17)任務(wù)調(diào)度 18)DAGScheduler 19)TaskScheduler 20)Spark源碼解讀 21)性能調(diào)優(yōu) 22)Spark和Hadoop2.x整合:Spark on Yarn原理 23) Spark Core核心編程 24)RDD內(nèi)核架構(gòu)概覽 25)RDD的不同數(shù)據(jù)來源的創(chuàng)建方式詳解 26)RDD的操作算子綜述與本質(zhì)分析(轉(zhuǎn)換算子、行動(dòng)算子) 27)常用操作算子的案例實(shí)戰(zhàn) 28)RDD持久化實(shí)戰(zhàn)以及Checkpoint 29)RDD共享變量以及累加器的使用實(shí)戰(zhàn)
30)RDD簡(jiǎn)單排序功能(優(yōu)化之前WordCount程序)以及二次排序的實(shí)戰(zhàn)
31)Spark實(shí)戰(zhàn)Top N功能詳解 32)Spark任務(wù)調(diào)度流程整體架構(gòu)分析詳解 33)Spark任務(wù)劃分流程整體架構(gòu)分析詳解(寬依賴與窄依賴、DAGScheduler源碼分析)
34)Spark執(zhí)行任務(wù)相關(guān)原理以及源碼分析(TaskScheduler、Executor、Task、Shuffle)
35)Spark實(shí)戰(zhàn)之PageRank 36)性能優(yōu)化與調(diào)優(yōu)的分析
六、 Spark SQL 1.Spark RDD應(yīng)用SQL實(shí)戰(zhàn) 2.RDD轉(zhuǎn)化為DataFrame數(shù)據(jù)框的方式詳解 3.Spark DataFrame數(shù)據(jù)框操作實(shí)戰(zhàn) 4.加載和保存數(shù)據(jù)操作(load與save) 5.JSON數(shù)據(jù)源實(shí)戰(zhàn)案例 6.JDBC數(shù)據(jù)源實(shí)戰(zhàn)案例 7.Hive數(shù)據(jù)源實(shí)戰(zhàn)案例 8.Parquets數(shù)據(jù)源實(shí)戰(zhàn)加載數(shù)據(jù)、自動(dòng)分區(qū)推斷、合并元數(shù)據(jù) 9.內(nèi)置函數(shù)的實(shí)戰(zhàn)案例 10.開窗函數(shù)的實(shí)戰(zhàn)案例 11.Spark SQL UDF自定義函數(shù)實(shí)戰(zhàn) 12.Spark SQL UDAF自定義聚合函數(shù)實(shí)戰(zhàn) 13.Spark SQL 工作原理詳解以及Spark SQL 的源碼分析 14.Hive on Spark
七、Spark Streaming實(shí)時(shí)計(jì)算 1)Spark Streaming和Storm對(duì)比講解 2)Spark Streaming本質(zhì)原理分析 3)Wordcount程序的實(shí)時(shí)版本開發(fā) 4)Spark Streaming和Spark Core里面context的不同 5)輸入DStream和Receiver的講解 6)不同輸入源(Kafka、HDFS)的DStream操作實(shí)戰(zhàn) 7)基于DStream的window滑動(dòng)窗口實(shí)戰(zhàn)案例 8)基于DStream的updateStateByKey實(shí)戰(zhàn)案例 9)基于DStream的transform實(shí)戰(zhàn)案例 10)DStream的輸出存儲(chǔ)操作以及核心函數(shù)foreachRDD實(shí)戰(zhàn) 11)Spark Streaming的持久化實(shí)戰(zhàn)以及Checkpoint 12)與Spark SQL結(jié)合使用實(shí)戰(zhàn)案例 13)架構(gòu)原理分析與性能優(yōu)化
|