<ol id="cm9b4"><object id="cm9b4"></object></ol>
<var id="cm9b4"></var>

  • <li id="cm9b4"><tr id="cm9b4"><kbd id="cm9b4"></kbd></tr></li>

    <th id="cm9b4"><track id="cm9b4"></track></th>
  • <rp id="cm9b4"></rp>
  • 在線咨詢
    課程概述
    課程涵蓋技能
    課程亮點
    職場助力
    購課選項
    預修課程
    課程目錄
    行業項目
    認證證書
    學員反饋
    立即購買

    課程概述

    大數據Hadoop認證培訓提供了使用Hadoop和Spark大數據框架的深入知識,為您成為大數據工程師做好準備。在Hadoop的實操課程中,您可以通過集成實驗室執行基于現實生活的真實項目。

    課程涵蓋技能

    • 數據處理
    • 功能性編程
    • Apache Spark
    • 平行處理
    • Spark RDD優化技術
    • Spark SQL

    課程亮點

    • 22小時的在線自定進度學習
    • 52小時的教師指導培訓
    • 4個基于行業的課程結束項目
    • 帶有集成實驗室的互動學習
    • 課程內容與Cloudera CCA175認證考試保持一致

    職場助力

    提高大數據和分析領域技能是一個明智的職業決定。2019年全球HADOOP-AS-SERVICE(HAAS)市值約為73.5億美元。該市值預計將以39.3%的年復合增長率增長,到2026年將達到約748.4億美元。

    名稱
    年薪
    招聘單位
    大數據架構師
    大數據工程師
    大數據開發員
    $93K
    最小
    $129K
    平均值
    $165K
    最大
    $81K
    最小
    $120.5K
    平均值
    $160K
    最大
    $58K
    最小
    $93K
    平均值
    $128K
    最大

    購課選項

    單一課程

    個人提升

    • 終身訪問自定進度在線學習課程
    • 實驗室現場技能操作演示
    • 預約頂級講師提供的在線直播培訓課程
    • 用于鞏固所學技能的現實行業項目
    • 自我評估模擬試卷
    • 24x7幫助與支持
    simplilearn官網價 查看
    課程原價 ¥ 5034.00
    立即購買
    實惠套餐

    個人提升

    • 單一課程中的所有特權
    • 購買課程組合,每門課程均享受優惠折扣

      購買2門課程包享受7.5折優惠

      購買3門課程包享受6.5折優惠

      購買4門課程包享受5.5折優惠

      購買5門及以上課程包享受4.5折優惠

      *加購課程查看最終實際價格

    自由組合自己的課程 >
    我的課程
    詳情
    折扣優惠 -0
    最終價格 0
    立即購買
    定制套餐

    企業培訓

    • 根據企業需求定制套餐
    • 在線自定進度學習與直播培訓課程相結合
    • 靈活的定價方案
    • 企業級學習管理系統
    • 團隊與個人學習管理界面
    • 24x7幫助與支持
    聯系我們

    預修課程

    • 核心Java
    • SQL

    課程內容

    第1課 課程介紹
    • 1.1 課程介紹

    • 1.2 進入實踐實驗室

    第2課 大數據和Hadoop簡介
    • 2.1 大數據和Hadoop簡介

    • 2.2 大數據簡介

    • 2.3 大數據分析

    • 2.4 什么是大數據

    • 2.5 大數據的四個特點

    • 2.6 案例研究 : 蘇格蘭皇家銀行

    • 2.7 傳統系統的挑戰

    • 2.8 分布式系統

    • 2.9 Hadoop簡介

    • 2.10 Hadoop生態系統的組成部分 1

    • 2.11 Hadoop生態系統的組成部分 2

    • 2.12 Hadoop生態系統的組成部分 3

    • 2.13 商業Hadoop分布

    • 2.14 演示 :Simplilearn Cloudlab的演練

    • 2.15 主要收獲

    • 知識檢查

    第3課 Hadoop架構、分布式存儲(HDFS)和YARN
    • 3.1 Hadoop架構分布式存儲(HDFS)和YARN

    • 3.2 什么是HDFS

    • 3.3 對HDFS的需求

    • 3.4 普通文件系統與HDFS

    • 3.5 HDFS的特點

    • 3.6 HDFS架構和組件

    • 3.7 高可用性集群的實現

    • 3.8 HDFS組件文件系統命名空間02:40

    • 3.9 數據塊分割

    • 3.10 數據復制拓撲結構

    • 3.11 HDFS命令行

    • 3.12 演示: 常用HDFS命令 HDFS命令行

    • 3.13 YARN介紹

    • 3.14 YARN使用案例

    • 3.15 YARN及其架構

    • 3.16 資源管理器

    • 3.17 資源管理器如何運作

    • 3.18 應用主控

    • 3.19 YARN如何運行一個應用程序

    • 3.20 YARN開發者的工具

    • 3.21 演示 : 集群演練 1

    • 3.22 演示 : 集群演練 2

    • 3.23 主要收獲

    • 知識檢查

    • Hadoop架構,分布式存儲(HDFS)和YARN

    第4課 大數據系統的數據導入和ETL
    • 4.1 數據導入到大數據系統和ETL

    • 4.2 數據攝取概述

    • 4.3 數據攝取

    • 4.4 Apache Sqoop

    • 4.5 Sqoop和它的用途

    • 4.6 Sqoop處理

    • 4.7 Sqoop導入過程 輔助實踐:導入到Sqoop中

    • 4.8 Sqoop連接器

    • 4.9 演示 : 從MySQL導入和導出數據到HDFS Apache Sqoop

    • 4.9 Apache Flume

    • 4.10 Flume模型

    • 4.11 Flume的可擴展性

    • 4.12 Flume架構中的組件

    • 4.13 配置Flume組件

    • 4.14 Apache Kafka

    • 4.15 演示 : 攝取Twitter數據

    • 4.15 使用Kafka聚合用戶活動

    • 4.16 Kafka數據模型

    • 4.17 分區

    • 4.18 Apache Kafka架構

    • 4.19 生產者端API實例

    • 4.20 消費者端API

    • 4.21 演示 : 設置Kafka集群

    • 4.21 消費者端API示例

    • 4.22 Kafka連接

    • 4.23 主要收獲

    • 4.24 演示 :使用生產者和消費者創建樣本Kafka數據管道

    • 知識檢查

    • 大數據系統中的數據攝取和ETL

    第5課分布式處理--MapReduce框架和Pig
    • 5.1 分布式處理的MapReduce框架和Pig

    • 5.2 MapReduce的分布式處理

    • 5.3 字數統計實例

    • 5.4 地圖執行階段

    • 5.5 地圖執行的分布式雙節點環境

    • 5.6 MapReduce工作

    • 5.7 Hadoop MapReduce作業的工作互動

    • 5.8 為MapReduce開發設置環境

    • 5.9 類的設置

    • 5.10 創建一個新項目

    • 5.11 高級MapReduce

    • 5.12 Hadoop中的數據類型

    • 5.13 MapReduce中的輸出格式

    • 5.14 使用分布式緩存

    • 5.15 MapReduce中的連接

    • 5.16 復制的連接

    • 5.17 Pig簡介

    • 5.18 Pig的組件

    • 5.19 Pig數據模型

    • 5.20 Pig的交互模式

    • 5.21 Pig操作

    • 5.22 開發人員執行的各種關系

    • 5.23 演示 :使用MapReduce分析網絡日志數據

    • 5.24 演示 :使用PIG分析銷售數據和解決KPI問題02:46 Apache Pig

    • 5.25 演示 :Wordcount

    • 5.26 主要收獲 知識檢查 分布式處理--MapReduce框架和Pig

    第6課 Apache Hive
    • 6.1 Apache Hive

    • 6.2 Hive SQL over Hadoop MapReduce

    • 6.3 Hive架構

    • 6.4 運行Hive查詢的接口

    • 6.5 從命令行運行Beeline

    • 6.6 Hive元存儲

    • 6.7 Hive DDL和DML

    • 6.8 創建新表

    • 6.9 數據類型

    • 6.10 數據的驗證

    • 6.11 文件格式類型

    • 6.12 數據序列化

    • 6.13 Hive表和Avro模式

    • 6.14 Hive優化分區Bucketing和Sampling

    • 6.15 非分區表

    • 6.16 數據插入

    • 6.17 Hive中的動態分區

    • 6.18 桶狀結構

    • 6.19 桶的作用是什么

    • 6.20 Hive分析UDF和UDAF

    • 輔助實踐:同步化

    • 6.21 Hive的其他功能

    • 6.22 演示 :實時分析和數據過濾

    • 6.23 演示 :真實世界的問題

    • 6.24 演示 :使用Hive的數據表示和導入

    • 6.25 主要收獲 知識檢查 Apache Hive

    第7課 NoSQL數據庫 - HBase
    • 7.1 NoSQL數據庫 HBase

    • 7.2 NoSQL簡介 演示:Yarn Tuning

    • 7.3 HBase概述

    • 7.4 HBase架構

    • 7.5 數據模型

    • 7.6 連接到HBase HBase外殼

    • 7 .7 主要收獲 知識檢查 NoSQL數據庫--HBase

    第8課 函數式編程和Scala的基礎知識
    • 8.1 函數式編程和Scala的基礎知識

    • 8.2 Scala簡介

    • 8.3 演示 :Scala 安裝

    • 8.3 功能性編程

    • 8.4 用Scala編程 演示 :基本字數和算術運算符 演示 :邏輯運算符

    • 8.5 Scala中的類型推理類對象和函數 演示 :類型推斷函數匿名函數和類

    • 8.6 集合

    • 8.7 集合的類型 演示:集合的五種類型 演示:對列表的操作

    • 8.8 Scala REPL 輔助實踐 :練習Scala REPL 演示 :Scala REPL的特點

    • 8.9 主要收獲 知識檢查 功能性編程和Scala的基礎知識

    第9課 Apache Spark下一代大數據框架
    • 9.1 Apache Spark下一代大數據框架

    • 9.2 Spark的歷史

    • 9.3 Hadoop中MapReduce的局限性

    • 9.4 Apache Spark簡介

    • 9.5 Spark的組件

    • 9.6 內存處理的應用

    • 9.7 Hadoop生態系統與Spark

    • 9.8 Spark的優勢

    • 9.9 Spark架構

    • 9.10 真實世界中的Spark集群

    • 9.11 演示 :在Spark Shell中運行Scala程序

    • 9.12 演示:在IDE中設置執行環境

    • 9.13 演示:Spark網絡UI

    • 9.14 主要收獲 知識查詢 掌握Apache Spark下一代的大數據框架

    第10課 Spark核心處理RDD
    • 10.1 處理RDD

    • 10.1 Spark RDD簡介

    • 10.2 Spark中的RDD

    • 10.3 創建Spark RDD

    • 10.4 配對RDD

    • 10.5 RDD操作

    • 10.6 演示 :使用Scala實例進行Spark轉換的詳細探索

    • 10.7 演示 :使用Scala深入探索Spark Action

    • 10.8 緩存和持久化

    • 10.9 存儲級別

    • 10.10 線程和DAG

    • 10.11 DAG的必要性

    • 10.12 Spark中的調試

    • 10.13 Spark中的分區

    • 10.14 Spark中的調度

    • 10.15 Spark中的洗牌

    • 10.16 排序洗牌

    • 10.17 用RDD對數據進行聚合

    • 10.18 演示:將數據寫回到 HDFS 和 Spark UI 的 Spark 應用程序 D

    • 10.19 演示:改變Spark應用程序的參數

    • 10.20 演示:處理不同的文件格式

    • 10.21 演示:Spark的RDD與真實世界的應用

    • 10.22 演示:優化Spark作業 輔助實踐 :更改Spark應用程序參數

    • 10.23 主要收獲 知識檢查 Spark核心處理RD

    第11課 Spark SQL - 處理數據幀
    • 11.1 Spark SQL處理數據幀

    • 11.2 Spark SQL簡介

    • 11.3 Spark SQL架構

    • 11.4 數據框架

    • 11.5 演示 :處理各種數據格式

    • 11.6 演示 :實現各種數據框架操作

    • 11.7 演示:UDF和UDAF

    • 11.8 與RDDs交互操作

    • 11.9 演示:使用SQL查詢處理DataFrame

    • 11.10 RDD vs DataFrame vs Dataset 處理數據框架

    • 11.11 主要收獲 知識檢查 Spark SQL - 處理數據框架

    第12課 Spark MLLib - 用Spark對大數據進行建模
    • 12.1 Spark MLLib 用Spark對大數據進行建模

    • 12.2 數據科學家和數據分析師在大數據中的作用

    • 12.3 Spark中的分析

    • 12.4 機器學習

    • 12.5 監督學習

    • 12.6 演示 :線性SVM的分類

    • 12.7 演示 :真實世界案例分析之線性回歸

    • 12.8 無監督學習

    • 12.9 演示 :無監督聚類的K-Means 輔助實踐 :無監督聚類的K-means

    • 12.10 強化學習

    • 12.11 半監督學習

    • 12.12 MLlib概述

    • 12.13 MLlib管線

    • 12.14 主要收獲

    • 知識檢查

    • Spark MLLib--用Spark對大數據進行建模

    第13課 流處理框架和Spark Streaming
    • 13.1 流處理框架和Spark Streaming 13.1 流媒體概述

    • 13.2 大數據的實時處理

    • 13.3 數據處理架構

    • 13.4 演示 :實時數據處理

    • 13.5 Spark流媒體

    • 13.6 演示:編寫Spark Streaming應用程序

    • 13.7 DStreams簡介

    • 13.8 DStreams的轉換

    • 13.9 使用ForeachRDD的設計模式

    • 13.10 狀態操作

    • 13.11 窗口操作

    • 13.12 連接操作流-數據集連接

    • 13.13 演示:實時數據處理的窗口化

    • 13.14 流媒體源

    • 13.15 演示:處理Twitter的流數據

    • 13.16 結構化的Spark Streaming

    • 13.17 銀行交易案例

    • 13.18 結構化流媒體架構模型及其組件

    • 13.19 輸出接收器

    • 13.20 結構化流媒體API

    • 13.21 在結構化流中構建列

    • 13.22 對事件時間的窗口化操作

    • 13.23 使用案例

    • 13.24 演示 :流媒體管線

    • 13.25 主要收獲 知識查詢 流處理框架和Spark Streaming

    第14課 Spark GraphX
    • 14.1 Spark GraphX

    • 14.2 圖形簡介

    • 14.3 Spark中的Graphx

    • 14.4 圖形運算符

    • 14.5 連接操作符

    • 14.6 圖形并行系統

    • 14.7 Spark算法

    • 14.8 Pregel API

    • 14.9 GraphX的使用案例

    • 14.10 演示:GraphX頂點謂詞

    • 14.11 演示:網頁排名算法

    • 14.12 主要收獲

    • 知識檢查

    • 14.3 Spark GraphX

    • 14.14 項目輔助

    查看更多
    在線咨詢
    姓名
    請輸入姓名
    電話
    請輸入電話
    郵箱
    請輸入郵箱
    需求
    請輸入需求
    提供您的聯系方式,即表示您同意我們的 隱私政策

    行業項目

    項目1

    分析歷史保險索賠

    使用 Hadoop 功能預測汽車保險公司的模式并分享可執行的方案。

    BFSI

    項目2

    分析員工情緒

    從谷歌、Netflix和Facebook收集員工的評論數據,通過這些數據分析員工情緒。

    人力資源

    項目3

    分析日內價格變動

    使用Hive功能對紐約證券交易數據進行數據工程分析。

    股票市場

    項目4

    分析產品性能

    對產品和客戶數據進行細分,以提高亞馬遜的銷售額。

    電子商務(銷售分析)

    認證證書

    達到認證條件后,您將獲得由圣普倫和Simplilearn聯名認證的電子證書。我們會通過電子郵件給您發送電子證書,證書上的名字以您注冊時使用的名字為準。

    認證條件

    • 85% 的自定進度的在線課程學習或參加在線課堂授課學習
    • 課程結束評估的分數不低于總分數75%
    • 至少成功通過一個項目評估

    學員反饋

    4.3

    哈里·哈拉山

    技術架構師 Infosys

    Map reducer的培訓真的很有趣,一個復雜的話題可以用一種可特別易于理解的方式講解,通俗易懂。

    4.0

    維涅什·巴拉蘇布拉馬尼安

    高級運維專家 IBM

    我報名學習了大數據Hadoop/Spark大數據證書培訓課程。課程組織得很好,涵蓋了所有的概念和相關的真實項目和動手實踐。課程導師非常好,及時解決培訓過程中的所有問題。云實驗室設施和提供的材料都非常有特色。

    4.3

    阿努沙·T·S

    軟件開發人員 Zibtek

    我參加了 Big Data Hadoop和Spark Developer課程的學習,我喜歡導師的教學方法。他們知識淵博并樂于幫助我??偟膩碚f我很滿意這次培訓,Simplilearn的云實驗室也非常人性化。我會強烈推薦我的朋友來這里參加課程并提高他們自己的技能。

    4.0

    項目經理 IBM

    項目經理 IBM

    Gautam是整個培訓課程中最好的導師。課堂上他花費了充足的時間解釋課程內容并確保學員理解概念。毫無疑問,他是這個行業最頂尖的專家,我很高興參加了他的課程。