使用PySpark + Tableau Desktop + MongoDB進行大資料分析
整合大資料處理工具與Tableau Desktop的預測建模和視覺化
課程 -24節
資源 -1個
時長 -4.5小時
終身訪問
課程描述
歡迎來到使用 PySpark + Tableau Desktop + MongoDB課程進行大資料分析的課程。在本課程中,我們將使用大資料技術(例如 PySpark用於ETL,MLlib 用於機器學習以及Tableau 用於資料視覺化和構建儀表板)來建立大資料分析解決方案。
我們將使用地震資料,將其轉換為彙總表。然後,我們將使用這些表來訓練預測模型並預測未來地震。然後,我們將透過在Tableau Desktop中構建報表和儀表板來分析資料。
Tableau Desktop是一款強大的資料視覺化工具,用於大資料分析和視覺化。它允許進行資料混合、即時分析和資料協作。Tableau Desktop無需程式設計,這使其成為建立儀表板應用程式和報表的非常簡單而強大的工具。
MongoDB是一個面向文件的NoSQL資料庫,用於海量資料儲存。它以稱為文件的類似JSON的格式儲存資料,並且不使用行/列表。文件模型對映到應用程式程式碼中的物件,從而使資料易於使用。
您將學習如何使用PySpark建立資料處理管道
您將學習使用Spark MLlib庫進行地理空間資料的機器學習
您將學習使用PySpark、MongoDB和Tableau進行資料分析
您將學習如何使用PySpark資料框操作、清理和轉換資料
您將學習如何在Tableau Desktop中建立地理地圖
您還將學習如何在Tableau Desktop中建立儀表板
本課程適合誰
- 任何級別的Python開發人員
- 任何級別的資料工程師
- 任何級別的開發人員
- 任何級別的機器學習工程師
- 任何級別的資料科學家
- 任何級別的GIS開發人員
- 好奇的人
目標
Tableau資料視覺化
PySpark程式設計
資料分析
資料轉換和處理
大資料機器學習
使用Tableau進行地理地圖繪製
地理空間機器學習
建立儀表板
先決條件
Python基礎知識
很少或沒有GIS知識
程式設計概念基礎
資料基礎知識
機器學習基礎知識
課程大綱
檢視課程內容的詳細分解
簡介
1 個講座
-
簡介 09:30 09:30
使用PySpark和MongoDB進行資料處理
4 節課
建立資料管道指令碼
3 節課
原始碼和筆記本
1個講座
講師 詳情
Edwin Bomela
大資料工程和諮詢,參與多個專案,涵蓋商業智慧、軟體工程、物聯網和大資料分析。擅長在Hadoop和雲生態系統中構建資料處理管道和軟體開發。
目前在頂級商業智慧諮詢公司擔任顧問,幫助客戶構建資料倉庫、資料湖、雲資料處理管道和機器學習管道。他使用的技術涵蓋Hadoop、Amazon S3、Python、Django、Apache Spark、MSBI、Microsoft Azure、SQL Server Data Tools、Talend和Elastic MapReduce。
課程 證書
使用您的證書來轉換職業或在您目前的職業中晉升。
我們的學生與
最優秀的
相關影片課程
檢視更多
