使用PySpark + Tableau Desktop + MongoDB进行大数据分析
整合大数据处理工具与Tableau Desktop的预测建模和可视化
课程 -24节
资源 -1个
时长 -4.5小时
终身访问
课程描述
欢迎来到使用 PySpark + Tableau Desktop + MongoDB课程进行大数据分析的课程。在本课程中,我们将使用大数据技术(例如 PySpark用于ETL,MLlib 用于机器学习以及Tableau 用于数据可视化和构建仪表板)来创建大数据分析解决方案。
我们将使用地震数据,将其转换为汇总表。然后,我们将使用这些表来训练预测模型并预测未来地震。然后,我们将通过在Tableau Desktop中构建报表和仪表板来分析数据。
Tableau Desktop是一款强大的数据可视化工具,用于大数据分析和可视化。它允许进行数据混合、实时分析和数据协作。Tableau Desktop无需编程,这使其成为创建仪表板应用程序和报表的非常简单而强大的工具。
MongoDB是一个面向文档的NoSQL数据库,用于海量数据存储。它以称为文档的类似JSON的格式存储数据,并且不使用行/列表。文档模型映射到应用程序代码中的对象,从而使数据易于使用。
您将学习如何使用PySpark创建数据处理管道
您将学习使用Spark MLlib库进行地理空间数据的机器学习
您将学习使用PySpark、MongoDB和Tableau进行数据分析
您将学习如何使用PySpark数据框操作、清理和转换数据
您将学习如何在Tableau Desktop中创建地理地图
您还将学习如何在Tableau Desktop中创建仪表板
本课程适合谁
- 任何级别的Python开发人员
- 任何级别的数据工程师
- 任何级别的开发人员
- 任何级别的机器学习工程师
- 任何级别的数据科学家
- 任何级别的GIS开发人员
- 好奇的人
目标
Tableau数据可视化
PySpark编程
数据分析
数据转换和处理
大数据机器学习
使用Tableau进行地理地图绘制
地理空间机器学习
创建仪表板
先决条件
Python基础知识
很少或没有GIS知识
编程概念基础
数据基础知识
机器学习基础知识
课程大纲
查看课程内容的详细分解
简介
1 个讲座
- 简介 09:30 09:30
使用PySpark和MongoDB进行数据处理
4 节课
创建数据管道脚本
3 节课
源代码和笔记本
1个讲座
讲师 详情
Edwin Bomela
大数据工程和咨询,参与多个项目,涵盖商业智能、软件工程、物联网和大数据分析。擅长在Hadoop和云生态系统中构建数据处理管道和软件开发。
目前在顶级商业智能咨询公司担任顾问,帮助客户构建数据仓库、数据湖、云数据处理管道和机器学习管道。他使用的技术涵盖Hadoop、Amazon S3、Python、Django、Apache Spark、MSBI、Microsoft Azure、SQL Server Data Tools、Talend和Elastic MapReduce。
课程 证书
使用您的证书来转换职业或在您目前的职业中晋升。