- PySpark 教程
- PySpark - 主页
- PySpark - 介绍
- PySpark - 环境设置
- PySpark - SparkContext
- PySpark - RDD
- PySpark - 广播和累加器
- PySpark - SparkConf
- PySpark - SparkFiles
- PySpark - StorageLevel
- PySpark - MLlib
- PySpark - 序列器
- PySpark 有用资源
- PySpark - 快速指南
- PySpark - 有用资源
- PySpark - 讨论
讨论 PySpark
Apache Spark 用 Scala 编程语言编写。为了支持使用 Python 编写 Spark,Apache Spark 社区发布了一个工具 PySpark。使用 PySpark,您还可以在 Python 编程语言中处理 RDD。这是因为叫做 Py4j 的库,它能够实现这一功能。这是一个介绍性教程,涵盖了数据驱动文档的基础知识,并解释了如何处理其各种组件和子组件。
广告