- PySpark 教程
- PySpark - 主頁
- PySpark - 介紹
- PySpark - 環境設定
- PySpark - SparkContext
- PySpark - RDD
- PySpark - 廣播和累加器
- PySpark - SparkConf
- PySpark - SparkFiles
- PySpark - StorageLevel
- PySpark - MLlib
- PySpark - 序列器
- PySpark 有用資源
- PySpark - 快速指南
- PySpark - 有用資源
- PySpark - 討論
討論 PySpark
Apache Spark 用 Scala 程式語言編寫。為了支援使用 Python 編寫 Spark,Apache Spark 社群釋出了一個工具 PySpark。使用 PySpark,您還可以在 Python 程式語言中處理 RDD。這是因為叫做 Py4j 的庫,它能夠實現這一功能。這是一個介紹性教程,涵蓋了資料驅動文件的基礎知識,並解釋瞭如何處理其各種元件和子元件。
廣告