PySpark实用函数
项目描述
pyspark-util
一组PySpark实用函数。
import pyspark_util as psu
data = [(1, 2, 3)]
columns = ['a', 'b', 'c']
df = spark.createDataFrame(data, columns)
prefixed = psu.prefix_columns(df, 'x')
prefixed.show()
# output:
+---+---+---+
|x_a|x_b|x_c|
+---+---+---+
| 1| 2| 3|
+---+---+---+
开发
设置
docker-compose build
docker-compose up -d
代码检查
docker exec psu-cnt ./tools/lint.sh
测试
docker exec psu-cnt ./tools/test.sh
项目详情
下载文件
下载适用于您的平台文件。如果您不确定选择哪个,请了解更多关于 安装包 的信息。
源代码分发
此版本没有可用的源代码分发文件。请参阅生成分发存档的教程。
构建分发
pyspark_util-0.1.2-py3-none-any.whl (3.3 kB 查看哈希)
关闭
pyspark_util-0.1.2-py3-none-any.whl的哈希
算法 | 哈希摘要 | |
---|---|---|
SHA256 | 4b310d283bd18e4d3e20cf9cc2e2f0453e98e57040613ede1082cea1e6c7397b |
|
MD5 | 051d3c13463abaa196e4ba0030eb478e |
|
BLAKE2b-256 | 830c0acf6b0471dfee4a4c5969d87b462fce981bbc9c43a799df987c16b47cf8 |