如有文件demo.txt数据如下:
A;B;C;D;B;D;C
B;D;A;E;D;C
A;B
代码如下:
from pyspark import SparkContext sc = SparkContext() rdd1 = sc.textFile('demo.txt') rdd2 = rdd1.map(lambda x: x.split(';')) def ne(x): return list(zip(*[x[i:] for i in range(2)])) rdd2.flatMap(ne).map(lambda x: (x[0] + ' , ' + x[1], 1)).reduceByKey(lambda a, b: a + b).collect()
输出结果如下:
[('A , B', 2), ('B , C', 1), ('D , B', 1), ('B , D', 2), ('D , A', 1), ('C , D', 1), ('D , C', 2), ('A , E', 1), ('E , D', 1)]
发布者:全栈程序员-用户IM,转载请注明出处:https://javaforall.cn/119507.html原文链接:https://javaforall.cn
【正版授权,激活自己账号】: Jetbrains全家桶Ide使用,1年售后保障,每天仅需1毛
【官方授权 正版激活】: 官方授权 正版激活 支持Jetbrains家族下所有IDE 使用个人JB账号...