教育行業(yè)A股IPO第一股(股票代碼 003032)

全國咨詢/投訴熱線:400-618-4000

一起認識Spark中幾個常見的RDD算子

更新時間:2023年09月25日11時25分 來源:傳智教育 瀏覽次數(shù):

好口碑IT培訓(xùn)

  在Apache Spark中,RDD(Resilient Distributed Dataset)是一種基本的數(shù)據(jù)結(jié)構(gòu),可以執(zhí)行各種轉(zhuǎn)換操作和動作操作。以下是一些常見的RDD算子,以及它們的簡單示例代碼:

      1.map(func):對RDD中的每個元素應(yīng)用一個函數(shù),并返回一個新的RDD。

rdd = sc.parallelize([1, 2, 3, 4, 5])
mapped_rdd = rdd.map(lambda x: x * 2)
print(mapped_rdd.collect())  # 輸出: [2, 4, 6, 8, 10]

  2.filter(func):根據(jù)給定的條件過濾RDD中的元素,并返回一個包含滿足條件的元素的新RDD。

rdd = sc.parallelize([1, 2, 3, 4, 5])
filtered_rdd = rdd.filter(lambda x: x % 2 == 0)
print(filtered_rdd.collect())  # 輸出: [2, 4]

  3.reduce(func):對RDD中的元素進行累積操作,將兩個元素合并為一個。

rdd = sc.parallelize([1, 2, 3, 4, 5])
sum_result = rdd.reduce(lambda x, y: x + y)
print(sum_result)  # 輸出: 15

  4.flatMap(func):類似于map,但每個輸入元素可以映射到零個或多個輸出元素,然后將所有輸出展平為一個RDD。

rdd = sc.parallelize([1, 2, 3])
flat_mapped_rdd = rdd.flatMap(lambda x: [x, x * 2])
print(flat_mapped_rdd.collect())  # 輸出: [1, 2, 2, 4, 3, 6]

  5.groupByKey():根據(jù)鍵對RDD中的元素進行分組。

rdd = sc.parallelize([(1, 'a'), (2, 'b'), (1, 'c')])
grouped_rdd = rdd.groupByKey()
result = grouped_rdd.mapValues(list)
print(result.collect())  # 輸出: [(1, ['a', 'c']), (2, ['b'])]

  以上筆者列舉的是一些常見的RDD算子,Spark還提供了許多其他強大的算子,可以用于數(shù)據(jù)處理和分析。我們可以根據(jù)具體的需求選擇適當(dāng)?shù)乃阕觼順?gòu)建Spark應(yīng)用程序。

0 分享到:
和我們在線交談!