如何使用 Spark 查找中位数和分位数

2025-01-15 08:45:00
admin
原创
131
摘要:问题描述:RDD如何使用分布式方法、IPython 和 Spark找到整数的中位数?RDD大约有 700,000 个元素,因此太大而无法收集并找到中位数。这个问题类似于这个问题:如何使用 Apache Spark 计算精确中位数?。但是,这个问题的答案在 Scala 中,我不知道。使用Scala答案的思维,我...

问题描述:

RDD如何使用分布式方法、IPython 和 Spark找到整数的中位数?RDD大约有 700,000 个元素,因此太大而无法收集并找到中位数。

这个问题类似于这个问题:如何使用 Apache Spark 计算精确中位数?。但是,这个问题的答案在 Scala 中,我不知道。

使用Scala答案的思维,我尝试用Python编写一个类似的解决方案。

我知道我首先要对 进行排序RDD。我不知道该怎么做。我看到了sortBy(按给定的 对此 RDD 进行排序keyfunc) 和sortByKey(对此 进行排序RDD,假定其由 (键、值) 对组成。) 方法。我认为两者都使用键值,而我的RDD仅具有整数元素。

  1. 首先,我想做什么myrdd.sortBy(lambda x: x)

  2. 接下来我将找到 rdd 的长度(rdd.count())。

  3. 最后,我想找到 RDD 中心的元素或 2 个元素。我也需要这种方法的帮助。

编辑:

我有个主意。也许我可以索引我的RDD,然后键 = 索引和值 = 元素。然后我可以尝试按值排序?我不知道这是否可行,因为只有一种sortByKey方法。


解决方案 1:

正在进行的工作

SPARK-30569 -添加调用 percentile_approx 的 DSL 函数

Spark 2.0+:

您可以使用实现Greenwald-Khanna 算法的approxQuantile方法:

Python

df.approxQuantile("x", [0.5], 0.25)

Scala

df.stat.approxQuantile("x", Array(0.5), 0.25)

最后一个参数是相对误差。数字越低,结果越准确,计算成本也越高。

从 Spark 2.2(SPARK-14352)开始,它支持对多列进行估算:

df.approxQuantile(["x", "y", "z"], [0.5], 0.25)

df.approxQuantile(Array("x", "y", "z"), Array(0.5), 0.25)

底层方法也可以通过approx_percentile函数用于 SQL 聚合(全局和摸索):

> SELECT approx_percentile(10.0, array(0.5, 0.4, 0.1), 100);
 [10.0,10.0,10.0]
> SELECT approx_percentile(10.0, 0.5, 100);
 10.0

Spark < 2.0

Python

正如我在评论中提到的那样,这很可能不值得大惊小怪。如果数据相对较小(如您的情况),则只需在本地收集并计算中位数:

import numpy as np

np.random.seed(323)
rdd = sc.parallelize(np.random.randint(1000000, size=700000))

%time np.median(rdd.collect())
np.array(rdd.collect()).nbytes

在我几年前的电脑和大约 5.5MB 内存上它大约需要 0.01 秒。

如果数据量大得多,排序将是一个限制因素,因此,与其获取精确值,不如在本地采样、收集和计算。但如果你真的想使用 Spark,那么像这样的方法应该可以解决问题(如果我没有搞砸任何事情的话):

from numpy import floor
import time

def quantile(rdd, p, sample=None, seed=None):
    """Compute a quantile of order p ∈ [0, 1]
    :rdd a numeric rdd
    :p quantile(between 0 and 1)
    :sample fraction of and rdd to use. If not provided we use a whole dataset
    :seed random number generator seed to be used with sample
    """
    assert 0 <= p <= 1
    assert sample is None or 0 < sample <= 1

    seed = seed if seed is not None else time.time()
    rdd = rdd if sample is None else rdd.sample(False, sample, seed)

    rddSortedWithIndex = (rdd.
        sortBy(lambda x: x).
        zipWithIndex().
        map(lambda (x, i): (i, x)).
        cache())

    n = rddSortedWithIndex.count()
    h = (n - 1) * p

    rddX, rddXPlusOne = (
        rddSortedWithIndex.lookup(x)[0]
        for x in int(floor(h)) + np.array([0L, 1L]))

    return rddX + (h - floor(h)) * (rddXPlusOne - rddX)

还有一些测试:

np.median(rdd.collect()), quantile(rdd, 0.5)
## (500184.5, 500184.5)
np.percentile(rdd.collect(), 25), quantile(rdd, 0.25)
## (250506.75, 250506.75)
np.percentile(rdd.collect(), 75), quantile(rdd, 0.75)
(750069.25, 750069.25)

最后让我们定义中位数:

from functools import partial
median = partial(quantile, p=0.5)

到目前为止一切顺利,但在没有任何网络通信的情况下,在本地模式下需要 4.66 秒。可能有办法改进这一点,但何必费心呢?

独立于语言Hive UDAF):

如果您使用,HiveContext也可以使用 Hive UDAF。使用整数值:

rdd.map(lambda x: (float(x), )).toDF(["x"]).registerTempTable("df")

sqlContext.sql("SELECT percentile_approx(x, 0.5) FROM df")

具有连续值:

sqlContext.sql("SELECT percentile(x, 0.5) FROM df")

percentile_approx可以传递一个附加参数来确定要使用的记录数量。

解决方案 2:

这是我使用窗口函数的方法(使用 pyspark 2.2.0)。

from pyspark.sql import DataFrame

class median():
    """ Create median class with over method to pass partition """
    def __init__(self, df, col, name):
        assert col
        self.column=col
        self.df = df
        self.name = name

    def over(self, window):
        from pyspark.sql.functions import percent_rank, pow, first

        first_window = window.orderBy(self.column)                                  # first, order by column we want to compute the median for
        df = self.df.withColumn("percent_rank", percent_rank().over(first_window))  # add percent_rank column, percent_rank = 0.5 corresponds to median
        second_window = window.orderBy(pow(df.percent_rank-0.5, 2))                 # order by (percent_rank - 0.5)^2 ascending
        return df.withColumn(self.name, first(self.column).over(second_window))     # the first row of the window corresponds to median

def addMedian(self, col, median_name):
    """ Method to be added to spark native DataFrame class """
    return median(self, col, median_name)

# Add method to DataFrame class
DataFrame.addMedian = addMedian

然后调用addMedian方法计算col2的中位数:

from pyspark.sql import Window

median_window = Window.partitionBy("col1")
df = df.addMedian("col2", "median").over(median_window)

最后,您可以根据需要进行分组。

df.groupby("col1", "median")

注意:正如@Ihor 在评论中所述,如果元素数量为偶数,它将仅返回中值的近似值,而不是数学定义所预期的精确值。

解决方案 3:

如果您只想要 RDD 方法而不想移动到 DF,请添加解决方案。此代码片段可以为您提供双精度 RDD 的百分位数。

如果您输入百分位数为 50,则应该获得所需的中位数。如果有任何未考虑的极端情况,请告诉我。

/**
  * Gets the nth percentile entry for an RDD of doubles
  *
  * @param inputScore : Input scores consisting of a RDD of doubles
  * @param percentile : The percentile cutoff required (between 0 to 100), e.g 90%ile of [1,4,5,9,19,23,44] = ~23.
  *                     It prefers the higher value when the desired quantile lies between two data points
  * @return : The number best representing the percentile in the Rdd of double
  */    
  def getRddPercentile(inputScore: RDD[Double], percentile: Double): Double = {
    val numEntries = inputScore.count().toDouble
    val retrievedEntry = (percentile * numEntries / 100.0 ).min(numEntries).max(0).toInt


    inputScore
      .sortBy { case (score) => score }
      .zipWithIndex()
      .filter { case (score, index) => index == retrievedEntry }
      .map { case (score, index) => score }
      .collect()(0)
  }

解决方案 4:

从 3.4+ 版本开始,median功能可直接使用。

import pyspark.sql.functions as f

df.groupBy("grp").agg(f.median("val"))

解决方案 5:

有两种方法可以使用。一种是使用approxQuantile方法,另一种是percentile_approx方法。但是,当记录数为偶数时,这两种方法都可能无法提供准确的结果。解决方法是取平均值,如下所示。

importpyspark.sql.functions.percentile_approx as F
# df.select(F.percentile_approx("COLUMN_NAME_FOR_WHICH_MEDIAN_TO_BE_COMPUTED", 0.5).alias("MEDIAN)) # might not give proper results when there are even number of records

((
df.select(F.percentile_approx("COLUMN_NAME_FOR_WHICH_MEDIAN_TO_BE_COMPUTED", 0.5) + df.select(F.percentile_approx("COLUMN_NAME_FOR_WHICH_MEDIAN_TO_BE_COMPUTED", 0.500001)
)*.5).alias("MEDIAN))

解决方案 6:

在 Spark 中,可以准确或近似地计算数据框中的分位数(中位数、四分位数、百分位数等)。

样本数据框:

from pyspark.sql import functions as F
df = spark.range(1, 6)
df.show()
# +---+
# | id|
# +---+
# |  1|
# |  2|
# |  3|
# |  4|
# |  5|
# +---+

中位数:

  • 准确,但大数据资源密集

+ `F.median('id')`- 来自 Spark 3.4+
df.agg(F.median('id')).head()[0]
# 3.0
+ `F.expr('percentile(id, .5)')`
df.agg(F.expr('percentile(id, .5)')).head()[0]
# 3.0
  • 近似,但对于大数据来说有效

F.percentile_approx('id', .5)

df.agg(F.percentile_approx('id', .5)).head()[0]
# 3

下四分位数:

  • 准确,但大数据资源密集

F.expr('percentile(id, .25)')

df.agg(F.expr('percentile(id, .25)')).head()[0]
# 2.0
  • 近似,但对于大数据来说有效

F.percentile_approx('id', .25)

df.agg(F.percentile_approx('id', .25)).head()[0]
# 2

上四分位数:

  • 准确,但大数据资源密集

F.expr('percentile(id, .75)')

df.agg(F.expr('percentile(id, .75)')).head()[0]
# 4.0
  • 近似,但对于大数据来说有效

F.percentile_approx('id', .75)

df.agg(F.percentile_approx('id', .75)).head()[0]
# 4

所有四分位数:

  • 准确,但大数据资源密集

F.expr('percentile(id, array(.25, .5, .75))')

df.agg(F.expr('percentile(id, array(.25, .5, .75))')).head()[0]
# [2.0, 3.0, 4.0]
  • 近似,但对于大数据来说有效

F.percentile_approx('id', [.25, .5, .75])

df.agg(F.percentile_approx('id', [.25, .5, .75])).head()[0]
# [2, 3, 4]

percentile可以使用相同的方法(函数或)计算其他分位数percentile_approx(例如百分位数) 。

解决方案 7:

我编写了一个函数,该函数以数据框作为输入并返回一个数据框,该数据框具有分区中位数作为输出,并且 order_col 是我们要计算中位数的列,part_col 是我们要计算中位数的级别:

from pyspark.sql import Window
import pyspark.sql.functions as F

def calculate_median(dataframe, part_col, order_col):
    win = Window.partitionBy(*part_col).orderBy(order_col)
#     count_row = dataframe.groupby(*part_col).distinct().count()
    dataframe.persist()
    dataframe.count()
    temp = dataframe.withColumn("rank", F.row_number().over(win))
    temp = temp.withColumn(
        "count_row_part",
        F.count(order_col).over(Window.partitionBy(part_col))
    )
    temp = temp.withColumn(
        "even_flag",
        F.when(
            F.col("count_row_part") %2 == 0,
            F.lit(1)
        ).otherwise(
            F.lit(0)
        )
    ).withColumn(
        "mid_value",
        F.floor(F.col("count_row_part")/2)
    )

    temp = temp.withColumn(
        "avg_flag",
        F.when(
            (F.col("even_flag")==1) &
            (F.col("rank") == F.col("mid_value"))|
            ((F.col("rank")-1) == F.col("mid_value")),
            F.lit(1)
        ).otherwise(
        F.when(
            F.col("rank") == F.col("mid_value")+1,
            F.lit(1)
            )
        )
    )
    temp.show(10)
    return temp.filter(
        F.col("avg_flag") == 1
    ).groupby(
        part_col + ["avg_flag"]
    ).agg(
        F.avg(F.col(order_col)).alias("median")
    ).drop("avg_flag")

解决方案 8:

为了精确计算中位数,您可以使用以下函数并将其与 PySpark DataFrame API 一起使用:

def median_exact(col: Union[Column, str]) -> Column:
    """
    For grouped aggregations, Spark provides a way via pyspark.sql.functions.percentile_approx("col", .5) function,
    since for large datasets, computing the median is computationally expensive.
    This function manually computes the median and should only be used for small to mid sized datasets / groupings.
    :param col: Column to compute the median for.
    :return: A pyspark `Column` containing the median calculation expression
    """
    list_expr = F.filter(F.collect_list(col), lambda x: x.isNotNull())
    sorted_list_expr = F.sort_array(list_expr)
    size_expr = F.size(sorted_list_expr)

    even_num_elements = (size_expr % 2) == 0
    odd_num_elements = ~even_num_elements

    return F.when(size_expr == 0, None).otherwise(
        F.when(odd_num_elements, sorted_list_expr[F.floor(size_expr / 2)]).otherwise(
            (
                sorted_list_expr[(size_expr / 2 - 1).cast("long")]
                + sorted_list_expr[(size_expr / 2).cast("long")]
            )
            / 2
        )
    )

像这样应用它:

output_df = input_spark_df.groupby("group").agg(
    median_exact("elems").alias("elems_median")
)

解决方案 9:

我们可以使用以下代码来计算spark中的中位数和分位数:

df.stat.approxQuantile(col,[quantiles],error)

例如,在以下数据框中查找中位数[1,2,3,4,5]

df.stat.approxQuantile(col,[0.5],0)

误差越小,结果越准确。

相关推荐
  政府信创国产化的10大政策解读一、信创国产化的背景与意义信创国产化,即信息技术应用创新国产化,是当前中国信息技术领域的一个重要发展方向。其核心在于通过自主研发和创新,实现信息技术应用的自主可控,减少对外部技术的依赖,并规避潜在的技术制裁和风险。随着全球信息技术竞争的加剧,以及某些国家对中国在科技领域的打压,信创国产化显...
工程项目管理   1565  
  为什么项目管理通常仍然耗时且低效?您是否还在反复更新电子表格、淹没在便利贴中并参加每周更新会议?这确实是耗费时间和精力。借助软件工具的帮助,您可以一目了然地全面了解您的项目。如今,国内外有足够多优秀的项目管理软件可以帮助您掌控每个项目。什么是项目管理软件?项目管理软件是广泛行业用于项目规划、资源分配和调度的软件。它使项...
项目管理软件   1354  
  信创国产芯片作为信息技术创新的核心领域,对于推动国家自主可控生态建设具有至关重要的意义。在全球科技竞争日益激烈的背景下,实现信息技术的自主可控,摆脱对国外技术的依赖,已成为保障国家信息安全和产业可持续发展的关键。国产芯片作为信创产业的基石,其发展水平直接影响着整个信创生态的构建与完善。通过不断提升国产芯片的技术实力、产...
国产信创系统   21  
  信创生态建设旨在实现信息技术领域的自主创新和安全可控,涵盖了从硬件到软件的全产业链。随着数字化转型的加速,信创生态建设的重要性日益凸显,它不仅关乎国家的信息安全,更是推动产业升级和经济高质量发展的关键力量。然而,在推进信创生态建设的过程中,面临着诸多复杂且严峻的挑战,需要深入剖析并寻找切实可行的解决方案。技术创新难题技...
信创操作系统   27  
  信创产业作为国家信息技术创新发展的重要领域,对于保障国家信息安全、推动产业升级具有关键意义。而国产芯片作为信创产业的核心基石,其研发进展备受关注。在信创国产芯片的研发征程中,面临着诸多复杂且艰巨的难点,这些难点犹如一道道关卡,阻碍着国产芯片的快速发展。然而,科研人员和相关企业并未退缩,积极探索并提出了一系列切实可行的解...
国产化替代产品目录   28  
热门文章
项目管理软件有哪些?
云禅道AD
禅道项目管理软件

云端的项目管理软件

尊享禅道项目软件收费版功能

无需维护,随时随地协同办公

内置subversion和git源码管理

每天备份,随时转为私有部署

免费试用