Spark 中是精确分位数还是近似分位数?

为了计算分位数,我使用可从any或of中的函数approxQuantile访问的方法。这篇文章解释了它的近似方式。stat()DatasetDataframeSpark


@Test

@DisplayName("Quantiles de la population communale française")

public void quantiles() throws TechniqueException {

   Dataset<Row> populationCommunes = individus().selectExpr("populationTotale");


   double[] quantiles = populationCommunes.stat().approxQuantile("populationTotale", new double[] {0.1, 0.25, 0.5, 0.75, 0.9}, 0);

   LOGGER.info("Population des communes françaises :\n Q(10%) : {}, Q(25%) = {}, Q(50%) = {}, Q(75%) = {}, Q(90%) = {}", 

      quantiles[0], quantiles[1], quantiles[2], quantiles[3], quantiles[4]); 

}

结果令人放心:


Population des communes françaises :

 Q(10%) : 105.0, Q(25%) = 204.0, Q(50%) = 468.0, Q(75%) = 1186.0, Q(90%) = 3250.0

但如果我真的想要得到精确的分位数值,而不是近似值,我该如何实现呢Spark?

在这里,我有大约 35,000 个城市:我很乐意Spark花时间研究 的每个值Dataset。


慕工程0101907
浏览 184回答 1
1回答

qq_遁去的一_1

Spark 中的函数approxQuantile可用于计算精确的分位数。从文档中我们看到有3个参数:public&nbsp;double[][]&nbsp;approxQuantile(String[]&nbsp;cols,&nbsp;double[]&nbsp;probabilities,&nbsp;double&nbsp;relativeError)最后一个是relativeError.&nbsp;这里的描述说:relativeError - 要达到的相对目标精度(大于或等于 0)。如果设置为零,则计算精确的分位数,这可能非常昂贵。请注意,接受大于 1 的值,但给出的结果与 1 相同。所以你需要做的就是将此参数设置为 0.0。
打开App,查看更多内容
随时随地看视频慕课网APP

相关分类

Java