如何将 Apache Spark 中的远大期望结果保存到文件中 - 使用数据文档

Pat*_*son 3 apache-spark pyspark databricks azure-databricks great-expectations

我已经成功创建了 Great_Expectation 结果,我想将期望结果输出到 html 文件。

很少有链接强调如何使用所谓的“数据文档”以人类可读的方式显示结果https://docs.greatexpectations.io/en/latest/guides/tutorials/getting_started/set_up_data_docs.html#tutorials-getting-started -设置数据文档

但说实话,文档非常难以理解。

我的期望只是验证数据集中的乘客数量在 1 到 6 之间。我希望帮助使用“数据文档”将结果输出到文件夹,或者可以将数据输出到文件夹:

import great_expectations as ge
import great_expectations.dataset.sparkdf_dataset
from great_expectations.dataset.sparkdf_dataset import SparkDFDataset
from pyspark.sql.types import StructType, StructField, IntegerType, StringType, BooleanType
from great_expectations.data_asset import DataAsset

from great_expectations.data_context.types.base import DataContextConfig, DatasourceConfig, FilesystemStoreBackendDefaults
from great_expectations.data_context import BaseDataContext
from great_expectations.data_context.types.resource_identifiers import ValidationResultIdentifier
from datetime import datetime
from great_expectations.data_context import BaseDataContext


df_taxi = spark.read.csv('abfss://root@adlspretbiukadlsdev.dfs.core.windows.net/RAW/LANDING/yellow_trip_data_sample_2019-01.csv', inferSchema=True, header=True)

taxi_rides = SparkDFDataset(df_taxi)

taxi_rides.expect_column_value_lengths_to_be_between(column='passenger_count', min_value=1, max_value=6)

taxi_rides.save_expectation_suite()
Run Code Online (Sandbox Code Playgroud)

该代码是从 Apache Spark 运行的。

如果有人能给我指出正确的方向,我就能找到答案。

Ale*_*Ott 6

您可以在 Databricks 上可视化数据文档 - 您只需要使用正确的渲染器*结合DefaultJinjaPageView将其渲染为 HTML,其结果可以用displayHTML. 我们需要导入必要的类/函数:

import great_expectations as ge
from great_expectations.profile.basic_dataset_profiler import BasicDatasetProfiler
from great_expectations.dataset.sparkdf_dataset import SparkDFDataset
from great_expectations.render.renderer import *
from great_expectations.render.view import DefaultJinjaPageView
Run Code Online (Sandbox Code Playgroud)

要查看分析结果,我们需要使用ProfilingResultsPageRenderer

expectation_suite, validation_result = BasicDatasetProfiler.profile(SparkDFDataset(df))
document_model = ProfilingResultsPageRenderer().render(validation_result)
displayHTML(DefaultJinjaPageView().render(document_model))
Run Code Online (Sandbox Code Playgroud)

它会显示如下内容:

在此输入图像描述

我们可以使用以下方法可视化验证结果ValidationResultsPageRenderer

gdf = SparkDFDataset(df)
gdf.expect_column_values_to_be_of_type("county", "StringType")
gdf.expect_column_values_to_be_between("cases", 0, 1000)
validation_result = gdf.validate()
document_model = ValidationResultsPageRenderer().render(validation_result)
displayHTML(DefaultJinjaPageView().render(document_model))
Run Code Online (Sandbox Code Playgroud)

它会显示如下内容:

在此输入图像描述

或者我们可以使用以下方式渲染期望套件本身ExpectationSuitePageRenderer

gdf = SparkDFDataset(df)
gdf.expect_column_values_to_be_of_type("county", "StringType")
document_model = ExpectationSuitePageRenderer().render(gdf.get_expectation_suite())
displayHTML(DefaultJinjaPageView().render(document_model))
Run Code Online (Sandbox Code Playgroud)

它会显示如下内容:

在此输入图像描述

如果您不使用 Databricks,那么您可以将数据呈现为 HTML 并将其存储为存储在某处的文件

*上面正确的渲染器*文档链接现在在技术上是“旧版”,但仍然有效。在撰写本文时,新的文档网站版本缺乏详细信息。