我试图通过Databricks DLT管道加载我的datalake SCD 2表。我的目标是通过在DLT管道中的“配置”设置中传递所需的信息来动态加载notebook中的表。
“配置”设置可能看起来像这样:
{
"object1": {
"object_name": "table",
"business_key_column": "table_bk",
"except_column_list": "change_date",
"sequence_column": "change_date"
},
"object2"...
}
稍后,目标笔记本应该获取管道配置中的参数,并相应地加载表。我可以在目标笔记本中获取管道配置设置吗?如果是:如何进行?
1条答案
按热度按时间yquaqz181#
可以。您可以使用spark configuration在notebook中获取管道配置设置。
如本文档所述,通过spark配置,可以在管道查询中使用配置设置。
您可以使用下面的语句
spark.conf.get("key")
访问。下面是给出的配置。
并在笔记本中访问。
根据给定的路径,返回该嵌套框架。
在你的情况下,你可以像下面这样得到它。
获取json对象后,您可以相应地使用它。
输出:
和
和