在DatabricksSQL(SparkSQL)中,是否有一种方法可以按表、模式和目录计算行数?

dwbf0jvd  于 2023-02-05  发布在  Apache
关注(0)|答案(1)|浏览(103)

我现在需要在Databricks中创建一个 Jmeter 板,用于汇总当前工作区中的行数。
是否可以创建SQL查询来按表、方案和目录计算行数?预期结果为:
| 目录|图式|表|行数|
| - ------|- ------|- ------|- ------|
| 示例目录1|财务|表格示例1|小行星1567000|
| 示例目录1|财务|表格示例2|六万七千|
| 示例目录2|采购|表格示例1|小行星45324|
| 示例目录2|采购|表格示例2|小行星89765987|
| 示例目录2|采购|表格示例3|小行星14.5万|
目前,我正在使用纯SQL工作流,所以我想知道是否可以使用SQL执行这样的操作,因为据我所知,Databricks中的 Jmeter 板不接受PySpark代码。
我一直在寻找这样做的方法,我知道可以使用system.information_schema.tables访问工作区中的表,但是如何使用它来计算每个表的总行数呢?
我正在检查通过SQL Server是否可以通过sys schemadynamic queryBEGIN...END子句执行此操作。我在Databricks中找不到这样做的方法。

rryofs0p

rryofs0p1#

我非常怀疑你是否能在数据块 Jmeter 板中运行这种查询。@Sharma分享的链接更多的是关于如何使用数据框获得记录计数,而不是如何将其与数据块 Jmeter 板链接。

相关问题