我想使用与该spark集群相关联的jdbc连接将jmeter与databricks(spark集群)连接起来我需要在使用sparksql查询的apachespark集群上使用jmeter的jdbc请求执行并发测试需要帮助吗
nxowjjhe1#
获取databricks connect客户端:
python -m pip install -U databricks-connect==7.3.* # or X.Y.* to match your cluster version.
运行以下命令:
databricks-connect get-jar-dir
它将返回databricks客户机库的路径。将它们复制到jmeter类路径并重新启动jmeter添加jsr223采样器并在groovy中实现测试场景。示例代码片段可以在使用jdbc的sql数据库文章中找到,只需确保使用azuresql数据库驱动程序
pxy2qtax2#
您需要从下载页面获取用于databricks的jdbc驱动程序,并将其放入jmeter的类路径中。之后,按照文档中的描述配置jdbc连接(基本上您需要从集群ui复制jdbc连接字符串,并放置您的个人访问令牌)。这个jdbc连接字符串应该在jmeter的jdbc连接参数中设置。
2条答案
按热度按时间nxowjjhe1#
获取databricks connect客户端:
运行以下命令:
它将返回databricks客户机库的路径。将它们复制到jmeter类路径并重新启动jmeter
添加jsr223采样器并在groovy中实现测试场景。示例代码片段可以在使用jdbc的sql数据库文章中找到,只需确保使用azuresql数据库驱动程序
pxy2qtax2#
您需要从下载页面获取用于databricks的jdbc驱动程序,并将其放入jmeter的类路径中。之后,按照文档中的描述配置jdbc连接(基本上您需要从集群ui复制jdbc连接字符串,并放置您的个人访问令牌)。这个jdbc连接字符串应该在jmeter的jdbc连接参数中设置。