首页
问答库
知识库
教程库
标签
AI工具箱
登录
注册
投稿
为什么在所有任务都完成之后,我的databricks spark任务还没有完成?
wr98u20j
于 2021-07-13
发布在
Spark
关注(0)
|
答案(0)
|
浏览(173)
我看到我的一些工作被困在等待“运行命令…”阶段,甚至在所有任务都已完成并且有“0”正在运行之后。
是什么原因造成的?
我应该查看哪些日志来解决此问题?
谢谢
截图:
apache-spark
apache-spark-sql
databricks
azure-databricks
azure-data-lake
来源:
https://stackoverflow.com/questions/66207966/why-doesnt-my-databricks-spark-job-finish-even-after-all-tasks-have-finished
关注
举报
暂无答案!
目前还没有任何答案,快来回答吧!
我来回答
相关问题
查看更多
热门标签
更多
Java
query
python
Node
开发语言
request
Util
数据库
Table
后端
算法
Logger
Message
Element
Parser
最新问答
更多
xxl-job 安全组扫描到执行器端口服务存在信息泄露漏洞
回答(1)
发布于
3个月前
xxl-job 不能和nacos兼容?
回答(3)
发布于
3个月前
xxl-job 任务执行完后无法结束,日志一直转圈
回答(3)
发布于
3个月前
xxl-job-admin页面上查看调度日志样式问题
回答(1)
发布于
3个月前
xxl-job 参数512字符限制能否去掉
回答(1)
发布于
3个月前
暂无答案!
目前还没有任何答案,快来回答吧!