您的功能请求是否与问题相关?请描述。
关于 explainer class 上的 official homepage 似乎没有任何文档。
没有文档的情况下,很难理解如何以正确和预期的方式使用解释器。
我设法让它工作了,但是模型的解释属性完全没有意义,甚至对于两个不同的模型都是如此。
我无法使用 shap 获取特征重要性/属性,因为 Ludwig 预测函数返回的元组不被 shap 接受,所以我不得不依赖 Ludwig 提供的解释器。
描述使用场景
文档应该描述如何使用 Ludwig 内置的解释器,提供使用案例和示例。
描述您希望的解决方案
在官方主页上有一个专门的页面描述解释器。
5条答案
按热度按时间oknrviil1#
你好@Exitare,这周我会为解释类创建文档。在我完成这个任务的过程中,我会随时向你汇报我的进度!
j1dl9f462#
非常感谢!如果您需要任何帮助,请让我知道!感谢您的支持!
5ssjco0h3#
嗨@Exitare,我只是想让你知道这仍然在我的雷达上!对于延迟表示歉意,过去一周发生了很多事情,但我会尽快处理。
dm7nw8vv4#
感谢您的更新:)
v09wglhw5#
你好@Exitare,很抱歉这里有些延迟。不幸的是,我一直被其他优先事项所困扰。我进行了一次内部讨论,鉴于该功能目前处于实验性API状态,如https://github.com/ludwig-ai/ludwig/blob/1b0774fd12d627bd8f4c7e7d4008795e517e6d68/ludwig/explain/gbm.py#L9C37-L9C37 和 https://github.com/ludwig-ai/ludwig/blob/1b0774fd12d627bd8f4c7e7d4008795e517e6d68/ludwig/explain/captum.py#L153C37-L153C37,我们实际上无法在至少处于beta支持状态之前就全面文档进行整合。如果你对实现或解释器的得出的结果有特定的问题,我很乐意回答这些问题以帮助你实现目标。