使用pentaho java api为以编程方式传递hdfs文件路径的hdfs文件生成报告

dohp0rv5  于 2021-06-02  发布在  Hadoop
关注(0)|答案(1)|浏览(449)

我是pentaho的新手。我安装了pentaho enterprise edition,并为bigdata设置了所需的配置。我能够运行pdi转换并使用该工具生成报告。在我的java web应用程序中,我使用maven下载了生成报告所需的pentaho Ketter jar。是否可以为生成报告通过动态传递hdfs文件路径或使用报表api编程传递hdfs文件路径?如果是,需要哪些步骤来完成?
提前谢谢。

h22fl7wq

h22fl7wq1#

你可以在服务器端有一个pentaho报告。为了能够查询hdfs,这个报告应该查询pdi转换/作业。当它尝试查询它时-它启动转换。因此,您必须拥有完整的pdi基础设施,才能执行此作业/转换。分开的jar也没用,因为pdi(也称为pentaho勺子壶)是一个“装置”而不是一个图书馆。它使用“垫片”作为插件与hdfs交互。这必须有一个正确的文件夹和配置文件等结构,在企业版通常所有这些都隐藏在企业服务器的引擎盖。
如果您想使用“我自己的JavaWeb应用程序”,最简单的方法就是创建一个Ketter转换,安装carte服务器(在web服务器或其他机器附近),配置hdfs步骤在这个carte服务器上运行。
从技术上讲,当在web应用程序的上下文中启动这样的报告时,这将触发Ketter转换执行。这也将调用carte服务器来执行hdfs步骤。由于carte服务器有一个正确的pdi安装,能够与hdfs交互,它将获取hdfs数据并将其发送回应用程序。自从您的web应用程序运行report以来,这些数据将在网络中传输:report run transformation、transformation fetch data from carte server、carte server fetch data from hdfs。
您可以考虑将carte服务器作为只能访问的本地主机,同时向外部请求公开您的web应用程序。希望能有帮助。
希望能有帮助。

相关问题