reduce的owl文件hadoop推理

xt0899hw  于 2021-06-02  发布在  Hadoop
关注(0)|答案(1)|浏览(411)

我已经创建了一个大的本体(.owl),现在我正在进行推理。事实上,问题是如何确保本体的可伸缩性推理。我在文献中搜索了一下,发现大数据可以很好地解决这个问题。不幸的是,我发现map reduce不能接受作为输入owl文件。除swrl等语义语言外,sparql不能使用。
我的问题是:
我应该和其他人一起更改owl文件吗?
如何使用map reduce以可接受的格式转换规则(例如swrl)?
谢谢

8ehkhllq

8ehkhllq1#

“大数据可以充分解决这个问题”对于这个问题来说太简单了。
确保owl本体的可伸缩性是一个非常复杂的问题。所涉及的主要变量是 axios 数和本体的表达能力;然而,这些并不总是最重要的特征。很大程度上还取决于所使用的api,对于推理步骤与解析分离的api,使用的是哪个reasoner。
swrl规则增加了另一个层次的复杂性,因为它们具有(几乎)任意的复杂性,所以一般来说不可能保证可伸缩性。对于特定的本体和特定的规则集,可以提供更好的猜测。
转换为mapreduce格式/may/help,但据我所知,没有标准转换,要保证转换保留本体和规则蕴涵的语义是相当复杂的。因此,该任务相当于以允许您回答需要运行的查询的方式重写数据,但这可能被证明是不可能的,具体取决于特定的本体论。
另一方面,这个本体的大小和分配给任务的内存量是多少?

相关问题