hadoop/spark fiware cosmos通用入门问题

hm2xizp9  于 2021-05-29  发布在  Hadoop
关注(0)|答案(1)|浏览(446)

我有一些关于fiware cosmos的一般性问题,如果它们是基本的,我很抱歉,但是我试图理解cosmos的架构和使用。
我看到你计划把ApacheSpark整合进宇宙?你有实现这一目标的路线图或日期吗?如果我现在想用spark怎么办?
可以使用哪些hadoop服务源?我想我读到cosmos支持cloudera cdh服务和原始hadoop服务器服务?hortonworks或mapr呢?
我知道hadoop可以使用非标准的文件系统,比如maprfs,cosmos可以使用这样的选项吗?
我还读到cosmos“坐”在fiware之上,因此hadoop即服务(haas)可以被使用,hadoop集群可以使用openstack生成吗?然而,我看到人们指的是一个共享的固件云?fiware作为远程云运行吗?本地云可以在客户站点上使用吗?
cosmos是fiware.org上唯一的apachehadoop/spark解决方案吗?
最后,如果cloudera cdh可以与cosmos一起使用,那么cloudera集群管理器如何适应这种组合?还能用吗?
抱歉,所有的问题:)

ghhkc1vu

ghhkc1vu1#

cosmos是fiware实验室中大数据ge的全局示例的名称,它是一个已经部署在云中的共享hadoop示例,可以供fiware用户使用。
事实上,有两个示例:一个是“旧”的,服务于hadoop堆栈的一个相当旧的版本,另一个是 cosmos.lab.fiware.org 它的切入点。“新”的一个是一对hadoop集群,一个用于数据存储,另一个用于数据分析;入口点是 storing.cosmos.lab.fiware.org 以及 computing.cosmos.lab.fiware.org .
当然,您可以在fiware云(或任何其他云,如amazon云)中自行部署任何其他hadoop(甚至spark)示例。
关于spark,因为它最初是在我们计划在fiware实验室中部署的(这就是为什么它出现在路线图中),现在还不清楚它将被部署。

相关问题