使用logstash将数据推送到kafka服务器

kmynzznz  于 2021-06-04  发布在  Kafka
关注(0)|答案(0)|浏览(402)

我有一个logstash conf文件,如下所示:

input {

      jdbc {

            jdbc_driver_class => "Java::oracle.jdbc.driver.OracleDriver"
            jdbc_connection_string => "jdbc:oracle:thin:@//the-s2.db.oracle.yn:1521/DPP2.mind.com"
            jdbc_user => "STG_TEST"
            jdbc_password => "cddcdcd"
            parameters => {"orderid" => 1212332365}
            statement => "select PO_SEARCH_IL_ID,ORDER_DATE,REF_1,SHIPPING_WINDOW_START,SHIPPING_WINDOW_END FROM ods.po_search_il where PO_SEARCH_IL_ID =:orderid "
            schedule => "* * * * *"
            clean_run => true

    }

}

output {
        kafka {
        bootstrap_servers => "mykafkaservername.kn:9092"
        topic_id => ["test3"]
                }
        }

运行主题test3的脚本被创建到kafka服务器中,但其中没有数据。

有人能帮上忙吗?

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题