当源代码是kafka avro格式时,如何在memsql中创建转换

qyswt5oh  于 2021-06-07  发布在  Kafka
关注(0)|答案(1)|浏览(429)

我可以将数据从kafka推送到memsql。
我正在尝试使用transform来推送。我已经用python创建了kafka consumer,它使用kafka主题中的数据并转换为json格式。
我不知道如何在memsql中使用这个作为转换。

from confluent_kafka import KafkaError
from confluent_kafka.avro import AvroConsumer
from confluent_kafka.avro.serializer import SerializerError
import sys

c = AvroConsumer({
    'bootstrap.servers': 'X.Y.Z.W:9092',
    'group.id': 'groupid1112',
    'schema.registry.url': 'http://X.Y.Z.W:8081',
    'default.topic.config': {
        'auto.offset.reset': 'smallest'
    }
    })

c.subscribe(['test_topic'])
count =0
while True:
    try:
        msg = c.poll(10)

    except SerializerError as e:
        print("Message deserialization failed for {}: {}".format(msg, e))
        break

    if msg is None:
        continue

    if msg.error():
        if msg.error().code() == KafkaError._PARTITION_EOF:
            continue
        else:
            print(msg.error())
            break
    valueList = list(msg.value().values())
    print(valueList)

c.close()

这是普里宁

[1518776144187, 1, 2, 103,'asas',asas'eer',None]
3wabscal

3wabscal1#

检查这些文件https://docs.memsql.com/memsql-pipelines/v6.0/transforms/
请继续关注即将发布的memsql版本中对本机avro的支持。
你会想做如下的事情,但我在avro的具体细节,因为我不知道avro库关闭我的头。

def input_stream():
"""
Consume STDIN and yield each record that is received from MemSQL
"""
while True:
byte_len = sys.stdin.read(8)
if len(byte_len) == 8:
byte_len = struct.unpack("L", byte_len)[0]
result = sys.stdin.read(byte_len)
yield result
else:
assert len(byte_len) == 0, byte_len
return

avro_context = WhateverYouNeed() # maybe connect to schema registry here if you need to

for msg in input_stream():
object = DeserializeAvro(avro_context, msg) # this is your code
sys.stdout.write(SerializeToTSV(object)) # also your code

使用schema注册表应该可以,但是您不必担心在转换脚本中读取kafka的细节。我可以在周一给你一个更详细的脚本,但这是如何构造代码的。

相关问题