bert 提供微调模型 - 最佳解决方案

vecaoik1  于 3个月前  发布在  其他
关注(0)|答案(7)|浏览(53)

如何为微调后的模型提供服务并返回预测结果?

rjee0c15

rjee0c151#

这是一个重复的问题,编号为#679

xtfmy6hx

xtfmy6hx2#

感谢Jay的回复,然而,BERT-as-service只会编码句子。我查看了他们的文档并运行了它,但它没有任何预测。

lymnna71

lymnna714#

尽管这可能不是最有效的方法,但我发现将预测 Package 在一个Flask API中运行得相当好。它的工作原理如下:
首先在训练后导出你的模型:
estimator.export_saved_model(model_dir, serving_input_receiver_fn)
然后使用类似于以下代码在API中加载你的模型:

from tensorflow.contrib import predictor
predict_fn = predictor.from_saved_model(model_dir)
result = predict_fn(...)

现在你可以使用predict_fn来提供预测。如果你需要的话,我可以分享一个粗略的实现 :)

50few1ms

50few1ms5#

@sarnikowski 我实际上正在使用Flask来提供预测,但是它非常慢。您能与我分享一下代码吗?
谢谢!

jm2pwxwz

jm2pwxwz6#

对于对此感兴趣的其他人,我编写了一个粗略的实现并将其提供在此:https://github.com/sarnikowski/bert_in_a_flask

iyzzxitl

iyzzxitl7#

Maybe check this out if you are looking for serving BERT fine-tuned model.
BERT Serving and Inferencing from fine-tuned

相关问题