我在服务器上运行不同NN模型的训练。我可以通过GUI工具(如Tensorboard、Weights & Biases)查看模型状态和指标。但我需要通过我的个人前端页面制作REST API来监控模型。对于此类任务,什么是最佳解决方案?当然,我可以将指标写入磁盘或数据库,并在另一个线程中读取。但是看起来有点难看。我不知道如何组织模型的训练者和后端之间的交流。
wb1gzix01#
您可以简单地以广播模式启动Tensorboard。这将允许您在网络中的其他系统上打开它。不要尝试自己为该任务编写REST API。
更新日期:
根据您的意见,您需要做两件事:1.编写一个带有POST方法的REST API,该方法获取需要保存的适当值。使用这些值调用此方法,将把它们保存到tensorflow之外的某个数据库或文件系统中。1.在tensorflow的情况下,通过继承tf.keras.callbacks.Callback编写一个自定义回调类,以在训练、测试或预测时调用上一步中编写的POST方法。在pytorch的情况下,由于它是由运行哲学定义的,因此您可以像编写普通类一样编写自定义回调,并在您希望调用POST方法的任何阶段使用它们。
tf.keras.callbacks.Callback
1条答案
按热度按时间wb1gzix01#
您可以简单地以广播模式启动Tensorboard。这将允许您在网络中的其他系统上打开它。不要尝试自己为该任务编写REST API。
更新日期:
根据您的意见,您需要做两件事:
1.编写一个带有POST方法的REST API,该方法获取需要保存的适当值。使用这些值调用此方法,将把它们保存到tensorflow之外的某个数据库或文件系统中。
1.在tensorflow的情况下,通过继承
tf.keras.callbacks.Callback
编写一个自定义回调类,以在训练、测试或预测时调用上一步中编写的POST方法。在pytorch的情况下,由于它是由运行哲学定义的,因此您可以像编写普通类一样编写自定义回调,并在您希望调用POST方法的任何阶段使用它们。