husky66 2023-05-22 14:39 采纳率: 57.1%
浏览 18
已结题

tensorflow多线程如何传递模型?

现在有一个tensorflow模型已经训练完成存储在本地,我想在A线程中使用load-model加载这个模型,然后将这个模型传递给B线程,在B线程调用这个模型进行预测。但现在运行的时候报错

img

说是由于在加载模型时没有正确设置默认图形所导致的。我应该怎么做才能够在B线程运行这个模型。
我不能在B线程加载模型,因为在B线程中加载这个模型的话,加载模型会比较慢,而且B线程需要不断循环使用。所以不能再B线程在加载模型。只能在其他线程预加载完模型,传递给他。

  • 写回答

3条回答 默认 最新

  • 程序员之梦@ 2023-05-22 15:37
    关注

    问题答案由GPT-4Plus模型(语音)与博主程序员之梦@共同编写:

    你遇到的问题是因为TensorFlow的计算是基于图(graph)的,而每个线程有自己的默认图。所以在一个线程中加载模型,然后传递到另一个线程使用会出现错误。

    解决这个问题有两种方法:

    1. 在加载模型的线程中设置默认图,然后在其他线程使用这个图计算:
    python
    import tensorflow as tf
    
    # 定义默认图
    graph = tf.compat.v1.get_default_graph()
    
    # 在线程A中加载模型 
    with graph.as_default(): 
        model = tf.keras.models.load_model('model.h5')
    
    # 在线程B中使用model计算,指定使用线程A的图
    with tf.compat.v1.Session(graph=graph) as sess: 
        output = model.predict(input)
    
    
    1. 将Keras模型导出为TensorFlow SavedModel格式,然后在各个线程中直接加载SavedModel进行计算:
    python
    # 在线程A中将Keras模型保存为SavedModel格式 
    model.save('saved_model')
    
    # 在线程B中加载SavedModel并计算
    model = tf.saved_model.load('saved_model') 
    output = model.predict(input)
    
    

    SavedModel是TensorFlow的序列化格式,将模型结构和权重等全部封装在其中,各个线程加载后可以直接使用,无需指定图计算。

    所以,推荐的方法是将Keras模型导出为TensorFlow SavedModel格式,然后在各个线程中加载SavedModel独立计算。

    本回答被题主选为最佳回答 , 对您是否有帮助呢?
    评论
查看更多回答(2条)

报告相同问题?

问题事件

  • 系统已结题 5月30日
  • 已采纳回答 5月22日
  • 创建了问题 5月22日

悬赏问题

  • ¥20 我想使用一些网络协议或者部分协议也行,主要想实现类似于traceroute的一定步长内的路由拓扑功能
  • ¥30 深度学习,前后端连接
  • ¥15 孟德尔随机化结果不一致
  • ¥15 apm2.8飞控罗盘bad health,加速度计校准失败
  • ¥15 求解O-S方程的特征值问题给出边界层布拉休斯平行流的中性曲线
  • ¥15 谁有desed数据集呀
  • ¥20 手写数字识别运行c仿真时,程序报错错误代码sim211-100
  • ¥15 关于#hadoop#的问题
  • ¥15 (标签-Python|关键词-socket)
  • ¥15 keil里为什么main.c定义的函数在it.c调用不了