S676951 2017-12-05 13:00 采纳率: 100%
浏览 8084
已采纳

如何解决Tensorflow数据集太大的问题?

将稀疏矩阵压缩时用的tensorflow.sparse_to_tense函数,报错Cannot create a tensor proto whose content is larger than 2GB,这个问题要怎么解决啊?老师给我们的数据集最大的一个有10GB,才接触TensorFlow,不知道怎么处理,麻烦大神们帮帮忙!

  • 写回答

1条回答 默认 最新

  • COCO_AS 2017-12-05 13:42
    关注

    这里有解决办法
    https://stackoverflow.com/questions/38087342/use-large-dataset-in-tensorflow

    搬过来供你参考

    Do not load data to constant, it will be part of your computational graph.

    You should rather:

    Create an op which is loading your data in stream fashion
    Load data in python part, and use feed_dict to pass the batch into the graph
    

    For TensorFlow 1.x and Python 3, there is my simple solution:

     X_init = tf.placeholder(tf.float32, shape=(m_input, n_input))
    X = tf.Variable(X_init)
    sess.run(tf.global_variables_initializer(), feed_dict={X_init: data_for_X})
    
    

    In practice, you will mostly specify Graph and Session for continuous computation, this following code will help you:

     my_graph = tf.Graph()
    sess = tf.Session(graph=my_graph)
    with my_graph.as_default():
        X_init = tf.placeholder(tf.float32, shape=(m_input, n_input))
        X = tf.Variable(X_init)
        sess.run(tf.global_variables_initializer(), feed_dict={X_init: data_for_X})
        .... # build your graph with X here
    .... # Do some other things here
    with my_graph.as_default():
        output_y = sess.run(your_graph_output, feed_dict={other_placeholder: other_data})
    
    本回答被题主选为最佳回答 , 对您是否有帮助呢?
    评论

报告相同问题?

问题事件

  • 已采纳回答 9月16日

悬赏问题

  • ¥15 有兄弟姐妹会用word插图功能制作类似citespace的图片吗?
  • ¥200 uniapp长期运行卡死问题解决
  • ¥15 请教:如何用postman调用本地虚拟机区块链接上的合约?
  • ¥15 为什么使用javacv转封装rtsp为rtmp时出现如下问题:[h264 @ 000000004faf7500]no frame?
  • ¥15 乘性高斯噪声在深度学习网络中的应用
  • ¥15 关于docker部署flink集成hadoop的yarn,请教个问题 flink启动yarn-session.sh连不上hadoop,这个整了好几天一直不行,求帮忙看一下怎么解决
  • ¥15 深度学习根据CNN网络模型,搭建BP模型并训练MNIST数据集
  • ¥15 C++ 头文件/宏冲突问题解决
  • ¥15 用comsol模拟大气湍流通过底部加热(温度不同)的腔体
  • ¥50 安卓adb backup备份子用户应用数据失败