想要保存训练之后得到的神经网络参数,一般有两种办法。

第一种,可以将tensor对象转换为numpy数组进行保存。

即,


numpy.savetxt( 'weight.txt', weight.eval())

第二种,是利用tensorflow自带的Saver对象。

import tensorflow  as tf
##################################################3
w1  = tf.Variable(tf.constant( 1.0),  name = 'w1')
w2  = tf.Variable(tf.constant( 2.0),  name = 'w2')
tf.add_to_collection( 'vars', w1)
tf.add_to_collection( 'vars', w2)
saver  = tf.train.Saver()

with tf.Session()  as sess:
    sess.run(tf.global_variables_initializer())
    w1  = tf.add(w1, w2)
    saver.save(sess,  './my-model.ckpt')

上面的代码中,创建了容器vars。它收集了tensor变量w1和w2。之后,tensorflow将这一容器保存。

在session中运行,就能将数据保存到tensorflow创建的几个文件中。

上面的代码运行结束后,当前目录下出现四个文件:

my-model.ckpt.meta

my-model.ckpt.data-*

my-model.ckpt.index

checkpoint


利用这四个文件就能恢复出 w1和w2这两个变量。

with tf.Session()  as sess:
    new_saver  = tf.train.import_meta_graph( 'my-model.ckpt.meta')
    new_saver.restore(sess, tf.train.latest_checkpoint( './'))
    all_vars  = tf.get_collection( 'vars')
     print(all_vars)
     for v  in all_vars:
         print(v)
         print(v.name)
        v_  = v.eval()  # sess.run(v)
         print(v_)

运行结果为:


[ <tf.Tensor  'w1:0' shape=() dtype=float32_ref ><tf.Tensor  'w2:0' shape=() dtype=float32_ref >]
Tensor( "w1:0"shape =(),  dtype =float32_ref)
w1: 0
1.0
Tensor( "w2:0"shape =(),  dtype =float32_ref)
w2: 0
2.0