本港台开奖现场直播 j2开奖直播报码现场
当前位置: 新闻频道 > IT新闻 >

wzatv:【组图】史上最全:TensorFlow 好玩的技术、应用和你不知道的黑科技(8)

时间:2017-03-10 02:41来源:118论坛 作者:118KJ 点击:
merged_summary = tf.summary.merge_all() writer = tf.summary.FileWriter(/tmp/mnist_demo/3) writer.add_graph(sess.graph)for i in range(2001): batch = mnist.train.next_batch(100) if i % 5 == 0: s = sess.

  merged_summary = tf.summary.merge_all() writer = tf.summary.FileWriter("/tmp/mnist_demo/3") writer.add_graph(sess.graph)for i in range(2001): batch = mnist.train.next_batch(100) if i % 5 == 0: s = sess.run(merged_summary, feed_dict={x: batch[0], y: batch[1]}) writer.add_summary(s, i) sess.run(train_step, feed_dict={x: batch[0], y: batch[1]})

wzatv:【j2开奖】史上最全:TensorFlow 好玩的技术、应用和你不知道的黑科技

wzatv:【j2开奖】史上最全:TensorFlow 好玩的技术、应用和你不知道的黑科技

  Hyperparameter Search

这次这个TensorBoard的talk给我最大的收获就是用TensorBoard做Hyperparamter Search 是这么的方便, 这次talk中主要演示超参的两个方面:

不同学习率

不同网络结构

# Try a few learning rates for learning_rate in [1E-3, 1E-4, 1E-5]: # Try a model with fewer layers for use_two_fc in [True, False]: for use_two_conv in [True, False]: # Construct a hyperparameter string for each one (example: "lr_1E-3,fc=2,conv=2) hparam_str = make_hparam_string(learning_rate, use_two_fc, use_two_conv) writer = tf.summary.FileWriter("/tmp/mnist_tutorial/" + hparam_str) # Actually run with the new settings mnist(learning_rate, use_two_fully_connected_layers, use_two_conv_layers, writer)

tensorboard --logdir /tmp/mnist_tutorial

  

wzatv:【j2开奖】史上最全:TensorFlow 好玩的技术、应用和你不知道的黑科技

  

wzatv:【j2开奖】史上最全:TensorFlow 好玩的技术、应用和你不知道的黑科技

  

wzatv:【j2开奖】史上最全:TensorFlow 好玩的技术、应用和你不知道的黑科技

  Embedding Visualizer

  embedding = tf.Variable(tf.zeros([10000, embedding_size]), name="test_embedding") assignment = embedding.assign(embedding_input)config = tf.contrib.tensorboard.plugins.projector.ProjectorConfig() embedding_config = config.embeddings.add() embedding_config.tensor_name = embedding.name embedding_config.sprite.image_path = os.path.join(LOG_DIR, 'sprite.png') # Specify the width and height of a single thumbnail. embedding_config.sprite.single_image_dim.extend([28, 28]) tf.contrib.tensorboard.plugins.projector.visualize_embeddings(writer, config)for i in range(2001): batch = mnist.train.next_batch(100) if i % 5 == 0: [train_accuracy, s] = sess.run([accuracy, summ], feed_dict={x: batch[0], y: batch[1]}) writer.add_summary(s, i) if i % 500 == 0: sess.run(assignment, feed_dict={x: mnist.test.images, y_true: mnist.test.labels}) saver.save(sess, os.path.join(LOG_DIR, "model.ckpt"), i) sess.run(train_step, feed_dict={x: batch[0], y_true: batch[1]})

  

wzatv:【j2开奖】史上最全:TensorFlow 好玩的技术、应用和你不知道的黑科技

  

wzatv:【j2开奖】史上最全:TensorFlow 好玩的技术、应用和你不知道的黑科技

  

wzatv:【j2开奖】史上最全:TensorFlow 好玩的技术、应用和你不知道的黑科技

  

wzatv:【j2开奖】史上最全:TensorFlow 好玩的技术、应用和你不知道的黑科技

  Future for TensorBoard

未来TensorBoard,会在以下三个方面来做一些提升:

在TensorBoard上集成Tensorflow的调试

增加插件的支持

企业级TensorBoard的支持

  总结

照例总结下,从上面不难看出TensorFlow在过去一年的时间里确实做了很多很有意思的工作,无论是在Reasearch还是Production上,包括各种有意思的工具,其中收获最大的是利用TensorFlow来做超参的调节、还有Keras的新的支持、分布式的各种模型变量保存的优化方法、分布式容灾、XLA的支持是的模型更快,那么花在看这些演讲上的时间感觉没有浪费,但是因为个人知识有限,如上面有错误或者不周到的地方,欢迎指出,敬请谅解。

(责任编辑:本港台直播)
顶一下
(0)
0%
踩一下
(0)
0%
------分隔线----------------------------
栏目列表
推荐内容