数据透视怎么弄(数据透视怎么做)
1427
2022-05-30
@Author:Runsen
19年接触Tensorflow1.X,看过1.X的官方文档、到19年暑假的时候,我记得tensorflow2的发布。tensorflow2抛弃了tf.seesion,tf.placeholder。
AutoGraph 是 Tensorflow 2.0 新功能之一。
function or seesion
在tensorflow1.X,计算任何东西,必须在会话中启动图。Tensorflow 最大的思想是将所有的数值计算都表达为一个计算图。
下面的代码在1.X更常用。唯一的区别是不需要在最后关闭会话,因为它会自动关闭。
with tf.Session() as sess: print(sess.run(c))
1
2
但是到了tensorflow2,没有了tf.seesion,
Tensorflow 2.0 的主要变化之一是删除了tf.Session对象。
这种变化迫使用户以更好的方式组织代码:不再tf.Session需要传递对象,而只是可以通过简单的修饰加速的 Python 函数。
请参考:官方文档 Functions,而不是 Sessions
为了在 Tensorflow 2.0 中定义图形,我们需要定义一个 Python 函数并用@tf.function.
import tensorflow as tf @tf.function def compute_z1(x, y): return tf.add(x, y) @tf.function def compute_z0(x): return compute_z1(x, tf.square(x)) z0 = compute_z0(2.) z1 = compute_z1(2., 2.) print(z0,z1) # tf.Tensor(6.0, shape=(), dtype=float32) tf.Tensor(4.0, shape=(), dtype=float32)
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
@tf.function是函数的装饰器。“TensorFlow 函数”将计算定义为 TensorFlow 操作图,具有命名参数和显式返回值。
AutoGraph
在TensorFlow 2.0中,默认情况下启用了eager 模式。 对于用户而言直观且灵活(运行一次性操作更容易,更快
AutoGraph主要是可以将一些常用的Python代码转化为TensorFlow支持的Graph代码
下面是官方代码
def square_if_positive(x): if x > 0: x = x * x else: x = 0.0 return x # eager 模式 print('Eager results: %2.2f, %2.2f' % (square_if_positive(tf.constant(9.0)), square_if_positive(tf.constant(-9.0)))) # graph 模式 tf_square_if_positive = tf.autograph.to_graph(square_if_positive) with tf.Graph().as_default(): # The result works like a regular op: takes tensors in, returns tensors. # You can inspect the graph using tf.get_default_graph().as_graph_def() g_out1 = tf_square_if_positive(tf.constant( 9.0)) g_out2 = tf_square_if_positive(tf.constant(-9.0)) with tf.compat.v1.Session() as sess: print('Graph results: %2.2f, %2.2f' % (sess.run(g_out1), sess.run(g_out2)))
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
上面定义了一个square_if_positive函数,TensorFlow 2.0的eager先执行,
然而这是TensorFlow 1.x所不支持的eager模式,但是使用AutoGraph可以将这个函数转为Graph函数,其可以在Graph模式下运行(tf2 没有Session,Graph模式是tf1.x的特性,想使用tf1.x的话需要调用tf.compat.v1)。
在tensorflow中,Graph execution or eager execution ?
eager模式和Graph模式的结果是一样的,但是官方说明Graph模式更高效,并给出具体的示例:
def huber_loss(a): if tf.abs(a) <= delta: loss = a * a / 2 else: loss = delta * (tf.abs(a) - delta / 2) return loss
1
2
3
4
5
6
上面代码默认使用 Eager Execution,但是操作会比较慢。
为了给图执行做好准备,你需要重写代码,使用 tf.cond() 等语句,但是这很繁琐且难以实现。AutoGraph 可以自动完成该转换,保持 Eager 编程的简易性,同时还提升了计算图执行的性能。
@autograph.convert() def huber_loss(a): if tf.abs(a) <= delta: loss = a * a / 2 else: loss = delta * (tf.abs(a) - delta / 2) return loss
1
2
3
4
5
6
7
对应官方链接:https://blog.tensorflow.org/2018/07/autograph-converts-python-into-tensorflow-graphs.html
Python TensorFlow
版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。