摘要:本文的目的是聚焦于数据操作能力,讲述中比较重要的一些,帮助大家实现各自的业务逻辑。传入输入值,指定输出的基本数据类型。
引言
用TensorFlow做好一个机器学习项目,需要具备多种代码能力:
工程开发能力:怎么读取数据、怎么设计与运行Computation Graph、怎么保存与恢复变量、怎么保存统计结果、怎么共享变量、怎么分布式部署
数据操作能力:怎么将原始数据一步步转化为模型需要的数据,中间可能涉及到Tensor转换、字符串处理、JSON处理等
模型理论知识:线性回归,逻辑回归,softmax regression,支持向量机,决策树,随机森林,GBDT,CNN,RNN
数值计算理论知识:交叉熵数值计算的潜在问题(为什么要用tf.nn.softmax_cross_entropy_with_logits),梯度下降法,海森矩阵与特征向量,牛顿法,Adam梯度法。
本系列文章已对TensorFlow的工程开发和与模型理论知识的结合做了较多的总结。本文的目的是聚焦于数据操作能力,讲述TensorFlow中比较重要的一些API,帮助大家实现各自的业务逻辑。
Tensor Transformation 拼接TensorFlow提供两种类型的拼接:
tf.concat(values, axis, name="concat"):按照指定的已经存在的轴进行拼接
tf.stack(values, axis=0, name="stack"):按照指定的新建的轴进行拼接
t1 = [[1, 2, 3], [4, 5, 6]] t2 = [[7, 8, 9], [10, 11, 12]] tf.concat([t1, t2], 0) ==> [[1, 2, 3], [4, 5, 6], [7, 8, 9], [10, 11, 12]] tf.concat([t1, t2], 1) ==> [[1, 2, 3, 7, 8, 9], [4, 5, 6, 10, 11, 12]] tf.stack([t1, t2], 0) ==> [[[1, 2, 3], [4, 5, 6]], [[7, 8, 9], [10, 11, 12]]] tf.stack([t1, t2], 1) ==> [[[1, 2, 3], [7, 8, 9]], [[4, 5, 6], [10, 11, 12]]] tf.stack([t1, t2], 2) ==> [[[1, 7], [2, 8], [3, 9]], [[4, 10], [5, 11], [6, 12]]]
上面的结果读起来不太直观,我们从shape角度看一下就很容易明白了:
t1 = [[1, 2, 3], [4, 5, 6]] t2 = [[7, 8, 9], [10, 11, 12]] tf.concat([t1, t2], 0) # [2,3] + [2,3] ==> [4, 3] tf.concat([t1, t2], 1) # [2,3] + [2,3] ==> [2, 6] tf.stack([t1, t2], 0) # [2,3] + [2,3] ==> [2*,2,3] tf.stack([t1, t2], 1) # [2,3] + [2,3] ==> [2,2*,3] tf.stack([t1, t2], 2) # [2,3] + [2,3] ==> [2,3,2*]抽取
tf.slice(input_, begin, size, name=None):按照指定的下标范围抽取连续区域的子集
tf.gather(params, indices, validate_indices=None, name=None):按照指定的下标集合从axis=0中抽取子集,适合抽取不连续区域的子集
input = [[[1, 1, 1], [2, 2, 2]], [[3, 3, 3], [4, 4, 4]], [[5, 5, 5], [6, 6, 6]]] tf.slice(input, [1, 0, 0], [1, 1, 3]) ==> [[[3, 3, 3]]] tf.slice(input, [1, 0, 0], [1, 2, 3]) ==> [[[3, 3, 3], [4, 4, 4]]] tf.slice(input, [1, 0, 0], [2, 1, 3]) ==> [[[3, 3, 3]], [[5, 5, 5]]] tf.gather(input, [0, 2]) ==> [[[1, 1, 1], [2, 2, 2]], [[5, 5, 5], [6, 6, 6]]]
假设我们要从input中抽取[[[3, 3, 3]]],这个输出在inputaxis=0的下标是1,axis=1的下标是0,axis=2的下标是0-2,所以begin=[1,0,0],size=[1,1,3]。
假设我们要从input中抽取[[[3, 3, 3], [4, 4, 4]]],这个输出在inputaxis=0的下标是1,axis=1的下标是0-1,axis=2的下标是0-2,所以begin=[1,0,0],size=[1,2,3]。
假设我们要从input中抽取[[[3, 3, 3], [5, 5, 5]]],这个输出在inputaxis=0的下标是1-2,axis=1的下标是0,axis=2的下标是0-2,所以begin=[1,0,0],size=[2,1,3]。
假设我们要从input中抽取[[[1, 1, 1], [2, 2, 2]],[[5, 5, 5], [6, 6, 6]]],这个输出在input的axis=0的下标是[0, 2],不连续,可以用tf.gather抽取。
类型转化tf.string_to_number(string_tensor, out_type=None, name=None): 将字符串转化为tf.float32(默认)和tf.int32
tf.to_double(x, name="ToDouble"):转化为tf.float64
tf.to_float(x, name="ToFloat"):转化为tf.float32
tf.to_int32(x, name="ToInt32"):转化为tf.int32
tf.to_int64(x, name="ToInt64"):转化为tf.int64
tf.cast(x, dtype, name=None):转化为dtype指定的类型
形状转化tf.reshape(tensor, shape, name=None):转化为新shape,若有一个维度设置为-1,会自动推导
SparseTensorTensorFlow使用三个dense tensor来表达一个sparse tensor:indices、values、dense_shape。
假如我们有一个dense tensor:
[[1, 0, 0, 0] [0, 0, 2, 0] [0, 0, 0, 0]]
那么用SparseTensor表达这个数据对应的三个dense tensor如下:
indices:[[0, 0], [1, 2]]
values:[1, 2]
dense_shape:[3, 4]
可以通过以下两种方法,将sparse tensor转化为dense tensor:
tf.sparse_to_dense(sparse_indices, output_shape, sparse_values, default_value=0, validate_indices=True, name=None)
tf.sparse_tensor_to_dense(sp_input, default_value=0, validate_indices=True, name=None)
字符串操作 拆分tf.string_split(source, delimiter=" ")
source是一维数组,用于将一组字符串按照delimiter拆分为多个元素,返回值为一个SparseTensor。
假如有两个字符串,source[0]是“hello world”,source[1]是“a b c”,那么输出结果如下:
st.indices: [0, 0; 0, 1; 1, 0; 1, 1; 1, 2]
st.values: ["hello", "world", "a", "b", "c"]
st.dense_shape:[2, 3]
拼接tf.string_join(inputs, separator=None, name=None),用起来比较简单:
tf.string_join(["hello", "world"], separator=" ") ==> "hello world"自定义op
通过tf.py_func(func, inp, Tout, stateful=True, name=None)可以将任意的python函数func转变为TensorFlow op。
func接收的输入必须是numpy array,可以接受多个输入参数;输出也是numpy array,也可以有多个输出。inp传入输入值,Tout指定输出的基本数据类型。
先看一个解析json的例子,输入是一个json array,输出是一个特征矩阵。
import tensorflow as tf import numpy as np import json json_str_1 = """ {"name": "shuiping.chen", "score": 95, "department": "industrial engineering", "rank": 2 } """ json_str_2 = """ {"name": "zhuibing.dan", "score": 87, "department": "production engineering", "rank": 4 } """ input_array = np.array([json_str_1, json_str_2]) def parse_json(json_str_array): fea_dict_array = [ json.loads(item) for item in json_str_array ] ret_feature = [] for fea_dict in fea_dict_array: feature = [fea_dict["score"], fea_dict["rank"]] ret_feature.append(feature) return np.array(ret_feature, dtype=np.float32) parse_json_op = tf.py_func(parse_json, [input_array], tf.float32) sess = tf.Session() print sess.run(parse_json_op)
再看一个多输入多输出的例子,输入两个numpy array,输出三个array,分别是和、差、乘积。
array1 = np.array([[1, 2], [3, 4]], dtype=np.float32) array2 = np.array([[5, 6], [7, 8]], dtype=np.float32) def add_minus_dot(array1, array2): return array1 + array2, array1 - array2, np.dot(array1, array2) add_minus_dot_op = tf.py_func(add_minus_dot, [array1, array2], [tf.float32, tf.float32, tf.float32]) print sess.run(add_minus_dot_op)
文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。
转载请注明本文地址:https://www.ucloud.cn/yun/38532.html
摘要:贡献者飞龙版本最近总是有人问我,把这些资料看完一遍要用多长时间,如果你一本书一本书看的话,的确要用很长时间。为了方便大家,我就把每本书的章节拆开,再按照知识点合并,手动整理了这个知识树。 Special Sponsors showImg(https://segmentfault.com/img/remote/1460000018907426?w=1760&h=200); 贡献者:飞龙版...
摘要:首页地址关于我们我们不是的官方组织机构团体,只是技术栈以及的爱好者基础编程思想和大数据中文文档中文文档中文文档中文文档中文文档中文文档中文文档中文文档中文文档中文文档区块链中文文档数学笔记线性代数笔记数据科学中文文档中文文档中文文档课本计算 首页地址:http://www.apachecn.org关于我们:http://www.apachecn.org/about 我们不是 Apach...
摘要:首页地址关于我们我们不是的官方组织机构团体,只是技术栈以及的爱好者基础编程思想和大数据中文文档中文文档中文文档中文文档中文文档中文文档中文文档中文文档中文文档中文文档区块链中文文档数学笔记线性代数笔记数据科学中文文档中文文档中文文档课本计算 首页地址:http://www.apachecn.org关于我们:http://www.apachecn.org/about 我们不是 Apach...
阅读 3052·2021-11-11 16:55
阅读 3169·2021-10-18 13:34
阅读 590·2021-10-14 09:42
阅读 1641·2021-09-03 10:30
阅读 846·2021-08-05 10:02
阅读 968·2019-08-30 11:27
阅读 3481·2019-08-29 15:14
阅读 1252·2019-08-29 13:02