point net tf.nn.conv2d

本文详细解析了使用TensorFlow进行4维输入张量与特定卷积核的二维卷积运算过程,包括输入张量、卷积核、步长、填充方式等关键参数的设置与计算逻辑,以及输出张量的尺寸推导。

计算一个4维的输入与对应的filter即卷积核的二维卷积计算 

tf.nn.conv2d(
    input, filters, strides, padding, data_format='NHWC', dilations=None, name=None
)

在此工程中

outputs = tf.nn.conv2d(inputs, kernel,
                       [1, stride_h, stride_w, 1],
                       padding=padding)

 input为拓展了一维的32x1024x3x1的4维tensor,kernel为初始化完毕的weight_loss,为1x3x1x64的tensor,strides为四维的方向,这里指定batch方向为1,中间1024x3的维度为设置的stride[1,1],最后一维为拓展的1维,默认为1.padding为"valid"其他参数为默认。

padding是指定的填充算法,

函数内部流程是:

1,将filter转换为2维的matrix,shape为[1x3x1,64]

2,将input的tensor提取为patches 类型的virtual tensor(目前还不知道什么意思),shape为 [batch, out_height, out_width, filter_height * filter_width * in_channels].

shape中有两个参数未知,out_height以及out_width.关于这两个值,由padding的设置进行计算:

"SAME" 类型的padding:

out_height = ceil(in_height / strides[1]); ceil向上取整

out_width = ceil(in_width / strides[2])

"VALID"类型的padding:

out_height = ceil((in_height - filter_height + 1) / striders[1])

out_width = ceil((in_width - filter_width + 1) / striders[2]

ceil返回比输入值大的最接近的整数,向上取整

本工程,out_height =(1024-1+1)/1=1024

out_width  = (3-3+1)/2=1

3,将提取的input右乘以fileter即[32,1024,1,1*3*1]x[1*3*1,64]

最终得到output[32,1024,1,64],

具体原理为,我们的输入是32,1024,3,1的input每个batch有1024,3,1,我们卷积的核是h,1,w,3,因为要输出64channel所以有64个1,3的核,分别对每个batch的input进行卷积,h步长为1,w步长为1,因为padding是valid所以w方向只能卷积一次,因为边缘的值不插值进行计算,所以1,3卷积核按照stride[1,1]卷积input1024,3,1一次,得到1024,1的output,因为有64个1,3卷积核,所以每个batch可以得到1024,1,64的output,32个batch,所以得到32,1024,1,64的output tensor

 

 

 

def input_transform_net(point_cloud, is_training, bn_decay=None, K=3): """ Input (XYZ) Transform Net, input is BxNx3 gray image Return: Transformation matrix of size 3xK """ batch_size = point_cloud.get_shape()[0].value num_point = point_cloud.get_shape()[1].value input_image = tf.expand_dims(point_cloud, -1) net = tf_util.conv2d(input_image, 64, [1,3], padding='VALID', stride=[1,1], bn=True, is_training=is_training, scope='tconv1', bn_decay=bn_decay) net = tf_util.conv2d(net, 128, [1,1], padding='VALID', stride=[1,1], bn=True, is_training=is_training, scope='tconv2', bn_decay=bn_decay) net = tf_util.conv2d(net, 1024, [1,1], padding='VALID', stride=[1,1], bn=True, is_training=is_training, scope='tconv3', bn_decay=bn_decay) net = tf_util.max_pool2d(net, [num_point,1], padding='VALID', scope='tmaxpool') net = tf.reshape(net, [batch_size, -1]) net = tf_util.fully_connected(net, 512, bn=True, is_training=is_training, scope='tfc1', bn_decay=bn_decay) net = tf_util.fully_connected(net, 256, bn=True, is_training=is_training, scope='tfc2', bn_decay=bn_decay) with tf.variable_scope('transform_XYZ') as sc: assert(K==3) weights = tf.get_variable('weights', [256, 3*K], initializer=tf.constant_initializer(0.0), dtype=tf.float32) biases = tf.get_variable('biases', [3*K], initializer=tf.constant_initializer(0.0), dtype=tf.float32) biases += tf.constant([1,0,0,0,1,0,0,0,1], dtype=tf.float32) transform = tf.matmul(net, weights) transform = tf.nn.bias_add(transform, biases) transform = tf.reshape(transform, [batch_size, 3, K]) return transform
最新发布
09-20
评论 1
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值