EncodeTS/TensorFlow_Center_Loss

如何理解串行全连接

Closed this issue · 2 comments

image
在原有网络上添加center loss 更改了原有网络结构,因为添加了hidden_dim == center_dim的全连接层。
改成并行的两个全连接:
x = slim.flatten(x, scope='flatten')
feature = slim.fully_connected(x, num_outputs=2, activation_fn=None, scope='fc1')
x = slim.fully_connected(x, num_outputs=10, activation_fn=None, scope='fc2')
这样不会改变原结构,只是加了一个分支训练。求大神指正。。。

这里只是为了在函数return的时候能拿到中间的feature向量以便于后续加入center loss,没有其他特别的含义