librahu/HeGAN

dblp_pre_train.emb

tyust-dayu opened this issue · 1 comments

您好,我想问一下,在你论文中,dblp_pre_train.emb这个文件中的embedding在代码中是什么作用呢,
self.node_embed_init_d = utils.read_embeddings(filename=config.pretrain_node_emb_filename_d,
n_node=self.n_node,
n_embed=config.n_emb)且在这个read_embedding中,embedding_matrix = np.random.rand(n_node, n_embed),为什么会随机生成矩阵呢,这个embedding是节点的初始信息吗?如果是,那不同类型的节点信息维度是不是应该不一样??

而且,这个embedding的数量和节点的个数也对应不上啊