/kaggle-shopee

This is the code for kaggle competition.

Primary LanguagePython

kaggle-shopee

This is the training code for kaggle competition. This code is for DLNN course project.

simple description

方案一:分别单独训练image_encoder和title_encoder

设置

image_encoder: resnet18并且只训练最后一层,冻结中间的其他层。

title_encoder: 两层的MLP,激活函数为LeakRelu()

loss: $$ loss_{i} = -log(\sigma (z_{i}^{T}z_{pos})) - \sum_{neg} log(\sigma (-z_{i}^{T}z_{neg})) $$

image_encoder的训练方式

对于每个图片,取1个正样本(同一组中随机取)和5个负样本(所有样本中随机取)。

将正负样本分别输入image_encoder得到新的特征表示,按照损失函数计算损失,更新image_encoder。

title_encoder的训练方式

首先利用tfidf对所有的title进行语义的表示,由于这个表示为度太高,之后利用pca进行降维,降到128维作为title的源特征表示。

对于每个title信息,我们取1个正样本(同一组的title中随机取)和5个负样本(所有title中随机取)。

将正负样本分别输入title_encoder得到新的特征表示,按照损失函数计算损失,更新title_encoder。

方案二:训练一个encoder

设置

image_encoder: resnet18并且只训练最后一层,冻结中间的其他层。

title_encoder: 两层的MLP,激活函数为 LeakRelu()

loss: $$ loss_{i} = -log(\sigma (z_{i}^{T}z_{pos})) - \sum_{neg} log(\sigma (-z_{i}^{T}z_{neg})) $$

encoder的训练方式

同方案一,只是将image_encoder和title_encoder的输出拼接起来计算loss。

方案三:efficient net + arc margin loss

设置

image_encoder: efficient net 4

loss:arc margin + cross entropy loss

训练方式

按照数据的分组方式对数据进行打标签处理。

对每张图片,输入到efficient net 4 提取特征表示,对特征表示旋转一定的角度之后(即加入arc margin)计算交叉熵损失,更新efficient net 4。

方案四:Sbert + arc margin loss

设置

title_encoder: 预训练的transformer

loss: arc margin + cross entropy loss

训练方式

按照数据的分组方式对数据进行打标签处理。

对每个title,输入到transformer提取特征表示,对特征表示旋转一定的角度之后(即加入arc margin)计算交叉熵损失,更新transformer。

方案五:efficient net + transformer + arc margin loss

设置

title_encoder: 预训练的transformer

image_encoder: efficient net 4

loss: arc margin + cross entropy loss

训练方式

按照数据的分组方式对数据进行打标签处理。

对每个(image,title),输入到efficient net和transformer提取特征表示并拼接起来,对拼接之后的特征表示旋转一定的角度之后(即加入arc margin)计算交叉熵损失,更新模型。