- pytorch
- torchvision
- scipy
- tensorboardX
- numpy
- opencv-python
- matplotlib
- networkx
- h5py
- scikit-iamge
- medpy
- nibabel
- torchsummary
数据集在 219 机器的 /mnt/ssd/dengyang/Verse
拷贝过来直接放到 项目根目录下
- 指定数据集的目录 ,填刚刚放的那个数据集目录
data_root_dir=/home/ubuntu/03_SpineParseNet/Verse
- 设置可见显卡 看哪张卡空了用哪张
CUDA_VISIBLE_DEVICES="1"
- 创建粗分割数据划分
这个文件里可以指定 训练,验证 集的比例
python -u ./datasets/coarse_create_h5.py --data_root_dir=${data_root_dir} --fold_num=1 --train_num=140 --val_num=32
- 训练粗分割
可以调整模型,优化器,学习率,Loss,epochs 等参数
python -u train_coarse.py --model=DeepLabv3_plus_skipconnection_3d --fold_ind=1 --data_dir=${data_root_dir}/coarse --no-pre_trained --epochs=100 --device=cuda:0 --learning_rate=0.001 --loss=CrossEntropyLoss
- GCN 粗分割
python -u train_coarse.py --model=DeepLabv3_plus_gcn_skipconnection_3d --fold_ind=1 --data_dir=${data_root_dir}/coarse --pre_trained --epochs=50 --device=cuda:0 --learning_rate=0.001 --gcn_mode=2 --ds_weight=0.3 --loss=CrossEntropyLoss
- 抽取粗分割特征
python -u coarse_semantic_feature.py --device=cuda:0 --fold_ind=1 --model=DeepLabv3_plus_gcn_skipconnection_3d --data_dir=${data_root_dir}/coarse --gcn_mode=2 --ds_weight=0.3 --loss=CrossEntropyLoss --pre_trained
- 创建细化分割数据划分
在这之前需要把 粗分割的 npz 拷贝过来,终端进入到 Verse/fine 目录
cp ../coarse/*.npz ./
python -u ./datasets/fine_create_h5.py --coarse_dir=${data_root_dir}/coarse --fine_dir=${data_root_dir}/fine
- 训练细化分割
看看里面有什么参数调整一下
python -u train_fine.py --fold_ind=1 --data_dir=${data_root_dir}/fine --device=cuda:0 --epochs=50
- 测试(暂时还用不了)
python -u test_coarse_fine.py --device=cuda:0 --fold_ind=1 --data_dir=${data_root_dir}