該專案引用了https://github.com/vt-vl-lab/iCAN iCAN模型與https://github.com/endernewton/tf-faster-rcnn faster-rcnn模型
iCAN本身是行為偵側算法,輸入的資料內容為faster-rcnn輸出的結果。 因此我們可以簡單得理解iCAN本身並沒有產生bounding box的能力,他只是藉由faster-rcnn的輸出結果中的人與物的相對關係去計算出可能的行為。 詳細iCAN運作原理請看原作者論文https://arxiv.org/pdf/1808.10437v1.pdf
此部分的程式碼專門是屬於結果輸出的部分,因此沒有train部分的修改。大部分都保留原作者的代碼。
dataset and weight 的部分請在/ican執行
chmod +x ./misc/download_dataset.sh
./misc/download_dataset.sh
chmod +x ./misc/download_detection_results.sh
./misc/download_detection_results.sh
chmod +x ./misc/download_training_data.sh
./misc/download_training_data.sh
train的程式碼會在另一個project:iCAN_for_train
git clone url之後到frcnn/data/video/資料夾底下放入你想要偵測的video(mp4) 在video.py 內第156行 vc = cv2.VideoCapture("/home/jovyan/faster_rcnn_zip/data/video/mv4.mp4")=> 改成你的檔名路徑 cd 專案資料夾 python video.py 即可運行 在專案資料夾下直接執行live.py即可執行live.py
在運行的過程中應該會有些路徑的bug,再麻煩自行解決。