oixel64
I am Feng Weiming, a student in Guangzhou University. I want to study in Github and try to make some contributions to the community.
Guangzhou UniversityGuangzhou University
Pinned Repositories
C_Lexer_Grammer
C Subset Lexical and Syntactic Analyzer
CHATWA.github.io
Chinese_Traffic_Signs_Detection_Recognition
Detects and recognizes Chinese traffic signs using color threshold segmentation and HOG + SVM. 使用颜色阈值分割和 HOG + SVM 定位和识别**交通标志。
clip_pic_query
Run CLIP model on iOS to search photos.
D2L
gen-Chinese-plate
生成**车牌,包括普通蓝牌和新能源车牌
Road_Pothole_Detect
My solution to Quesation A in MatherCup_BigData_2023, utilizing the VGG16 and InceptionV3 neural network for classifying potholed roads. 我在 MatherCup_BigData_2023 比赛中针对问题A的解决方案,使用了 VGG16 和 InceptionV3 神经网络进行坑洼道路的分类。
STUSM
《程序设计》课程设计 学生成绩管理系统
TrafficGraph
《数据结构》课程设计-交通信息查询系统
TT100K_Cropped
A cropped image dataset for Chinese traffic sign classification, derived from the TT100K dataset. 从TT100K数据集中裁剪出来的**交通标志分类图像数据集。
oixel64's Repositories
oixel64/Road_Pothole_Detect
My solution to Quesation A in MatherCup_BigData_2023, utilizing the VGG16 and InceptionV3 neural network for classifying potholed roads. 我在 MatherCup_BigData_2023 比赛中针对问题A的解决方案,使用了 VGG16 和 InceptionV3 神经网络进行坑洼道路的分类。
oixel64/C_Lexer_Grammer
C Subset Lexical and Syntactic Analyzer
oixel64/CHATWA.github.io
oixel64/Chinese_Traffic_Signs_Detection_Recognition
Detects and recognizes Chinese traffic signs using color threshold segmentation and HOG + SVM. 使用颜色阈值分割和 HOG + SVM 定位和识别**交通标志。
oixel64/clip_pic_query
Run CLIP model on iOS to search photos.
oixel64/D2L
oixel64/gen-Chinese-plate
生成**车牌,包括普通蓝牌和新能源车牌
oixel64/STUSM
《程序设计》课程设计 学生成绩管理系统
oixel64/TrafficGraph
《数据结构》课程设计-交通信息查询系统
oixel64/TT100K_Cropped
A cropped image dataset for Chinese traffic sign classification, derived from the TT100K dataset. 从TT100K数据集中裁剪出来的**交通标志分类图像数据集。
oixel64/GZHU_LibraryAutoReserve_sign
GZHU 广大图书馆座位自动预约+自动签到
oixel64/imgs
博客图床
oixel64/oixel64.github.io
oixel64/ShiArthur03
oixel64/ViLT
Code for the ICML 2021 (long talk) paper: "ViLT: Vision-and-Language Transformer Without Convolution or Region Supervision"