原文(注册后可阅读):Feature Engineering for Machine Learning (Early Release)
欢迎任何人参与和完善:一个人可以走的很快,但是一群人却可以走的更远
- 一、引言
- 二、简单数字的奇特技巧
- 三、文本数据:展开、过滤和分块
- 四、特征缩放的效果:从词袋到 TF-IDF
- 五、类别特征:机器鸡时代的鸡蛋计数
- 六、降维:使用 PCA 压缩数据集
- 七、非线性特征提取和模型堆叠
- 八、自动化特征提取器:图像特征提取和深度学习
- 九、回到特征:将它们放到一起
- 附录、线性模型和线性代数基础
- @飞龙: 562826179
标题 | 译者 | 校对 |
---|---|---|
一、引言 | @ZhipengYe | |
二、简单数字的奇特技巧 | @coboe | @Ziseon Jiao |
三、文本数据:展开、过滤和分块 | @kkejili | @HeYun |
四、特征缩放的效果:从词袋到 TF-IDF | @gin | @HeYun |
五、类别特征:机器鸡时代的鸡蛋计数 | @ZhenLei Xu | |
六、降维:使用 PCA 压缩数据集 | @cn-Wziv | @HeYun |
七、非线性特征提取和模型堆叠 | @friedhelm739 | |
八、自动化特征提取器:图像特征提取和深度学习 | @friedhelm739 | |
九、回到特征:将它们放到一起 | ||
附录、线性模型和线性代数基础 | @Sherlock-kid |
ApacheCN 纯粹出于学习目的与个人兴趣翻译本书,不追求任何经济利益。
本译文只供学习研究参考之用,不得用于商业用途。ApacheCN 保留对此版本译文的署名权及其它相关权利。