Dự án dịch sách Machine Learning Yearning (Khát khao Học Máy), Andrew Ng ra tiếng Việt

Nguồn để dịch https://github.com/ajaymache/machine-learning-yearning. Mặc dù là bản Draft, nội dung bản này cũng đã khá đầy đủ.

Bảng thuật ngữ

Tất cả các thuật ngữ cần được dịch theo chuẩn trong file glossary.

Bản đầy đủ các chương đã dịch xong

Đóng góp vào dự án

Bạn có thể đóng góp như thế nào:

  • Đóng góp bản dịch cho một chương chưa dược dịch trong danh sách này
  • Review các chương đang chờ tại đây
  • Báo cáo hoặc sửa một lỗi chính tả, một lỗi diễn đạt
  • Star repository
  • Chia sẻ trang này

Chi tiết hơn về việc đóng góp có thể tìm thấy tại đây.

Tiến độ từng chương

Chương Đóng góp
1. Tại sao cần chiến lược Học Máy #40
2. Cách sử dụng cuốn sách khi làm việc nhóm #54
3. Kiến thức tiền đề và Ký hiệu #90
4. Quy mô là động lực phát triển học máy #83
5. Tập phát triển và tập kiểm tra #82
6. Tập phát triển và tập kiểm tra nên có cùng phân phối #91
7. Tập phát triển/kiểm tra cần lớn đến mức nào? #70
8. Thiết lập một phép đo đơn trị làm mục tiêu tối ưu #80
9. Phép đo tối ưu và phép đo thỏa mãn #77
10. Xây dựng một tập phát triển và một phép đo sẽ tăng tốc quá trình làm việc #117
11. Khi nào cần thay đổi tập phát triển/kiểm tra và các phép đo #150
12. Điều cần nhớ: Thiết lập các tập phát triển và kiểm tra #113
13. Bạn mong muốn xây dựng một hệ thống phòng chống email rác mới. Nhóm của bạn có rất nhiều ý tưởng: #160
14. Phân tích lỗi: đánh giá ý tưởng dựa trên tập phát triển #140
15. Đánh giá song song các ý tưởng trong quá trình phân tích lỗi #161
16. Dọn dẹp những mẫu bị gán nhãn nhầm trong tập phát triển và tập kiểm tra #164
17. Nếu bạn có một tập phát triển lớn, chia nó thành hai tập con và chỉ phân tích trên một tập #168
18. Tập phát triển Eyeball và Blackbox nên lớn như thế nào? #156
19. Điều cần nhớ: Phân tích lỗi cơ bản #169
20. Độ chệch và Phương sai: Hai nguồn lớn của lỗi #172
21. Những ví dụ về Độ chệch và Phương sai #173
22. So sánh với tỉ lệ lỗi tối ưu #181
23. Xử lý Độ chệch và Phương sai #175
24. Sự đánh đổi giữa Độ chệch và Phương sai #192
25. Các kĩ thuật để giảm độ chệch có thể tránh được #195
26. Phân tích lỗi trên tập huấn luyện #193
27. Các kỹ thuật làm giảm phương sai #211
28. Chẩn đoán độ chệch và phương sai: Đồ thị quá trình học #234
29. Vẽ đồ thị sai số huấn luyện #225
30. Diễn giải đồ thị quá trình học: Độ chệch cao #228
31. Giải nghĩa các đồ thị quá trình học: Những trường hợp khác #248
32. Vẽ đồ thị quá trình học #251
33. Tại sao chúng ta so sánh với chất lượng mức con người? #247
34. Cách xác định chất lượng mức con người #254
35. Vượt qua chất lượng mức con người #276
36. Khi nào bạn nên huấn luyện và kiểm tra trên những phân phối khác nhau #273
37. Làm sao để quyết định có nên sử dụng toàn bộ dữ liệu? #279
38. Làm thế nào để quyết định có nên bao gồm dữ liệu không nhất quán #302
39. Đánh trọng số dữ liệu #258
40. Tổng quát hóa từ tập huấn luyện đến tập phát triển #282
41. Xác định những lỗi về độ chệch, phương sai, và dữ liệu không tương đồng #278
42. Xử lý dữ liệu không tương đồng #298
43. Tổng hợp dữ liệu nhân tạo #296
44. Bài kiểm tra xác minh tối ưu #301, #312
45. Dạng tổng quát của bài kiểm tra xác minh tối ưu #304
46. Ví dụ về Học tăng cường #329
47. Sự trỗi dậy của học đầu-cuối #333, #336
48. Thêm những ví dụ về học đầu-cuối. #360
49. Ưu nhược điểm của học đầu-cuối #340
50. Lựa chọn các thành phần cho pipeline: Tính sẵn có của dữ liệu #342
51. Lựa chọn các thành phần cho pipeline: tính đơn giản của tác vụ #349
52. Trực tiếp học những đầu ra phức tạp #363
53. Phân tích lỗi từng phần #355
54. Quy lỗi cho một thành phần #352
55. Trường hợp tổng quát của việc quy lỗi #364
56. Phân tích lỗi từng phần và so sánh với chất lượng mức con người #362
57. Phát hiện một pipeline học máy bị lỗi #392
58. Xây dựng một biệt đội siêu anh hùng - Hãy để đồng đội của bạn đọc điều này #317