17. Mạng đối thủ thế hệ
Quick search
code
Show Source
MXNet PyTorch Notebooks Courses GitHub English
Đắm mình vào Học Sâu
Table Of Contents
  • Lời nói đầu
  • Cài đặt
  • Ký hiệu
  • 1. Giới thiệu
  • 2. Sơ bộ
    • 2.1. Thao tác dữ liệu
    • 2.2. Xử lý sơ bộ dữ liệu
    • 2.3. Đại số tuyến tính
    • 2.4. Calculus (Giải tích)
    • 2.5. Sự khác biệt tự động
    • 2.6. Xác suất
    • 2.7. Documentation
  • 3. Mạng thần kinh tuyến tính
    • 3.1. Hồi quy tuyến tính
    • 3.2. Thực hiện hồi quy tuyến tính từ đầu
    • 3.3. Thực hiện ngắn gọn của hồi quy tuyến tính
    • 3.4. Hồi quy Softmax
    • 3.5. Tập dữ liệu phân loại hình ảnh
    • 3.6. Thực hiện hồi quy Softmax từ đầu
    • 3.7. Thực hiện ngắn gọn về hồi quy Softmax
  • 4. Multilayer Perceptrons
    • 4.1. Multilayer Perceptrons
    • 4.2. Thực hiện các Perceptrons đa lớp từ đầu
    • 4.3. Thực hiện ngắn gọn của Multilayer Perceptrons
    • 4.4. Lựa chọn mô hình, Underfitting, và Overfitting
    • 4.5. Trọng lượng phân rã
    • 4.6. Bỏ học
    • 4.7. Chuyển tiếp tuyên truyền, tuyên truyền ngược, và đồ thị tính toán
    • 4.8. Tính ổn định số và khởi tạo
    • 4.9. Môi trường và phân phối Shift
    • 4.10. Dự đoán giá nhà trên Kaggle
  • 5. Tính toán học sâu
    • 5.1. Lớp và khối
    • 5.2. Quản lý tham số
    • 5.3. Khởi tạo hoãn lại
    • 5.4. Layers tùy chỉnh
    • 5.5. Tệp I/O
    • 5.6. GPU
  • 6. Mạng thần kinh phức tạp
    • 6.1. Từ các lớp được kết nối hoàn toàn đến sự phức tạp
    • 6.2. Sự phức tạp cho hình ảnh
    • 6.3. Đệm và sải chân
    • 6.4. Nhiều kênh đầu vào và nhiều đầu ra
    • 6.5. Pooling
    • 6.6. Mạng thần kinh phức tạp (LeNet)
  • 7. Mạng thần kinh phức tạp hiện đại
    • 7.1. Mạng thần kinh phức tạp sâu (AlexNet)
    • 7.2. Mạng sử dụng khối (VGG)
    • 7.3. Mạng trong mạng (Nin)
    • 7.4. Mạng có kết nối song song (GoogLeNet)
    • 7.5. Chuẩn hóa hàng loạt
    • 7.6. Mạng dư (ResNet)
    • 7.7. Mạng kết nối mật độ (DenseNet)
  • 8. Mạng nơ-ron tái phát
    • 8.1. Mô hình trình tự
    • 8.2. Xử lý sơ bộ văn bản
    • 8.3. Mô hình ngôn ngữ và bộ dữ liệu
    • 8.4. Mạng nơ-ron tái phát
    • 8.5. Thực hiện các mạng nơ-ron tái phát từ đầu
    • 8.6. Thực hiện ngắn gọn các mạng nơ-ron tái phát
    • 8.7. Backpropagation qua thời gian
  • 9. Mạng thần kinh tái phát hiện đại
    • 9.1. Các đơn vị định kỳ cổng (GRU)
    • 9.2. Bộ nhớ ngắn hạn dài (LSTM)
    • 9.3. Mạng thần kinh tái phát sâu
    • 9.4. Mạng nơ-ron định kỳ hai chiều
    • 9.5. Dịch máy và bộ dữ liệu
    • 9.6. Kiến trúc mã hóa-Decoder
    • 9.7. Trình tự để học trình tự
    • 9.8. Tìm kiếm chùm
  • 10. Cơ chế chú ý
    • 10.1. Chú ý tín hiệu
    • 10.2. Chú ý Pooling: Hồi quy hạt nhân Nadaraya-Watson
    • 10.3. Chức năng chấm điểm chú ý
    • 10.4. Bahdanau Chú ý
    • 10.5. Chú ý nhiều đầu
    • 10.6. Tự ghi nhận và mã hóa vị trí
    • 10.7. Máy biến áp
  • 11. Thuật toán tối ưu hóa
    • 11.1. Tối ưu hóa và học sâu
    • 11.2. Độ lồi
    • 11.3. Gradient Descent
    • 11.4. Stochastic Gradient Descent
    • 11.5. Minibatch Stochastic Gradient Descent
    • 11.6. Đà
    • 11.7. Adagrad
    • 11.8. RMSProp
    • 11.9. Adadelta
    • 11.10. Ađam
    • 11.11. Lập kế hoạch tỷ lệ học tập
  • 12. Hiệu suất tính toán
    • 12.1. Trình biên dịch và phiên dịch
    • 12.2. Tính toán không đồng bộ
    • 12.3. Song song tự động
    • 12.4. Phần cứng
    • 12.5. Đào tạo về nhiều GPU
    • 12.6. Triển khai ngắn gọn cho nhiều GPU
    • 12.7. Máy chủ tham số
  • 13. Tầm nhìn máy tính
    • 13.1. Hình ảnh Augmentation
    • 13.2. Tinh chỉnh
    • 13.3. Hộp phát hiện và giới hạn đối tượng
    • 13.4. Hộp neo
    • 13.5. Phát hiện đối tượng đa quy mô
    • 13.6. Bộ dữ liệu phát hiện đối tượng
    • 13.7. Phát hiện Multibox Shot đơn
    • 13.8. CNN dựa trên khu vực (R-CNN)
    • 13.9. Phân đoạn ngữ nghĩa và tập dữ liệu
    • 13.10. Chuyển đổi Convolution
    • 13.11. Mạng kết nối hoàn toàn
    • 13.12. Chuyển kiểu thần kinh
    • 13.13. Phân loại hình ảnh (CIFAR-10) trên Kaggle
    • 13.14. Nhận dạng giống chó (Chó ImageNet) trên Kaggle
  • 14. Chế biến ngôn ngữ tự nhiên: Pretraining
    • 14.1. Từ nhúng (word2vec)
    • 14.2. Đào tạo gần đúng
    • 14.3. Các Dataset cho Pretraining Word Embeddings
    • 14.4. Pretraining word2vec
    • 14.5. Word Nhúng với Vectơ toàn cầu (Glove)
    • 14.6. Subword Nhúng
    • 14.7. Từ tương tự và tương tự
    • 14.8. Đại diện bộ mã hóa hai chiều từ Transformers (BERT)
    • 14.9. Tập dữ liệu cho Pretraining BERT
    • 14.10. Pretraining BERT
  • 15. Xử lý ngôn ngữ tự nhiên: Ứng dụng
    • 15.1. Phân tích tình cảm và tập dữ liệu
    • 15.2. Phân tích tình cảm: Sử dụng mạng nơ-ron tái phát
    • 15.3. Phân tích tình cảm: Sử dụng mạng thần kinh phức tạp
    • 15.4. Suy luận ngôn ngữ tự nhiên và tập dữ liệu
    • 15.5. Suy luận ngôn ngữ tự nhiên: Sử dụng sự chú ý
    • 15.6. Tinh chỉnh BERT cho các ứng dụng cấp Sequence-Level và Token-Level
    • 15.7. Suy luận ngôn ngữ tự nhiên: Tinh chỉnh BERT
  • 16. Hệ thống Recommender
    • 16.1. Tổng quan về hệ thống Recommender
    • 16.2. Bộ dữ liệu MovieLens
    • 16.3. Matrận Factorization
    • 16.4. AutoRec: Dự đoán xếp hạng với Autoencoders
    • 16.5. Xếp hạng được cá nhân hóa cho hệ thống giới thiệu
    • 16.6. Lọc hợp tác thần kinh để xếp hạng cá nhân hóa
    • 16.7. Hệ thống khuyến cáo Sequence-Aware
    • 16.8. Hệ thống giới thiệu giàu tính năng
    • 16.9. Máy Factorization
    • 16.10. Sâu Factorization Máy móc
  • 17. Mạng đối thủ thế hệ
    • 17.1. Mạng đối thủ thế hệ
    • 17.2. Mạng đối thủ tạo phức tạp sâu
  • 18. Phụ lục: Toán học cho Deep Learning
    • 18.1. Hình học và các hoạt động đại số tuyến tính
    • 18.2. Eigendecompositions
    • 18.3. Tính toán biến đơn
    • 18.4. Tính toán đa năng
    • 18.5. Integral Calculus
    • 18.6. Biến ngẫu nhiên
    • 18.7. Khả năng tối đa
    • 18.8. Bayes ngây thơ
    • 18.9. Thống kê
    • 18.10. Lý thuyết thông tin
  • 19. Phụ lục: Các công cụ cho Deep Learning
    • 19.1. Sử dụng Jupyter
    • 19.2. Sử dụng Amazon SageMaker
    • 19.3. Sử dụng phiên bản AWS EC2
    • 19.4. Sử dụng Google Colab
    • 19.5. Chọn máy chủ và GPU
    • 19.6. Đóng góp cho cuốn sách này
    • 19.7. d2l Tài liệu API
  • Tài liệu tham khảo
Đắm mình vào Học Sâu
Table Of Contents
  • Lời nói đầu
  • Cài đặt
  • Ký hiệu
  • 1. Giới thiệu
  • 2. Sơ bộ
    • 2.1. Thao tác dữ liệu
    • 2.2. Xử lý sơ bộ dữ liệu
    • 2.3. Đại số tuyến tính
    • 2.4. Calculus (Giải tích)
    • 2.5. Sự khác biệt tự động
    • 2.6. Xác suất
    • 2.7. Documentation
  • 3. Mạng thần kinh tuyến tính
    • 3.1. Hồi quy tuyến tính
    • 3.2. Thực hiện hồi quy tuyến tính từ đầu
    • 3.3. Thực hiện ngắn gọn của hồi quy tuyến tính
    • 3.4. Hồi quy Softmax
    • 3.5. Tập dữ liệu phân loại hình ảnh
    • 3.6. Thực hiện hồi quy Softmax từ đầu
    • 3.7. Thực hiện ngắn gọn về hồi quy Softmax
  • 4. Multilayer Perceptrons
    • 4.1. Multilayer Perceptrons
    • 4.2. Thực hiện các Perceptrons đa lớp từ đầu
    • 4.3. Thực hiện ngắn gọn của Multilayer Perceptrons
    • 4.4. Lựa chọn mô hình, Underfitting, và Overfitting
    • 4.5. Trọng lượng phân rã
    • 4.6. Bỏ học
    • 4.7. Chuyển tiếp tuyên truyền, tuyên truyền ngược, và đồ thị tính toán
    • 4.8. Tính ổn định số và khởi tạo
    • 4.9. Môi trường và phân phối Shift
    • 4.10. Dự đoán giá nhà trên Kaggle
  • 5. Tính toán học sâu
    • 5.1. Lớp và khối
    • 5.2. Quản lý tham số
    • 5.3. Khởi tạo hoãn lại
    • 5.4. Layers tùy chỉnh
    • 5.5. Tệp I/O
    • 5.6. GPU
  • 6. Mạng thần kinh phức tạp
    • 6.1. Từ các lớp được kết nối hoàn toàn đến sự phức tạp
    • 6.2. Sự phức tạp cho hình ảnh
    • 6.3. Đệm và sải chân
    • 6.4. Nhiều kênh đầu vào và nhiều đầu ra
    • 6.5. Pooling
    • 6.6. Mạng thần kinh phức tạp (LeNet)
  • 7. Mạng thần kinh phức tạp hiện đại
    • 7.1. Mạng thần kinh phức tạp sâu (AlexNet)
    • 7.2. Mạng sử dụng khối (VGG)
    • 7.3. Mạng trong mạng (Nin)
    • 7.4. Mạng có kết nối song song (GoogLeNet)
    • 7.5. Chuẩn hóa hàng loạt
    • 7.6. Mạng dư (ResNet)
    • 7.7. Mạng kết nối mật độ (DenseNet)
  • 8. Mạng nơ-ron tái phát
    • 8.1. Mô hình trình tự
    • 8.2. Xử lý sơ bộ văn bản
    • 8.3. Mô hình ngôn ngữ và bộ dữ liệu
    • 8.4. Mạng nơ-ron tái phát
    • 8.5. Thực hiện các mạng nơ-ron tái phát từ đầu
    • 8.6. Thực hiện ngắn gọn các mạng nơ-ron tái phát
    • 8.7. Backpropagation qua thời gian
  • 9. Mạng thần kinh tái phát hiện đại
    • 9.1. Các đơn vị định kỳ cổng (GRU)
    • 9.2. Bộ nhớ ngắn hạn dài (LSTM)
    • 9.3. Mạng thần kinh tái phát sâu
    • 9.4. Mạng nơ-ron định kỳ hai chiều
    • 9.5. Dịch máy và bộ dữ liệu
    • 9.6. Kiến trúc mã hóa-Decoder
    • 9.7. Trình tự để học trình tự
    • 9.8. Tìm kiếm chùm
  • 10. Cơ chế chú ý
    • 10.1. Chú ý tín hiệu
    • 10.2. Chú ý Pooling: Hồi quy hạt nhân Nadaraya-Watson
    • 10.3. Chức năng chấm điểm chú ý
    • 10.4. Bahdanau Chú ý
    • 10.5. Chú ý nhiều đầu
    • 10.6. Tự ghi nhận và mã hóa vị trí
    • 10.7. Máy biến áp
  • 11. Thuật toán tối ưu hóa
    • 11.1. Tối ưu hóa và học sâu
    • 11.2. Độ lồi
    • 11.3. Gradient Descent
    • 11.4. Stochastic Gradient Descent
    • 11.5. Minibatch Stochastic Gradient Descent
    • 11.6. Đà
    • 11.7. Adagrad
    • 11.8. RMSProp
    • 11.9. Adadelta
    • 11.10. Ađam
    • 11.11. Lập kế hoạch tỷ lệ học tập
  • 12. Hiệu suất tính toán
    • 12.1. Trình biên dịch và phiên dịch
    • 12.2. Tính toán không đồng bộ
    • 12.3. Song song tự động
    • 12.4. Phần cứng
    • 12.5. Đào tạo về nhiều GPU
    • 12.6. Triển khai ngắn gọn cho nhiều GPU
    • 12.7. Máy chủ tham số
  • 13. Tầm nhìn máy tính
    • 13.1. Hình ảnh Augmentation
    • 13.2. Tinh chỉnh
    • 13.3. Hộp phát hiện và giới hạn đối tượng
    • 13.4. Hộp neo
    • 13.5. Phát hiện đối tượng đa quy mô
    • 13.6. Bộ dữ liệu phát hiện đối tượng
    • 13.7. Phát hiện Multibox Shot đơn
    • 13.8. CNN dựa trên khu vực (R-CNN)
    • 13.9. Phân đoạn ngữ nghĩa và tập dữ liệu
    • 13.10. Chuyển đổi Convolution
    • 13.11. Mạng kết nối hoàn toàn
    • 13.12. Chuyển kiểu thần kinh
    • 13.13. Phân loại hình ảnh (CIFAR-10) trên Kaggle
    • 13.14. Nhận dạng giống chó (Chó ImageNet) trên Kaggle
  • 14. Chế biến ngôn ngữ tự nhiên: Pretraining
    • 14.1. Từ nhúng (word2vec)
    • 14.2. Đào tạo gần đúng
    • 14.3. Các Dataset cho Pretraining Word Embeddings
    • 14.4. Pretraining word2vec
    • 14.5. Word Nhúng với Vectơ toàn cầu (Glove)
    • 14.6. Subword Nhúng
    • 14.7. Từ tương tự và tương tự
    • 14.8. Đại diện bộ mã hóa hai chiều từ Transformers (BERT)
    • 14.9. Tập dữ liệu cho Pretraining BERT
    • 14.10. Pretraining BERT
  • 15. Xử lý ngôn ngữ tự nhiên: Ứng dụng
    • 15.1. Phân tích tình cảm và tập dữ liệu
    • 15.2. Phân tích tình cảm: Sử dụng mạng nơ-ron tái phát
    • 15.3. Phân tích tình cảm: Sử dụng mạng thần kinh phức tạp
    • 15.4. Suy luận ngôn ngữ tự nhiên và tập dữ liệu
    • 15.5. Suy luận ngôn ngữ tự nhiên: Sử dụng sự chú ý
    • 15.6. Tinh chỉnh BERT cho các ứng dụng cấp Sequence-Level và Token-Level
    • 15.7. Suy luận ngôn ngữ tự nhiên: Tinh chỉnh BERT
  • 16. Hệ thống Recommender
    • 16.1. Tổng quan về hệ thống Recommender
    • 16.2. Bộ dữ liệu MovieLens
    • 16.3. Matrận Factorization
    • 16.4. AutoRec: Dự đoán xếp hạng với Autoencoders
    • 16.5. Xếp hạng được cá nhân hóa cho hệ thống giới thiệu
    • 16.6. Lọc hợp tác thần kinh để xếp hạng cá nhân hóa
    • 16.7. Hệ thống khuyến cáo Sequence-Aware
    • 16.8. Hệ thống giới thiệu giàu tính năng
    • 16.9. Máy Factorization
    • 16.10. Sâu Factorization Máy móc
  • 17. Mạng đối thủ thế hệ
    • 17.1. Mạng đối thủ thế hệ
    • 17.2. Mạng đối thủ tạo phức tạp sâu
  • 18. Phụ lục: Toán học cho Deep Learning
    • 18.1. Hình học và các hoạt động đại số tuyến tính
    • 18.2. Eigendecompositions
    • 18.3. Tính toán biến đơn
    • 18.4. Tính toán đa năng
    • 18.5. Integral Calculus
    • 18.6. Biến ngẫu nhiên
    • 18.7. Khả năng tối đa
    • 18.8. Bayes ngây thơ
    • 18.9. Thống kê
    • 18.10. Lý thuyết thông tin
  • 19. Phụ lục: Các công cụ cho Deep Learning
    • 19.1. Sử dụng Jupyter
    • 19.2. Sử dụng Amazon SageMaker
    • 19.3. Sử dụng phiên bản AWS EC2
    • 19.4. Sử dụng Google Colab
    • 19.5. Chọn máy chủ và GPU
    • 19.6. Đóng góp cho cuốn sách này
    • 19.7. d2l Tài liệu API
  • Tài liệu tham khảo

17. Mạng đối thủ thế hệ¶

  • 17.1. Mạng đối thủ thế hệ
    • 17.1.1. Tạo ra một số dữ liệu “thực”
    • 17.1.2. Máy phát điện
    • 17.1.3. Phân biệt đối xử
    • 17.1.4. Đào tạo
    • 17.1.5. Tóm tắt
    • 17.1.6. Bài tập
  • 17.2. Mạng đối thủ tạo phức tạp sâu
    • 17.2.1. Các Pokemon Dataset
    • 17.2.2. Các máy phát điện
    • 17.2.3. Phân biệt đối xử
    • 17.2.4. Đào tạo
    • 17.2.5. Tóm tắt
    • 17.2.6. Bài tập
Previous
16.10. Sâu Factorization Máy móc
Next
17.1. Mạng đối thủ thế hệ