Đề cương khóa học

Giới thiệu về Containerization Hỗ Trợ GPU

  • Hiểu rõ việc sử dụng GPU trong quy trình làm việc học sâu
  • Cách Docker hỗ trợ các công việc dựa trên GPU
  • Các cân nhắc về hiệu suất quan trọng

Cài đặt và Cấu hình NVIDIA Container Toolkit

  • Thiết lập trình điều khiển và tính tương thích CUDA
  • Xác nhận quyền truy cập GPU bên trong container
  • Cấu hình môi trường runtime

Xây dựng Docker Images Hỗ Trợ GPU

  • Sử dụng các image cơ sở CUDA
  • Gói các khung AI trong các container sẵn sàng cho GPU
  • Quản lý các phụ thuộc cho huấn luyện và suy luận

Chạy Các Công Việc Học Sâu Hỗ Trợ GPU

  • Thực hiện công việc huấn luyện sử dụng GPU
  • Quản lý các công việc multi-GPU
  • Theo dõi hiệu suất GPU

Tối ưu Hóa Hiệu Suất và Phân Bổ Tài Nguyên

  • Hạn chế và cô lập tài nguyên GPU
  • Tối ưu hóa bộ nhớ, kích thước batch, và vị trí thiết bị
  • Điều chỉnh hiệu suất và chuẩn đoán lỗi

Suy luận Containerized và Phục vụ Mô Hình

  • Xây dựng các container sẵn sàng cho suy luận
  • Phục vụ các công việc tải cao trên GPU
  • Tích hợp trình chạy mô hình và API

Mở Rộng Công Việc GPU với Docker

  • Chiến lược cho huấn luyện phân tán GPU
  • Mở rộng microservices suy luận
  • Điều phối các hệ thống AI đa-container

Bảo mật và Độ Tin Cậy cho Container Hỗ Trợ GPU

  • Đảm bảo quyền truy cập GPU an toàn trong các môi trường chia sẻ
  • Củng cố các image container
  • Quản lý cập nhật, phiên bản, và tính tương thích

Tóm tắt và Bước Tiếp Theo

Yêu cầu

  • Hiểu biết về các nguyên tắc cơ bản của học sâu
  • Kinh nghiệm với Python và các khung AI thông dụng
  • Am hiểu các khái niệm cơ bản về containerization

Đối Tượng

  • Kỹ sư học sâu
  • Đội ngũ nghiên cứu và phát triển
  • Người huấn luyện mô hình AI
 21 Giờ

Số người tham gia


Giá cho mỗi học viên

Đánh giá (5)

Các khóa học sắp tới

Các danh mục liên quan