Đề cương khóa học

Giới thiệu về mô hình mối đe dọa của AI

  • Điều gì làm cho các hệ thống AI dễ bị tổn thương?
  • Mặt phẳng tấn công của AI so với các hệ thống truyền thống
  • Các vector tấn công chính: lớp dữ liệu, mô hình, đầu ra và giao diện

Tấn công đối thủ lên các mô hình AI

  • Hiểu về các ví dụ đối thủ và kỹ thuật nhiễu loạn
  • Tấn công white-box so với black-box
  • Phương pháp FGSM, PGD và DeepFool
  • Biểu diễn và tạo mẫu tấn công đối thủ

Phân tích ngược mô hình và rò rỉ thông tin riêng tư

  • Suy luận dữ liệu huấn luyện từ đầu ra của mô hình
  • Tấn công xác định thành viên
  • Rủi ro về quyền riêng tư trong các mô hình phân loại và tạo mẫu

Tiêm nhiễm dữ liệu và tiêm cài hậu môn

  • Cách dữ liệu bị tiêm nhiễm ảnh hưởng đến hành vi của mô hình
  • Hậu môn dựa trên kích hoạt và tấn công Trojan
  • Chiến lược phát hiện và làm sạch

Tính vững chắc và kỹ thuật phòng thủ

  • Huấn luyện đối thủ và tăng cường dữ liệu
  • Che đậy gradient và tiền xử lý đầu vào
  • Làm mịn mô hình và các kỹ thuật quy định

Kỹ thuật phòng thủ AI bảo vệ quyền riêng tư

  • Giới thiệu về sự riêng tư khác biệt
  • Tiêm nhiễu và ngân sách quyền riêng tư
  • Học liên minh và tổng hợp an toàn

AI Security Trong thực hành

  • Đánh giá và triển khai mô hình với ý thức về mối đe dọa
  • Sử dụng ART (Hộp công cụ sức mạnh đối thủ) trong các môi trường áp dụng
  • Trường hợp nghiên cứu của ngành: vi phạm và giảm thiểu thực tế

Tóm tắt và Bước kế tiếp

Yêu cầu

  • Hiểu biết về các quy trình làm việc của máy học và quá trình huấn luyện mô hình
  • Kinh nghiệm với Python và các khung ML thông thường như PyTorch hoặc TensorFlow
  • Thành thạo các khái niệm cơ bản về an ninh hoặc mô hình đe dọa sẽ hữu ích

Đối tượng tham gia

  • Kỹ sư học máy
  • Nhân viên phân tích bảo mật mạng
  • Nghiên cứu viên AI và đội ngũ xác minh mô hình
 14 Giờ học

Số người tham gia


Giá cho mỗi người tham gia

Các khóa học sắp tới

Các danh mục liên quan