Đề cương khóa học

Giới thiệu về mô hình mối đe dọa của AI

  • Điều gì làm cho các hệ thống AI dễ bị tổn thương?
  • Mặt phẳng tấn công của AI so với các hệ thống truyền thống
  • Các vector tấn công chính: lớp dữ liệu, mô hình, đầu ra và giao diện

Tấn công đối thủ lên các mô hình AI

  • Hiểu về các ví dụ đối thủ và kỹ thuật nhiễu loạn
  • Tấn công white-box so với black-box
  • Phương pháp FGSM, PGD và DeepFool
  • Biểu diễn và tạo mẫu tấn công đối thủ

Phân tích ngược mô hình và rò rỉ thông tin riêng tư

  • Suy luận dữ liệu huấn luyện từ đầu ra của mô hình
  • Tấn công xác định thành viên
  • Rủi ro về quyền riêng tư trong các mô hình phân loại và tạo mẫu

Tiêm nhiễm dữ liệu và tiêm cài hậu môn

  • Cách dữ liệu bị tiêm nhiễm ảnh hưởng đến hành vi của mô hình
  • Hậu môn dựa trên kích hoạt và tấn công Trojan
  • Chiến lược phát hiện và làm sạch

Tính vững chắc và kỹ thuật phòng thủ

  • Huấn luyện đối thủ và tăng cường dữ liệu
  • Che đậy gradient và tiền xử lý đầu vào
  • Làm mịn mô hình và các kỹ thuật quy định

Kỹ thuật phòng thủ AI bảo vệ quyền riêng tư

  • Giới thiệu về sự riêng tư khác biệt
  • Tiêm nhiễu và ngân sách quyền riêng tư
  • Học liên minh và tổng hợp an toàn

AI Security Trong thực hành

  • Đánh giá và triển khai mô hình với ý thức về mối đe dọa
  • Sử dụng ART (Hộp công cụ sức mạnh đối thủ) trong các môi trường áp dụng
  • Trường hợp nghiên cứu của ngành: vi phạm và giảm thiểu thực tế

Tóm tắt và Bước kế tiếp

Requirements

  • Hiểu biết về các quy trình làm việc của máy học và quá trình huấn luyện mô hình
  • Kinh nghiệm với Python và các khung ML thông thường như PyTorch hoặc TensorFlow
  • Thành thạo các khái niệm cơ bản về an ninh hoặc mô hình đe dọa sẽ hữu ích

Đối tượng tham gia

  • Kỹ sư học máy
  • Nhân viên phân tích bảo mật mạng
  • Nghiên cứu viên AI và đội ngũ xác minh mô hình
 14 Hours

Number of participants


Price per participant

Provisional Upcoming Courses (Require 5+ participants)

Related Categories