Đề cương khóa học

Giới thiệu về Xác định Nguy cơ của AI

  • Cái gì làm cho các hệ thống AI trở nên dễ bị tổn thương?
  • Mặt phẳng tấn công của AI so với các hệ thống truyền thống
  • Các vectơ tấn công chính: dữ liệu, mô hình, đầu ra và lớp giao diện

Tấn công Adversarial đối với Mô hình AI

  • Hiểu về ví dụ adversarial và kỹ thuật nhiễu loạn
  • Tấn công white-box vs black-box
  • Các phương pháp FGSM, PGD và DeepFool
  • Hiển thị và tạo mẫu adversarial

Xâm nhập Mô hình và Rò rỉ Thông tin Riêng tư

  • Suy đoán dữ liệu huấn luyện từ đầu ra mô hình
  • Tấn công xác định thành viên
  • Rủi ro về quyền riêng tư trong các mô hình phân loại và tạo mẫu

Độc hóa Dữ liệu và Tiêm Backdoor

  • Cách dữ liệu độc hại ảnh hưởng đến hành vi của mô hình
  • Tiến trình backdoor dựa trên kích hoạt và tấn công Trojan
  • Phương pháp phát hiện và làm sạch

Mức độ Cứng cáp và Kỹ thuật Phòng thủ

  • Huấn luyện adversarial và tăng cường dữ liệu
  • Che giấu gradient và tiền xử lý đầu vào
  • Kỹ thuật làm mịn mô hình và chính quy hóa

Phòng thủ AI Bảo vệ Quyền Riêng tư

  • Giới thiệu về quyền riêng tư khác biệt
  • Tiêm nhiễu và ngân sách bảo mật
  • Học liên kết và tổng hợp an toàn

AI Security trong Thực tế

  • Đánh giá mô hình và triển khai có ý thức về nguy cơ
  • Sử dụng ART (Hộp công cụ Robustness Adversarial) trong các thiết lập thực tế
  • Ví dụ từ ngành: vi phạm và biện pháp khắc phục trong thế giới thực

Tóm tắt và Bước Tiếp theo

Requirements

  • Có hiểu biết về quy trình làm việc của học máy và đào tạo mô hình
  • Kinh nghiệm với Python và các khung ML thông thường như PyTorch hoặc TensorFlow
  • Hiểu biết về các khái niệm cơ bản về an ninh hoặc mô hình hóa mối đe dọa sẽ hữu ích

Đối tượng tham gia

  • Kỹ sư học máy
  • Nhân viên phân tích an toàn mạng
  • Nhà nghiên cứu AI và đội ngũ xác nhận mô hình
 14 Hours

Number of participants


Price per participant

Provisional Upcoming Courses (Require 5+ participants)

Related Categories