Đề cương khóa học

Giới thiệu về Red Teaming AI

  • Hiểu biết về cảnh quan đe dọa AI
  • Vai trò của red teams trong an ninh AI
  • Xem xét đạo đức và pháp lý

Học Máy Đối thủ

  • Các loại tấn công: né tránh, đầu độc, trích xuất, suy luận
  • Tạo ví dụ đối thủ (ví dụ: FGSM, PGD)
  • Tấn công có mục tiêu vs không có mục tiêu và các tiêu chí thành công

Kiểm tra Độ bền Mô hình

  • Đánh giá độ bền dưới sự nhiễu loạn
  • Khám phá các điểm mù và chế độ thất bại của mô hình
  • Kiểm tra căng thẳng các mô hình phân loại, thị giác và NLP

Red Teaming Đường dẫn AI

  • Diện tích tấn công của đường dẫn AI: dữ liệu, mô hình, triển khai
  • Khai thác API và endpoint mô hình không an toàn
  • Phân tích ngược hành vi và đầu ra của mô hình

Mô phỏng và Công cụ

  • Sử dụng Adversarial Robustness Toolbox (ART)
  • Red teaming với các công cụ như TextAttack và IBM ART
  • Công cụ sandbox, giám sát và quan sát

Chiến lược Red Team AI và Hợp tác Phòng thủ

  • Phát triển các bài tập và mục tiêu red team
  • Truyền đạt kết quả cho blue teams
  • Tích hợp red teaming vào quản lý rủi ro AI

Tổng kết và Bước tiếp theo

Yêu cầu

  • Hiểu biết về kiến trúc học máy và học sâu
  • Kinh nghiệm với Python và các khung ML (ví dụ: TensorFlow, PyTorch)
  • Am hiểu về các khái niệm an ninh mạng hoặc kỹ thuật an ninh tấn công

Đối tượng

  • Nghiên cứu viên an ninh
  • Đội ngũ an ninh tấn công
  • Chuyên gia đảm bảo AI và red team
 14 Giờ học

Số người tham gia


Giá cho mỗi người tham gia

Các khóa học sắp tới

Các danh mục liên quan