Đề cương khóa học

Giới thiệu về Red Teaming AI

  • Hiểu rõ bức tranh mối đe dọa của AI
  • Vai trò của red team trong an ninh AI
  • Xem xét đạo đức và pháp lý

Tấn công Adversarial Machine Learning

  • Các loại tấn công: tránh, đầu độc, trích xuất, suy diễn
  • Tạo ví dụ adversarial (ví dụ: FGSM, PGD)
  • Tấn công mục tiêu vs không mục tiêu và chỉ số thành công

Kiểm tra Độ bền của Mô hình

  • Đánh giá độ bền dưới nhiễu loạn
  • Xem xét điểm mù và các chế độ thất bại của mô hình
  • Kiểm tra chịu đựng cho các mô hình phân loại, thị giác và NLP

Red Teaming AI Pipelines

  • Mặt phẳng tấn công của AI pipelines: dữ liệu, mô hình, triển khai
  • Lợi dụng API và điểm cuối không an toàn của mô hình
  • Tái tạo hành vi và đầu ra của mô hình

Simulate and Tooling

  • Sử dụng Adversarial Robustness Toolbox (ART)
  • Red teaming với công cụ như TextAttack và IBM ART
  • Công cụ sandbox, giám sát và quan sát

AI Red Team Chiến lược và Phòng thủ Collaboration

  • Phát triển các bài tập và mục tiêu của red team
  • Tiếp xúc thông tin với blue teams
  • Hoàn thiện red teaming vào quản lý rủi ro AI

Tóm tắt và Bước tiếp theo

Requirements

  • Sự hiểu biết về kiến trúc học máy và học sâu
  • Kinh nghiệm với Python và các khung ML (ví dụ: TensorFlow, PyTorch)
  • Thành thạo các khái niệm an ninh mạng hoặc kỹ thuật tấn công chủ động

Đối tượng

  • Nghiên cứu viên an ninh
  • Các đội tấn công chủ động
  • Chuyên gia đảm bảo AI và red team
 14 Hours

Number of participants


Price per participant

Provisional Upcoming Courses (Require 5+ participants)

Related Categories