Đề cương khóa học

Giới thiệu về AI Red Teaming

  • Hiểu về bức tranh tổng thể của mối đe dọa từ AI
  • Vai trò của đội đỏ trong an ninh AI
  • Xem xét đạo đức và pháp lý

Đối thủ Adversarial Machine Learning

  • Các loại tấn công: tránh né, độc hại, trích xuất, suy diễn
  • Tạo ví dụ đối thủ (ví dụ: FGSM, PGD)
  • Tấn công có mục tiêu và không mục tiêu và chỉ số thành công

Kiểm tra Độ bền của Mô hình

  • Đánh giá độ bền dưới sự thay đổi nhỏ
  • Khám phá điểm mù và phương thức thất bại của mô hình
  • Thử nghiệm stress với các mô hình phân loại, thị giác và NLP

Red Teaming AI Pipelines

  • Mặt phẳng tấn công của chuỗi cung ứng AI: dữ liệu, mô hình, triển khai
  • Khai thác các API và điểm cuối mô hình không an toàn
  • Phân tích ngược hành vi và đầu ra của mô hình

Simulations và Công cụ

  • Sử dụng Adversarial Robustness Toolbox (ART)
  • Red Teaming với công cụ như TextAttack và IBM ART
  • Các công cụ ngăn chặn, giám sát và quan sát

Chiến lược và Phòng thủ AI Red Team Collaboration

  • Phát triển bài tập và mục tiêu của đội đỏ
  • Truyền đạt phát hiện đến đội xanh
  • Tích hợp red teaming vào quản lý rủi ro AI

Tóm tắt và Bước kế tiếp

Requirements

  • Hiểu biết về học máy và kiến trúc học sâu
  • Kinh nghiệm với Python và các khung làm việc ML (như TensorFlow, PyTorch)
  • Thạo về các khái niệm an ninh mạng hoặc kỹ thuật tấn công

Khán giả mục tiêu

  • Nghiên cứu viên an ninh
  • Đội ngũ tấn công an ninh
  • Chuyên gia đảm bảo AI và đội đỏ
 14 Hours

Number of participants


Price per participant

Upcoming Courses

Related Categories