Thank you for sending your enquiry! One of our team members will contact you shortly.
Thank you for sending your booking! One of our team members will contact you shortly.
Đề cương khóa học
Giới thiệu về Red Teaming AI
- Hiểu rõ bức tranh mối đe dọa của AI
- Vai trò của red team trong an ninh AI
- Xem xét đạo đức và pháp lý
Tấn công Adversarial Machine Learning
- Các loại tấn công: tránh, đầu độc, trích xuất, suy diễn
- Tạo ví dụ adversarial (ví dụ: FGSM, PGD)
- Tấn công mục tiêu vs không mục tiêu và chỉ số thành công
Kiểm tra Độ bền của Mô hình
- Đánh giá độ bền dưới nhiễu loạn
- Xem xét điểm mù và các chế độ thất bại của mô hình
- Kiểm tra chịu đựng cho các mô hình phân loại, thị giác và NLP
Red Teaming AI Pipelines
- Mặt phẳng tấn công của AI pipelines: dữ liệu, mô hình, triển khai
- Lợi dụng API và điểm cuối không an toàn của mô hình
- Tái tạo hành vi và đầu ra của mô hình
Simulate and Tooling
- Sử dụng Adversarial Robustness Toolbox (ART)
- Red teaming với công cụ như TextAttack và IBM ART
- Công cụ sandbox, giám sát và quan sát
AI Red Team Chiến lược và Phòng thủ Collaboration
- Phát triển các bài tập và mục tiêu của red team
- Tiếp xúc thông tin với blue teams
- Hoàn thiện red teaming vào quản lý rủi ro AI
Tóm tắt và Bước tiếp theo
Requirements
- Sự hiểu biết về kiến trúc học máy và học sâu
- Kinh nghiệm với Python và các khung ML (ví dụ: TensorFlow, PyTorch)
- Thành thạo các khái niệm an ninh mạng hoặc kỹ thuật tấn công chủ động
Đối tượng
- Nghiên cứu viên an ninh
- Các đội tấn công chủ động
- Chuyên gia đảm bảo AI và red team
14 Hours