Buổi đào tạo trực tiếp dưới sự hướng dẫn của giảng viên tại Việt Nam (trực tuyến hoặc tại chỗ) này dành cho các chuyên gia an ninh cấp cao và chuyên gia ML muốn mô phỏng tấn công vào hệ thống AI, phát hiện lỗ hổng và tăng cường độ bền vững của các mô hình AI đã triển khai.
Tại cuối buổi đào tạo này, người tham dự sẽ có thể:
- Mô phỏng mối đe dọa thực tế đối với các mô hình học máy.
- Tạo ra các ví dụ đối kháng để kiểm tra độ bền vững của mô hình.
- Đánh giá bề mặt tấn công của API và chuỗi cung ứng AI.
- Lập kế hoạch chiến lược đỏ cho môi trường triển khai AI.
Giới thiệu về Red Teaming AI
- Nắm bắt bức tranh toàn cảnh mối đe dọa AI
- Vai trò của các đội đỏ trong an ninh AI
- Xem xét đạo đức và pháp lý
Tấn công Đối kháng Machine Learning
- Các loại tấn công: evasiveness, poisoning, extraction, inference
- Tạo ví dụ đối kháng (ví dụ: FGSM, PGD)
- Tấn công có mục tiêu và không mục tiêu cùng các chỉ số thành công
Kiểm tra Độ bền vững của Mô hình
- Đánh giá độ bền vững dưới sự nhiễu loạn
- Xem xét điểm mù và chế độ thất bại của mô hình
- Kiểm tra chịu đựng cho các mô hình phân loại, thị giác và NLP
Red Teaming Chuỗi cung ứng AI
- Bề mặt tấn công của chuỗi cung ứng AI: dữ liệu, mô hình, triển khai
- Lợi dụng API và điểm kết thúc không an toàn của mô hình
- Tái tạo hành vi và đầu ra của mô hình
Mô phỏng và Công cụ
- Sử dụng Adversarial Robustness Toolbox (ART)
- Red teaming với các công cụ như TextAttack và IBM ART
- Công cụ sandbox, giám sát và quan sát
Chiến lược và Phòng thủ của Red Team AI Collaboration
- Phát triển bài tập và mục tiêu của đội đỏ
- Tiếp xúc thông tin với đội xanh
- Đưa red teaming vào quản lý rủi ro AI
Tóm tắt và Bước tiếp theo
Red Teaming AI Systems là một lĩnh vực an ninh tấn công chuyên biệt tập trung vào việc xác định điểm yếu trong các mô hình học máy và chuỗi cung ứng thông qua kiểm tra đối kháng và mô phỏng chịu đựng.
Buổi đào tạo trực tiếp dưới sự hướng dẫn của giảng viên (trực tuyến hoặc tại chỗ) này dành cho các chuyên gia an ninh cấp cao và chuyên gia ML muốn mô phỏng tấn công vào hệ thống AI, phát hiện lỗ hổng và tăng cường độ bền vững của các mô hình AI đã triển khai.
Tại cuối buổi đào tạo này, người tham dự sẽ có thể:
- Mô phỏng mối đe dọa thực tế đối với các mô hình học máy.
- Tạo ra các ví dụ đối kháng để kiểm tra độ bền vững của mô hình.
- Đánh giá bề mặt tấn công của API và chuỗi cung ứng AI.
- Lập kế hoạch chiến lược đỏ cho môi trường triển khai AI.
Thể loại khóa học
- Bài giảng tương tác và thảo luận.
- Nhiều bài tập và thực hành.
- Hướng dẫn thực hiện trong môi trường lab trực tiếp.
Tùy chọn Tùy chỉnh Khóa học
- Để yêu cầu một khóa đào tạo tùy chỉnh cho khóa này, vui lòng liên hệ với chúng tôi để sắp xếp.
Một sự hiểu biết về kiến trúc học máy và học sâu
Kinh nghiệm với Python và các khung ML (ví dụ: TensorFlow, PyTorch)
Quen thuộc với các khái niệm an ninh mạng hoặc kỹ thuật tấn công
Đối tượng
- Nghiên cứu viên an ninh
- Các đội tấn công an ninh
- Các chuyên gia đảm bảo AI và red team
Read more...