Thank you for sending your enquiry! One of our team members will contact you shortly.
Thank you for sending your booking! One of our team members will contact you shortly.
Đề cương khóa học
Giới thiệu về mô hình mối đe dọa của AI
- Điều gì làm cho các hệ thống AI dễ bị tổn thương?
- Mặt phẳng tấn công của AI so với các hệ thống truyền thống
- Các vector tấn công chính: lớp dữ liệu, mô hình, đầu ra và giao diện
Tấn công đối thủ lên các mô hình AI
- Hiểu về các ví dụ đối thủ và kỹ thuật nhiễu loạn
- Tấn công white-box so với black-box
- Phương pháp FGSM, PGD và DeepFool
- Biểu diễn và tạo mẫu tấn công đối thủ
Phân tích ngược mô hình và rò rỉ thông tin riêng tư
- Suy luận dữ liệu huấn luyện từ đầu ra của mô hình
- Tấn công xác định thành viên
- Rủi ro về quyền riêng tư trong các mô hình phân loại và tạo mẫu
Tiêm nhiễm dữ liệu và tiêm cài hậu môn
- Cách dữ liệu bị tiêm nhiễm ảnh hưởng đến hành vi của mô hình
- Hậu môn dựa trên kích hoạt và tấn công Trojan
- Chiến lược phát hiện và làm sạch
Tính vững chắc và kỹ thuật phòng thủ
- Huấn luyện đối thủ và tăng cường dữ liệu
- Che đậy gradient và tiền xử lý đầu vào
- Làm mịn mô hình và các kỹ thuật quy định
Kỹ thuật phòng thủ AI bảo vệ quyền riêng tư
- Giới thiệu về sự riêng tư khác biệt
- Tiêm nhiễu và ngân sách quyền riêng tư
- Học liên minh và tổng hợp an toàn
AI Security Trong thực hành
- Đánh giá và triển khai mô hình với ý thức về mối đe dọa
- Sử dụng ART (Hộp công cụ sức mạnh đối thủ) trong các môi trường áp dụng
- Trường hợp nghiên cứu của ngành: vi phạm và giảm thiểu thực tế
Tóm tắt và Bước kế tiếp
Requirements
- Hiểu biết về các quy trình làm việc của máy học và quá trình huấn luyện mô hình
- Kinh nghiệm với Python và các khung ML thông thường như PyTorch hoặc TensorFlow
- Thành thạo các khái niệm cơ bản về an ninh hoặc mô hình đe dọa sẽ hữu ích
Đối tượng tham gia
- Kỹ sư học máy
- Nhân viên phân tích bảo mật mạng
- Nghiên cứu viên AI và đội ngũ xác minh mô hình
14 Hours