Thank you for sending your enquiry! One of our team members will contact you shortly.
Thank you for sending your booking! One of our team members will contact you shortly.
Đề cương khóa học
Giới thiệu về Xác định Nguy cơ của AI
- Cái gì làm cho các hệ thống AI trở nên dễ bị tổn thương?
- Mặt phẳng tấn công của AI so với các hệ thống truyền thống
- Các vectơ tấn công chính: dữ liệu, mô hình, đầu ra và lớp giao diện
Tấn công Adversarial đối với Mô hình AI
- Hiểu về ví dụ adversarial và kỹ thuật nhiễu loạn
- Tấn công white-box vs black-box
- Các phương pháp FGSM, PGD và DeepFool
- Hiển thị và tạo mẫu adversarial
Xâm nhập Mô hình và Rò rỉ Thông tin Riêng tư
- Suy đoán dữ liệu huấn luyện từ đầu ra mô hình
- Tấn công xác định thành viên
- Rủi ro về quyền riêng tư trong các mô hình phân loại và tạo mẫu
Độc hóa Dữ liệu và Tiêm Backdoor
- Cách dữ liệu độc hại ảnh hưởng đến hành vi của mô hình
- Tiến trình backdoor dựa trên kích hoạt và tấn công Trojan
- Phương pháp phát hiện và làm sạch
Mức độ Cứng cáp và Kỹ thuật Phòng thủ
- Huấn luyện adversarial và tăng cường dữ liệu
- Che giấu gradient và tiền xử lý đầu vào
- Kỹ thuật làm mịn mô hình và chính quy hóa
Phòng thủ AI Bảo vệ Quyền Riêng tư
- Giới thiệu về quyền riêng tư khác biệt
- Tiêm nhiễu và ngân sách bảo mật
- Học liên kết và tổng hợp an toàn
AI Security trong Thực tế
- Đánh giá mô hình và triển khai có ý thức về nguy cơ
- Sử dụng ART (Hộp công cụ Robustness Adversarial) trong các thiết lập thực tế
- Ví dụ từ ngành: vi phạm và biện pháp khắc phục trong thế giới thực
Tóm tắt và Bước Tiếp theo
Requirements
- Có hiểu biết về quy trình làm việc của học máy và đào tạo mô hình
- Kinh nghiệm với Python và các khung ML thông thường như PyTorch hoặc TensorFlow
- Hiểu biết về các khái niệm cơ bản về an ninh hoặc mô hình hóa mối đe dọa sẽ hữu ích
Đối tượng tham gia
- Kỹ sư học máy
- Nhân viên phân tích an toàn mạng
- Nhà nghiên cứu AI và đội ngũ xác nhận mô hình
14 Hours