Red Teaming AI Systems: Offensive Security for ML Models Khóa Học Đào Tạo
Red Teaming AI Systems là một lĩnh vực chuyên sâu của an ninh tấn công, tập trung vào việc xác định các điểm yếu trong các mô hình học máy và đường dẫn triển khai thông qua thử nghiệm đối thủ và mô phỏng căng thẳng.
Khóa đào tạo trực tiếp do giảng viên hướng dẫn (trực tuyến hoặc tại địa điểm) này dành cho các chuyên gia an ninh và chuyên gia ML cấp cao, những người muốn mô phỏng các cuộc tấn công trên hệ thống AI, phát hiện lỗ hổng và tăng cường độ bền của các mô hình AI đã triển khai.
Cuối khóa học, người tham dự sẽ có thể:
- Mô phỏng các mối đe dọa thực tế đối với các mô hình học máy.
- Tạo ví dụ đối thủ để kiểm tra độ bền của mô hình.
- Đánh giá diện tích tấn công của API và đường dẫn AI.
- Thiết kế chiến lược red teaming cho môi trường triển khai AI.
Định dạng Khóa học
- Bài giảng và thảo luận tương tác.
- Nhiều bài tập và thực hành.
- Thực hiện hands-on trong môi trường lab trực tiếp.
Tùy chỉnh Khóa học
- Để yêu cầu khóa đào tạo tùy chỉnh cho khóa học này, vui lòng liên hệ với chúng tôi để sắp xếp.
Đề cương khóa học
Giới thiệu về Red Teaming AI
- Hiểu biết về cảnh quan đe dọa AI
- Vai trò của red teams trong an ninh AI
- Xem xét đạo đức và pháp lý
Học Máy Đối thủ
- Các loại tấn công: né tránh, đầu độc, trích xuất, suy luận
- Tạo ví dụ đối thủ (ví dụ: FGSM, PGD)
- Tấn công có mục tiêu vs không có mục tiêu và các tiêu chí thành công
Kiểm tra Độ bền Mô hình
- Đánh giá độ bền dưới sự nhiễu loạn
- Khám phá các điểm mù và chế độ thất bại của mô hình
- Kiểm tra căng thẳng các mô hình phân loại, thị giác và NLP
Red Teaming Đường dẫn AI
- Diện tích tấn công của đường dẫn AI: dữ liệu, mô hình, triển khai
- Khai thác API và endpoint mô hình không an toàn
- Phân tích ngược hành vi và đầu ra của mô hình
Mô phỏng và Công cụ
- Sử dụng Adversarial Robustness Toolbox (ART)
- Red teaming với các công cụ như TextAttack và IBM ART
- Công cụ sandbox, giám sát và quan sát
Chiến lược Red Team AI và Hợp tác Phòng thủ
- Phát triển các bài tập và mục tiêu red team
- Truyền đạt kết quả cho blue teams
- Tích hợp red teaming vào quản lý rủi ro AI
Tổng kết và Bước tiếp theo
Yêu cầu
- Hiểu biết về kiến trúc học máy và học sâu
- Kinh nghiệm với Python và các khung ML (ví dụ: TensorFlow, PyTorch)
- Am hiểu về các khái niệm an ninh mạng hoặc kỹ thuật an ninh tấn công
Đối tượng
- Nghiên cứu viên an ninh
- Đội ngũ an ninh tấn công
- Chuyên gia đảm bảo AI và red team
Khóa học đào tạo mở cần có ít nhất 5 người tham gia.
Red Teaming AI Systems: Offensive Security for ML Models Khóa Học Đào Tạo - Đặt chỗ
Red Teaming AI Systems: Offensive Security for ML Models Khóa Học Đào Tạo - Yêu cầu thông tin
Red Teaming AI Systems: Offensive Security for ML Models - Yêu cầu tư vấn
Yêu cầu tư vấn
Các khóa học sắp tới
Các khóa học liên quan
ISACA Advanced in AI Security Management (AAISM)
21 Giờ họcAAISM là một khung công tác tiên tiến để đánh giá, quản lý và kiểm soát các rủi ro bảo mật trong hệ thống trí tuệ nhân tạo.
Khóa đào tạo trực tiếp do giảng viên hướng dẫn (trực tuyến hoặc tại chỗ) này dành cho các chuyên gia cấp cao muốn triển khai các biện pháp kiểm soát an ninh hiệu quả và thực hành quản lý trách nhiệm trong môi trường AI doanh nghiệp.
Tại cuối khóa học, người tham dự sẽ được chuẩn bị để:
- Đánh giá các rủi ro bảo mật AI bằng các phương pháp công nhận trong ngành.
- Triển khai các mô hình quản lý trách nhiệm cho việc triển khai AI có trách nhiệm.
- Đưa các chính sách bảo mật AI vào mục tiêu tổ chức và kỳ vọng quy định.
- Nâng cao sức chống chịu và trách nhiệm giải trình trong hoạt động dựa trên AI.
Định dạng của khóa học
- Các bài giảng được hỗ trợ bởi phân tích chuyên gia.
- Các buổi thực hành và hoạt động đánh giá dựa trên thực tế.
- Các bài tập ứng dụng sử dụng các tình huống quản lý AI thực tế.
Tùy chọn tùy chỉnh khóa học
- Để có đào tạo được tùy chỉnh phù hợp với chiến lược AI của tổ chức, vui lòng liên hệ với chúng tôi để tùy chỉnh khóa học.
Quản lý AI, Tuân thủ và Bảo mật cho Lãnh đạo Doanh nghiệp
14 Giờ họcKhóa đào tạo trực tuyến hoặc tại chỗ do giảng viên hướng dẫn này ở Việt Nam nhằm vào các lãnh đạo doanh nghiệp ở mức trung cấp, mong muốn hiểu cách quản lý và bảo mật hệ thống AI một cách có trách nhiệm và tuân thủ với các khung pháp lý toàn cầu đang phát triển như Đạo luật AI của EU, GDPR, ISO/IEC 42001 và Lệnh Điều hành về AI của Hoa Kỳ.
Cuối khóa đào tạo, người tham gia sẽ có thể:
- Hiểu các rủi ro pháp lý, đạo đức và quy định khi sử dụng AI trong các bộ phận.
- Phân tích và áp dụng các khung quản lý AI chính (Đạo luật AI của EU, NIST AI RMF, ISO/IEC 42001).
- Thiết lập các chính sách bảo mật, kiểm toán và giám sát cho việc triển khai AI trong doanh nghiệp.
- Phát triển hướng dẫn mua sắm và sử dụng cho các hệ thống AI của bên thứ ba và nội bộ.
Quản lý Rủi ro và Bảo mật Trí tuệ Nhân tạo trong lĩnh vực Công cộng
7 Giờ họcTrí tuệ Nhân tạo (AI) mang lại những khía cạnh mới của rủi ro vận hành, thách thức về quản trị và tiếp xúc với bảo mật mạng cho các cơ quan và bộ phận chính phủ.
Khóa đào tạo trực tiếp do giảng viên hướng dẫn (trực tuyến hoặc tại chỗ) này nhằm vào các chuyên gia CNTT và quản lý rủi ro trong lĩnh vực công cộng có ít kinh nghiệm về AI, mong muốn hiểu cách đánh giá, theo dõi và bảo mật các hệ thống AI trong bối cảnh chính phủ hoặc quy định.
Đến cuối khóa học, người tham gia sẽ có thể:
- Phân tích các khái niệm rủi ro chính liên quan đến hệ thống AI, bao gồm thiên lệch, sự khó đoán và sự dịch chuyển mô hình.
- Áp dụng các khung quản trị và kiểm toán cụ thể cho AI như NIST AI RMF và ISO/IEC 42001.
- Nhận biết các mối đe dọa về bảo mật mạng nhắm vào các mô hình AI và chuỗi dữ liệu.
- Thiết lập kế hoạch quản lý rủi ro và chính sách đồng bộ hóa giữa các phòng ban cho việc triển khai AI.
Định dạng Khóa học
- Bài giảng tương tác và thảo luận về các trường hợp sử dụng trong lĩnh vực công cộng.
- Bài tập khung quản trị AI và bản đồ chính sách.
- Mô hình hóa mối đe dọa dựa trên kịch bản và đánh giá rủi ro.
Tùy chọn tùy chỉnh Khóa học
- Để yêu cầu một khóa đào tạo được tùy chỉnh cho khóa học này, vui lòng liên hệ với chúng tôi để sắp xếp.
Giới thiệu về Quản lý Tin cậy, Rủi ro và Bảo mật AI (AI TRiSM)
21 Giờ họcKhóa đào tạo trực tiếp do giảng viên hướng dẫn này (trực tuyến hoặc tại chỗ) dành cho chuyên gia CNTT từ trình độ cơ bản đến trung cấp muốn hiểu và triển khai AI TRiSM trong tổ chức của họ.
Sau khi kết thúc khóa đào tạo, người tham dự sẽ có thể:
- Hiểu rõ các khái niệm và tầm quan trọng của quản lý tin cậy, rủi ro và bảo mật AI.
- Xác định và giảm thiểu các rủi ro liên quan đến hệ thống AI.
- Triển khai các thực hành bảo mật tốt nhất cho AI.
- Hiểu về tuân thủ quy định và các cân nhắc đạo đức đối với AI.
- Xây dựng chiến lược quản lý và điều hành AI hiệu quả.
Building Secure and Responsible LLM Applications
14 Giờ họcBuổi đào tạo trực tiếp (trực tuyến hoặc tại chỗ) này dành cho các nhà phát triển AI từ mức trung cấp đến nâng cao, kiến trúc sư và quản lý sản phẩm muốn xác định và giảm thiểu rủi ro liên quan đến ứng dụng được hỗ trợ bởi mô hình ngôn ngữ lớn (LLM), bao gồm việc tiêm lệnh, rò rỉ dữ liệu và đầu ra chưa được lọc, đồng thời tích hợp các biện pháp kiểm soát an ninh như kiểm tra đầu vào, giám sát vòng lặp con người và rào cản đầu ra.
Tại kết thúc buổi đào tạo này, người tham gia sẽ có thể:
- Nắm vững những điểm yếu cơ bản của hệ thống dựa trên LLM.
- Áp dụng các nguyên tắc thiết kế an ninh vào kiến trúc ứng dụng LLM.
- Sử dụng công cụ như Guardrails AI và LangChain cho việc kiểm tra, lọc và đảm bảo an toàn.
- Tích hợp các kỹ thuật như sandboxing, red teaming và đánh giá vòng lặp con người vào chuỗi cung cấp sản phẩm chất lượng cao.
Cybersecurity in AI Systems
14 Giờ họcKhóa học trực tuyến hoặc tại chỗ do giảng viên hướng dẫn này dành cho các chuyên gia AI và an ninh mạng cấp trung muốn hiểu và giải quyết những lỗ hổng bảo mật đặc thù của mô hình và hệ thống AI, đặc biệt trong các ngành được quản lý chặt chẽ như tài chính, quản trị dữ liệu và tư vấn.
Sau khóa học này, người tham gia sẽ có khả năng:
- Hiểu các loại tấn công đối thủ nhắm vào hệ thống AI và phương pháp phòng thủ chống lại chúng.
- Áp dụng kỹ thuật tăng cường mô hình để bảo mật chuỗi cung ứng học máy.
- Đảm bảo an toàn và tính toàn vẹn dữ liệu trong các mô hình học máy.
- Hướng dẫn tuân thủ yêu cầu pháp lý liên quan đến an ninh AI.
Giới thiệu về Bảo mật và Quản lý Rủi ro AI
14 Giờ họcKhóa đào tạo trực tiếp do giảng viên hướng dẫn này (trực tuyến hoặc tại địa điểm) dành cho những chuyên gia bảo mật, quản lý rủi ro và tuân thủ IT ở cấp độ mới bắt đầu, mong muốn hiểu rõ các khái niệm cơ bản về bảo mật AI, các vector đe dọa và các framework toàn cầu như NIST AI RMF và ISO/IEC 42001.
Đến cuối khóa đào tạo này, người tham gia sẽ có thể:
- Hiểu được các rủi ro bảo mật độc đáo do hệ thống AI mang lại.
- Nhận diện các vector đe dọa như tấn công đối địch, đầu độc dữ liệu và lật ngược mô hình.
- Áp dụng các mô hình quản lý cơ bản như Framework Quản lý Rủi ro AI của NIST.
- Điều chỉnh việc sử dụng AI với các tiêu chuẩn, hướng dẫn tuân thủ và nguyên tắc đạo đức mới nổi.
OWASP GenAI Security
14 Giờ họcDựa trên hướng dẫn mới nhất của Dự án OWASP GenAI Security, người tham gia sẽ học cách xác định, đánh giá và giảm thiểu các mối đe dọa đặc thù của AI thông qua các bài tập thực hành và kịch bản thực tế.
Học Máy Bảo Mật Dữ Liệu
14 Giờ họcKhóa đào tạo trực tuyến hoặc tại chỗ do giảng viên hướng dẫn này dành cho các chuyên gia cấp cao muốn triển khai và đánh giá các kỹ thuật như học tập liên kết, tính toán đa bên an toàn, mã hóa đồng nhất và bảo mật vi phân trong các chuỗi xử lý học máy thực tế.
Cuối khóa đào tạo, người tham gia sẽ có thể:
- Hiểu và so sánh các kỹ thuật bảo mật dữ liệu chính trong học máy.
- Triển khai hệ thống học tập liên kết sử dụng các khung mã nguồn mở.
- Áp dụng bảo mật vi phân để chia sẻ dữ liệu và huấn luyện mô hình an toàn.
- Sử dụng mã hóa và kỹ thuật tính toán an toàn để bảo vệ đầu vào và đầu ra của mô hình.
Bảo mật AI Edge và Trí tuệ Đóng gói
14 Giờ họcKhóa đào tạo trực tiếp do giảng viên hướng dẫn tại Việt Nam (trực tuyến hoặc tại chỗ) này dành cho kỹ sư và chuyên gia bảo mật có trình độ trung cấp, những người muốn bảo mật các mô hình AI được triển khai tại biên chống lại các mối đe dọa như can thiệp, rò rỉ dữ liệu, đầu vào đối kháng, và tấn công vật lý.
Đến cuối khóa đào tạo này, người tham gia sẽ có thể:
- Xác định và đánh giá các rủi ro bảo mật trong việc triển khai AI Edge.
- Áp dụng các kỹ thuật chống can thiệp và suy luận mã hóa.
- Củng cố các mô hình được triển khai tại biên và bảo mật đường ống dữ liệu.
- Thực hiện các chiến lược giảm thiểu mối đe dọa cụ thể cho hệ thống nhúng và bị hạn chế.
Bảo Mật Mô Hình AI: Các Đe Dọa, Tấn Công và Phòng Thủ
14 Giờ họcKhóa đào tạo trực tiếp do giảng viên hướng dẫn này (trực tuyến hoặc tại chỗ) nhắm đến các chuyên gia học máy và bảo mật mạng ở mức trung cấp, những người muốn hiểu và giảm thiểu các mối đe dọa mới nổi đối với mô hình AI bằng cách sử dụng cả khung concept và các biện pháp phòng thủ thực tế như huấn luyện mạnh mẽ và quyền riêng tư biệt lập.
Cuối khóa đào tạo, người tham gia sẽ có thể:
- Xác định và phân loại các mối đe dọa cụ thể cho AI như tấn công đối kháng, đảo ngược, và độc hại hóa.
- Sử dụng các công cụ như Adversarial Robustness Toolbox (ART) để mô phỏng tấn công và kiểm thử mô hình.
- Áp dụng các biện pháp phòng thủ thực tế bao gồm huấn luyện đối kháng, tiêm nhiễu, và kỹ thuật bảo mật quyền riêng tư.
- Thiết kế chiến lược đánh giá mô hình có ý thức về mối đe dọa trong môi trường sản xuất.
Bảo Mật và Quyền Riêng Tư trong Ứng Dụng TinyML
21 Giờ họcTinyML là một cách tiếp cận để triển khai các mô hình học máy trên các thiết bị có công suất thấp, tài nguyên hạn chế hoạt động ở phía biên mạng.
Khóa huấn luyện trực tiếp do giảng viên hướng dẫn (trực tuyến hoặc tại địa điểm) này nhắm đến các chuyên gia cấp cao muốn bảo mật chuỗi TinyML và triển khai các kỹ thuật bảo vệ quyền riêng tư trong ứng dụng AI biên.
Cuối khóa học, người tham dự sẽ có thể:
- Nhận diện rủi ro bảo mật đặc thù cho suy luận TinyML trên thiết bị.
- Triển khai các cơ chế bảo vệ quyền riêng tư cho việc triển khai AI biên.
- Củng cố mô hình TinyML và hệ thống nhúng chống lại các mối đe dọa đối tác.
- Áp dụng các thực hành tốt nhất để xử lý dữ liệu an toàn trong môi trường hạn chế tài nguyên.
Định dạng của Khóa Học
- Các bài giảng hấp dẫn được hỗ trợ bởi các cuộc thảo luận do chuyên gia hướng dẫn.
- Các bài tập thực tế nhấn mạnh vào các tình huống đe dọa thực tế.
- Triển khai thực hành sử dụng công cụ bảo mật nhúng và TinyML.
Các Tùy Chỉnh Khóa Học
- Tổ chức có thể yêu cầu phiên bản tùy chỉnh của khóa huấn luyện này để phù hợp với các nhu cầu bảo mật và tuân thủ cụ thể của họ.
AI An Toàn và Bảo Mật: Quản Trị, Xác Thực, và Kiểm Thử Đối Thủ
21 Giờ họcKhóa học này bao gồm quản trị, quản lý xác thực, và kiểm thử đối thủ cho các hệ thống AI tự chủ, tập trung vào các mô hình triển khai an toàn cho doanh nghiệp và kỹ thuật kiểm thử đối thủ thực tế.
Khóa học trực tiếp do giáo viên hướng dẫn (trực tuyến hoặc tại chỗ) dành cho những người thực hành trình độ cao muốn thiết kế, bảo mật, và đánh giá các hệ thống AI dựa trên đại lý trong môi trường sản xuất.
Sau khi hoàn thành khóa học này, người tham gia sẽ có thể:
- Xác định các mô hình quản trị và chính sách cho việc triển khai AI tự chủ an toàn.
- Thiết kế luồng xác thực và xác minh không phải là con người cho các đại lý với quyền truy cập tối thiểu.
- Thực hiện kiểm soát truy cập, nhật ký kiểm tra, và khả năng quan sát phù hợp với các đại lý tự chủ.
- Lên kế hoạch và thực hiện các bài tập đội đỏ để phát hiện lạm dụng, đường dẫn thăng cấp, và rủi ro rò rỉ dữ liệu.
- Giảm thiểu các mối đe dọa phổ biến đối với hệ thống tự chủ thông qua chính sách, kiểm soát kỹ thuật, và giám sát.
Định dạng của Khóa Học
- Bài giảng tương tác và các buổi thực hành mô hình mối đe dọa.
- Phòng thí nghiệm thực tế: cung cấp xác minh, thực thi chính sách, và mô phỏng đối thủ.
- Bài tập đội đỏ/đội xanh và đánh giá cuối khóa học.
Tùy Chỉnh Khóa Học
- Để yêu cầu một khóa đào tạo tùy chỉnh cho khóa học này, vui lòng liên hệ với chúng tôi để sắp xếp.