Học Máy Bảo Mật Dữ Liệu Khóa Học Đào Tạo
Học Máy Bảo Mật Dữ Liệu là một lĩnh vực tập trung vào việc bảo vệ dữ liệu nhạy cảm trong khi vẫn cho phép các khả năng AI tiên tiến hoạt động trong các môi trường phân tán hoặc bị hạn chế.
Khóa đào tạo trực tuyến hoặc tại chỗ do giảng viên hướng dẫn này dành cho các chuyên gia cấp cao muốn triển khai và đánh giá các kỹ thuật như học tập liên kết, tính toán đa bên an toàn, mã hóa đồng nhất và bảo mật vi phân trong các chuỗi xử lý học máy thực tế.
Cuối khóa đào tạo, người tham gia sẽ có thể:
- Hiểu và so sánh các kỹ thuật bảo mật dữ liệu chính trong học máy.
- Triển khai hệ thống học tập liên kết sử dụng các khung mã nguồn mở.
- Áp dụng bảo mật vi phân để chia sẻ dữ liệu và huấn luyện mô hình an toàn.
- Sử dụng mã hóa và kỹ thuật tính toán an toàn để bảo vệ đầu vào và đầu ra của mô hình.
Định dạng Khóa Học
- Bài giảng tương tác và thảo luận.
- Nhiều bài tập và thực hành.
- Thực hiện trực tiếp trong môi trường phòng thí nghiệm sống động.
Tùy Chỉnh Khóa Học
- Để yêu cầu khóa đào tạo tùy chỉnh, vui lòng liên hệ với chúng tôi để xếp lịch.
Đề cương khóa học
Giới thiệu về Học Máy Bảo Mật Dữ Liệu
- Động lực và rủi ro trong môi trường dữ liệu nhạy cảm
- Tổng quan về các kỹ thuật bảo mật dữ liệu trong học máy
- Mô hình đe dọa và xem xét quy định (ví dụ: GDPR, HIPAA)
Học Tập Liên Kết
- Khái niệm và kiến trúc của học tập liên kết
- Đồng bộ hóa và tổng hợp giữa máy khách và máy chủ
- Triển khai sử dụng PySyft và Flower
Bảo Mật Vi Phân
- Toán học của bảo mật vi phân
- Áp dụng DP trong truy vấn dữ liệu và huấn luyện mô hình
- Sử dụng Opacus và TensorFlow Privacy
Tính Toán Đa Bên An Toàn (SMPC)
- Các giao thức SMPC và trường hợp sử dụng
- Phương pháp dựa trên mã hóa so với phương pháp chia sẻ bí mật
- Luồng làm việc tính toán an toàn với CrypTen hoặc PySyft
Mã Hóa Đồng Nhất
- Mã hóa đồng nhất đầy đủ so với mã hóa đồng nhất phần tử
- Su论断推理 (这行有误,应为:) Triển khai suy luận mã hóa cho các công việc nhạy cảm
- Thực hành với TenSEAL và Microsoft SEAL
Ứng Dụng và Trường Hợp Thực Tế Ngành
- Bảo mật trong y tế: học tập liên kết cho AI y tế
- Hợp tác an toàn trong tài chính: mô hình rủi ro và tuân thủ
- Trường hợp sử dụng trong quốc phòng và chính phủ
Tóm Tắt và Bước Tiếp Theo
Yêu cầu
- Hiểu rõ các nguyên lý học máy
- Kinh nghiệm với Python và thư viện học máy (ví dụ: PyTorch, TensorFlow)
- Am hiểu về các khái niệm bảo mật dữ liệu hoặc an ninh mạng là có lợi
Đối Tượng
- Nghiên cứu viên AI
- Đội ngũ bảo vệ dữ liệu và tuân thủ quy định về quyền riêng tư
- Kỹ sư an ninh làm việc trong các ngành có quy định chặt chẽ
Khóa học đào tạo mở cần có ít nhất 5 người tham gia.
Học Máy Bảo Mật Dữ Liệu Khóa Học Đào Tạo - Đặt chỗ
Học Máy Bảo Mật Dữ Liệu Khóa Học Đào Tạo - Yêu cầu thông tin
Học Máy Bảo Mật Dữ Liệu - Yêu cầu tư vấn
Yêu cầu tư vấn
Các khóa học sắp tới
Các khóa học liên quan
ISACA Advanced in AI Security Management (AAISM)
21 Giờ họcAAISM là một khung công tác tiên tiến để đánh giá, quản lý và kiểm soát các rủi ro bảo mật trong hệ thống trí tuệ nhân tạo.
Khóa đào tạo trực tiếp do giảng viên hướng dẫn (trực tuyến hoặc tại chỗ) này dành cho các chuyên gia cấp cao muốn triển khai các biện pháp kiểm soát an ninh hiệu quả và thực hành quản lý trách nhiệm trong môi trường AI doanh nghiệp.
Tại cuối khóa học, người tham dự sẽ được chuẩn bị để:
- Đánh giá các rủi ro bảo mật AI bằng các phương pháp công nhận trong ngành.
- Triển khai các mô hình quản lý trách nhiệm cho việc triển khai AI có trách nhiệm.
- Đưa các chính sách bảo mật AI vào mục tiêu tổ chức và kỳ vọng quy định.
- Nâng cao sức chống chịu và trách nhiệm giải trình trong hoạt động dựa trên AI.
Định dạng của khóa học
- Các bài giảng được hỗ trợ bởi phân tích chuyên gia.
- Các buổi thực hành và hoạt động đánh giá dựa trên thực tế.
- Các bài tập ứng dụng sử dụng các tình huống quản lý AI thực tế.
Tùy chọn tùy chỉnh khóa học
- Để có đào tạo được tùy chỉnh phù hợp với chiến lược AI của tổ chức, vui lòng liên hệ với chúng tôi để tùy chỉnh khóa học.
Quản lý AI, Tuân thủ và Bảo mật cho Lãnh đạo Doanh nghiệp
14 Giờ họcKhóa đào tạo trực tuyến hoặc tại chỗ do giảng viên hướng dẫn này ở Việt Nam nhằm vào các lãnh đạo doanh nghiệp ở mức trung cấp, mong muốn hiểu cách quản lý và bảo mật hệ thống AI một cách có trách nhiệm và tuân thủ với các khung pháp lý toàn cầu đang phát triển như Đạo luật AI của EU, GDPR, ISO/IEC 42001 và Lệnh Điều hành về AI của Hoa Kỳ.
Cuối khóa đào tạo, người tham gia sẽ có thể:
- Hiểu các rủi ro pháp lý, đạo đức và quy định khi sử dụng AI trong các bộ phận.
- Phân tích và áp dụng các khung quản lý AI chính (Đạo luật AI của EU, NIST AI RMF, ISO/IEC 42001).
- Thiết lập các chính sách bảo mật, kiểm toán và giám sát cho việc triển khai AI trong doanh nghiệp.
- Phát triển hướng dẫn mua sắm và sử dụng cho các hệ thống AI của bên thứ ba và nội bộ.
Quản lý Rủi ro và Bảo mật Trí tuệ Nhân tạo trong lĩnh vực Công cộng
7 Giờ họcTrí tuệ Nhân tạo (AI) mang lại những khía cạnh mới của rủi ro vận hành, thách thức về quản trị và tiếp xúc với bảo mật mạng cho các cơ quan và bộ phận chính phủ.
Khóa đào tạo trực tiếp do giảng viên hướng dẫn (trực tuyến hoặc tại chỗ) này nhằm vào các chuyên gia CNTT và quản lý rủi ro trong lĩnh vực công cộng có ít kinh nghiệm về AI, mong muốn hiểu cách đánh giá, theo dõi và bảo mật các hệ thống AI trong bối cảnh chính phủ hoặc quy định.
Đến cuối khóa học, người tham gia sẽ có thể:
- Phân tích các khái niệm rủi ro chính liên quan đến hệ thống AI, bao gồm thiên lệch, sự khó đoán và sự dịch chuyển mô hình.
- Áp dụng các khung quản trị và kiểm toán cụ thể cho AI như NIST AI RMF và ISO/IEC 42001.
- Nhận biết các mối đe dọa về bảo mật mạng nhắm vào các mô hình AI và chuỗi dữ liệu.
- Thiết lập kế hoạch quản lý rủi ro và chính sách đồng bộ hóa giữa các phòng ban cho việc triển khai AI.
Định dạng Khóa học
- Bài giảng tương tác và thảo luận về các trường hợp sử dụng trong lĩnh vực công cộng.
- Bài tập khung quản trị AI và bản đồ chính sách.
- Mô hình hóa mối đe dọa dựa trên kịch bản và đánh giá rủi ro.
Tùy chọn tùy chỉnh Khóa học
- Để yêu cầu một khóa đào tạo được tùy chỉnh cho khóa học này, vui lòng liên hệ với chúng tôi để sắp xếp.
Giới thiệu về Quản lý Tin cậy, Rủi ro và Bảo mật AI (AI TRiSM)
21 Giờ họcKhóa đào tạo trực tiếp do giảng viên hướng dẫn này (trực tuyến hoặc tại chỗ) dành cho chuyên gia CNTT từ trình độ cơ bản đến trung cấp muốn hiểu và triển khai AI TRiSM trong tổ chức của họ.
Sau khi kết thúc khóa đào tạo, người tham dự sẽ có thể:
- Hiểu rõ các khái niệm và tầm quan trọng của quản lý tin cậy, rủi ro và bảo mật AI.
- Xác định và giảm thiểu các rủi ro liên quan đến hệ thống AI.
- Triển khai các thực hành bảo mật tốt nhất cho AI.
- Hiểu về tuân thủ quy định và các cân nhắc đạo đức đối với AI.
- Xây dựng chiến lược quản lý và điều hành AI hiệu quả.
Building Secure and Responsible LLM Applications
14 Giờ họcBuổi đào tạo trực tiếp (trực tuyến hoặc tại chỗ) này dành cho các nhà phát triển AI từ mức trung cấp đến nâng cao, kiến trúc sư và quản lý sản phẩm muốn xác định và giảm thiểu rủi ro liên quan đến ứng dụng được hỗ trợ bởi mô hình ngôn ngữ lớn (LLM), bao gồm việc tiêm lệnh, rò rỉ dữ liệu và đầu ra chưa được lọc, đồng thời tích hợp các biện pháp kiểm soát an ninh như kiểm tra đầu vào, giám sát vòng lặp con người và rào cản đầu ra.
Tại kết thúc buổi đào tạo này, người tham gia sẽ có thể:
- Nắm vững những điểm yếu cơ bản của hệ thống dựa trên LLM.
- Áp dụng các nguyên tắc thiết kế an ninh vào kiến trúc ứng dụng LLM.
- Sử dụng công cụ như Guardrails AI và LangChain cho việc kiểm tra, lọc và đảm bảo an toàn.
- Tích hợp các kỹ thuật như sandboxing, red teaming và đánh giá vòng lặp con người vào chuỗi cung cấp sản phẩm chất lượng cao.
Cybersecurity in AI Systems
14 Giờ họcKhóa học trực tuyến hoặc tại chỗ do giảng viên hướng dẫn này dành cho các chuyên gia AI và an ninh mạng cấp trung muốn hiểu và giải quyết những lỗ hổng bảo mật đặc thù của mô hình và hệ thống AI, đặc biệt trong các ngành được quản lý chặt chẽ như tài chính, quản trị dữ liệu và tư vấn.
Sau khóa học này, người tham gia sẽ có khả năng:
- Hiểu các loại tấn công đối thủ nhắm vào hệ thống AI và phương pháp phòng thủ chống lại chúng.
- Áp dụng kỹ thuật tăng cường mô hình để bảo mật chuỗi cung ứng học máy.
- Đảm bảo an toàn và tính toàn vẹn dữ liệu trong các mô hình học máy.
- Hướng dẫn tuân thủ yêu cầu pháp lý liên quan đến an ninh AI.
Giới thiệu về Bảo mật và Quản lý Rủi ro AI
14 Giờ họcKhóa đào tạo trực tiếp do giảng viên hướng dẫn này (trực tuyến hoặc tại địa điểm) dành cho những chuyên gia bảo mật, quản lý rủi ro và tuân thủ IT ở cấp độ mới bắt đầu, mong muốn hiểu rõ các khái niệm cơ bản về bảo mật AI, các vector đe dọa và các framework toàn cầu như NIST AI RMF và ISO/IEC 42001.
Đến cuối khóa đào tạo này, người tham gia sẽ có thể:
- Hiểu được các rủi ro bảo mật độc đáo do hệ thống AI mang lại.
- Nhận diện các vector đe dọa như tấn công đối địch, đầu độc dữ liệu và lật ngược mô hình.
- Áp dụng các mô hình quản lý cơ bản như Framework Quản lý Rủi ro AI của NIST.
- Điều chỉnh việc sử dụng AI với các tiêu chuẩn, hướng dẫn tuân thủ và nguyên tắc đạo đức mới nổi.
OWASP GenAI Security
14 Giờ họcDựa trên hướng dẫn mới nhất của Dự án OWASP GenAI Security, người tham gia sẽ học cách xác định, đánh giá và giảm thiểu các mối đe dọa đặc thù của AI thông qua các bài tập thực hành và kịch bản thực tế.
Red Teaming AI Systems: Offensive Security for ML Models
14 Giờ họcKhóa đào tạo trực tiếp do giảng viên hướng dẫn này tại Việt Nam (trực tuyến hoặc tại địa điểm) dành cho các chuyên gia an ninh và chuyên gia ML cấp cao, những người muốn mô phỏng các cuộc tấn công trên hệ thống AI, phát hiện lỗ hổng và tăng cường độ bền của các mô hình AI đã triển khai.
Cuối khóa học, người tham dự sẽ có thể:
- Mô phỏng các mối đe dọa thực tế đối với các mô hình học máy.
- Tạo ví dụ đối thủ để kiểm tra độ bền của mô hình.
- Đánh giá diện tích tấn công của API và đường dẫn AI.
- Thiết kế chiến lược red teaming cho môi trường triển khai AI.
Bảo mật AI Edge và Trí tuệ Đóng gói
14 Giờ họcKhóa đào tạo trực tiếp do giảng viên hướng dẫn tại Việt Nam (trực tuyến hoặc tại chỗ) này dành cho kỹ sư và chuyên gia bảo mật có trình độ trung cấp, những người muốn bảo mật các mô hình AI được triển khai tại biên chống lại các mối đe dọa như can thiệp, rò rỉ dữ liệu, đầu vào đối kháng, và tấn công vật lý.
Đến cuối khóa đào tạo này, người tham gia sẽ có thể:
- Xác định và đánh giá các rủi ro bảo mật trong việc triển khai AI Edge.
- Áp dụng các kỹ thuật chống can thiệp và suy luận mã hóa.
- Củng cố các mô hình được triển khai tại biên và bảo mật đường ống dữ liệu.
- Thực hiện các chiến lược giảm thiểu mối đe dọa cụ thể cho hệ thống nhúng và bị hạn chế.
Bảo Mật Mô Hình AI: Các Đe Dọa, Tấn Công và Phòng Thủ
14 Giờ họcKhóa đào tạo trực tiếp do giảng viên hướng dẫn này (trực tuyến hoặc tại chỗ) nhắm đến các chuyên gia học máy và bảo mật mạng ở mức trung cấp, những người muốn hiểu và giảm thiểu các mối đe dọa mới nổi đối với mô hình AI bằng cách sử dụng cả khung concept và các biện pháp phòng thủ thực tế như huấn luyện mạnh mẽ và quyền riêng tư biệt lập.
Cuối khóa đào tạo, người tham gia sẽ có thể:
- Xác định và phân loại các mối đe dọa cụ thể cho AI như tấn công đối kháng, đảo ngược, và độc hại hóa.
- Sử dụng các công cụ như Adversarial Robustness Toolbox (ART) để mô phỏng tấn công và kiểm thử mô hình.
- Áp dụng các biện pháp phòng thủ thực tế bao gồm huấn luyện đối kháng, tiêm nhiễu, và kỹ thuật bảo mật quyền riêng tư.
- Thiết kế chiến lược đánh giá mô hình có ý thức về mối đe dọa trong môi trường sản xuất.
Bảo Mật và Quyền Riêng Tư trong Ứng Dụng TinyML
21 Giờ họcTinyML là một cách tiếp cận để triển khai các mô hình học máy trên các thiết bị có công suất thấp, tài nguyên hạn chế hoạt động ở phía biên mạng.
Khóa huấn luyện trực tiếp do giảng viên hướng dẫn (trực tuyến hoặc tại địa điểm) này nhắm đến các chuyên gia cấp cao muốn bảo mật chuỗi TinyML và triển khai các kỹ thuật bảo vệ quyền riêng tư trong ứng dụng AI biên.
Cuối khóa học, người tham dự sẽ có thể:
- Nhận diện rủi ro bảo mật đặc thù cho suy luận TinyML trên thiết bị.
- Triển khai các cơ chế bảo vệ quyền riêng tư cho việc triển khai AI biên.
- Củng cố mô hình TinyML và hệ thống nhúng chống lại các mối đe dọa đối tác.
- Áp dụng các thực hành tốt nhất để xử lý dữ liệu an toàn trong môi trường hạn chế tài nguyên.
Định dạng của Khóa Học
- Các bài giảng hấp dẫn được hỗ trợ bởi các cuộc thảo luận do chuyên gia hướng dẫn.
- Các bài tập thực tế nhấn mạnh vào các tình huống đe dọa thực tế.
- Triển khai thực hành sử dụng công cụ bảo mật nhúng và TinyML.
Các Tùy Chỉnh Khóa Học
- Tổ chức có thể yêu cầu phiên bản tùy chỉnh của khóa huấn luyện này để phù hợp với các nhu cầu bảo mật và tuân thủ cụ thể của họ.
AI An Toàn và Bảo Mật: Quản Trị, Xác Thực, và Kiểm Thử Đối Thủ
21 Giờ họcKhóa học này bao gồm quản trị, quản lý xác thực, và kiểm thử đối thủ cho các hệ thống AI tự chủ, tập trung vào các mô hình triển khai an toàn cho doanh nghiệp và kỹ thuật kiểm thử đối thủ thực tế.
Khóa học trực tiếp do giáo viên hướng dẫn (trực tuyến hoặc tại chỗ) dành cho những người thực hành trình độ cao muốn thiết kế, bảo mật, và đánh giá các hệ thống AI dựa trên đại lý trong môi trường sản xuất.
Sau khi hoàn thành khóa học này, người tham gia sẽ có thể:
- Xác định các mô hình quản trị và chính sách cho việc triển khai AI tự chủ an toàn.
- Thiết kế luồng xác thực và xác minh không phải là con người cho các đại lý với quyền truy cập tối thiểu.
- Thực hiện kiểm soát truy cập, nhật ký kiểm tra, và khả năng quan sát phù hợp với các đại lý tự chủ.
- Lên kế hoạch và thực hiện các bài tập đội đỏ để phát hiện lạm dụng, đường dẫn thăng cấp, và rủi ro rò rỉ dữ liệu.
- Giảm thiểu các mối đe dọa phổ biến đối với hệ thống tự chủ thông qua chính sách, kiểm soát kỹ thuật, và giám sát.
Định dạng của Khóa Học
- Bài giảng tương tác và các buổi thực hành mô hình mối đe dọa.
- Phòng thí nghiệm thực tế: cung cấp xác minh, thực thi chính sách, và mô phỏng đối thủ.
- Bài tập đội đỏ/đội xanh và đánh giá cuối khóa học.
Tùy Chỉnh Khóa Học
- Để yêu cầu một khóa đào tạo tùy chỉnh cho khóa học này, vui lòng liên hệ với chúng tôi để sắp xếp.