Safety and Bias Mitigation in Fine-Tuned Models Training Course
Safety and Bias Mitigation in Fine-Tuned Models is a growing concern as AI becomes more embedded in decision-making across industries and regulatory standards continue to evolve.
This instructor-led, live training (online or onsite) is aimed at intermediate-level ML engineers and AI compliance professionals who wish to identify, evaluate, and reduce safety risks and biases in fine-tuned language models.
By the end of this training, participants will be able to:
- Understand the ethical and regulatory context for safe AI systems.
- Identify and evaluate common forms of bias in fine-tuned models.
- Apply bias mitigation techniques during and after training.
- Design and audit models for safety, transparency, and fairness.
Format of the Course
- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Đề cương khóa học
Foundations of Safe and Fair AI
- Key concepts: safety, bias, fairness, transparency
- Types of bias: dataset, representation, algorithmic
- Overview of regulatory frameworks (EU AI Act, GDPR, etc.)
Bias in Fine-Tuned Models
- How fine-tuning can introduce or amplify bias
- Case studies and real-world failures
- Identifying bias in datasets and model predictions
Techniques for Bias Mitigation
- Data-level strategies (rebalancing, augmentation)
- In-training strategies (regularization, adversarial debiasing)
- Post-processing strategies (output filtering, calibration)
Model Safety and Robustness
- Detecting unsafe or harmful outputs
- Adversarial input handling
- Red teaming and stress testing fine-tuned models
Auditing and Monitoring AI Systems
- Bias and fairness evaluation metrics (e.g., demographic parity)
- Explainability tools and transparency frameworks
- Ongoing monitoring and governance practices
Toolkits and Hands-On Practice
- Using open-source libraries (e.g., Fairlearn, Transformers, CheckList)
- Hands-on: Detecting and mitigating bias in a fine-tuned model
- Generating safe outputs through prompt design and constraints
Enterprise Use Cases and Compliance Readiness
- Best practices for integrating safety in LLM workflows
- Documentation and model cards for compliance
- Preparing for audits and external reviews
Summary and Next Steps
Requirements
- An understanding of machine learning models and training processes
- Experience working with fine-tuning and LLMs
- Familiarity with Python and NLP concepts
Audience
- AI compliance teams
- ML engineers
Open Training Courses require 5+ participants.
Safety and Bias Mitigation in Fine-Tuned Models Training Course - Booking
Safety and Bias Mitigation in Fine-Tuned Models Training Course - Enquiry
Safety and Bias Mitigation in Fine-Tuned Models - Consultancy Enquiry
Consultancy Enquiry
Provisional Upcoming Courses (Require 5+ participants)
Related Courses
Advanced Techniques in Transfer Learning
14 HoursKhóa đào tạo trực tiếp, do giảng viên hướng dẫn này tại Việt Nam (trực tuyến hoặc tại chỗ) dành cho các chuyên gia học máy nâng cao, những người muốn làm chủ các kỹ thuật học chuyển giao tiên tiến và áp dụng chúng vào các vấn đề phức tạp trong thế giới thực.
Khi kết thúc khóa đào tạo này, người tham gia sẽ có thể:
- Hiểu các khái niệm và phương pháp học chuyển giao nâng cao.
- Triển khai các kỹ thuật thích ứng chuyên biệt cho các mô hình được huấn luyện trước.
- Áp dụng học liên tục để quản lý các tác vụ và tập dữ liệu đang phát triển.
- Làm chủ kỹ thuật tinh chỉnh đa tác vụ để nâng cao hiệu suất mô hình trên nhiều tác vụ.
Deploying Fine-Tuned Models in Production
21 HoursKhóa đào tạo trực tiếp, do giảng viên hướng dẫn này tại Việt Nam (trực tuyến hoặc tại chỗ) dành cho các chuyên gia nâng cao mong muốn triển khai các mô hình đã được tinh chỉnh một cách đáng tin cậy và hiệu quả.
Khi kết thúc khóa đào tạo này, người tham gia sẽ có thể:
- Hiểu được những thách thức của việc triển khai các mô hình đã được tinh chỉnh vào môi trường sản xuất.
- Đóng gói và triển khai các mô hình bằng các công cụ như Docker và Kubernetes.
- Triển khai giám sát và ghi nhật ký cho các mô hình đã triển khai.
- Tối ưu hóa các mô hình để giảm độ trễ và khả năng mở rộng trong các tình huống thực tế.
Domain-Specific Fine-Tuning for Finance
21 HoursKhóa đào tạo trực tiếp, do giảng viên hướng dẫn này (trực tuyến hoặc tại chỗ) dành cho các chuyên gia ở trình độ trung cấp, những người muốn có được các kỹ năng thực tế trong việc tùy chỉnh các mô hình AI cho các tác vụ tài chính quan trọng.
Khi kết thúc khóa đào tạo này, người tham gia sẽ có thể:
- Hiểu các nguyên tắc cơ bản của việc tinh chỉnh cho các ứng dụng tài chính.
- Tận dụng các mô hình được huấn luyện trước cho các tác vụ cụ thể trong lĩnh vực tài chính.
- Áp dụng các kỹ thuật để phát hiện gian lận, đánh giá rủi ro và tạo ra các lời khuyên tài chính.
- Đảm bảo tuân thủ các quy định tài chính như GDPR và SOX.
- Triển khai bảo mật dữ liệu và các thực hành AI đạo đức trong các ứng dụng tài chính.
Fine-Tuning Models and Large Language Models (LLMs)
14 HoursKhóa đào tạo trực tiếp, do giảng viên hướng dẫn này (trực tuyến hoặc tại chỗ) dành cho các chuyên gia từ trung cấp đến cao cấp, những người muốn tùy chỉnh các mô hình được huấn luyện trước cho các tác vụ và tập dữ liệu cụ thể.
Khi kết thúc khóa đào tạo này, người tham gia sẽ có thể:
- Hiểu các nguyên tắc của việc tinh chỉnh (fine-tuning) và các ứng dụng của nó.
- Chuẩn bị tập dữ liệu để tinh chỉnh các mô hình được huấn luyện trước.
- Tinh chỉnh các mô hình ngôn ngữ lớn (LLMs) cho các tác vụ Xử lý ngôn ngữ tự nhiên (NLP).
- Tối ưu hóa hiệu suất mô hình và giải quyết các thách thức phổ biến.
Efficient Fine-Tuning with Low-Rank Adaptation (LoRA)
14 HoursKhóa đào tạo trực tiếp, do giảng viên hướng dẫn này (trực tuyến hoặc tại chỗ) dành cho các nhà phát triển và chuyên gia AI ở trình độ trung cấp, những người muốn triển khai các chiến lược tinh chỉnh cho các mô hình lớn mà không cần tài nguyên tính toán lớn.
Khi kết thúc khóa đào tạo này, người tham gia sẽ có thể:
- Hiểu các nguyên tắc của Low-Rank Adaptation (LoRA).
- Triển khai LoRA để tinh chỉnh hiệu quả các mô hình lớn.
- Tối ưu hóa việc tinh chỉnh cho các môi trường hạn chế về tài nguyên.
- Đánh giá và triển khai các mô hình đã được tinh chỉnh bằng LoRA cho các ứng dụng thực tế.
Fine-Tuning Multimodal Models
28 HoursKhóa đào tạo trực tiếp, do giảng viên hướng dẫn này tại Việt Nam (trực tuyến hoặc tại chỗ) dành cho các chuyên gia nâng cao mong muốn làm chủ việc tinh chỉnh mô hình đa phương thức để tạo ra các giải pháp AI sáng tạo.
Khi kết thúc khóa đào tạo này, người tham gia sẽ có thể:
- Hiểu kiến trúc của các mô hình đa phương thức như CLIP và Flamingo.
- Chuẩn bị và tiền xử lý các tập dữ liệu đa phương thức một cách hiệu quả.
- Tinh chỉnh các mô hình đa phương thức cho các tác vụ cụ thể.
- Tối ưu hóa mô hình cho các ứng dụng và hiệu suất trong thế giới thực.
Fine-Tuning for Natural Language Processing (NLP)
21 HoursKhóa đào tạo trực tiếp, do giảng viên hướng dẫn này tại Việt Nam (trực tuyến hoặc tại chỗ) dành cho các chuyên gia ở trình độ trung cấp, mong muốn nâng cao các dự án NLP của họ thông qua việc tinh chỉnh hiệu quả các mô hình ngôn ngữ được huấn luyện trước.
Khi kết thúc khóa đào tạo này, người tham gia sẽ có thể:
- Hiểu các nguyên tắc cơ bản của việc tinh chỉnh cho các tác vụ NLP.
- Tinh chỉnh các mô hình được huấn luyện trước như GPT, BERT và T5 cho các ứng dụng NLP cụ thể.
- Tối ưu hóa các siêu tham số để cải thiện hiệu suất mô hình.
- Đánh giá và triển khai các mô hình đã tinh chỉnh trong các tình huống thực tế.
Fine-Tuning DeepSeek LLM for Custom AI Models
21 HoursKhóa đào tạo trực tiếp, do giảng viên hướng dẫn này (trực tuyến hoặc tại chỗ) dành cho các nhà nghiên cứu AI nâng cao, kỹ sư học máy và nhà phát triển mong muốn tinh chỉnh các mô hình LLM DeepSeek để tạo các ứng dụng AI chuyên biệt, phù hợp với các ngành, lĩnh vực hoặc nhu cầu kinh doanh cụ thể.
Khi kết thúc khóa đào tạo này, người tham gia sẽ có thể:
- Hiểu kiến trúc và khả năng của các mô hình DeepSeek, bao gồm DeepSeek-R1 và DeepSeek-V3.
- Chuẩn bị bộ dữ liệu và tiền xử lý dữ liệu để tinh chỉnh.
- Tinh chỉnh LLM DeepSeek cho các ứng dụng cụ thể theo lĩnh vực.
- Tối ưu hóa và triển khai các mô hình đã tinh chỉnh một cách hiệu quả.
Fine-Tuning Large Language Models Using QLoRA
14 HoursBuổi đào tạo trực tiếp dưới sự hướng dẫn của giảng viên tại Việt Nam (trực tuyến hoặc trực tiếp) này dành cho các kỹ sư học máy cấp trung đến cao, nhà phát triển AI và nhà khoa học dữ liệu muốn tìm hiểu cách sử dụng QLoRA để hiệu chỉnh mô hình lớn một cách hiệu quả cho các tác vụ cụ thể và tùy chỉnh.
Tại kết thúc buổi đào tạo này, người tham gia sẽ có khả năng:
- Nắm vững lý thuyết đằng sau QLoRA và kỹ thuật lượng tử hóa cho các mô hình ngôn ngữ lớn (LLMs).
- Thực hiện QLoRA trong việc hiệu chỉnh các mô hình ngôn ngữ lớn cho các ứng dụng chuyên ngành.
- Tối ưu hóa hiệu suất hiệu chỉnh trên tài nguyên tính toán hạn chế bằng cách sử dụng lượng tử hóa.
- Triển khai và đánh giá các mô hình đã được hiệu chỉnh một cách hiệu quả trong các ứng dụng thực tế.
Fine-Tuning Open-Source LLMs (LLaMA, Mistral, Qwen, etc.)
14 HoursBuổi đào tạo trực tiếp dưới sự hướng dẫn của giảng viên tại Việt Nam (trực tuyến hoặc trực tiếp) nhằm vào đối tượng là các chuyên gia ML ở mức trung cấp và các nhà phát triển AI muốn tinh chỉnh và triển khai các mô hình có trọng số mở như LLaMA, Mistral, và Qwen cho các ứng dụng kinh doanh cụ thể hoặc nội bộ.
Tại kết thúc buổi đào tạo này, người tham gia sẽ có khả năng:
- Hiểu rõ hệ sinh thái và sự khác biệt giữa các mô hình AI nguồn mở.
- Chuẩn bị dữ liệu và cấu hình tinh chỉnh cho các mô hình như LLaMA, Mistral, và Qwen.
- Thực hiện quy trình tinh chỉnh sử dụng Hugging Face Transformers và PEFT.
- Đánh giá, lưu trữ và triển khai các mô hình đã được tinh chỉnh trong môi trường an toàn.
Fine-Tuning for Retrieval-Augmented Generation (RAG) Systems
14 HoursBuổi đào tạo trực tiếp dưới sự hướng dẫn của giảng viên tại Việt Nam (trực tuyến hoặc trực tiếp) này nhằm vào các kỹ sư NLP cấp trung và đội ngũ quản lý kiến thức muốn điều chỉnhpipeline RAG để cải thiện hiệu suất trong các trường hợp sử dụng như trả lời câu hỏi, tìm kiếm doanh nghiệp và tóm tắt.
Tại kết thúc buổi đào tạo này, người tham gia sẽ có thể:
- Hiểu về kiến trúc và quy trình làm việc của hệ thống RAG.
- Điều chỉnh các thành phần retriever và generator cho dữ liệu chuyên ngành.
- Đánh giá hiệu suất của RAG và áp dụng cải tiến thông qua kỹ thuật PEFT.
- Triển khai hệ thống RAG được tối ưu hóa cho sử dụng nội bộ hoặc sản xuất.
Fine-Tuning with Reinforcement Learning from Human Feedback (RLHF)
14 HoursBuổi đào tạo trực tiếp dưới sự hướng dẫn của giảng viên tại Việt Nam (trực tuyến hoặc trực tiếp) này dành cho các kỹ sư học máy cấp cao và nhà nghiên cứu AI muốn áp dụng RLHF để điều chỉnh tinh vi các mô hình AI lớn nhằm đạt được hiệu suất, an toàn và đồng bộ hóa tốt hơn.
Tại kết thúc buổi đào tạo này, người tham gia sẽ có khả năng:
- Nắm vững nền tảng lý thuyết của RLHF và tại sao nó là yếu tố quan trọng trong phát triển AI hiện đại.
- Thực hiện các mô hình phần thưởng dựa trên phản hồi của con người để hướng dẫn quá trình học tăng cường.
- Điều chỉnh tinh vi các mô hình ngôn ngữ lớn bằng kỹ thuật RLHF để đồng bộ hóa đầu ra với sở thích của con người.
- Áp dụng các thực hành tốt nhất cho việc mở rộng quy trình làm việc RLHF cho hệ thống AI sản xuất.
Fine-Tuning Vision-Language Models (VLMs)
14 HoursThis instructor-led, live training in Việt Nam (online or onsite) is aimed at advanced-level computer vision engineers and AI developers who wish to fine-tune VLMs such as CLIP and Flamingo to improve performance on industry-specific visual-text tasks.
By the end of this training, participants will be able to:
- Understand the architecture and pretraining methods of vision-language models.
- Fine-tune VLMs for classification, retrieval, captioning, or multimodal QA.
- Prepare datasets and apply PEFT strategies to reduce resource usage.
- Evaluate and deploy customized VLMs in production environments.
Optimizing Large Models for Cost-Effective Fine-Tuning
21 HoursKhóa đào tạo trực tiếp, do giảng viên hướng dẫn này tại Việt Nam (trực tuyến hoặc tại chỗ) dành cho các chuyên gia nâng cao mong muốn nắm vững các kỹ thuật tối ưu hóa mô hình lớn để tinh chỉnh hiệu quả về chi phí trong các tình huống thực tế.
Khi kết thúc khóa đào tạo này, người tham gia sẽ có thể:
- Hiểu được những thách thức của việc tinh chỉnh các mô hình lớn.
- Áp dụng các kỹ thuật đào tạo phân tán cho các mô hình lớn.
- Tận dụng lượng tử hóa mô hình và cắt tỉa để tăng hiệu quả.
- Tối ưu hóa việc sử dụng phần cứng cho các tác vụ tinh chỉnh.
- Triển khai hiệu quả các mô hình đã tinh chỉnh trong môi trường sản xuất.
Prompt Engineering and Few-Shot Fine-Tuning
14 HoursKhóa đào tạo trực tiếp, do giảng viên hướng dẫn này (trực tuyến hoặc tại chỗ) dành cho các chuyên gia ở trình độ trung cấp, những người muốn tận dụng sức mạnh của kỹ thuật tạo prompt và học với ít mẫu (few-shot learning) để tối ưu hóa hiệu suất của LLM cho các ứng dụng thực tế.
Khi kết thúc khóa đào tạo này, người tham gia sẽ có thể:
- Hiểu các nguyên tắc của kỹ thuật tạo prompt và học với ít mẫu.
- Thiết kế các prompt hiệu quả cho nhiều tác vụ NLP.
- Tận dụng các kỹ thuật học với ít mẫu để điều chỉnh LLM với dữ liệu tối thiểu.
- Tối ưu hóa hiệu suất LLM cho các ứng dụng thực tế.