Parameter-Efficient Fine-Tuning (PEFT) Techniques for LLMs Training Course
Parameter-Efficient Fine-Tuning (PEFT) is a collection of techniques that enable efficient adaptation of large language models (LLMs) by modifying only a small subset of parameters.
This instructor-led, live training (online or onsite) is aimed at intermediate-level data scientists and AI engineers who wish to fine-tune large language models more affordably and efficiently using methods like LoRA, Adapter Tuning, and Prefix Tuning.
By the end of this training, participants will be able to:
- Understand the theory behind parameter-efficient fine-tuning approaches.
- Implement LoRA, Adapter Tuning, and Prefix Tuning using Hugging Face PEFT.
- Compare performance and cost trade-offs of PEFT methods vs. full fine-tuning.
- Deploy and scale fine-tuned LLMs with reduced compute and storage requirements.
Format of the Course
- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Đề cương khóa học
Introduction to Parameter-Efficient Fine-Tuning (PEFT)
- Motivation and limitations of full fine-tuning
- Overview of PEFT: goals and benefits
- Applications and use cases in industry
LoRA (Low-Rank Adaptation)
- Concept and intuition behind LoRA
- Implementing LoRA using Hugging Face and PyTorch
- Hands-on: Fine-tuning a model with LoRA
Adapter Tuning
- How adapter modules work
- Integration with transformer-based models
- Hands-on: Applying Adapter Tuning to a transformer model
Prefix Tuning
- Using soft prompts for fine-tuning
- Strengths and limitations compared to LoRA and adapters
- Hands-on: Prefix Tuning on an LLM task
Evaluating and Comparing PEFT Methods
- Metrics for evaluating performance and efficiency
- Trade-offs in training speed, memory usage, and accuracy
- Benchmarking experiments and result interpretation
Deploying Fine-Tuned Models
- Saving and loading fine-tuned models
- Deployment considerations for PEFT-based models
- Integrating into applications and pipelines
Best Practices and Extensions
- Combining PEFT with quantization and distillation
- Use in low-resource and multilingual settings
- Future directions and active research areas
Summary and Next Steps
Requirements
- An understanding of machine learning fundamentals
- Experience working with large language models (LLMs)
- Familiarity with Python and PyTorch
Audience
- Data scientists
- AI engineers
Open Training Courses require 5+ participants.
Parameter-Efficient Fine-Tuning (PEFT) Techniques for LLMs Training Course - Booking
Parameter-Efficient Fine-Tuning (PEFT) Techniques for LLMs Training Course - Enquiry
Parameter-Efficient Fine-Tuning (PEFT) Techniques for LLMs - Consultancy Enquiry
Consultancy Enquiry
Provisional Upcoming Courses (Require 5+ participants)
Related Courses
Advanced Techniques in Transfer Learning
14 HoursKhóa đào tạo trực tiếp, do giảng viên hướng dẫn này tại Việt Nam (trực tuyến hoặc tại chỗ) dành cho các chuyên gia học máy nâng cao, những người muốn làm chủ các kỹ thuật học chuyển giao tiên tiến và áp dụng chúng vào các vấn đề phức tạp trong thế giới thực.
Khi kết thúc khóa đào tạo này, người tham gia sẽ có thể:
- Hiểu các khái niệm và phương pháp học chuyển giao nâng cao.
- Triển khai các kỹ thuật thích ứng chuyên biệt cho các mô hình được huấn luyện trước.
- Áp dụng học liên tục để quản lý các tác vụ và tập dữ liệu đang phát triển.
- Làm chủ kỹ thuật tinh chỉnh đa tác vụ để nâng cao hiệu suất mô hình trên nhiều tác vụ.
AI Automation with n8n and LangChain
14 HoursKhóa đào tạo trực tiếp, do giảng viên hướng dẫn này tại Việt Nam (trực tuyến hoặc tại chỗ) dành cho các nhà phát triển và chuyên gia IT ở mọi trình độ kỹ năng, những người muốn tự động hóa các tác vụ và quy trình bằng AI mà không cần viết nhiều mã.
Khi kết thúc khóa đào tạo này, người tham gia sẽ có thể:
- Thiết kế và triển khai các quy trình làm việc phức tạp bằng giao diện lập trình trực quan của n8n.
- Tích hợp khả năng AI vào quy trình làm việc bằng LangChain.
- Xây dựng chatbot và trợ lý ảo tùy chỉnh cho nhiều trường hợp sử dụng khác nhau.
- Thực hiện phân tích và xử lý dữ liệu nâng cao với các tác nhân AI.
Automating Workflows with LangChain and APIs
14 HoursKhóa đào tạo trực tiếp, do giảng viên hướng dẫn này tại Việt Nam (trực tuyến hoặc tại chỗ) dành cho các chuyên viên phân tích nghiệp vụ và kỹ sư tự động hóa ở trình độ sơ cấp, những người muốn tìm hiểu cách sử dụng LangChain và API để tự động hóa các tác vụ và quy trình làm việc lặp đi lặp lại.
Khi kết thúc khóa đào tạo này, người tham gia sẽ có thể:
- Hiểu các nguyên tắc cơ bản của tích hợp API với LangChain.
- Tự động hóa các quy trình làm việc lặp đi lặp lại bằng cách sử dụng LangChain và Python.
- Sử dụng LangChain để kết nối các API khác nhau cho các quy trình nghiệp vụ hiệu quả.
- Tạo và tự động hóa các quy trình làm việc tùy chỉnh bằng API và khả năng tự động hóa của LangChain.
Building Conversational Agents with LangChain
14 HoursKhóa đào tạo trực tiếp, do giảng viên hướng dẫn này (trực tuyến hoặc tại chỗ) dành cho các chuyên gia ở trình độ trung cấp, những người muốn nâng cao hiểu biết về các tác nhân hội thoại và áp dụng LangChain vào các trường hợp sử dụng thực tế.
Khi kết thúc khóa đào tạo này, người tham gia sẽ có thể:
- Hiểu các nguyên tắc cơ bản của LangChain và ứng dụng của nó trong việc xây dựng các tác nhân hội thoại.
- Phát triển và triển khai các tác nhân hội thoại bằng cách sử dụng LangChain.
- Tích hợp các tác nhân hội thoại với API và các dịch vụ bên ngoài.
- Áp dụng các kỹ thuật Natural Language Processing (NLP) để cải thiện hiệu suất của các tác nhân hội thoại.
Building Private AI Workflows with Ollama
14 HoursKhóa đào tạo trực tiếp do người hướng dẫn này tại Việt Nam (trực tuyến hoặc tại chỗ) hướng đến các chuyên gia trình độ cao muốn triển khai quy trình làm việc an toàn và hiệu quả do AI điều khiển bằng cách sử dụng Ollama.
Vào cuối khóa đào tạo này, người tham gia sẽ có thể:
- Triển khai và cấu hình Ollama để xử lý AI riêng tư.
- Tích hợp các mô hình AI vào quy trình làm việc an toàn của doanh nghiệp.
- Tối ưu hóa hiệu suất AI trong khi vẫn đảm bảo quyền riêng tư dữ liệu.
- Tự động hóa quy trình kinh doanh với khả năng AI tại chỗ.
- Đảm bảo tuân thủ các chính sách quản trị và bảo mật doanh nghiệp.
Deploying Fine-Tuned Models in Production
21 HoursKhóa đào tạo trực tiếp, do giảng viên hướng dẫn này tại Việt Nam (trực tuyến hoặc tại chỗ) dành cho các chuyên gia nâng cao mong muốn triển khai các mô hình đã được tinh chỉnh một cách đáng tin cậy và hiệu quả.
Khi kết thúc khóa đào tạo này, người tham gia sẽ có thể:
- Hiểu được những thách thức của việc triển khai các mô hình đã được tinh chỉnh vào môi trường sản xuất.
- Đóng gói và triển khai các mô hình bằng các công cụ như Docker và Kubernetes.
- Triển khai giám sát và ghi nhật ký cho các mô hình đã triển khai.
- Tối ưu hóa các mô hình để giảm độ trễ và khả năng mở rộng trong các tình huống thực tế.
Deploying and Optimizing LLMs with Ollama
14 HoursKhóa đào tạo trực tiếp do giảng viên hướng dẫn này tại Việt Nam (trực tuyến hoặc tại chỗ) dành cho các chuyên gia trình độ trung cấp muốn triển khai, tối ưu hóa và tích hợp LLM bằng cách sử dụng Ollama.
Vào cuối khóa đào tạo này, người tham gia sẽ có thể:
- Thiết lập và triển khai LLM bằng cách sử dụng Ollama.
- Tối ưu hóa các mô hình AI để tăng hiệu suất và hiệu quả.
- Tận dụng khả năng tăng tốc GPU để cải thiện tốc độ suy luận.
- Tích hợp Ollama vào quy trình làm việc và ứng dụng.
- Theo dõi và duy trì hiệu suất của mô hình AI theo thời gian.
Ethical Considerations in AI Development with LangChain
21 HoursKhóa đào tạo trực tiếp, do giảng viên hướng dẫn này (trực tuyến hoặc tại chỗ) dành cho các nhà nghiên cứu AI và hoạch định chính sách trình độ cao, những người muốn khám phá các tác động đạo đức của việc phát triển AI và học cách áp dụng các hướng dẫn đạo đức khi xây dựng các giải pháp AI với LangChain.
Khi kết thúc khóa đào tạo này, người tham gia sẽ có thể:
- Xác định các vấn đề đạo đức chính trong quá trình phát triển AI với LangChain.
- Hiểu rõ tác động của AI đối với xã hội và các quy trình ra quyết định.
- Phát triển các chiến lược để xây dựng các hệ thống AI công bằng và minh bạch.
- Triển khai các hướng dẫn đạo đức AI vào các dự án dựa trên LangChain.
Enhancing User Experience with LangChain in Web Apps
14 HoursKhóa đào tạo trực tiếp, do giảng viên hướng dẫn này (trực tuyến hoặc tại chỗ) dành cho các nhà phát triển web và nhà thiết kế UX ở trình độ trung cấp, những người muốn tận dụng LangChain để tạo ra các ứng dụng web trực quan và thân thiện với người dùng.
Khi kết thúc khóa đào tạo này, người tham gia sẽ có thể:
- Hiểu các khái niệm cơ bản của LangChain và vai trò của nó trong việc nâng cao trải nghiệm người dùng web.
- Triển khai LangChain trong các ứng dụng web để tạo ra giao diện động và đáp ứng.
- Tích hợp API vào các ứng dụng web để cải thiện tính tương tác và sự gắn kết của người dùng.
- Tối ưu hóa trải nghiệm người dùng bằng cách sử dụng các tính năng tùy chỉnh nâng cao của LangChain.
- Phân tích dữ liệu hành vi của người dùng để tinh chỉnh hiệu suất và trải nghiệm ứng dụng web.
Fine-Tuning and Customizing AI Models on Ollama
14 HoursKhóa đào tạo trực tiếp do giảng viên hướng dẫn này tại Việt Nam (trực tuyến hoặc tại chỗ) nhắm tới các chuyên gia trình độ cao muốn tinh chỉnh và tùy chỉnh các mô hình AI trên Ollama để nâng cao hiệu suất và các ứng dụng cụ thể cho từng lĩnh vực.
Vào cuối khóa đào tạo này, người tham gia sẽ có thể:
- Thiết lập một môi trường hiệu quả để tinh chỉnh các mô hình AI trên Ollama.
- Chuẩn bị các tập dữ liệu để điều chỉnh có giám sát và học tăng cường.
- Tối ưu hóa các mô hình AI để tăng hiệu suất, độ chính xác và hiệu quả.
- Triển khai các mô hình tùy chỉnh trong môi trường sản xuất.
- Đánh giá những cải tiến của mô hình và đảm bảo tính mạnh mẽ.
LangChain: Building AI-Powered Applications
14 HoursKhóa đào tạo trực tiếp, do giảng viên hướng dẫn này (trực tuyến hoặc tại chỗ) dành cho các nhà phát triển và kỹ sư phần mềm ở trình độ trung cấp, những người muốn xây dựng các ứng dụng hỗ trợ AI bằng framework LangChain.
Khi kết thúc khóa đào tạo này, người tham gia sẽ có thể:
- Hiểu các nguyên tắc cơ bản của LangChain và các thành phần của nó.
- Tích hợp LangChain với các mô hình ngôn ngữ lớn (LLM) như GPT-4.
- Xây dựng các ứng dụng AI mô-đun bằng LangChain.
- Khắc phục các sự cố thường gặp trong các ứng dụng LangChain.
Integrating LangChain with Cloud Services
14 HoursKhóa đào tạo trực tiếp, do giảng viên hướng dẫn này tại Việt Nam (trực tuyến hoặc tại chỗ) dành cho các kỹ sư dữ liệu và chuyên gia DevOps trình độ cao, những người muốn tận dụng khả năng của LangChain bằng cách tích hợp nó với nhiều dịch vụ đám mây.
Khi kết thúc khóa đào tạo này, người tham gia sẽ có thể:
- Tích hợp LangChain với các nền tảng đám mây lớn như AWS, Azure và Google Cloud.
- Sử dụng các API và dịch vụ dựa trên đám mây để nâng cao các ứng dụng được hỗ trợ bởi LangChain.
- Mở rộng và triển khai các tác nhân hội thoại lên đám mây để tương tác theo thời gian thực.
- Thực hiện các phương pháp hay nhất về giám sát và bảo mật trong môi trường đám mây.
LangChain for Data Analysis and Visualization
14 HoursKhóa đào tạo trực tiếp, do giảng viên hướng dẫn này (trực tuyến hoặc tại chỗ) dành cho các chuyên gia dữ liệu ở trình độ trung cấp, những người muốn sử dụng LangChain để nâng cao khả năng phân tích và trực quan hóa dữ liệu của họ.
Khi kết thúc khóa đào tạo này, người tham gia sẽ có thể:
- Tự động hóa việc truy xuất và làm sạch dữ liệu bằng LangChain.
- Thực hiện phân tích dữ liệu nâng cao bằng Python và LangChain.
- Tạo hình ảnh trực quan bằng Matplotlib và các thư viện Python khác tích hợp với LangChain.
- Tận dụng LangChain để tạo ra những hiểu biết sâu sắc từ phân tích dữ liệu bằng ngôn ngữ tự nhiên.
LangChain Fundamentals
14 HoursKhóa đào tạo trực tiếp, do giảng viên hướng dẫn này (trực tuyến hoặc tại chỗ) dành cho các nhà phát triển và kỹ sư phần mềm ở trình độ mới bắt đầu đến trung cấp, những người muốn tìm hiểu các khái niệm và kiến trúc cốt lõi của LangChain và đạt được các kỹ năng thực tế để xây dựng các ứng dụng hỗ trợ AI.
Khi kết thúc khóa đào tạo này, người tham gia sẽ có thể:
- Nắm bắt các nguyên tắc cơ bản của LangChain.
- Thiết lập và cấu hình môi trường LangChain.
- Hiểu kiến trúc và cách LangChain tương tác với các mô hình ngôn ngữ lớn (LLMs).
- Phát triển các ứng dụng đơn giản bằng LangChain.
Getting Started with Ollama: Running Local AI Models
7 HoursKhóa đào tạo trực tiếp do người hướng dẫn này tại Việt Nam (trực tuyến hoặc tại chỗ) dành cho các chuyên gia mới bắt đầu muốn cài đặt, cấu hình và sử dụng Ollama để chạy các mô hình AI trên máy cục bộ của họ.
Vào cuối khóa đào tạo này, người tham gia sẽ có thể:
- Hiểu được những điều cơ bản của Ollama và khả năng của nó.
- Thiết lập Ollama để chạy các mô hình AI cục bộ.
- Triển khai và tương tác với LLM bằng cách sử dụng Ollama.
- Tối ưu hóa hiệu suất và sử dụng tài nguyên cho khối lượng công việc AI.
- Khám phá các trường hợp sử dụng để triển khai AI cục bộ trong nhiều ngành công nghiệp khác nhau.