Đề cương khóa học

Giới thiệu về cách fine-tuning mô hình DeepSeek LLM

  • Tổng quan về mô hình DeepSeek, ví dụ như DeepSeek-R1 và DeepSeek-V3
  • Hiểu biết về nhu cầu fine-tuning mô hình LLM
  • So sánh fine-tuning với prompt engineering

Chuẩn bị dữ liệu cho việc fine-tuning

  • Tạo bộ dữ liệu chuyên ngành
  • Kỹ thuật tiền xử lý và làm sạch dữ liệu
  • Tokenization và định dạng dữ liệu cho mô hình DeepSeek LLM

Thiết lập môi trường fine-tuning

  • Cấu hình GPU và TPU tăng tốc
  • Cài đặt Hugging Face Transformers với mô hình DeepSeek LLM
  • Hiểu về các siêu tham số cho việc fine-tuning

Fine-tuning mô hình DeepSeek LLM

  • Triển khai fine-tuning có giám sát
  • Sử dụng LoRA (Low-Rank Adaptation) và PEFT (Parameter-Efficient Fine-Tuning)
  • Chạy fine-tuning phân tán cho bộ dữ liệu lớn

Đánh giá và tối ưu hóa mô hình đã fine-tuning

  • Đánh giá hiệu suất mô hình bằng các chỉ số đánh giá
  • Xử lý quá trình overfitting và underfitting
  • Tối ưu tốc độ suy luận và hiệu quả mô hình

Triển khai mô hình DeepSeek đã fine-tuning

  • Gói mô hình để triển khai API
  • Tích hợp mô hình đã fine-tuning vào ứng dụng
  • Phóng to triển khai với cloud và edge computing

Các trường hợp sử dụng và ứng dụng thực tế

  • Các mô hình LLM đã fine-tuning cho tài chính, y tế và hỗ trợ khách hàng
  • Các nghiên cứu trường hợp ứng dụng trong ngành
  • Các vấn đề đạo đức trong các mô hình AI chuyên ngành

Tóm lược và các bước tiếp theo

Yêu cầu

  • Kiến thức về các khung machine learning và deep learning
  • Thông thạo với transformers và các mô hình ngôn ngữ lớn (LLMs)
  • Hiểu về các kỹ thuật xử lý dữ liệu và huấn luyện mô hình

Đối tượng học viên

  • Các nhà nghiên cứu AI đang khám phá việc tinh chỉnh LLM
  • Các kỹ sư machine learning phát triển các mô hình AI tùy chỉnh
  • Các lập trình viên nâng cao triển khai các giải pháp AI do AI điều khiển
 21 Giờ học

Số người tham gia


Giá cho mỗi người tham gia

Các khóa học sắp tới

Các danh mục liên quan