Đề cương khóa học

Giới thiệu về Ollama

  • Ollama là gì và nó hoạt động như thế nào?
  • Lợi ích của việc chạy mô hình AI bản địa
  • Tổng quan về các mô hình LLM được hỗ trợ (Llama, DeepSeek, Mistral, v.v.)

Cài đặt và Thiết lập Ollama

  • Yêu cầu hệ thống và xem xét phần cứng
  • Cài đặt Ollama trên các hệ điều hành khác nhau
  • Cấu hình phụ thuộc và thiết lập môi trường

Chạy Mô Hình AI Bản Địa

  • Tải xuống và tải mô hình AI trong Ollama
  • Tương tác với mô hình thông qua dòng lệnh
  • Kỹ thuật prompt cơ bản cho các tác vụ AI bản địa

Tối ưu Hóa Hiệu Suất và Sử Dụng Tài Nguyên

  • Quản lý tài nguyên phần cứng để thực thi AI hiệu quả
  • Giảm độ trễ và cải thiện thời gian phản hồi của mô hình
  • Đo lường hiệu suất cho các mô hình khác nhau

Trường Hợp Sử Dụng cho Việc Triển Khai AI Bản Địa

  • Chất lượng cuộc trò chuyện AI và trợ lý ảo
  • Xử lý dữ liệu và tác vụ tự động hóa
  • Ứng dụng AI chú trọng quyền riêng tư

Tổng kết và Bước Tiếp Theo

Yêu cầu

  • Hiểu cơ bản về AI và các khái niệm học máy
  • Thành thạo với giao diện dòng lệnh

Đối Tượng Học Viên

  • Nhà phát triển chạy mô hình AI không phụ thuộc vào đám mây
  • Chuyên gia kinh doanh quan tâm đến quyền riêng tư và triển khai hiệu quả về chi phí của AI
  • Người yêu thích AI khám phá việc triển khai mô hình bản địa
 7 Giờ học

Số người tham gia


Giá cho mỗi người tham gia

Các khóa học sắp tới

Các danh mục liên quan