Đề cương khóa học

Giới thiệu về Ollama

  • Ollama là gì và nó hoạt động như thế nào?
  • Lợi ích của việc chạy mô hình AI cục bộ
  • Tổng quan về các LLM được hỗ trợ (Llama, DeepSeek, Mistral, v.v.)

Cài đặt và thiết lập Ollama

  • Yêu cầu hệ thống và cân nhắc về phần cứng
  • Cài đặt Ollama trên các hệ điều hành khác nhau
  • Cấu hình các phụ thuộc và thiết lập môi trường

Chạy mô hình AI cục bộ

  • Tải xuống và tải các mô hình AI trong Ollama
  • Tương tác với các mô hình thông qua dòng lệnh
  • Kỹ thuật nhắc nhở cơ bản cho các tác vụ AI cục bộ

Tối ưu hóa hiệu suất và sử dụng tài nguyên

  • Quản lý tài nguyên phần cứng để thực hiện AI hiệu quả
  • Giảm độ trễ và cải thiện thời gian phản hồi của mô hình
  • Hiệu suất chuẩn cho các mô hình khác nhau

Use Case cho việc triển khai AI cục bộ

  • Các chatbot và trợ lý ảo hỗ trợ AI
  • Nhiệm vụ xử lý dữ liệu và tự động hóa
  • Ứng dụng AI tập trung vào quyền riêng tư

Tóm tắt và các bước tiếp theo

Requirements

  • Hiểu biết cơ bản về AI và các khái niệm học máy
  • Sự quen thuộc với giao diện dòng lệnh

Khán giả

  • Các nhà phát triển chạy mô hình AI mà không phụ thuộc vào đám mây
  • Business các chuyên gia quan tâm đến quyền riêng tư của AI và triển khai tiết kiệm chi phí
  • Những người đam mê AI đang khám phá việc triển khai mô hình cục bộ
 7 Hours

Number of participants


Price per participant

Provisional Upcoming Courses (Require 5+ participants)

Related Categories