Performance Optimization on Ascend, Biren, and Cambricon Training Course
Ascend, Biren và Cambricon là các nền tảng phần cứng AI hàng đầu tại Trung Quốc, mỗi nền tảng đều cung cấp công cụ tăng tốc và phân tích hiệu năng độc đáo cho tác vụ AI quy mô sản xuất.
Khóa học này do giảng viên hướng dẫn (trực tuyến hoặc trực tiếp) nhắm đến các kỹ sư cơ sở hạ tầng AI và hiệu năng cao cấp muốn tối ưu hóa chuỗi công việc dự đoán và đào tạo mô hình trên nhiều nền tảng chip AI Trung Quốc.
Tại kết thúc khóa học, người tham gia sẽ có thể:
- Đánh giá hiệu năng của các mô hình trên các nền tảng Ascend, Biren và Cambricon.
- Xác định điểm nghẽn hệ thống và sự kém hiệu quả về bộ nhớ/tính toán.
- Áp dụng tối ưu hóa cấp đồ thị, nhân và trình điều khiển.
- Tùy chỉnh các đường ống triển khai để cải thiện băng thông và độ trễ.
Định dạng khóa học
- Bài giảng tương tác và thảo luận.
- Sử dụng trực tiếp các công cụ phân tích hiệu năng và tối ưu hóa trên từng nền tảng.
- Bài tập hướng dẫn tập trung vào các tình huống điều chỉnh thực tế.
Tùy chọn Tùy chỉnh Khóa học
- Để yêu cầu đào tạo tùy chỉnh cho khóa học này dựa trên môi trường hiệu năng hoặc loại mô hình của bạn, vui lòng liên hệ với chúng tôi để sắp xếp.
Đề cương khóa học
Khái niệm và Chỉ số Hiệu suất
- Tâm độ, thông lượng, tiêu thụ điện năng, sử dụng tài nguyên
- Nút thắt hệ thống so với nút thắt cấp mô hình
- Phân tích hiệu suất cho việc suy luận và đào tạo
Phân tích Hiệu suất trên Huawei Ascend
- Sử dụng CANN Profiler và MindInsight
- Bệnh lý lõi và toán tử
- Các mẫu chuyển tải và ánh xạ bộ nhớ
Phân tích Hiệu suất trên Biren GPU
- Tính năng theo dõi hiệu suất của Biren SDK
- Hợp nhất lõi, đồng đều bộ nhớ và hàng đợi thực thi
- Phân tích cảm biến công suất và nhiệt độ
Phân tích Hiệu suất trên Cambricon MLU
- Công cụ hiệu suất BANGPy và Neuware
- Tầm nhìn cấp lõi và giải thích nhật ký
- Hoàn thiện bộ phân tích MLU với các khung triển khai
Tối ưu hóa Cấp Đồ thị và Mô hình
- Các chiến lược cắt bỏ đồ thị và lượng tử hóa
- Hợp nhất toán tử và định cấu trúc lại đồ thị tính toán
- Chuẩn hóa kích thước đầu vào và điều chỉnh lô
Tối ưu hóa Bộ nhớ và Lõi
- Tối ưu hóa bố cục và tái sử dụng bộ nhớ
- Quản lý đệm hiệu quả giữa các chipset
- Kỹ thuật điều chỉnh cấp lõi theo từng nền tảng
Các Thực hành Tốt nhất Cho Nhiều Nền Tảng
- Tính di động hiệu suất: chiến lược trừu tượng hóa
- Xây dựng chuỗi điều chỉnh chia sẻ cho môi trường đa chip
- Ví dụ: điều chỉnh một mô hình phát hiện đối tượng qua Ascend, Biren và MLU
Tóm tắt và Bước Tiếp theo
Requirements
- Kinh nghiệm làm việc với các quy trình đào tạo hoặc triển khai mô hình AI
- Hiểu biết về nguyên tắc tính toán GPU/MLU và tối ưu hóa mô hình
- Có kiến thức cơ bản về công cụ và chỉ số đánh giá hiệu suất
Đối tượng tham gia
- Kỹ sư hiệu suất
- Các đội ngũ cơ sở hạ tầng học máy
- Nhà kiến trúc hệ thống AI
Open Training Courses require 5+ participants.
Performance Optimization on Ascend, Biren, and Cambricon Training Course - Booking
Performance Optimization on Ascend, Biren, and Cambricon Training Course - Enquiry
Performance Optimization on Ascend, Biren, and Cambricon - Consultancy Enquiry
Consultancy Enquiry
Provisional Upcoming Courses (Require 5+ participants)
Related Courses
Phát triển Ứng dụng AI với Huawei Ascend và CANN
21 HoursHuawei Ascend là một dòng chip AI được thiết kế cho việc suy luận và đào tạo với hiệu suất cao.
Khóa học này do giảng viên hướng dẫn (trực tuyến hoặc tại chỗ) dành cho các kỹ sư AI trung cấp và nhà khoa học dữ liệu muốn phát triển và tối ưu hóa mô hình mạng nơ-ron sử dụng nền tảng Ascend của Huawei và công cụ CANN.
Tại cuối khóa học này, người tham gia sẽ có thể:
- Cài đặt và cấu hình môi trường phát triển CANN.
- Phát triển ứng dụng AI bằng MindSpore và quy trình CloudMatrix.
- Tối ưu hóa hiệu suất trên Ascend NPU sử dụng các toán tử tùy chỉnh và tiling.
- Cài đặt mô hình vào môi trường biên hoặc đám mây.
Định dạng của khóa học
- Buổi giảng dạy tương tác và thảo luận.
- Sử dụng thực tế Huawei Ascend và công cụ CANN trong các ứng dụng mẫu.
- Luyện tập có hướng dẫn tập trung vào việc xây dựng, đào tạo và triển khai mô hình.
Tùy chọn Tùy chỉnh Khóa học
- Để yêu cầu một khóa học tùy chỉnh dựa trên cơ sở hạ tầng hoặc dữ liệu của bạn, vui lòng liên hệ với chúng tôi để sắp xếp.
Deploying AI Models with CANN and Ascend AI Processors
14 HoursCANN (Compute Architecture for Neural Networks) is Huawei’s AI compute stack for deploying and optimizing AI models on Ascend AI processors.
This instructor-led, live training (online or onsite) is aimed at intermediate-level AI developers and engineers who wish to deploy trained AI models efficiently to Huawei Ascend hardware using the CANN toolkit and tools such as MindSpore, TensorFlow, or PyTorch.
By the end of this training, participants will be able to:
- Understand the CANN architecture and its role in the AI deployment pipeline.
- Convert and adapt models from popular frameworks to Ascend-compatible formats.
- Use tools like ATC, OM model conversion, and MindSpore for edge and cloud inference.
- Diagnose deployment issues and optimize performance on Ascend hardware.
Format of the Course
- Interactive lecture and demonstration.
- Hands-on lab work using CANN tools and Ascend simulators or devices.
- Practical deployment scenarios based on real-world AI models.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Phát Triển và triển khai AI với CloudMatrix
21 HoursCloudMatrix là nền tảng phát triển và triển khai AI thống nhất của Huawei, được thiết kế để hỗ trợ các ống dẫn suy luận có khả năng mở rộng và đạt chuẩn sản xuất.
Khóa học này do giảng viên hướng dẫn (trực tuyến hoặc trực tiếp) dành cho chuyên gia AI từ trình độ đầu tiên đến trung cấp muốn triển khai và theo dõi mô hình AI sử dụng nền tảng CloudMatrix với sự tích hợp của CANN và MindSpore.
Tại kết thúc khóa học này, người tham dự sẽ có thể:
- Sử dụng CloudMatrix cho việc đóng gói, triển khai và cung cấp mô hình.
- Chuyển đổi và tối ưu hóa các mô hình cho chipset Ascend.
- Cài đặt ống dẫn cho tác vụ suy luận thời gian thực và lô.
- Theo dõi triển khai và điều chỉnh hiệu suất trong môi trường sản xuất.
Định dạng khóa học
- Buổi giảng dạy tương tác và thảo luận.
- Sử dụng CloudMatrix thực tế với các tình huống triển khai thực tế.
- Bài tập hướng dẫn tập trung vào chuyển đổi, tối ưu hóa và mở rộng.
Tùy chọn tùy chỉnh khóa học
- Để yêu cầu một khóa học tùy chỉnh dựa trên cơ sở hạ tầng AI hoặc môi trường đám mây của bạn, vui lòng liên hệ với chúng tôi để sắp xếp.
GPU Programming on Biren AI Accelerators
21 HoursBiren AI Accelerators are high-performance GPUs designed for AI and HPC workloads with support for large-scale training and inference.
This instructor-led, live training (online or onsite) is aimed at intermediate-level to advanced-level developers who wish to program and optimize applications using Biren’s proprietary GPU stack, with practical comparisons to CUDA-based environments.
By the end of this training, participants will be able to:
- Understand Biren GPU architecture and memory hierarchy.
- Set up the development environment and use Biren’s programming model.
- Translate and optimize CUDA-style code for Biren platforms.
- Apply performance tuning and debugging techniques.
Format of the Course
- Interactive lecture and discussion.
- Hands-on use of Biren SDK in sample GPU workloads.
- Guided exercises focused on porting and performance tuning.
Course Customization Options
- To request a customized training for this course based on your application stack or integration needs, please contact us to arrange.
Cambricon MLU Development with BANGPy and Neuware
21 HoursCác chip MLU của Cambricon (Machine Learning Units) là các chip AI chuyên dụng được tối ưu hóa cho việc suy luận và đào tạo trong các tình huống ở rìa (edge) và trung tâm dữ liệu.
Khóa học trực tiếp này (trực tuyến hoặc tại chỗ) dành cho các nhà phát triển cấp trung muốn xây dựng và triển khai mô hình AI sử dụng khung BANGPy và SDK Neuware trên phần cứng MLU của Cambricon.
Tại kết thúc khóa học, người tham gia sẽ có thể:
- Cài đặt và cấu hình môi trường phát triển BANGPy và Neuware.
- Xây dựng và tối ưu hóa các mô hình dựa trên Python và C++ cho MLU của Cambricon.
- Triển khai mô hình đến các thiết bị rìa và trung tâm dữ liệu đang chạy runtime Neuware.
- Tích hợp các luồng làm việc ML với các tính năng tăng tốc cụ thể của MLU.
Định dạng khóa học
- Bài giảng tương tác và thảo luận.
- Sử dụng thực tế BANGPy và Neuware cho phát triển và triển khai.
- Bài tập hướng dẫn tập trung vào tối ưu hóa, tích hợp và kiểm thử.
Tùy chọn tùy chỉnh khóa học
- Để yêu cầu một khóa học được tùy chỉnh dựa trên mô hình thiết bị Cambricon hoặc trường hợp sử dụng của bạn, vui lòng liên hệ với chúng tôi để sắp xếp.
Yêu cầu tiền đề
- Có hiểu biết về cấu trúc các mô hình học máy.
- Kinh nghiệm với Python và/hoặc C++.
- Có kiến thức về các khái niệm triển khai và tăng tốc mô hình.
Khán giả
- Nhà phát triển AI nhúng.
- Kỹ sư ML triển khai đến rìa hoặc trung tâm dữ liệu.
- Nhà phát triển làm việc với cơ sở hạ tầng AI Trung Quốc.
Tóm tắt và Bước tiếp theo
Introduction to CANN for AI Framework Developers
7 HoursCANN (Compute Architecture for Neural Networks) is Huawei’s AI computing toolkit used to compile, optimize, and deploy AI models on Ascend AI processors.
This instructor-led, live training (online or onsite) is aimed at beginner-level AI developers who wish to understand how CANN fits into the model lifecycle from training to deployment, and how it works with frameworks like MindSpore, TensorFlow, and PyTorch.
By the end of this training, participants will be able to:
- Understand the purpose and architecture of the CANN toolkit.
- Set up a development environment with CANN and MindSpore.
- Convert and deploy a simple AI model to Ascend hardware.
- Gain foundational knowledge for future CANN optimization or integration projects.
Format of the Course
- Interactive lecture and discussion.
- Hands-on labs with simple model deployment.
- Step-by-step walkthrough of the CANN toolchain and integration points.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
CANN for Edge AI Deployment
14 HoursHuawei's Ascend CANN toolkit enables powerful AI inference on edge devices such as the Ascend 310. CANN provides essential tools for compiling, optimizing, and deploying models where compute and memory are constrained.
This instructor-led, live training (online or onsite) is aimed at intermediate-level AI developers and integrators who wish to deploy and optimize models on Ascend edge devices using the CANN toolchain.
By the end of this training, participants will be able to:
- Prepare and convert AI models for Ascend 310 using CANN tools.
- Build lightweight inference pipelines using MindSpore Lite and AscendCL.
- Optimize model performance for limited compute and memory environments.
- Deploy and monitor AI applications in real-world edge use cases.
Format of the Course
- Interactive lecture and demonstration.
- Hands-on lab work with edge-specific models and scenarios.
- Live deployment examples on virtual or physical edge hardware.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Understanding Huawei’s AI Compute Stack: From CANN to MindSpore
14 HoursHuawei’s AI stack — from the low-level CANN SDK to the high-level MindSpore framework — offers a tightly integrated AI development and deployment environment optimized for Ascend hardware.
This instructor-led, live training (online or onsite) is aimed at beginner-level to intermediate-level technical professionals who wish to understand how the CANN and MindSpore components work together to support AI lifecycle management and infrastructure decisions.
By the end of this training, participants will be able to:
- Understand the layered architecture of Huawei’s AI compute stack.
- Identify how CANN supports model optimization and hardware-level deployment.
- Evaluate the MindSpore framework and toolchain in relation to industry alternatives.
- Position Huawei's AI stack within enterprise or cloud/on-prem environments.
Format of the Course
- Interactive lecture and discussion.
- Live system demos and case-based walkthroughs.
- Optional guided labs on model flow from MindSpore to CANN.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Optimizing Neural Network Performance with CANN SDK
14 HoursCANN SDK (Compute Architecture for Neural Networks) is Huawei’s AI compute foundation that allows developers to fine-tune and optimize the performance of deployed neural networks on Ascend AI processors.
This instructor-led, live training (online or onsite) is aimed at advanced-level AI developers and system engineers who wish to optimize inference performance using CANN’s advanced toolset, including the Graph Engine, TIK, and custom operator development.
By the end of this training, participants will be able to:
- Understand CANN's runtime architecture and performance lifecycle.
- Use profiling tools and Graph Engine for performance analysis and optimization.
- Create and optimize custom operators using TIK and TVM.
- Resolve memory bottlenecks and improve model throughput.
Format of the Course
- Interactive lecture and discussion.
- Hands-on labs with real-time profiling and operator tuning.
- Optimization exercises using edge-case deployment examples.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
CANN SDK for Computer Vision and NLP Pipelines
14 HoursThe CANN SDK (Compute Architecture for Neural Networks) provides powerful deployment and optimization tools for real-time AI applications in computer vision and NLP, especially on Huawei Ascend hardware.
This instructor-led, live training (online or onsite) is aimed at intermediate-level AI practitioners who wish to build, deploy, and optimize vision and language models using the CANN SDK for production use cases.
By the end of this training, participants will be able to:
- Deploy and optimize CV and NLP models using CANN and AscendCL.
- Use CANN tools to convert models and integrate them into live pipelines.
- Optimize inference performance for tasks like detection, classification, and sentiment analysis.
- Build real-time CV/NLP pipelines for edge or cloud-based deployment scenarios.
Format of the Course
- Interactive lecture and demonstration.
- Hands-on lab with model deployment and performance profiling.
- Live pipeline design using real CV and NLP use cases.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Building Custom AI Operators with CANN TIK and TVM
14 HoursCANN TIK (Tensor Instruction Kernel) and Apache TVM enable advanced optimization and customization of AI model operators for Huawei Ascend hardware.
This instructor-led, live training (online or onsite) is aimed at advanced-level system developers who wish to build, deploy, and tune custom operators for AI models using CANN’s TIK programming model and TVM compiler integration.
By the end of this training, participants will be able to:
- Write and test custom AI operators using the TIK DSL for Ascend processors.
- Integrate custom ops into the CANN runtime and execution graph.
- Use TVM for operator scheduling, auto-tuning, and benchmarking.
- Debug and optimize instruction-level performance for custom computation patterns.
Format of the Course
- Interactive lecture and demonstration.
- Hands-on coding of operators using TIK and TVM pipelines.
- Testing and tuning on Ascend hardware or simulators.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Chuyển đổi Các Ứng dụng CUDA sang Kiến trúc GPU Trung Quốc
21 HoursCác kiến trúc GPU Trung Quốc như Huawei Ascend, Biren, và Cambricon MLUs cung cấp các giải pháp thay thế CUDA được điều chỉnh cho thị trường AI và HPC địa phương.
Khóa học này do giảng viên hướng dẫn trực tuyến hoặc tại chỗ dành cho các lập trình viên cấp cao và chuyên gia về cơ sở hạ tầng muốn di chuyển và tối ưu hóa các ứng dụng CUDA hiện có để triển khai trên nền tảng hardware Trung Quốc.
Tại kết thúc khóa học, người tham dự sẽ có khả năng:
- Đánh giá sự tương thích của công việc CUDA hiện tại với các giải pháp chip Trung Quốc.
- Di chuyển mã nguồn CUDA sang môi trường Huawei CANN, Biren SDK và Cambricon BANGPy.
- So sánh hiệu suất và xác định điểm tối ưu trên nhiều nền tảng.
- Xử lý các thách thức thực tế trong hỗ trợ đa kiến trúc và triển khai.
Hình thức khóa học
- Bài giảng tương tác và thảo luận.
- Thực hành chuyển đổi mã nguồn và so sánh hiệu suất.
- Bài tập hướng dẫn tập trung vào chiến lược thích ứng đa-GPU.
Tùy chọn tùy chỉnh khóa học
- Nếu bạn muốn yêu cầu một khóa đào tạo tùy chỉnh dựa trên nền tảng hoặc dự án CUDA của mình, vui lòng liên hệ với chúng tôi để sắp xếp.