Chuyển đổi Các Ứng dụng CUDA sang Kiến trúc GPU Trung Quốc Training Course
Các kiến trúc GPU Trung Quốc như Huawei Ascend, Biren, và Cambricon MLUs cung cấp các giải pháp thay thế CUDA được điều chỉnh cho thị trường AI và HPC địa phương.
Khóa học này do giảng viên hướng dẫn trực tuyến hoặc tại chỗ dành cho các lập trình viên cấp cao và chuyên gia về cơ sở hạ tầng muốn di chuyển và tối ưu hóa các ứng dụng CUDA hiện có để triển khai trên nền tảng hardware Trung Quốc.
Tại kết thúc khóa học, người tham dự sẽ có khả năng:
- Đánh giá sự tương thích của công việc CUDA hiện tại với các giải pháp chip Trung Quốc.
- Di chuyển mã nguồn CUDA sang môi trường Huawei CANN, Biren SDK và Cambricon BANGPy.
- So sánh hiệu suất và xác định điểm tối ưu trên nhiều nền tảng.
- Xử lý các thách thức thực tế trong hỗ trợ đa kiến trúc và triển khai.
Hình thức khóa học
- Bài giảng tương tác và thảo luận.
- Thực hành chuyển đổi mã nguồn và so sánh hiệu suất.
- Bài tập hướng dẫn tập trung vào chiến lược thích ứng đa-GPU.
Tùy chọn tùy chỉnh khóa học
- Nếu bạn muốn yêu cầu một khóa đào tạo tùy chỉnh dựa trên nền tảng hoặc dự án CUDA của mình, vui lòng liên hệ với chúng tôi để sắp xếp.
Đề cương khóa học
Tổng quan về Hệ sinh thái AI GPU của Trung Quốc
- Sự so sánh giữa Huawei Ascend, Biren, và Cambricon MLU
- CUDA vs CANN, Biren SDK, và các mô hình BANGPy
- Xu hướng công nghiệp và hệ sinh thái nhà cung cấp
Sẵn sàng cho việc di chuyển
- Đánh giá mã nguồn CUDA của bạn
- Xác định nền tảng mục tiêu và phiên bản SDK
- Cài đặt chuỗi công cụ và thiết lập môi trường
Kỹ thuật Dịch Mã
- Di chuyển truy cập bộ nhớ CUDA và logic nhân (kernel)
- Mô hình ánh xạ lưới tính toán/luồng
- Tùy chọn dịch tự động so với thủ công
Thực hiện Đặc biệt cho Mỗi nền tảng
- Sử dụng các toán tử Huawei CANN và nhân tùy chỉnh
- Kênh chuyển đổi Biren SDK
- Xây dựng lại mô hình bằng BANGPy (Cambricon)
Kiểm thử và Tối ưu hóa Chéo nền tảng
- Hàm phân tích thực thi trên mỗi nền tảng mục tiêu
- Tùy chỉnh bộ nhớ và so sánh thực thi song song
- Theo dõi hiệu suất và lặp lại
Quản lý Môi trường Trộn GPU
- Cài đặt kết hợp với nhiều kiến trúc
- Chiến lược dự phòng và phát hiện thiết bị
- Các lớp trừu tượng cho việc duy trì mã
Ví dụ Case Studies và Thực hành Tốt nhất
- Di chuyển mô hình nhìn/NLP đến Ascend hoặc Cambricon
- Tái tạo ống dẫn suy luận trên các cụm Biren
- Xử lý sự không phù hợp về phiên bản và khoảng cách API
Tóm tắt và Bước tiếp theo
Requirements
- Kinh nghiệm lập trình với CUDA hoặc các ứng dụng dựa trên GPU
- Nắm vững mô hình bộ nhớ và nhân tính toán của GPU
- Hiểu biết về triển khai hoặc tăng tốc mô hình AI
Đối tượng
- Lập trình viên GPU
- Kỹ sư kiến trúc hệ thống
- Nhân viên chuyển đổi chuyên dụng
Open Training Courses require 5+ participants.
Chuyển đổi Các Ứng dụng CUDA sang Kiến trúc GPU Trung Quốc Training Course - Booking
Chuyển đổi Các Ứng dụng CUDA sang Kiến trúc GPU Trung Quốc Training Course - Enquiry
Chuyển đổi Các Ứng dụng CUDA sang Kiến trúc GPU Trung Quốc - Consultancy Enquiry
Consultancy Enquiry
Provisional Upcoming Courses (Require 5+ participants)
Related Courses
Phát triển Ứng dụng AI với Huawei Ascend và CANN
21 HoursHuawei Ascend là một dòng chip AI được thiết kế cho việc suy luận và đào tạo với hiệu suất cao.
Khóa học này do giảng viên hướng dẫn (trực tuyến hoặc tại chỗ) dành cho các kỹ sư AI trung cấp và nhà khoa học dữ liệu muốn phát triển và tối ưu hóa mô hình mạng nơ-ron sử dụng nền tảng Ascend của Huawei và công cụ CANN.
Tại cuối khóa học này, người tham gia sẽ có thể:
- Cài đặt và cấu hình môi trường phát triển CANN.
- Phát triển ứng dụng AI bằng MindSpore và quy trình CloudMatrix.
- Tối ưu hóa hiệu suất trên Ascend NPU sử dụng các toán tử tùy chỉnh và tiling.
- Cài đặt mô hình vào môi trường biên hoặc đám mây.
Định dạng của khóa học
- Buổi giảng dạy tương tác và thảo luận.
- Sử dụng thực tế Huawei Ascend và công cụ CANN trong các ứng dụng mẫu.
- Luyện tập có hướng dẫn tập trung vào việc xây dựng, đào tạo và triển khai mô hình.
Tùy chọn Tùy chỉnh Khóa học
- Để yêu cầu một khóa học tùy chỉnh dựa trên cơ sở hạ tầng hoặc dữ liệu của bạn, vui lòng liên hệ với chúng tôi để sắp xếp.
Deploying AI Models with CANN and Ascend AI Processors
14 HoursCANN (Compute Architecture for Neural Networks) is Huawei’s AI compute stack for deploying and optimizing AI models on Ascend AI processors.
This instructor-led, live training (online or onsite) is aimed at intermediate-level AI developers and engineers who wish to deploy trained AI models efficiently to Huawei Ascend hardware using the CANN toolkit and tools such as MindSpore, TensorFlow, or PyTorch.
By the end of this training, participants will be able to:
- Understand the CANN architecture and its role in the AI deployment pipeline.
- Convert and adapt models from popular frameworks to Ascend-compatible formats.
- Use tools like ATC, OM model conversion, and MindSpore for edge and cloud inference.
- Diagnose deployment issues and optimize performance on Ascend hardware.
Format of the Course
- Interactive lecture and demonstration.
- Hands-on lab work using CANN tools and Ascend simulators or devices.
- Practical deployment scenarios based on real-world AI models.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Phát Triển và triển khai AI với CloudMatrix
21 HoursCloudMatrix là nền tảng phát triển và triển khai AI thống nhất của Huawei, được thiết kế để hỗ trợ các ống dẫn suy luận có khả năng mở rộng và đạt chuẩn sản xuất.
Khóa học này do giảng viên hướng dẫn (trực tuyến hoặc trực tiếp) dành cho chuyên gia AI từ trình độ đầu tiên đến trung cấp muốn triển khai và theo dõi mô hình AI sử dụng nền tảng CloudMatrix với sự tích hợp của CANN và MindSpore.
Tại kết thúc khóa học này, người tham dự sẽ có thể:
- Sử dụng CloudMatrix cho việc đóng gói, triển khai và cung cấp mô hình.
- Chuyển đổi và tối ưu hóa các mô hình cho chipset Ascend.
- Cài đặt ống dẫn cho tác vụ suy luận thời gian thực và lô.
- Theo dõi triển khai và điều chỉnh hiệu suất trong môi trường sản xuất.
Định dạng khóa học
- Buổi giảng dạy tương tác và thảo luận.
- Sử dụng CloudMatrix thực tế với các tình huống triển khai thực tế.
- Bài tập hướng dẫn tập trung vào chuyển đổi, tối ưu hóa và mở rộng.
Tùy chọn tùy chỉnh khóa học
- Để yêu cầu một khóa học tùy chỉnh dựa trên cơ sở hạ tầng AI hoặc môi trường đám mây của bạn, vui lòng liên hệ với chúng tôi để sắp xếp.
GPU Programming on Biren AI Accelerators
21 HoursBiren AI Accelerators are high-performance GPUs designed for AI and HPC workloads with support for large-scale training and inference.
This instructor-led, live training (online or onsite) is aimed at intermediate-level to advanced-level developers who wish to program and optimize applications using Biren’s proprietary GPU stack, with practical comparisons to CUDA-based environments.
By the end of this training, participants will be able to:
- Understand Biren GPU architecture and memory hierarchy.
- Set up the development environment and use Biren’s programming model.
- Translate and optimize CUDA-style code for Biren platforms.
- Apply performance tuning and debugging techniques.
Format of the Course
- Interactive lecture and discussion.
- Hands-on use of Biren SDK in sample GPU workloads.
- Guided exercises focused on porting and performance tuning.
Course Customization Options
- To request a customized training for this course based on your application stack or integration needs, please contact us to arrange.
Cambricon MLU Development with BANGPy and Neuware
21 HoursCác chip MLU của Cambricon (Machine Learning Units) là các chip AI chuyên dụng được tối ưu hóa cho việc suy luận và đào tạo trong các tình huống ở rìa (edge) và trung tâm dữ liệu.
Khóa học trực tiếp này (trực tuyến hoặc tại chỗ) dành cho các nhà phát triển cấp trung muốn xây dựng và triển khai mô hình AI sử dụng khung BANGPy và SDK Neuware trên phần cứng MLU của Cambricon.
Tại kết thúc khóa học, người tham gia sẽ có thể:
- Cài đặt và cấu hình môi trường phát triển BANGPy và Neuware.
- Xây dựng và tối ưu hóa các mô hình dựa trên Python và C++ cho MLU của Cambricon.
- Triển khai mô hình đến các thiết bị rìa và trung tâm dữ liệu đang chạy runtime Neuware.
- Tích hợp các luồng làm việc ML với các tính năng tăng tốc cụ thể của MLU.
Định dạng khóa học
- Bài giảng tương tác và thảo luận.
- Sử dụng thực tế BANGPy và Neuware cho phát triển và triển khai.
- Bài tập hướng dẫn tập trung vào tối ưu hóa, tích hợp và kiểm thử.
Tùy chọn tùy chỉnh khóa học
- Để yêu cầu một khóa học được tùy chỉnh dựa trên mô hình thiết bị Cambricon hoặc trường hợp sử dụng của bạn, vui lòng liên hệ với chúng tôi để sắp xếp.
Yêu cầu tiền đề
- Có hiểu biết về cấu trúc các mô hình học máy.
- Kinh nghiệm với Python và/hoặc C++.
- Có kiến thức về các khái niệm triển khai và tăng tốc mô hình.
Khán giả
- Nhà phát triển AI nhúng.
- Kỹ sư ML triển khai đến rìa hoặc trung tâm dữ liệu.
- Nhà phát triển làm việc với cơ sở hạ tầng AI Trung Quốc.
Tóm tắt và Bước tiếp theo
Introduction to CANN for AI Framework Developers
7 HoursCANN (Compute Architecture for Neural Networks) is Huawei’s AI computing toolkit used to compile, optimize, and deploy AI models on Ascend AI processors.
This instructor-led, live training (online or onsite) is aimed at beginner-level AI developers who wish to understand how CANN fits into the model lifecycle from training to deployment, and how it works with frameworks like MindSpore, TensorFlow, and PyTorch.
By the end of this training, participants will be able to:
- Understand the purpose and architecture of the CANN toolkit.
- Set up a development environment with CANN and MindSpore.
- Convert and deploy a simple AI model to Ascend hardware.
- Gain foundational knowledge for future CANN optimization or integration projects.
Format of the Course
- Interactive lecture and discussion.
- Hands-on labs with simple model deployment.
- Step-by-step walkthrough of the CANN toolchain and integration points.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
CANN for Edge AI Deployment
14 HoursHuawei's Ascend CANN toolkit enables powerful AI inference on edge devices such as the Ascend 310. CANN provides essential tools for compiling, optimizing, and deploying models where compute and memory are constrained.
This instructor-led, live training (online or onsite) is aimed at intermediate-level AI developers and integrators who wish to deploy and optimize models on Ascend edge devices using the CANN toolchain.
By the end of this training, participants will be able to:
- Prepare and convert AI models for Ascend 310 using CANN tools.
- Build lightweight inference pipelines using MindSpore Lite and AscendCL.
- Optimize model performance for limited compute and memory environments.
- Deploy and monitor AI applications in real-world edge use cases.
Format of the Course
- Interactive lecture and demonstration.
- Hands-on lab work with edge-specific models and scenarios.
- Live deployment examples on virtual or physical edge hardware.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Understanding Huawei’s AI Compute Stack: From CANN to MindSpore
14 HoursHuawei’s AI stack — from the low-level CANN SDK to the high-level MindSpore framework — offers a tightly integrated AI development and deployment environment optimized for Ascend hardware.
This instructor-led, live training (online or onsite) is aimed at beginner-level to intermediate-level technical professionals who wish to understand how the CANN and MindSpore components work together to support AI lifecycle management and infrastructure decisions.
By the end of this training, participants will be able to:
- Understand the layered architecture of Huawei’s AI compute stack.
- Identify how CANN supports model optimization and hardware-level deployment.
- Evaluate the MindSpore framework and toolchain in relation to industry alternatives.
- Position Huawei's AI stack within enterprise or cloud/on-prem environments.
Format of the Course
- Interactive lecture and discussion.
- Live system demos and case-based walkthroughs.
- Optional guided labs on model flow from MindSpore to CANN.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Optimizing Neural Network Performance with CANN SDK
14 HoursCANN SDK (Compute Architecture for Neural Networks) is Huawei’s AI compute foundation that allows developers to fine-tune and optimize the performance of deployed neural networks on Ascend AI processors.
This instructor-led, live training (online or onsite) is aimed at advanced-level AI developers and system engineers who wish to optimize inference performance using CANN’s advanced toolset, including the Graph Engine, TIK, and custom operator development.
By the end of this training, participants will be able to:
- Understand CANN's runtime architecture and performance lifecycle.
- Use profiling tools and Graph Engine for performance analysis and optimization.
- Create and optimize custom operators using TIK and TVM.
- Resolve memory bottlenecks and improve model throughput.
Format of the Course
- Interactive lecture and discussion.
- Hands-on labs with real-time profiling and operator tuning.
- Optimization exercises using edge-case deployment examples.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
CANN SDK for Computer Vision and NLP Pipelines
14 HoursThe CANN SDK (Compute Architecture for Neural Networks) provides powerful deployment and optimization tools for real-time AI applications in computer vision and NLP, especially on Huawei Ascend hardware.
This instructor-led, live training (online or onsite) is aimed at intermediate-level AI practitioners who wish to build, deploy, and optimize vision and language models using the CANN SDK for production use cases.
By the end of this training, participants will be able to:
- Deploy and optimize CV and NLP models using CANN and AscendCL.
- Use CANN tools to convert models and integrate them into live pipelines.
- Optimize inference performance for tasks like detection, classification, and sentiment analysis.
- Build real-time CV/NLP pipelines for edge or cloud-based deployment scenarios.
Format of the Course
- Interactive lecture and demonstration.
- Hands-on lab with model deployment and performance profiling.
- Live pipeline design using real CV and NLP use cases.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Building Custom AI Operators with CANN TIK and TVM
14 HoursCANN TIK (Tensor Instruction Kernel) and Apache TVM enable advanced optimization and customization of AI model operators for Huawei Ascend hardware.
This instructor-led, live training (online or onsite) is aimed at advanced-level system developers who wish to build, deploy, and tune custom operators for AI models using CANN’s TIK programming model and TVM compiler integration.
By the end of this training, participants will be able to:
- Write and test custom AI operators using the TIK DSL for Ascend processors.
- Integrate custom ops into the CANN runtime and execution graph.
- Use TVM for operator scheduling, auto-tuning, and benchmarking.
- Debug and optimize instruction-level performance for custom computation patterns.
Format of the Course
- Interactive lecture and demonstration.
- Hands-on coding of operators using TIK and TVM pipelines.
- Testing and tuning on Ascend hardware or simulators.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Performance Optimization on Ascend, Biren, and Cambricon
21 HoursAscend, Biren và Cambricon là các nền tảng phần cứng AI hàng đầu tại Trung Quốc, mỗi nền tảng đều cung cấp công cụ tăng tốc và phân tích hiệu năng độc đáo cho tác vụ AI quy mô sản xuất.
Khóa học này do giảng viên hướng dẫn (trực tuyến hoặc trực tiếp) nhắm đến các kỹ sư cơ sở hạ tầng AI và hiệu năng cao cấp muốn tối ưu hóa chuỗi công việc dự đoán và đào tạo mô hình trên nhiều nền tảng chip AI Trung Quốc.
Tại kết thúc khóa học, người tham gia sẽ có thể:
- Đánh giá hiệu năng của các mô hình trên các nền tảng Ascend, Biren và Cambricon.
- Xác định điểm nghẽn hệ thống và sự kém hiệu quả về bộ nhớ/tính toán.
- Áp dụng tối ưu hóa cấp đồ thị, nhân và trình điều khiển.
- Tùy chỉnh các đường ống triển khai để cải thiện băng thông và độ trễ.
Định dạng khóa học
- Bài giảng tương tác và thảo luận.
- Sử dụng trực tiếp các công cụ phân tích hiệu năng và tối ưu hóa trên từng nền tảng.
- Bài tập hướng dẫn tập trung vào các tình huống điều chỉnh thực tế.
Tùy chọn Tùy chỉnh Khóa học
- Để yêu cầu đào tạo tùy chỉnh cho khóa học này dựa trên môi trường hiệu năng hoặc loại mô hình của bạn, vui lòng liên hệ với chúng tôi để sắp xếp.