Skip to content

模型导出与部署

1. python 导出

python
from ultralytics import YOLO

model = YOLO("runs/train/my_yolo26_exp/weights/best.pt")

# 导出为 ONNX
model.export(format="onnx")

# 导出为 TensorRT(需要 NVIDIA GPU)
model.export(format="engine")

# 导出为 CoreML(iOS / macOS)
model.export(format="coreml")

# 导出为 TFLite(Android / 嵌入式)
model.export(format="tflite")

# 导出为 OpenVINO(Intel 设备)
model.export(format="openvino")

2. 命令行导出

bash
yolo export model=runs/train/my_yolo26_exp/weights/best.pt format=onnx

3. 支持导出的格式

格式参数适用场景
ONNXonnx通用部署
TensorRTengineNVIDIA GPU 高性能推理
CoreMLcoremlApple 设备
TFLitetfliteAndroid / 嵌入式
OpenVINOopenvinoIntel CPU / VPU
TorchScripttorchscriptPyTorch 生态部署
NCNNncnn移动端轻量推理

京ICP备2024093538号-1