关注
码龄
粉丝数
原力等级 --
被采纳
被点赞
采纳率
Continue2021
2021-09-01 22:45
浏览 126
首页
人工智能
已结题
TensorRT, onnx 转 trt的engine时报错
神经网络
TensorRT, onnx 转 trt的engine时报错
版本信息:
cuda: 10.1
tensorRT: 6.0.1.5
torch: 1.6.0
收起
写回答
好问题
0
提建议
关注问题
微信扫一扫
点击复制链接
分享
邀请回答
编辑
收藏
删除
收藏
举报
0
条回答
默认
最新
查看更多回答(-1条)
向“C知道”追问
报告相同问题?
提交
关注问题
trt
动态batchsize优化:
trt
exec工具
ONNX
转
engine
实战指南
2026-03-27 10:45
卓长安的博客
本文详细介绍了使用
trt
exec工具将
ONNX
模型
转
换为支持动态batchsize的
Tensor
RT
engine
的实战指南。通过解析核心参数如minShapes、optShapes和maxShapes,结合实际案例演示和显存优化技巧,帮助开发者高效部署AI模型,...
Tensor
RT
与
ONNX
协同工作流程最佳实践
2025-12-27 20:46
远方之巅的博客
通过
ONNX
模型导出与
Tensor
RT
引擎优化的深度结合,实现AI模型在GPU上的极致推理性能。涵盖Opset版本选择、动态形状配置、FP16/INT8量化策略及生产部署要点,显著降低延迟与显存占用,提升吞吐量,适用于边缘计算与高...
Yolo-v8.3模型导出教程:
ONNX
/
Tensor
RT
格式
转
换
2026-01-07 12:09
SilverfoxFalcon42的博客
本文介绍了如何在星图GPU平台上自动化部署Yolo-v8.3镜像,并完成模型从PyTorch到
ONNX
及
Tensor
RT
格式的
转
换。该教程详细说明了
转
换步骤,旨在帮助用户将训练好的YOLOv8.3模型高效部署到生产环境,例如实现实
时
目标...
Tensor
RT
与
ONNX
模型协同工作的最佳实践
2025-12-27 23:26
一点旧一点新的博客
通过
ONNX
与
Tensor
RT
协同,实现从PyTorch等框架到高性能推理的无缝
转
换。利用
ONNX
打破框架壁垒,
Tensor
RT
针对GPU深度优化,支持动态输入、FP16和INT8量化,在保持精度的同
时
显著提升速度与显存效率,适用于边缘设备与...
记录一次复杂的
ONNX
到
Tensor
RT
动态 Shape
转
换排错过程
2026-01-09 14:35
Corleo的博客
其中 then_branch 输出的是固定 size 的
tensor
,但 else_branch 输出的是 ...
Tensor
RT
可以处理动态形状,但有一个前提:所有用来决定张量形状的计算,必须只依赖于输入的【形状】,而不能依赖于输入的【内容/值】。
避坑指南:常见
Tensor
RT
镜像
转
换失败原因及解决方案
2025-12-28 01:05
姜俭的博客
深入解析
Tensor
RT
模型
转
换常见失败原因,涵盖Docker环境兼容、
ONNX
算子支持、动态Shape配置、显存优化及INT8量化校准等核心问题,结合实战经验提供可落地的解决方案,帮助开发者高效完成AI模型部署最后一公里。
从PyTorch到
Tensor
RT
:完整模型
转
换流程揭秘
2025-12-27 23:07
Lucy-Fintech社区的博客
从PyTorch训练到
Tensor
RT
部署的完整链路,涵盖
ONNX
导出、模型简化与推理优化关键步骤。通过层融合、FP16/INT8量化和内核调优,显著提升推理性能。结合实际案例,揭示高效AI部署的核心技巧与常见陷阱,助力模型从实验...
ResNet18模型
转
换教程:
ONNX
/
Tensor
RT
全流程云端实现
2026-01-12 11:54
OnyxTiger47的博客
通过本教程,我们完成了ResNet18从PyTorch到
ONNX
/
Tensor
RT
的完整
转
换流程。模型
转
换的价值:
Tensor
RT
能显著提升推理性能,降低资源消耗关键步骤:PyTorch →
ONNX
→
Tensor
RT
的三步
转
换流程性能优化:通过FP16/INT8...
tensor
flow2.4导出模型
转
化为
onnx
模型后,通过
tensor
rt
转
化
engine
模型
报错
处理
2023-04-26 14:22
戈壁雄鹰1986的博客
从.pb模型
转
onnx
模型,再到
engine
模型
转
化,debug处理
PyTorch 2.7模型
转
换:
ONNX
/
Tensor
RT
环境预配置
2026-01-20 00:20
GarnetLynx45的博客
本文介绍了基于星图GPU平台自动化部署PyTorch 2.7镜像的完整流程,该镜像预集成
ONNX
与
Tensor
RT
,支持一键完成模型
转
换与优化。用户可快速将PyTorch模型
转
为高性能
Tensor
RT
引擎,典型应用于边缘设备上的AI推理加速,...
Tensor
RT
部署(图像分类)之
engine
生成及反序列化推理(第二讲)
2022-08-18 16:19
CV_er的博客
Tensor
RT
部署(图像分类)之
engine
生成
2025版YOLO模型导出指南:支持
ONNX
/
Tensor
RT
/TFLite多格式部署
2025-12-14 12:34
程序员威哥的博客
解决方案:导出
时
指定数据集配置文件:model.expo
rt
(format='
onnx
', data='mydata.yaml') # mydata.yaml包含类别名称快速导出:通过库的expo
rt
方法,一键导出
ONNX
/
Tensor
RT
/TFLite等格式;格式选择通用场景选
ONNX
;...
从0到1部署YOLO26:
Tensor
RT
加速+
ONNX
导出避坑,服务器/边缘设备双场景适配(附完整部署代码+避坑手册)
2026-01-16 07:31
程序员威哥的博客
在开始部署前,先搞懂YOLO26的核心设计优势——YOLO26的部署友好性,是碾压YOLOv10/v12的核心原因部署流程极简:零基础也能一步步完成「训练→
ONNX
导出→
Tensor
RT
加速→双端推理」,所有命令、代码均可直接复制运行...
yolov5训练与
tensor
rt
模型
转
换
2022-06-20 16:35
Ayu___的博客
解决:这两个错误都是因为batch设置太大了,改小一点 二、pytorch模型
转
tensor
rt
的
engine
参考:https://github.com/wang-xinyu/
tensor
rt
x https://github.com/wang-xinyu/
tensor
rt
x/tree/master/yolov5 yolov5生成...
从 LoRA 到 INT4 再到
Tensor
RT
:构建“训练 × 压缩 × 推理”一站式落地链路
2025-04-18 06:30
观熵的博客
> 本篇将以专家视角梳理一条从 **LoRA 精调 → INT4/INT8 压缩 →
ONNX
导出 →
Tensor
RT
编译 → API 服务发布** 的完整实践路径, > 结合 Huggingface、PEFT、GPTQ、SmoothQuant、
ONNX
、
Tensor
RT
基于
Tensor
RT
的在线教育AI助教系统
2025-12-27 23:52
草莓味儿柠檬的博客
通过
Tensor
RT
优化BE
RT
、Whisper等大模型推理,实现在线教育场景下低至300毫秒的端到端响应。利用层融合、FP16与INT8量化及动态形状支持,显著提升吞吐量并降低显存占用,单卡即可支撑高并发语音答疑,真正实现高效、...
掘金社区发帖:分享我在
Tensor
RT
踩过的那些坑
2025-12-28 06:42
数据冰山的博客
从PyTorch部署到
Tensor
RT
加速,实际项目中推理性能提升十倍的背后是无数隐藏陷阱。动态shape配置、INT8校准偏差、
ONNX
转
换失败等问题频发,每一步都需精细控制。通过层融合、异步执行和合理资源配置,真正榨干GPU...
如何实现
Tensor
RT
推理服务的无缝升级?
2025-12-28 00:11
张阿拉撕裤的博客
利用
Tensor
RT
将模型优化前置,生成高效序列化引擎文件,支持毫秒级模型热切换。通过离线构建、精度调优与运行
时
轻量加载,实现线上推理服务不中断更新,广泛应用于高并发AI场景。
针灸穴位推荐系统:治疗方案生成由
Tensor
RT
智能决策
2025-12-28 01:55
Javen Fang的博客
针对中医针灸穴位推荐系统在临床部署中的实
时
性需求,利用NVIDIA
Tensor
RT
对深度学习模型进行推理优化,实现从症状输入到穴位输出的毫秒级响应。通过层融合、精度量化和静态图优化等技术,在保证辨证准确率的同
时
...
没有解决我的问题,
去提问
向专家提问
向AI提问
付费问答(悬赏)服务下线公告
◇ 用户帮助中心
◇ 新手如何提问
◇ 奖惩公告
问题事件
关注
码龄
粉丝数
原力等级 --
被采纳
被点赞
采纳率
系统已结题
9月9日
关注
码龄
粉丝数
原力等级 --
被采纳
被点赞
采纳率
创建了问题
9月1日