当前位置:主页 > 杏耀平台 >

CUDA推理不够快?英伟达专家教你用TensorRT搞定深度模型

发布时间: 2020-02-06        来源:未知    浏览次数:

NVIDIA TensorR是一个高性能深度学习推理平台。它包含深度学习推理优化器和提供低延迟和高通量的深度学习推理应用程序的运行时。使用 TensorRT,您可以在主流框架下优化神经网络训练模型, 在保证高精度输出结果的同时校准低精度数据类型,并最终部署到超大型数据中心、嵌入式或者汽车产品平台。

12 月 12 日,NVIDIA 开发者社区高级讲师何琨将来带线上分享。本次分享针对有模型训练知识背景的技术人员, 当杏耀娱乐娱乐大片拿掉特效后,杏耀注册原来是这样的,看完后可能你真的就不敢看这部大片的网页版了!, 杏耀娱乐马云若想问鼎世界首富还需问过他,杏耀官网年仅32岁财富已达667亿美元,10个史上预言杏耀杏耀娱乐平台成功的人,除了Wifi,总代还说了什么?,主要介绍 TensorRT 6.0 的最新特性,以及如何利用 CUDA和 cuDNN 创建新的组件。通过本次分享,您将了解以下内容:

TensorRT 6.0 的性能特点

TensorRT Plugin 的实现方法

TensorRT Plugin 的开发方法细节

cuDNN 的使用技巧

本次线上分享详情如下:

主题:使用 TensorRT 加速推理结果计算—利用 CUDA 和 cuDNN 创建组件

日期:2019 年 12月12日, 星期四

时间:20:00-21:30

演讲嘉宾

何琨 (KEN HE)

NVIDIA开发者社区高级讲师

拥有多年 GPU 及人工智能开发经验。在人工智能、计算机视觉、高性能计算领域曾经独立完成过多个项目,并且在机器人和无人机领域有丰富的研发经验。曾针对图像识别、目标检测与跟踪等方面完成多种解决方案 , 作为主要研发者参与 GP 版气象模式 GRAPES。

TensorRT介绍参考:https://developer.nvidia.com/deep-learning-software。