我是 Jetson tegra x2 板的新手。
我计划在 TX2 板上运行我的 tensorflow-gpu 模型,看看它们在那里的表现。这些模型在 GTX GPU 机器上进行训练和测试。
在 tx2 板上,Jetpack full 中没有 tensorflow。因此需要构建/安装 tensorflow,我已经看过几个教程并尝试过。我的 python 文件 train.py 和 test.py 需要 tensorflow-gpu。
现在我怀疑,如果在 tx2 板上构建 tensorflow-gpu 是正确的方法吗?
哦,TX2 上有 Nvidia TensorRT,这将完成部分工作,但是如何?对吗?
tensorflow 和 tensorRT 会共同替代 tensorflow-gpu 吗?但是怎么样?那么我必须在我的火车和测试 python 文件中进行哪些修改?
我真的需要为 tx2 构建 tensorflow 吗?我只需要推断我不想在那里接受培训。
我研究了不同的博客并尝试了几种选择,但现在事情有点混乱。
我的简单问题是:
使用在 GTX 机器上训练的 TensorFlow-GPU 深度学习模型在 Jetson TX2 板上完成推理的步骤是什么?
最简单的方法是安装 NVIDIA 提供的轮子:https : //docs.nvidia.com/deeplearning/dgx/install-tf-jetsontx2/index.html
JetPack 已经安装了所有依赖项。
使用轮子安装 Tensorflow 后,您可以使用它,但您可以在其他平台上使用 Tensorflow。为了运行推理,您可以将 Tensorflow 模型下载到 TX2 内存中,并在其上运行您的 Tensorflow 推理脚本。
您还可以通过 TF-TRT 传递 Tensorflow 模型来优化它们:https ://docs.nvidia.com/deeplearning/dgx/integrate-tf-trt/index.html只有一个 API 调用可以进行优化:create_inference_graph (...) 这将优化 Tensorflow 图(主要通过融合节点),并且还可以让您构建模型以降低精度以获得更好的加速。
本文收集自互联网,转载请注明来源。
如有侵权,请联系[email protected] 删除。
我来说两句