尝试使用 onnx-tf 库将 .onnx 模型转换为 .pb 模型

我试图使用onnx-tf包将.onnx模型转换为.pb格式,但是,在调用onnx_tf.backend.prepare函数后,python 内核崩溃了。我正在使用下面的代码:


import onnx


from onnx_tf.backend import prepare

import tensorflow

onnx_model = onnx.load(<path-to-model>)  # load onnx model

tf_rep = prepare(onnx_model)  # <------ That's where python crashes

tf_rep.export_graph(<output-path>)  # export the model

我仔细检查了包版本依赖关系,因为错误的依赖关系在加载.onnx模型时导致了不同的错误,如下所示:


onnx==1.7.0

onnx-tf==1.6.0

tensorflow==2.2.0

tensorflow-addons==0.10.0

torch==1.6.0+cu101

然而,根据 Github 页面,依赖关系似乎是正确的。


猛跑小猪
浏览 413回答 3
3回答

慕运维8079593

ONNX 1.6 和 1.7 之间存在较大变化,导致了许多依赖性问题。尝试使用 Onnx 1.6,这可能是您问题的根源。您在哪里找到提到的所需版本 1.7?另外,你提到Python内核崩溃了?您在 Jupyter 笔记本中运行吗?我发现这个包在 Juypter 笔记本中更加不稳定,并且没有打印出所有相关错误。如果您可以在独立的 Python 脚本中测试您的系统,您可能会获得更多信息。

慕的地8271018

在和之前导入onnx相关onnx-tf库应该会有所帮助。该问题可能是由版本冲突引起的,因为 和都使用.tfpytorchonnxonnx-tftf

牛魔王的故事

您可以安装此提交7d8fa7d88fab469253d75e5e11cf9cdcb90104c4的onnx-tf吗在导入顺序和此提交之间,问题已为我解决
打开App,查看更多内容
随时随地看视频慕课网APP

相关分类

Python