-
Notifications
You must be signed in to change notification settings - Fork 6
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
请问这种方式可以处理tensor类型的数据吗 #3
Comments
你的意思是说,你只想要bert生成的词向量吗?可以看get_embedding.py这个代码,里面可以拿到对应token的embedding,然后用sess进行输出,就可以拿到对应的embedding了。 |
对的,我只想要bert生成的词向量。get_embedding.py内的输入是string,而我想要的输入是可能是一个shape是(n,)的string tensor。换而言之,我想要在tensorflow的计算图定义将bert当做一个op来使用。所以想请问一下这种使用方式是支持的吗? |
你的意思是想让bert模型作为中间层?应该是可以的,如果不行的话,可以用tensorflow2.0: |
对的。不过我的代码不支持tf2,甚至tf1.15都不支持(捂脸)。我先参考一下吧。非常感谢您的回复! |
您好!
由于我想要在对话任务中使用bert embedding,在生成回复解码每一步时,需要将已生成的回复转化为embedding,但是这里还处在计算图的定义过程中,数据都是tensor类型。我之前尝试过bert-as-service,似乎是不能处理这种情况的,想要请问一下这种方式可以解决这个问题吗?或者有什么其他的方法吗?
非常感谢!
The text was updated successfully, but these errors were encountered: