我有一个复杂的 keras 模型,其中一个层是一个自定义的预训练层,它期望“int32”作为输入。这个模型是作为一个继承自 Model 的类来实现的,它是这样实现的:
class MyModel(tf.keras.models.Model):
def __init__(self, size, input_shape):
super(MyModel, self).__init__()
self.layer = My_Layer()
self.build(input_shape)
def call(self, inputs):
return self.layer(inputs)
Run Code Online (Sandbox Code Playgroud)
但是当它到达该self.build方法时,它会抛出下一个错误:
ValueError: You cannot build your model by calling `build` if your layers do not support float type inputs. Instead, in order to instantiate and build your model, `call` your model on real tensor data (of the correct dtype).
Run Code Online (Sandbox Code Playgroud)
我该如何解决?
我有两个共享图层的keras模型,我想将其权重保存在hd5文件中。如果我分别保存两个模型,我认为共享层将使用磁盘空间的两倍保存两次。如何将其保存在唯一的文件中?
谢谢!!
我有一个带有不同范数向量的预训练词嵌入,我想对模型中的所有向量进行归一化。我正在用一个 for 循环来迭代每个单词并对其向量进行归一化,但是我们的模型很大并且需要太多时间。是否gensim包括任何方法可以更快地做到这一点?我找不到它了。
谢谢!!
我正在使用BERT对某个单词的特征进行提取,因为该单词出现在文本中,但是看来bert的官方github(https://github.com/google-research/bert)中的当前实现只能计算所有单词的特征在文本中,这会占用太多资源。是否有可能对此目的进行调整?谢谢!!