我有三个系列的观察结果,即Y、T、 和X。我想研究两个模型的预测值之间的差异。第一个模型是学习g这样的Y=g(T, X)。第二种模型是学习L等f。Y=L(T)f(X)我使用 PyTorch 包或 Tensorflow 包学习第一个模型没有问题。但是,我不知道如何学习L和f。在使用 PyTorch 包时,我可以设置两个具有不同隐藏层和输入的前馈 MLP。为了简单起见,我定义了一个前馈 MLP 类,如下所示:
class Feedforward(t.nn.Module): # the definition of a feedforward neural network
# Basic definition
def __init__(self, input_size, hidden_size):
super(Feedforward, self).__init__()
self.input_size = input_size
self.hidden_size = hidden_size
self.fc1 = t.nn.Linear(self.input_size, self.hidden_size)
self.relu = t.nn.ReLU()
self.fc2 = t.nn.Linear(self.hidden_size, 1)
self.sigmoid = t.nn.Sigmoid()
# Advance definition
def forward(self, x):
hidden = self.fc1(x)
relu = self.relu(hidden)
output = self.fc2(relu)
output = self.sigmoid(output)
return output
假设L=Feedforward(2,10)和L=Feedforward(3,9)。根据我的理解,我只能学习 或L,f但不能同时学习两者。是否可以同时学习L和f使用Y、T、 和X?
拉丁的传说
相关分类