# Print model's state_dict
print("Model's state_dict:") # state_dict: 모델의파라메터를 표시
for param_tensor in model.state_dict(): # OrderedDict형태로 저장
print(param_tensor, "\t", model.state_dict()[param_tensor].size())
#모델의 파라미터를 저장
torch.save(model.state_dict(), os.path.join(MODEL_PATH, "model.pt"))
#같은 모델 형태에서 파라미터만 load
new_model = TheModelClass()
new_model.load_state_dict(torch.load(os.path.join(MODEL_PATH, "model.pt")))
# 모델의 architecture와 함께 저장
torch.save(model, os.path.join(MODEL_PATH, "model.pt"))
# 모델의 architecture와 함께 load
model = torch.load(os.path.join(MODEL_PATH, "model.pt"))
torch.save({
'epoch': e, # 모델의 정보를 epoch과 함께 저장
'model_state_dict': model.state_dict(),
'optimizer_state_dict': optimizer.state_dict(),
'loss': epoch_loss,
},
f"saved/checkpoint_model_{e}_{epoch_loss/len(dataloader)}_{epoch_acc/len(dataloader)}.pt")
checkpoint = torch.load(PATH)
model.load_state_dict(checkpoint['model_state_dict'])
optimizer.load_state_dict(checkpoint['optimizer_state_dict'])
epoch = checkpoint['epoch']
loss = checkpoint['loss']
NLP는 보통 HuggingFace를 사용한다.(NLP에서는 거의 사실상 표준이라고한다.)
vgg = models.vgg16(pretrained=True).to(device) # vgg16 모델을 vgg에 할당하기
class MyNewNet(nn.Module):
def __init__(self):
super(MyNewNet, self).__init__()
self.vgg19 = models.vgg19(pretrained=True)
self.linear_layers = nn.Linear(1000, 1) # 모델에 마지막 Linear Layer 추가
# Defining the forward pass
def forward(self, x):
x = self.vgg19(x)
return self.linear_layers(x)
for param in my_model.parameters(): # 마지막 레이어를 제외하고 frozen
param.requires_grad = False
for param in my_model.linear_layers.parameters():
param.requires_grad = True