这几天,社群有位同学在基础机器学习算法岗工作了两年后,想要跳槽。最近面试了大概有20天左右时间了。
先后拿到了一些小厂的offer,以及小红书和商汤的offer。由于自己有着大厂梦,所以前面的offer一直拖着,等着BAT、TMD、字节等等的面试,看看最后的结果。
聊了很多,今天分享一个面试问题吧,这也是差一点就顺利拿下腾讯offer的一个问题,总感觉没有回答全面,不过最后结果还没有确定。
问题还是比较简单,可能还是没有准备充足~
问题是:你是否了解哪些常用的优化算法?它们之间有什么区别?
下面,咱们也简单来说说,提供一个思路,供大家学习~
首先来说,常用的优化算法包括:
就把这些常见的优化,进行一个简单的介绍~
# 以MNIST手写数字识别数据集为例,使用Adam优化算法训练神经网络
import torch
import torch.nn as nn
import torch.optim as optim
import torchvision
import torchvision.transforms as transforms
import matplotlib.pyplot as plt
# 数据预处理
transform = transforms.Compose([transforms.ToTensor(), transforms.Normalize((0.5,), (0.5,))])
trainset = torchvision.datasets.MNIST(root='./data', train=True, download=True, transform=transform)
trainloader = torch.utils.data.DataLoader(trainset, batch_size=64, shuffle=True)
# 神经网络模型定义
class Net(nn.Module):
def __init__(self):
super(Net, self).__init__()
self.fc1 = nn.Linear(28 * 28, 512)
self.fc2 = nn.Linear(512, 10)
self.relu = nn.ReLU()
def forward(self, x):
x = x.view(-1, 28 * 28)
x = self.relu(self.fc1(x))
x = self.fc2(x)
return x
# 初始化模型、损失函数和优化器
net = Net()
criterion = nn.CrossEntropyLoss()
optimizer = optim.Adam(net.parameters(), lr=0.001) # 使用Adam优化器
# 训练模型
epochs = 10
losses = []
for epoch in range(epochs):
running_loss = 0.0
for i, data in enumerate(trainloader, 0):
inputs, labels = data
optimizer.zero_grad()
outputs = net(inputs)
loss = criterion(outputs, labels)
loss.backward()
optimizer.step()
running_loss += loss.item()
losses.append(running_loss / len(trainloader))
print(f"Epoch {epoch+1}, Loss: {running_loss / len(trainloader)}")
# 绘制损失曲线
plt.plot(range(epochs), losses)
plt.xlabel('Epochs')
plt.ylabel('Loss')
plt.title('Trainin g Loss Curve')
plt.show()
代码中,使用PyTorch框架训练一个简单的神经网络模型,并使用Adam优化算法进行参数优化。数据集选择了MNIST手写数字识别,训练过程中损失曲线会有一定复杂度。
好了,我是Johngo~