我正在研究一个神经网络问题,将数据分类为1或0。我用二元交叉熵损失来做这件事。损失是很好的,然而,准确性很低,没有提高。我想我在精确计算方面做错了。在每个时代之后,我将在阈值化输出后计算正确的预测,并将该数字除以数据集的总数。我在精确计算中做错了什么吗?为什么它没有改善,但变得更糟?这是我的密码:criterion = torch.nn.BCELoss(size_average=True) for epoch in
Python版本: 3.8平台: Anaconda Spyder5.0
为了使用硬件来完成这个任务,我希望知道在运行这段pytorch代码时的每个输入和输出以及中间变量。# Convert a normal regular tensor to a quantized tensor with scale and zero_poin
Original Traceback (most recent call last):
File "/home/ubuntu/anaconda3/envs/pytorch_latest_p37/lib/lib/python3.7/site-packages/torch/_tensor.py:575: UserWarning: floor_divide is deprecated, and willbe removed in a futu
thenn.py",第50行,在net = Net() TypeError: new()中:参数'size‘必须是整数的元组,但在位置2处找到了NoneType类型的元素print(len(training_data))
X = torch.Tensor([i[0] for i in training_data]).view(-1,50