我正在尝试为kaggle的心脏数据集实现一个神经网络。 https://www.kaggle.com/ronitf/heart-disease-uci 即使我在整个数据集上训练网络,它似乎根本没有学习,准确率保持在50%左右,即使它过度拟合,神经网络也应该能够获得更高的样本精度。有没有人能看到这段代码有什么问题(我尝试了很多学习率、批次和时期,但似乎什么都不起作用。 #need to switch from the binary output to the singular value output
import pandas
import numpy as np
import tenso
我是tensorflow和机器学习的初学者。我想尝试一个简单的线性回归例子,由tensorflow。
但在3700年代以后,损失不能减少。我不知道怎么了?
显然,我们得到了W = 3.52, b = 2.8865。所以y = 3.52*x + 2.8865。当测试数据x = 11, y = 41.6065时。但这是错误。因为训练数据x = 10, y = 48.712。
代码和丢失张贴在下面。
#Goal: predict the house price in 2017 by linear regression method
#Step: 1. load the original data
下面是XOR的一个简单的Tensorflow实现。 你知道为什么当TF随机种子为0时,它不收敛,而当它不收敛时,它就收敛吗?我如何才能在不改变网络架构(即,保持隐藏层为密集(2))并保持随机种子= 0的情况下使其收敛?蒂娅! import tensorflow as tf
import numpy as np
from tensorflow.keras import Model
from tensorflow.keras.layers import (
Dense,
Input,
)
tf.random.set_seed(0) # to reproduce non-conv
我试着训练我的模型,我的成本产出每一个时代都在减少,直到它达到接近于零的值,然后转到负值,我想知道是什么意思,负成本产出是什么意思?
Cost after epoch 0: 3499.608553
Cost after epoch 1: 2859.823284
Cost after epoch 2: 1912.205967
Cost after epoch 3: 1041.337282
Cost after epoch 4: 385.100483
Cost after epoch 5: 19.694999
Cost after epoch 6: 0.293331
Cost after epoc
我正在学习神经网络,我发现下面的代码在虹膜数据集上工作得很好,准确率达到了99%左右。
但是,当我尝试在使用get_modulus_data()随机生成的虚拟数据集上运行相同的网络时,输入和输出之间存在相关性,如下所示,它不能很好地工作。有人能解释为什么神经网络在这种类型的训练输入中举步维艰吗?
# Implementation of a simple MLP network with one hidden layer. Tested on the iris data set.
# Requires: numpy, sklearn, tensorflow
# NOTE: In order t
我正在用CNN训练一个大的数据集。训练数据集有46182个样本和1414个不同的类,而验证数据集有14053个样本和790个不同的类。第一个问题是关于数据集之间类数的差异(培训和验证)。这个程序没有错误,但是我想问他们是否可以有不同数量的类。第二个问题是验证的准确性。几乎为零。为什么?我的数据集有什么问题?为了回答这个问题,我会补充你需要的更多细节。谢谢大家
Using device: cuda
ConvNet(
(features): Sequential(
(0): Conv2d(3, 64, kernel_size=(11, 11), stride=(2, 2), pad
试图建立gensim word2vec模型。语料库包含1M个句子。我正在使用回调打印损失后,每一个时代。过了几个年代,损失就变成零了。知道为什么损失会变成0吗?
Loss after epoch 0: 17300302.0
Loss after epoch 1: 11381698.0
Loss after epoch 2: 8893964.0
Loss after epoch 3: 7105532.0
...
...
...
Loss after epoch 54: 1283432.0
Loss after epoch 55:
我有一个定期存储在H2数据库中的状态值-1或1,我需要统计在过去12个月中按月存储的-1和1的数量。下面的代码可以工作,但我将在多个地方使用它作为派生表,并想知道是否有更有效的方法。 SELECT STATUS_CODE AS STATUS,
COUNT(*) AS STATUS_COUNT,
CASE
WHEN EXTRACT(EPOCH FROM DATEADD(MONTH,-1,CURRENT_DATE)) < EXTRACT(EPOCH FROM LOG_ENTRY_TIME) THEN 'MONTH 1'
我使用tf.data.TextLineDataset生成输入数据,并为数据集创建一个迭代器。
def dataInput(filenames,epoch_num,batch_size):
default_column_value = [[0] for i in range(2)]
default_column_value.extend([[0.0] for i in range(1500)])
default_column_value.extend([[0.0] for i in range(2100)])
default_column_value.extend
我在一个目录中有以下文件:
使用os.listdir(),我正在读取所有文件,然后将它们保存在列表中。以下是代码:
y = []
files = os.listdir()
for file in files:
if "mb" in file:
file = file.split("-")
loss = file[5]
lossNum = loss.split('.pth')
y.append(round(float(lossNum[0]), 3))
print(y
with tf.Session() as sess:
sess.run(tf.initialize_all_variables())
for epoch in range(hm_epochs) :
epoch_loss = 0
for _ in range(int(mnist.train.num_examples/batch_size)):
epoch_x, epoch_y = mnist.train.next_batch(batch_size)
_, c = sess.run([optimiz
我使用python库在keras中拟合一个递归神经网络。通过在epoch函数中改变参数nb_epoch来拟合不同nb_epoch数的模型。目前,我使用的是for循环,每次更改nb_epoch时都会重新拟合,这是很多重复的工作。下面是我的代码(循环在代码的底部,如果您想跳过代码详细信息的其他部分):
from __future__ import division
import numpy as np
import pandas
from keras.models import Sequential
from keras.layers.core import Dense, Activation,