Loading [MathJax]/jax/output/CommonHTML/config.js
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >Error in runGLMM R语言?

Error in runGLMM R语言?

提问于 2024-03-19 11:01:30
回答 0关注 0查看 110

> LVSD <-metaprop(event = Event, n=Total, data= LVSD, studlab = paste(Author))Error in runGLMM(list.prop, method.tau = method.tau, method.random.ci = method.random.ci, : Error in (function (ai, bi, ci, di, n1i, n2i, x1i, x2i, t1i, t2i, xi, : Cannot fit ML model (set 'verbose=TRUE' to obtain further details).

回答 2

黄易音乐战组

发布于 2018-01-29 01:25:18

最好先在硬件上进行测量。只是一个快速的基准测试脚本显示,在我的机器上1/(1+|x|)是最快的,tanh(x)是接近的第二个。错误功能erf也相当快。

代码语言:javascript
运行
AI代码解释
复制
% gcc -Wall -O2 -lm -o sigmoid-bench{,.c} -std=c99 && ./sigmoid-bench
atan(pi*x/2)*2/pi   24.1 ns
atan(x)             23.0 ns
1/(1+exp(-x))       20.4 ns
1/sqrt(1+x^2)       13.4 ns
erf(sqrt(pi)*x/2)    6.7 ns
tanh(x)              5.5 ns
x/(1+|x|)            5.5 ns

我期望结果可能会有所不同,取决于架构和所使用的编译器,但erf(x)(自C99以来),tanh(x)x/(1.0+fabs(x))可能是快速的

愤怒的白菜

发布于 2018-01-29 00:06:55

你不必在神经网络算法中使用实际的精确S形函数,可以用具有相似特性但计算速度更快的近似版本替换它。

例如,你可以使用“fast sigmoid”功能

代码语言:javascript
运行
AI代码解释
复制
  f(x) = x / (1 + abs(x))

如果f(x)的参数不接近零,那么使用exp(x)的系列展开式的第一项不会有太大的帮助,而且如果参数是“large”。

另一种方法是使用表查找。也就是说,你可以对给定数量的数据点预先计算S形函数的值,然后在它们之间进行快速(线性)插值。

和开发者交流更多问题细节吧,去 写回答
相关文章
tf.sigmoid()用法
import tensorflow as tfa = tf.constant([[1.0, 2.0], [1.0, 2.0], [1.0, 2.0]])sess = tf.Session()print(sess.run(tf.sigmoid(a)))output: [[ 0.7310586 0.88079703] [ 0.7310586 0.88079703] [ 0.7310586 0.88079703]]Process finished with exit code 0
狼啸风云
2020/10/09
7990
sigmoid和tanh求导的最终结果,以及Sigmoid函数与损失函数求导
​ 从上图,我们得到了这样的几个信息,指数函数过(0,1)点,单调递增/递减,定义域为(−∞,+∞),值域为(0,+∞),再来我们看一下sigmoid函数的图像:
学到老
2019/02/14
1.4K0
什么是sigmoid激活函数?
上面我们讲了引入激活函数的意义,激活函数有多种,下面我们拿一种激活函数sigmoid来做示例,其他的类似。sigmoid函数表达式如下:
马克java社区
2021/06/22
7260
[tensorflow损失函数系列]sigmoid_cross_entropy_with_logits
函数定义 def sigmoid_cross_entropy_with_logits(_sentinel=None, # pylint: disable=invalid-name,labels=None, logits=None,name=None): 函数意义 这个函数的作用是计算经sigmoid 函数激活之后的交叉熵。 为了描述简洁,我们规定 x = logits,z = targets,那么 Logistic 损失值为: 对于x<0的情况,为了执行的稳定,使用计算式: 为了确保计算稳定,避免溢
演化计算与人工智能
2020/08/14
8820
机器学习(六)Sigmoid函数和Softmax函数1 Sigmoid函数2 Softmax函数
1 Sigmoid函数 1.1 定义 Sigmoid函数是一个在生物学中常见的S型的函数,也称为S型生长曲线。Sigmoid函数常被用作神经网络的阈值函数,将变量映射到0,1之间。 1.2公式 其对x
致Great
2018/04/11
18.3K0
机器学习(六)Sigmoid函数和Softmax函数1 Sigmoid函数2 Softmax函数
激活函数——sigmoid函数(理解)
Sigmoid函数是一个在生物学中常见的S型函数,也称为SS型生长曲线。在信息科学中,由于其单增以及反函数单增等性质,Sigmoid函数常被用作神经网络的阈值函数,将变量映射到0,1之间。
云深无际
2021/04/14
1.4K0
激活函数——sigmoid函数(理解)
sigmoid激活函数如何求导
链式法则是微积分中复合函数的求导法则。 复合函数,是指一个函数作为另一个函数的自变量。 如f(x)=3x,g(z)=z+3,g(f(x))就是一个复合函数,并且g(f(x))=f(x)+3=3x+3
马克java社区
2021/06/22
8750
sigmoid function和softmax function
「学习内容总结自 couesera 和 udacity 的深度学习课程,部分截图来自 coursera 的课件」
caoqi95
2019/03/27
2.2K0
sigmoid function和softmax function
sigmoid和tanh求导的最终结果,以及Sigmoid函数与损失函数求导
sigmoid Sigmoid函数,即f(x)=1/(1+e-x)。是神经元的非线性作用函数。 2. 函数: 1.1 从指数函数到sigmoid ​ 首先我们来画出指数函数的基本图形:
学到老
2018/03/16
7K0
sigmoid和tanh求导的最终结果,以及Sigmoid函数与损失函数求导
Sigmoid vs Softmax 输出层选择
今天有人提到这个问题,为什么现在一般深度学习的分类模型最后输出层都用Softmax而不是简单的Sigmoid?
段清华DEAN
2020/01/22
1.6K0
logistic 函数(logistic function)sigmoid函数
今天看SVM(支持向量机),开始先引入了logistic函数,虽然给出了一公式,但好奇logistic函数啥东东啊,为啥叫logistic呢,搜索ing。 说简单些,logistic函数其实就是这样一个函数: P(t) = \frac{1}{1 + e^{-t}} 非常简单吧,这个函数的曲线如下所示:、
全栈程序员站长
2022/11/15
6300
logistic 函数(logistic function)sigmoid函数
Java实现神经网络激活函数Sigmoid
/** * @Author 。。。源 * @Email apple_dzy@163.com * @Blog https://www.findmyfun.cn * @Date 2021/12/24 9:16 * @Version 1.0 */ public class SigmoidUtils { //Sigmoid public static double sigmoid(double v
水煮麥楽雞
2022/11/20
6630
【说站】python中sigmoid函数是什么
2、在信息科学中,Sigmoid函数通常被用作神经网络的阈值函数,将变量映射到0,1之间 。
很酷的站长
2022/11/24
6560
【说站】python中sigmoid函数是什么
激励函数的作用之sigmoid
首先看一下这个sigmoid函数的图像,以x值的0值做为区分点,在0值范围左右的y轴数据为0~1范围内的数据。
全栈程序员站长
2022/07/20
4110
激励函数的作用之sigmoid
Logistic regression 为什么用 sigmoid ?
假设我们有一个线性分类器: 我们要求得合适的 W ,使 0-1 loss 的期望值最小,即下面这个期望最小: 一对 x y 的 0-1 loss 为: 在数据集上的 0-1 loss 期望值为: 由
杨熹
2018/06/19
6410
【手撕深度学习算法】(3月23日群讨论笔记)关于Sigmoid和活化函数
1手撕深度学习算法答疑微信群建立了! 为了更好地服务于关注于我们手撕深度学习算法讲座的学员,我们成立专门的答疑微信群。4月8日后,我们将再继续释放LSTM后半部讲座视频,敬请关注!届时我们会开放入群。
GPUS Lady
2018/04/02
1.3K0
【手撕深度学习算法】(3月23日群讨论笔记)关于Sigmoid和活化函数
基于Logistic回归和Sigmoid函数的分类(一)
假设现有一些二维数据点,我们用一条线(直线或者曲线)对这些点进行拟合,这个拟合的过程就称作回归。如果用直线拟合,就是线性回归。
用户6021899
2019/08/14
2.5K0
基于Logistic回归和Sigmoid函数的分类(二)
梯度下降算法每次更新回归系数时都要遍历整个数据集,该方法在处理100个左右的数据集时尚可,但如果有上亿(m)的的样本和上千(n)的特征那么该方法的时间复杂度太高了(O(m*n*k), k为迭代步数)。一种改进方法是一次仅用一个样本点来更新回归系数,时间复杂度仅为O(n*k),该方法称为随机梯度下降算法。由于可以在新样本到来时对分类器进行增量式更新,因而随机梯度下降算法是一个在线学习算法。与”在线学习“相对应,一次处理所有的数据称为”批处理“。
用户6021899
2019/08/14
9080
Softmax与Sigmoid你还不知道存在这些联系?
之间,我们通常把它拿来作为一个二分类的方案。其输出范围有限,可以用作输出层,优化稳定。
灿视学长
2021/05/28
9870
神经网络激活函数汇总(Sigmoid、tanh、ReLU、LeakyReLU、pReLU、ELU、maxout)
特点:可以解释,比如将0-1之间的取值解释成一个神经元的激活率(firing rate)
全栈程序员站长
2022/11/15
5K0
神经网络激活函数汇总(Sigmoid、tanh、ReLU、LeakyReLU、pReLU、ELU、maxout)

相似问题

滴滴算法真的要比AlphaGo算法要强?

6909

子集算法 实现?

0148

java调用python算法?

1391

『MATLAB算法源码』怎么获取?

1219

机器学习有哪些算法?

1428
相关问答用户
新浪微博 | 高级总监擅长4个领域
某公司 | 程序员擅长1个领域
擅长2个领域
添加站长 进交流群

领取专属 10元无门槛券

AI混元助手 在线答疑

扫码加入开发者社群
关注 腾讯云开发者公众号

洞察 腾讯核心技术

剖析业界实践案例

扫码关注腾讯云开发者公众号
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档