Loading [MathJax]/jax/output/CommonHTML/config.js
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >nginx工作进程数

nginx工作进程数
EN

Server Fault用户
提问于 2009-05-08 05:46:16
回答 2查看 37.1K关注 0票数 23

我正在设置nginx以提供Drupal安装服务,并且我似乎发现了有关nginx辅助进程设置的相互矛盾的信息。一个网站说你需要两个,一个说你需要五个,一个说每个处理器一个.

我应该如何选择nginx工作进程的数量?如果有什么不同的话,那就是VMWare集群上的来宾VM,我已经给它提供了一个虚拟处理器。

EN

回答 2

Server Fault用户

回答已采纳

发布于 2009-05-09 06:46:07

Nginx与Apache和每个连接per服务器的其他进程不同。它使用一个主进程启动和监视少量实际处理连接的工作进程。我的建议是从默认的工人数开始,即1。

代码语言:javascript
运行
AI代码解释
复制
worker_processes  1;

如果您发现nginx工作人员在IO上花费了太多的时间,那么您只需要增加这个值。在每秒处理数百个请求之前,这是不可能的。

您可能还会发现这些设置很有用。

代码语言:javascript
运行
AI代码解释
复制
worker_rlimit_nofile 8192;

events {
    worker_connections  2048;
    use epoll;
}
票数 17
EN

Server Fault用户

发布于 2009-05-27 04:47:42

在SMP系统上,至少应该启动nCPU工作进程:在四核-四等,这是代理。

如果您要为一些站点提供大量静态内容,最好增加更多的工作人员--每个磁盘一个。

如果您的磁盘子系统太差或加载过高,则nginx辅助进程可能会锁定在I/O操作上,无法为其他请求提供服务。在这种情况下,您应该将工作进程的数量增加到一些合适的值(可能是几十个),或者为磁盘缓存添加一些内存。

查看"ps ax“打印输出:处于"D”状态的工作人员被锁定。增加,直到至少不阻止nCPU辅助进程。

票数 15
EN
页面原文内容由Server Fault提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://serverfault.com/questions/6288

复制
相关文章
softmax、softmax损失函数;交叉熵、交叉熵损失函数
发布者:全栈程序员栈长,转载请注明出处:https://javaforall.cn/153152.html原文链接:https://javaforall.cn
全栈程序员站长
2022/09/13
4200
归一化(softmax)、信息熵、交叉熵
机器学习中经常遇到这几个概念,用大白话解释一下: 一、归一化 把几个数量级不同的数据,放在一起比较(或者画在一个数轴上),比如:一条河的长度几千甚至上万km,与一个人的高度1.7m,放在一起,人的高度几乎可以被忽略,所以为了方便比较,缩小他们的差距,但又能看出二者的大小关系,可以找一个方法进行转换。 另外,在多分类预测时,比如:一张图,要预测它是猫,或是狗,或是人,或是其它什么,每个分类都有一个预测的概率,比如是猫的概率是0.7,狗的概率是0.1,人的概率是0.2... , 概率通常是0到1之间的数字,如果
菩提树下的杨过
2018/01/18
1.7K0
归一化(softmax)、信息熵、交叉熵
[L4]实战语言模型~softmax与交叉熵
在介绍完了如何处理数据以及如何构造样本之后,就可以构建我们的神经网络语言模型了,下面是使用LSTM构建的语言模型的大体结构:
触摸壹缕阳光
2020/06/04
1.1K0
softmax交叉熵与最大似然估计
本文介绍了softmax交叉熵与最大似然估计的关系,指出它们实际上是等价的。softmax交叉熵的目标函数是最大化已出现样本的概率,与最大似然估计相同。因此,softmax交叉熵和最大似然估计在本质上是一致的,它们可以相互替代。
ke1th
2018/01/02
1.9K0
softmax交叉熵与最大似然估计
Softmax和交叉熵的深度解析和Python实现
【导读】如果你稍微了解一点深度学习的知识或者看过深度学习的在线课程,你就一定知道最基础的多分类问题。当中,老师一定会告诉你在全连接层后面应该加上 Softmax 函数,如果正常情况下(不正常情况指的是类别超级多的时候)用交叉熵函数作为损失函数,你就一定可以得到一个让你基本满意的结果。而且,现在很多开源的深度学习框架,直接就把各种损失函数写好了(甚至在 Pytorch中 CrossEntropyLoss 已经把 Softmax函数集合进去了),你根本不用操心怎么去实现他们,但是你真的理解为什么要这么做吗?这篇小文就将告诉你:Softmax 是如何把 CNN 的输出转变成概率,以及交叉熵是如何为优化过程提供度量。为了让读者能够深入理解,我们将会用 Python 一一实现他们。
用户1737318
2018/08/03
2.5K0
Softmax和交叉熵的深度解析和Python实现
交叉熵
仅凭直觉来说,显而易见事件B的信息量比事件A的信息量要大。究其原因,是因为事件A发生的概率很大,事件B发生的概率很小。
小小杨
2021/10/13
4860
一文总结熵、交叉熵和交叉熵损失
交叉熵损失是深度学习中应用最广泛的损失函数之一,这个强大的损失函数是建立在交叉熵概念上的。当我开始使用这个损失函数时,我很难理解它背后的直觉。在google了不同材料后,我能够得到一个令人满意的理解,我想在这篇文章中分享它。
磐创AI
2020/02/12
1.2K0
一文总结熵、交叉熵和交叉熵损失
一文总结熵,交叉熵与交叉熵损失
交叉熵损失是深度学习中应用最广泛的损失函数之一,这个强大的损失函数是建立在交叉熵概念上的。当我开始使用这个损失函数时,我很难理解它背后的直觉。在google了不同材料后,我能够得到一个令人满意的理解,我想在这篇文章中分享它。
磐创AI
2020/02/12
6520
一文总结熵,交叉熵与交叉熵损失
相对熵和交叉熵
相对熵也称为 KL 散度(Kullback-Leibler divergence),相对熵是两个概率分布 和 差别的度量。具体来说, 和 的相对熵是用来度量使用基于 的分布来编码服从 的分布的样本所需的额外平均比特数。典型情况下, 表示真实分布, 表示数据的理论分布或者是估计的模型分布。
hotarugali
2022/04/22
8910
理解熵与交叉熵
熵、交叉熵是机器学习中常用的概念,也是信息论中的重要概念。它应用广泛,尤其是在深度学习中。本文对交叉熵进行系统的、深入浅出的介绍。文章中的内容在已经出版的《机器学习与应用》(清华大学出版社,雷明著)中有详细的介绍。
SIGAI学习与实践平台
2019/03/01
2.3K0
理解熵与交叉熵
神经网络优化(损失函数:自定义损失函数、交叉熵、softmax())
3、神经网络的层数,通常用神经网络的层数和神经网络待优化的参数的个数 来表示,层数 = 隐藏层的层数 + 1个输出层,总参数 = 总W + 总b
狼啸风云
2020/09/07
2K0
详解机器学习中的熵、条件熵、相对熵、交叉熵
熵 (entropy) 这一词最初来源于热力学。1948年,克劳德·爱尔伍德·香农将热力学中的熵引入信息论,所以也被称为香农熵 (Shannon entropy),信息熵 (information entropy)。本文只讨论信息熵。首先,我们先来理解一下信息这个概念。信息是一个很抽象的概念,百度百科将它定义为:指音讯、消息、通讯系统传输和处理的对象,泛指人类社会传播的一切内容。那信息可以被量化么?可以的!香农提出的“信息熵”概念解决了这一问题。
石晓文
2019/10/24
2.7K0
详解机器学习中的熵、条件熵、相对熵、交叉熵
详解机器学习中的熵、条件熵、相对熵、交叉熵
目录 信息熵 条件熵 相对熵 交叉熵 总结 一 信息熵 (information entropy) 熵 (entropy) 这一词最初来源于热力学。1948年,克劳德·爱尔伍德·香农将热力学中的熵引入信息论,所以也被称为香农熵 (Shannon entropy),信息熵 (information entropy)。本文只讨论信息熵。首先,我们先来理解一下信息这个概念。信息是一个很抽象的概念,百度百科将它定义为:指音讯、消息、通讯系统传输和处理的对象,泛指人类社会传播的一切内容。那信息可以被量化么?可以的!
磐创AI
2018/04/24
1.7K0
详解机器学习中的熵、条件熵、相对熵、交叉熵
机器学习 | 交叉熵
定义:在信息论中,交叉熵是表示两个概率分布p,q,其中p表示真实分布,q表示非真实分布,在相同的一组事件中,用非真实分布q来表示某个事件发生所需要的平均比特数。从这个定义中,我们很难理解交叉熵的定义。下面举个例子来描述一下。
努力在北京混出人样
2019/02/18
1.1K0
交叉熵损失函数
注: 本文内容是对《机器学习数学基础》一书有关内容的补充资料。《机器学习数学基础》即将由电子工业出版社于2021年5月出版。与本书相关的更多资料,请查阅微信公众号:老齐教室,或者:https://qiwsir.gitee.io/mathmetics/
老齐
2021/03/11
1.3K3
交叉熵损失函数
信息熵、条件熵、联合熵、互信息、相对熵、交叉熵
信息量是通过概率来定义的:如果一件事情的概率很低,那么它的信息量就很大;反之,如果一件事情的概率很高,它的信息量就很低。简而言之,概率小的事件信息量大,因此信息量可以定义如下:
统计学家
2019/07/30
4.5K1
“交叉熵”反向传播推导
每天给你送来NLP技术干货! ---- 作者 | godweiyang 出品 | 公众号:算法码上来(ID:GodNLP) - BEGIN - 交叉熵(CrossEntropy)是常见的损失函数,本文详细推导一下它的梯度,面试大厂或者工程实践中都可能会用到。 前向传播 假设分类任务类别数是,隐层输出是维向量,标准的one-hot向量是,正确的类别是。那么交叉熵损失可以定义为: 其中,,是平滑参数。Softmax函数大家都很熟悉了,具体形式为:。 反向传播 对的梯度要分两种情况: 推导过程 根据求导法则有:
zenRRan
2022/05/25
5320
交叉熵 KL散度
熵这个概念在信息表示中就是“信息含量”,有时候我们常会说“这句话信息含量好多啊”,这也是一种熵的体现。对于一个事件来说,熵越大,也就是信息含量越大,其能实现的可能性越小,反之则亦然。
用户10713522
2023/08/17
1640
揭示相对熵和交叉熵的本质
在第4章4.4.3节介绍损失函数的时候,列出了几项常见的损失函数,其中就有神经网络中常用的以相对熵和交叉熵构建的损失函数。那么什么是相对熵和交叉熵呢?下面就分别进行介绍。
老齐
2022/01/27
1.1K0
揭示相对熵和交叉熵的本质
点击加载更多

相似问题

softmax交叉熵返回值

14

Tensorflow:带有logits的Softmax交叉熵成为inf

20

交叉熵总是大于熵吗?

20

Keras分类交叉熵softmax input.dim_size错误

113

用softmax和交叉熵求取theano中的误差

11
添加站长 进交流群

领取专属 10元无门槛券

AI混元助手 在线答疑

扫码加入开发者社群
关注 腾讯云开发者公众号

洞察 腾讯核心技术

剖析业界实践案例

扫码关注腾讯云开发者公众号
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档