这是100个命令的第7篇文章,主要关于进程的管理命令以及你应该知道关于进程的基本原理,相对于命令的理解,应该更加注重对于进程本身的理解。...创建进程的方法以及父子进程 每一个进程都会有一个唯一的 PID,在某进程的环境下执行或调用了程序,这个程序触发的进程就是子进程,进程的 PPID 就是该进程的父进程的 PID,由此可知,子进程总是由父进程创建...且杀死父进程(非终端进程),会导致子进程变成孤儿进程,孤儿进程的父进程总是init/systemd。 进程的状态以及转换 进程并非总是处于运行中,至少cpu没运行在它身上时它就是非运行的。...进程结构和子 shell 前台进程 一般命令(如 cp 命令)在执行时都会fork子进程来执行,在子进程执行过程中,父进程会进入睡眠,这类是前台进程。...在子进程死亡的那一刹那,子进程的状态就是僵尸进程,但因为发出了SIGCHLD信号给父进程,父进程只要收到该信号,子进程就会被清理也就不再是僵尸进程。
首先把进程放到后台 nohup python main.py & 然后保持退出终端继续运行 ctrl-z bg 输出在nohup.out里面 输入fg,可以把任务调到前台并取消 输入jobs...显示后台进程
一、思路 先与客户端建立好连接, 每次监听到一个客户端之后,都需要产生一个子进程去处理这个连接,然后父进程继续去等待监听,唯一一个要注意的点就是要使用信号来监听子进程是否结束,从而对其进行回收,防止僵尸进程的产生...&opt, sizeof(opt)); (3)bind函数 bind(lfd, (struct sockaddr*)&ser_addr, sizeof(ser_addr));b这个函数主要目的就是将服务器的地址结构绑定到套接字...lfd上,所以开始要设置服务器的ser_addr:ser_addr.sin_family = AF_INET, ser_addr.sin_port = htons(8888);ser_addr.sin_addr.s_addr...监听到了客户端后,就要开始创建子进程来对这个监听进行处理;pid = fork() 3、子进程处理通信 因为子进程不需要监听连接,使用可以close(lfd);之后便可以进行通信处理 void do_work...sizeof(buf)); tcp.Write(cfd, buf, n); tcp.Write(STDOUT_FILENO, buf, n); } } 4、父进程回收子进程
前言 MySQL大量的deleted进程,导致了磁盘利用率达到100% 淘宝数据库内核月报 步骤 具体分析,大家可以看MySQL · 特性分析 · (deleted) 临时空间,这篇文章。
S 13:02 0:00 \_ /usr/sbin/httpd 我们查看httpd 服务器的进程;您也可以用pgrep -l httpd 来查看; 我们看上面例子中的第二列,就是进程PID的列,其中4830...是httpd服务器的父进程,从4833-4840的进程都是它4830的子进程;如果我们杀掉父进程4830的话,其下的子进程也会跟着死掉; [root@localhost ~]# kill 4840 注:...是不是httpd服务器仍在运行?...[root@localhost ~]# kill 4830 注:杀掉httpd的父进程; [root@localhost ~]# ps -aux |grep httpd 注:查看httpd的其它子进程是否存在...,httpd服务器是否仍在运行?
Nginx服务器的进程有3类:主进程、工作进程、缓存进程 (1)主进程 Nginx启动时运行的主要进程,主要功能是与外界通信和对内部其他进程进行管理 主要工作内容 1)读取配置文件,验证有效性和正确性...2)建立、绑定、关闭 socket 3)按照配置生成、管理、结束工作进程 4)接收指令,如 重启、升级、退出 5)不中断服务,平滑重启、升级,升级失败的回滚处理 6)开启日志文件,获取文件描述符 (2)...工作进程 由主进程生成,生成数量由配置文件指定,工作进程生存于主进程的整个生命周期 主要工作内容 1)接收请求 2)将请求依次送入各个功能模块进行过滤处理 3)IO调用,获取响应数据 4)与后端服务器通信...,接收后端服务器处理结果 5)数据缓存,访问缓存索引、查询、调用缓存数据 6)发送请求结果 7)接收主进程指令,如 重启、升级、退出 (3)缓存进程 缓存进程有两类 1)缓存索引重建进程 nginx启动后由主进程生成...,在缓存元数据重建完成后就自动退出 该进程启动后,对缓存文件的目录结构扫描,在内存中建立索引元数据库 2)缓存索引管理进程 生存于主进程的整个生命周期 负责在索引元数据更新完成后,对元数据是否过期进行判断
次会用到我们上次写的多进程服务器 我们既然学习了 面向对象,就用面向对象来改进一个这个程序: import socket import re import multiprocessing class...self,): while True: cli_socket,cli_addr = self.tcp_server.accept() # 多进程实现调用该方法...py"): head = 'HTTP/1.1 404 NOT FOUND\r\n' head += '\r\n' # 生成一个0-100...首先我们在当前文件夹下新建一个py文件写上: import random def login(): return f'欢迎登陆{random.randint(0,100)}' 将上面的web服务器修改...但是WSGI就是负责和服务器交互的,我们需要在服务器中修改。
当服务器有后台进程在运行时候,一般输出不会在命令行界面显示,需要一行命令来实时查看后台进程的输出结果先输入ps查看后台进程然后输入:python your_script.py > output.log...然后进入到后台程序的目录下面然后输入:tail -f output.log这样就可以实时查看后台进程输出了
多进程TCP并发服务器 最初的服务器都是迭代服务器,服务器处理完一个客户的请求,再接受下一个客户的请求。但是我们的期望应该是一台服务器同时为多个客户服务。...实现并发服务器最简单的办法就是为每个客户均fork一个子进程。...[accept返回后客户-服务器的状态] 并发服务器的下一步是调用fork,下图是从fork返回后的状态。此时描述字listenfd和connfd是父进程-子进程共享的。...[fork返回后客户-服务器的状态] 下一步是父进程关闭已连接套接口,子进程关闭监听套接口。...[父子进程关闭相应套接口后客户-服务器的状态] 最后的结果是子进程处理与客户的连接,父进程可对监听套接口调用accept来处理下一个连接。
进程间通信(三) — 进程同步原语及管道与队列 回顾操作系统所提供的所有进程间通信方式的系统调用,我们会发现还有两种进程间通信方式我们还没有介绍:共享内存与域套接字,本文我们就来介绍这剩下的几种 IPC...但 Python 的 multiprocessing 包中仍然提供了两种方法让你可以在多进程环境下共享数据: 共享内存 服务器进程 3....服务器进程 — server process python 提供了一种十分类似共享内存的数据共享机制 — 服务器进程。...通过 multiprocessing 包中的 Manager 类可以构造一个服务器进程对象,他支持用于进程间共享的多种数据类型: list dict Namespace Lock RLock Semaphore...BoundedSemaphore Condition Event Barrier Queue Value Array 一旦创建,对象的使用与原生类型的用法是完全相同的,因此相比于共享内存,服务器进程的使用更为简单和灵活
故事情节: 有一天在聚餐中,我有一个朋友和我说他的服务器上有有个异常的进程他一直在占满CPU在运行,我在一顿谦虚之后答应了他,有空登录上他的服务器看一下具体情况。...就是以上三张图,在proc目录中的exe指向的文件已被删除,我看到这里,我好奇这个进程肯定是被隐藏掉了。这时,我急中生智跟这位朋友要了root账号密码。...登录服务器用top命令一看,发现一个奇怪的进程在运行,我使用kill命令将其杀后,等了十来分钟后,发现没有被启动,这时我和这位朋友说干掉了,他问我是不是kill掉了,我说嗯,他又补充到,这个进程杀掉过段时间会起来的...没过多久,我又看了一下,发现这个进程换了个名字又启动了。...还干满了CPU,就在这时,我在研究这个进程运行文件的时候发现: 这个进程会连到一个韩国的服务器上,我访问这个IP发现是一个正常的网站,没有异常情况。
问题症状 这是一个蛮悲催的bug问题,directadmin官方帮助文档中有此记载,它会长期占用cpu 100%,且会造成死机。...① 首先,如果还未死机,但是已知dataskq占用cpu100%,那么就先将以下命令步骤操作。...brute_log_entries.list sed -i 's/root \/usr/root nice -n 19 \/usr/g' /etc/cron.d/directadmin_cron 以上命令行的作用是,结束掉当前的dataskq进程...② 引发该问题的大部分情况都是硬盘占用大量IO读写,导致硬盘运行缓慢,然后任何进程都变的非常慢,效率越来越低,由于它是一个长时间运行的进程,最终导致内存可能耗尽,然后就死机了。
使用一百个进程,则效率理论上可以提速一百倍(主要时间是消耗在网速,而不是cpu速度)。...基本实现思路是,首先用字符串处理,把需要遍历的本地网络192.168.0.0-192.168.2.255这部分全部变成列表的一个值,然后组建一个队列,按照设定的进程数,开始开辟进程,然后将队列的值开始一步步放进函数中...usr/bin python from threading import Thread import subprocess from Queue import Queue num_threads = 100.../usr/bin python from threading import Threadimport subprocessfrom Queue import Queue num_threads = 100...原创文章,转载请注明: 转载自URl-team 本文链接地址: python多线程100进程一起ping演习笔记 Related posts: 操作系统-多进程和多线程-python python-opencv
GlusterFS服务器端进程分析 服务端进程信息: root 348 0.0 0.2 273104 16268 ? ...bdda-0a4fe0223384 --brick-port 49155 --xlator-option tank-server.listen-port=49155 服务端重启glusterd服务,如下进程...0d5ba4a3-c6fa-4afd-ad39-a2842ca3cde0 --brick-port 49176 --xlator-option tank-server.listen-port=49176 其他3个进程...PID会变,生产新的进程。...当服务器端执行gluster volume stop操作后,上述进程消失,gluster volume start后会创建新的线程。
注意:使用kill -9 pid 杀死主进程后,子进程不会被杀死,此时命令行也会无法正常退出,因为该命令的信号是发给了主进程来执行杀死任务,子进程由于没有父进程,变成了孤儿进程,之后被init进程领养。...main__": main()八 同步与死锁线程是共享全局变量的,这样就会造成数据的混乱:import timeimport threading# 定义共享的全局变量num = 0def add100...num for i in range(100000): num = num + 1000def main(): t1 = threading.Thread(target=add100...if __name__ == "__main__": main()使用互斥锁实现同步的方案:import timeimport threading# 定义共享的全局变量num = 0def add100...mutex.release() # 解锁# 创建互斥锁,默认不会上锁mutex = threading.Lock()def main(): t1 = threading.Thread(target=add100
进程和线程的使用在前面博文已经讲述完毕,在完成一个最简单的服务器之后,就是要考虑下如何实现并发服务器了。 要实现服务的并发,只能通过进程和线程两种方式。...在实际并发服务器应用场合,在IO层大多通过两个地方来提高代码效率,一个是描述符处理,一个是线程/进程调度处理。 下图简单描述了并发服务器的原理: ?...在处理IO时,会用到IO复用技术提高效率,在线程/进程分配时,会先构造线程池或进程池,并以某种方式调度,这些在后续博文详细描述。 下面是并发实现的简单代码,利用线程和进程实现服务器的并发。...所以在代码中,父子进程都会关闭不需要的描述符。 测试结果如下: ? ps -aux查看系统进程,可以看到三个进程,一个是主进程用于listen监听,两个子进程进行通信。 ?...线程并发和进程并发各有优劣,目前大多服务器还是用线程进行并发的,进程要对父进程进行拷贝,资源消耗大,但相互直接资源互不影响,线程效率高但是要注意锁的使用,一个线程可能会影响整个服务器的运行。
查看服务器监控,发现系统CPU在某个点飙升。 将系统重启后,CPU开始降下来,过了一段时间后又开始上升。发现在频繁的进行GC 系统打出内存溢出日志: 这里目测是JSON转对象出现了内存溢出。...XXX为系统的进程id。我们用MAT或者Java自带的内存分析软件VisualVM加载hprof文件。 问题分析 我们发现还有个类创建的对象非常多,实列数六千万多个。...当短时间内创建了大量对象,垃圾回收器无法及时回收,这是对象会进入老年代,当老年代空间满了,会触发fullGC,fullGC触发后,其他线程会被挂起,导致CPU资源全给垃圾回收器了,频繁的fullGC就会造成CPU 100%
【问题】 有台MySQL 5.6.21的数据库实例以写入为主,IO %util接近100% 写入IOPS很高 【分析过程】 1、通过iotop工具可以看到当前IO消耗最高的mysql线程 2、查看线程...49342的堆栈,可以看到正在进行redo log的刷新,对应的是9号文件 3、9号文件对应的是redo log的第一个文件 为什么mysql进程会频繁的刷新redo log文件,要结合redolog...innodb_flush_log_at_trx_commit参数调整为2, 当设置为2时,则在事务提交时只做write操作,只保证写到系统的page cache,因此实例crash不会丢失事务,但宕机则可能丢失事务 在这台服务器上测试
下面的例子演示了100个线程向同一个银行账户转账(转入1元钱)的场景,在这个例子中,银行账户就是一个临界资源,在没有保护的情况下我们很有可能会得到错误的结果。...range(100): t = AddMoneyThread(account, 1) threads.append(t) t.start() #...个线程分别向账户中转入1元钱,结果居然远远小于100元。...Nginx就是支持异步I/O的Web服务器,它在单核CPU上采用单进程模型就可以高效地支持多任务。在多核CPU上,可以运行多个进程(数量与CPU核心数相同),充分利用多核CPU。...用Node.js开发的服务器端程序也使用了这种工作模式,这也是当下实现多任务编程的一种趋势。
仅供学习,转载请注明出处 前情回顾 前面写了两个篇章,主要介绍了使用tcp开发web服务器的功能。...Python 开发Web静态服务器 - 返回固定值:胖子老板,来包槟榔 Python 开发web服务器,返回HTML页面 但是这服务端是有一个致命的性能问题,那就是采用循环接收http请求。...,args=(client_socket,)) new_process.start() # 开启子进程 好了,这里就已经加好了子进程。...其实,这个就是多进程的特性,子进程会从开启之前复制前面的代码,包含了client_socket接口,当子进程运行的时候,并无法关闭,这就需要从主进程来关闭了。...# 因为子进程已经复制了父进程的套接字等资源,所以父进程调用close不会将他们对应的这个链接关闭的 client_socket.close() if __name__
领取专属 10元无门槛券
手把手带您无忧上云