首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    08.构建根文件系统

    终于自动挂载文件系统成功了!!!出错的地方两个!!!   第一,恢复出厂设置一定要用eop下载uboot,dnw下载的不行!!!最后记得erase nand params!!   第二,set bootargs noinitrd root=/dev/nfs nfsroot=202.193.61.195:/work/nfs_root/first_fs ip=202.193.61.196:202.193.61.195:202.193.61.1:255.255.255.0::eth0:off init=/linuxrc console=ttySAC0 参数解读:  nfsroot=202.193.61.195: ubuntu ip地址  /work/nfs_root/first_fs要挂载的目录  ip=202.193.61.196: 单板ip(恢复出厂设置后记得先配置ip,手动挂载下能不能成功,可以成功的话再修改bootargs自动挂载!)  202.193.61.195: 依然是ubuntu ip !!!!!注意!!!  202.193.61.1: 网关,只要处于同一网段就好。  255.255.255.0:: 子网掩码  eth0: 网卡,一般都是0  off 是否自动配置 off就可以

    01

    Sun Cluster工作原理介绍(转)

    本章的结构安排是以介绍Sun Cluster中重要的概念为主线。相关的工作原理分布在各个概念的介绍之中。     quorum的概念在分布式系统中经常被用到。原本的概念上,quorum是在具有竞争关系的关键时刻时一个多数成员达成的一致意见,从而得出最好的解决方案。这里可以理解为多数人达成一致的意见的一种机制,或者达成一致意见的这些多数成员。组成可被接收的quorum的实际数量在不同的情况下也不同。或许要求2/3,或许只要超过50%即可。     在分布式计算机系统中,一组有通讯关系的进程由quorum的潜在成员组成。为保证系统有效运行以及对系统行为作出关键决策,该组进程通过交互信息以在一些关键问题上达成一致,直到quorum的最终形成。 在Sun Cluster中,有两种类型的quorum被使用:     群集成员关系监视器CMM(Cluster Membership Monitor)需要获取关于一组群集节点列表的quorum,这些节点具有成为Cluster成员的能力。编者注:这个意思就是CMM需要在具有Cluster节点关系的一组节点中得到一个多数人的同意。所以quorum:“多数人的同意”中的这个“人”的主体并不具体代表是什么东西,仅仅是表明这些东西形成多数同意的关系,那这里肯定是指节点了。这种类型的quorum被称为CMM quorum,或Cluster quorum。     Cluster配置数据库CCD(Cluster Configuration Database)需要获得quorum,以挑选出一个有效一致的CCD拷贝。这里的主体就是CCD了。

    03

    CentOS常用查看系统、资源、服务、用户等命令

    系统:  # uname -a   # 查看内核/操作系统/CPU信息  # cat /etc/issue  # cat /etc/redhat-release # 查看操作系统版本  # cat /proc/cpuinfo  # 查看CPU信息  # hostname   # 查看计算机名  # lspci -tv   # 列出所有PCI设备  # lsusb -tv   # 列出所有USB设备  # lsmod    # 列出加载的内核模块  # env    # 查看环境变量  资源:  # free -m   # 查看内存使用量和交换区使用量  # df -h    # 查看各分区使用情况  # du -sh <目录名>  # 查看指定目录的大小  # grep MemTotal /proc/meminfo # 查看内存总量  # grep MemFree /proc/meminfo # 查看空闲内存量  # uptime   # 查看系统运行时间、用户数、负载  # cat /proc/loadavg  # 查看系统负载  磁盘和分区:  # mount | column -t  # 查看挂接的分区状态  # fdisk -l   # 查看所有分区  # swapon -s   # 查看所有交换分区  # hdparm -i /dev/hda  # 查看磁盘参数(仅适用于IDE设备)  # dmesg | grep IDE  # 查看启动时IDE设备检测状况  网络:  # ifconfig   # 查看所有网络接口的属性  # iptables -L   # 查看防火墙设置  # route -n   # 查看路由表  # netstat -lntp   # 查看所有监听端口  # netstat -antp   # 查看所有已经建立的连接  # netstat -s   # 查看网络统计信息  进程:  # ps -ef   # 查看所有进程  # top    # 实时显示进程状态(另一篇文章里面有详细的介绍)  用户:  # w    # 查看活动用户  # id <用户名>   # 查看指定用户信息  # last    # 查看用户登录日志  # cut -d: -f1 /etc/passwd # 查看系统所有用户  # cut -d: -f1 /etc/group # 查看系统所有组  # crontab -l   # 查看当前用户的计划任务  服务:  # chkconfig –list  # 列出所有系统服务  # chkconfig –list | grep on # 列出所有启动的系统服务  程序:  # rpm -qa   # 查看所有安装的软件包

    03

    DRBD 管理、故障处理部分

    1、DRBD开机自自动(chkconfig --add drbd),需要注意一下wait time out选项:       wfc-timeout 120;  如果为0的话,它会无限的等待下去;       在配置高可用如keepalived时候,要注意 先保证drbd数据的一致性;然后在启动keepalived       小插曲:       在linux 自起中,先运行 /etc/rc.d/rc#. d  里面设定的脚本,最后是/etc/rc.local ,如果同样是在某运行级别下的脚本,根据S后面的数字,数字越小优先级越高,所以drbd的数字要比keepalived的小一些;   2、磁盘IO故障       推荐配置为 detach 策略;这个时候主从角色状态没有改变,磁盘状态变为diskless(这个需要监控);       模拟实验:       drbd-primary:       drbdadm detach all;       此时磁盘还处于挂接状态;为了正常切换角色,执行以下命令:       drbdadm secondary all;       umount /dev/drbd0;       在drbd-secondary 上执行:       drbdadm primary all;       mount /dev/drbd0 /data   3、更换磁盘     如果secondary节点出现磁盘故障需要换硬盘:     注意:新添加的硬盘的磁盘名如果被占用,需要修改配置文件!     进行的操作:     drbdadm create-md  all     service drbd start     drbdadm attach all     drbdadm secondary all     以上情况 属于内部元数据, 下面可以看看使用外部元数据更换硬盘;     除以上操作外,还有进行 drbdadm invalidate  all     即进行以下操作:     drbdadm create-md all     drbdadm attach all     drbdadm invalidate  all     drbdadm secondary all   4、处理节点故障:     当primary node 出现故障后,Drbd并不升级存活的节点到主,需要集群管理程序重要做。     切换完毕后需要做 的事情:       1)将出现故障的硬件替换为与之类似性能和容量的磁盘。(性能最好一致;替换为磁盘容量比较小,会导致drbd拒绝连接被替换的节点。)       2)安装基本系统和应用程序。       3)安装drbd并从幸存的节点上拷贝/etc/drbd.conf和所有的/etc/drbd.d       4)drbdadm create-md resource (创建元数据设备)       5)service  drbd start       6)drbdadm attach resource (将drbd资源和后端设备连接 )       7)drbdadm syncer resource  (设置drbd资源的同步参数)       8)drbdadm connect resource  (连接对等节点)       Look:千万不要初始化设备,   5、脑裂问题处理 DRBD检测到primary 恢复连接并变成可用,和对等节点达成初步的握手。如果drbd检测到两个节点(也可能是两个节点断开时)都是主角色,它就连接关闭复制的连接。可以在系统日    志中发现:Split-Brain detected, dropping connection!       一个节点将保持始终以StandAlone状态连接资源,另外一个节点也可能处于StandAlone状态(如果两个节点被探测到同时处于裂脑状态),也可能是WFConnection状态(如果对等接在    还没有来得及探测到裂脑就down掉的话)。       必须手工干预选择丢失一个节点的修改被丢失(这个节点被称为裂脑受害者),除非配置drbd的裂脑自动修复。       (在出现脑裂的情况下,service drbd stop 是不会生效的,返回会hang住,一直处于等待状态)       在需要放弃修改的那一端做如下操作:       drbdadm secondary <resource>       drbdadm -- --discard-my-data connect <resource>       在其他节点上(裂脑幸存者),如果它的状态也为StandAlone状态,可输入以下命令:       drb

    01

    构建Linux根文件系统

    类似于Windows下的C、D、E等各个盘,Linux系统也可以将磁盘、Flash等存储设备划分为若干个分区,在不同分区存放不同类别的文件。与Windows的C盘类似,Linux一样要在一个分区上存放系统启动所必需的文件,比如内核映象文件(在嵌入式系统中,内核一般单独存放在一个分区中)、内核启动后运行的第一个程序(init)、给用户提供操作界面的shell程序、应用程序所依赖的库等。这些必需的、基本的文件,合称为根文件系统,它们存放在一个分区中。Linux系统启动后首先挂接这个分区──称为挂接(mount)根文件系统。其他分区上所有目录、文件的集合,也称为文件系统,比如我们常说:“挂接硬盘第二个分区”、“挂接硬盘第二个分区上的文件系统”。

    03
    领券