前往小程序,Get更优阅读体验!
立即前往
发布
社区首页 >专栏 >扛不住了,给TIDB加了个新节点

扛不住了,给TIDB加了个新节点

作者头像
大风写全栈
发布2025-01-10 10:23:04
发布2025-01-10 10:23:04
5500
代码可运行
举报
文章被收录于专栏:锤子代码锤子代码
运行总次数:0
代码可运行

小马拉大车

前段时间发现,TIDB负载过高。

主要原因就是TIKV的负载太高,计划增加一个TIKV节点。

步骤比较简单,操作基本一次完成。

做个记录,希望后面用不到(能用到)。

操作步骤

计划:

在192.168.1.104增加一台TIKV节点。

假设1.105为中控。

104服务器的路径规划如下:

  1. 安装路径: /opt/tikv-20160
  2. 数据路径: /data/tikv-20160
  3. 日志路径: /opt/tikv-20160/log

在104执行:

代码语言:javascript
代码运行次数:0
复制
# 创建目录
mkdir -p /opt/tikv-20160
mkdir -p /data/tikv-20160
# 设置权限
chmod +x /opt/tikv-20160/bin/tikv-server
chown -R tidb:tidb /data/tikv-20160
chown -R tidb:tidb /opt/tikv-20160

在105服务器新建文件: scale-out.yaml,内容如下(根据实际情况修改)。

代码语言:javascript
代码运行次数:0
复制
tikv_servers:
  - host: 192.168.1.104
    ssh_port: 22
    port: 20160
    status_port: 20180
    deploy_dir: /opt/tikv-20160
    log_dir: /opt/tikv-20160/log
    data_dir: /data/tikv-20160

然后在105执行如下命令:

(开始执行后,TIDB会自动联网下载依赖,下载完成会自动安装)

代码语言:javascript
代码运行次数:0
复制
tiup cluster scale-out tidb scale-out.yaml

还是挺简单的~

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2025-01-09,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 锤子代码 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档