Loading [MathJax]/jax/output/CommonHTML/config.js
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >【玩转Lighthouse】 基础篇 - 如何在Lighthouse的Linux/CentOS上设置proxy及ssh加固

【玩转Lighthouse】 基础篇 - 如何在Lighthouse的Linux/CentOS上设置proxy及ssh加固

原创
作者头像
梧桐叶落
修改于 2022-04-18 02:19:34
修改于 2022-04-18 02:19:34
1.9K00
代码可运行
举报
运行总次数:0
代码可运行

前言

大家应该都非常喜欢腾讯云的Lighthouse产品。当我们购买多个服务器组建企业内部环境时,有时需要指定内部某台Lighthouse来访问特定流量,这时如何配置Lighthouse的全局代理就尤为重要了。本文是以我自身使用经验为例,为大家介绍如何在Lighthouse上配置起全局代理及安全ssh访问,从而搭建起必要的企业网络。

设置Proxy

准备步骤

购买腾讯Lighthouse机器,注意操作系统选择Linux版本的操作系统,如Centos,如下图。

思路

1. 核心是设置http_proxy, curl, git 等软件默认使用http_proxy这个环境变量来设置代理服务器,所以在linux下只要设置了这个环境变量就能被这些软件识别。

2. 对于yum等,这个配置可能不生效。

3. 下面是代理变量的配置:

环境变量

描述

值示例

http_proxy

为http变量设置代理;默认不填开头以http协议传输

10.0.0.51:8080;user:pass@10.0.0.10:8080;socks4://10.0.0.51:1080;socks5://192.168.1.1:1080

https_proxy

为https变量设置代理;

同上

ftp_proxy

为ftp变量设置代理;

同上

all_proxy

全部变量设置代理

同上

no_proxy

无需代理的主机或域名

10.*.*.*,192.168.*.*,*.local,localhost,127.0.0.1

配置步骤

针对上面变量的设置方法:

1、在/etc/profile文件

2、在~/.bashrc

3、在~/.zshrc

4、在/etc/profile.d/文件夹下新建一个文件xxx.sh

写入如下配置:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
 export proxy="http://192.168.66.242:10808"
 export http_proxy=$proxy
 export https_proxy=$proxy
 export ftp_proxy=$proxy
 export no_proxy="localhost, 127.0.0.1, ::1"

而对于要取消设置可以使用如下命令,其实也就是取消环境变量的设置

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
unset http_proxy
unset https_proxy
unset ftp_proxy
unset no_proxy

针对yum配置走代理:

经过测试其实只要设置上面的变量之后已经可以走代理了,但如果要单独设置,可以设置如下文件的变量

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
echo "proxy=http://192.168.66.242:10808" >> /etc/yum.conf

SSH加固

目标

降低服务器被攻击风险

步骤

1. Root登录Linux机器,添加用户

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
useradd testuser

2. 修改用户密码

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
passwd testuser

3. 关闭root远程密码登录,并修改默认登录端口

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
vim /etc/ssh/sshd_config
Port 29999
PermitRootLogin without-password

4. 确保你Linux防火墙关闭或者添加端口的例外。另外,在Lighthouse的腾讯控制页面的防火墙里,也需要添加端口的例外。

5. 重启ssh服务

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
systemctl restart sshd

总结

至此,你的服务器已经关闭了root密码登录,修改了默认端口,减少了被攻击的可能性。另外,你已学会如何配置代理,从而搭建起基础的企业网络环境。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
YoloV8改进策略:卷积篇|CGAFusion,增强模型对特征的提取能力|附代码|即插即用
量化是提升卷积神经网络(CNNs)速度并降低其内存使用量的常用方法。当存在已标记的训练数据时,网络权重和激活已成功量化到l位。然而,对于没有已标记训练数据的场景(例如,在量化预训练模型时),则不能这样说。目前的方法显示,在8位量化时,最佳情况下不会损失精度。
AI浩
2024/12/24
6040
YoloV8改进策略:卷积篇|CGAFusion,增强模型对特征的提取能力|附代码|即插即用
基础干货:高效卷积,降内存提速度保精度(附论文下载)
论文地址:https://arxiv.org/pdf/1901.01928v1.pdf
计算机视觉研究院
2021/12/08
4090
基础干货:高效卷积,降内存提速度保精度(附论文下载)
YoloV8改进策略:Block改进|MBConv在YoloV8中的应用
本文介绍了EfficientNetV2及其中的MBConv模块,并探讨了将MBConv模块应用于YoloV8中的可能性。通过替换YoloV8中的BottleNeck模块为MBConv模块,可以显著加快训练速度并提高模型性能。这一改进为YoloV8的目标检测任务提供了更高效、更准确的解决方案。
AI浩
2024/12/06
5441
YoloV8改进策略:Block改进|MBConv在YoloV8中的应用
YoloV8改进策略:卷积篇|大感受野的小波卷积|即插即用
论文介绍了一种新的WTConv模块,该模块通过利用小波变换有效地增加了卷积的感受野,并作为深度卷积的即插即用替代品在多个计算机视觉任务中表现出色。使用WTConv替换YoloV8的Conv模块有望带来类似的改进效果。
AI浩
2024/10/28
1.6K0
YoloV8改进策略:卷积篇|大感受野的小波卷积|即插即用
YoloV8改进策略:Block改进|EVC,提高小目标的检测能力|附代码+改进方法
本文介绍了《Centralized Feature Pyramid for Object Detection》论文中的内容,该论文提出了一种用于目标检测的中心化特征金字塔(CFP)网络。该网络基于全局显式中心化调控方案,旨在解决现有目标检测方法中过度关注层间特征交互而忽略层内特征调节的问题。论文通过提出空间显式视觉中心方案和全局集中调控方法,实现了对特征金字塔的全面和差异化特征表示,从而在目标检测任务中取得了性能提升。
AI浩
2024/12/05
1.5K0
YoloV8改进策略:Block改进|EVC,提高小目标的检测能力|附代码+改进方法
YOLO落地部署 | 一文全览YOLOv5最新的剪枝、量化的进展【必读】
本文首发于 【集智书童】,白名单账号转载请自觉植入本公众号名片并注明来源,非白名单账号请先申请权限,违者必究。
集智书童公众号
2023/09/04
7.6K0
YOLO落地部署 | 一文全览YOLOv5最新的剪枝、量化的进展【必读】
YoloV9改进策略:Block篇|即插即用|StarNet,重写星操作,使用Block改进YoloV9(全网首发)
本文主要集中在介绍和分析一种新兴的学习范式——星操作(Star Operation),这是一种通过元素级乘法融合不同子空间特征的方法,通过元素级乘法(类似于“星”形符号的乘法操作)将不同子空间的特征进行融合,从而在多个研究领域中展现出出色的性能和效率。
AI浩
2024/10/22
4400
YoloV9改进策略:Block篇|即插即用|StarNet,重写星操作,使用Block改进YoloV9(全网首发)
YoloV8改进策略:注意力改进|Neck层改进|SCSA,探索空间与通道注意力之间的协同效应|即插即用
https://arxiv.org/pdf/2407.05128 通道注意力和空间注意力分别为各种下游视觉任务在提取特征依赖性和空间结构关系方面带来了显著改进。通道注意力和空间注意力的结合使用被广泛认为有利于进一步提升性能;然而,通道注意力和空间注意力之间的协同作用,尤其是在空间引导和缓解语义差异方面,尚未得到深入研究。这促使我们提出了一种新的空间与通道协同注意模块(SCSA),该模块涉及我们在多个语义层面上对空间注意力和通道注意力之间协同关系的研究。我们的SCSA由两部分组成:可共享多语义空间注意力(SMSA)和渐进通道自注意力(PCSA)。SMSA整合了多语义信息,并利用渐进压缩策略将判别性空间先验注入到PCSA的通道自注意力中,有效引导通道再校准。此外,PCSA中基于通道单头自注意力机制的稳健特征交互进一步缓解了SMSA中不同子特征之间多语义信息的差异。我们在七个基准数据集上进行了大量实验,包括在ImageNet-1K上的分类、在MSCOCO上的目标检测、在ADE20K上的分割以及四个其他复杂场景检测数据集。实验结果表明,我们提出的SCSA不仅超越了当前的即插即用型最先进注意力方法,而且在各种任务场景中展现出增强的泛化能力。代码和模型可在以下网址获取:https://github.com/HZAIZJNU/SCSA。
AI浩
2025/01/02
8770
YoloV8改进策略:注意力改进|Neck层改进|SCSA,探索空间与通道注意力之间的协同效应|即插即用
推倒万亿参数大模型内存墙!万字长文:从第一性原理看神经网络量化
放眼一看,世界把所有的⽬光都聚焦在数字格式上。因为在过去的⼗年中,AI硬件效率的提⾼有很⼤⼀部分要归功于数字格式。
新智元
2024/02/26
6080
推倒万亿参数大模型内存墙!万字长文:从第一性原理看神经网络量化
重参架构的量化问题解决了 | 粗+细粒度权重划分量化让RepVGG-A1仅损失0.3%准确性
尽管卷积神经网络(CNNs)在各种应用中展示了主导性能,但仍需要在边缘设备和云服务器上高效运行。神经网络量化是压缩神经网络中最广泛使用的技术之一。它涉及将网络参数和激活的精度降低,通常从浮点数(例如,FP32)减少到具有较低位数的整数(例如,INT8)。由于整数计算,它大大降低了内存成本(例如,INT8节省了75%的模型大小和带宽)并加速了矩阵乘法(例如,卷积,全连接)。网络量化通常分为两类:后训练量化(PTQ)和量化感知训练(QAT)。PTQ使用已经训练好的网络并对其进行量化,因此它需要最小化的超参数调整和无需端到端训练。
集智书童公众号
2023/12/26
5420
重参架构的量化问题解决了 | 粗+细粒度权重划分量化让RepVGG-A1仅损失0.3%准确性
模型部署系列 | 卷积Backbone量化技巧集锦
本文首发于 【集智书童】,白名单账号转载请自觉植入本公众号名片并注明来源,非白名单账号请先申请权限,违者必究。
集智书童公众号
2023/09/04
8920
模型部署系列 | 卷积Backbone量化技巧集锦
YoloV8改进策略:BackBone改进|Next-ViT,下一代视觉Transformer,用于现实工业场景中的高效部署
由于复杂的注意力机制和模型设计,大多数现有的视觉Transformer(ViTs)在实际的工业部署场景中,如TensorRT和CoreML,无法像卷积神经网络(CNNs)那样高效运行。这提出了一个明显的挑战:能否设计出一个视觉神经网络,既能像CNNs一样快速推理,又能像ViTs一样强大?在这项工作中,我们提出了一种下一代视觉Transformer,用于在实际工业场景中高效部署,即Next-ViT,它从延迟/准确性权衡的角度主导了CNNs和ViTs。Next Convolution Block(NCB)和Next Transformer Block(NTB)分别开发,以部署友好的机制捕获局部和全局信息。然后,设计了Next Hybrid Strategy(NHS),以高效的混合范式堆叠NCB和NTB,从而在各种下游任务中提升性能。广泛的实验表明,Next-ViT在各种视觉任务的延迟/准确性权衡方面显著优于现有的CNNs、ViTs和CNN-Transformer混合架构。在TensorRT上,Next-ViT在COCO检测上超过了ResNet 5.5 mAP(从40.4到45.9),在ADE20K分割上超过了(从38.8%到46.5%),延迟相似。同时,它与CSWin的性能相当,推理速度提高了3.6倍。在CoreML上,Next-ViT在COCO检测上超过了EfficientFormer 4.6 mAP(从42.6到47.2),在ADE2OK分割上超过了3.5% mIoU(从45.1%到48.6%),延迟相似。我们的代码和模型已公开:https://github.com/bytedance/Next-ViT。
AI浩
2024/10/22
4250
YoloV8改进策略:BackBone改进|Next-ViT,下一代视觉Transformer,用于现实工业场景中的高效部署
YoloV8改进策略:Neck改进|Efficient-RepGFPN,实时目标检测的王者Neck
在实时目标检测领域,Yolo系列模型一直以其高效和准确而著称。近日,我们成功将Efficient-RepGFPN模块引入YoloV8中,实现了显著的涨点效果。这一改进不仅进一步提升了YoloV8的检测精度,还保留了其原有的高效性能,为实时目标检测领域带来了新的突破。
AI浩
2024/10/22
1.2K0
YoloV8改进策略:Neck改进|Efficient-RepGFPN,实时目标检测的王者Neck
YoloV8改进策略:BackBone改进|Swin Transformer赋能YoloV8,性能跃升的新篇章
在深度学习领域,目标检测作为计算机视觉的核心任务之一,其性能的提升始终吸引着研究者们的目光。近期,我们创新性地将Swin Transformer这一前沿的Transformer架构引入到YoloV8目标检测模型中,通过替换其原有的主干网络,实现了检测性能的显著提升,为YoloV8系列模型注入了新的活力。
AI浩
2024/10/22
9230
YoloV8改进策略:BackBone改进|Swin Transformer赋能YoloV8,性能跃升的新篇章
YoloV8改进策略:注意力改进|VOLO,视觉识别中的视觉展望器|即插即用|附代码+改进方法
本文参考的是《VOLO:视觉识别中的视觉展望器》一文,该论文主要讨论了视觉识别领域中卷积神经网络(CNNs)与视觉转换器(ViTs)的性能对比,并提出了一个新的模型架构——Vision Outlooker(VOLO)。VOLO通过引入一种新颖的前景注意力机制(Outlook Attention),在ImageNet分类任务上实现了卓越的性能,且能够很好地迁移到下游任务,如语义分割。
AI浩
2024/11/13
1.5K0
YoloV8改进策略:注意力改进|VOLO,视觉识别中的视觉展望器|即插即用|附代码+改进方法
YoloV8改进策略:Block改进|细节增强注意力模块(DEAB)|即插即用
DEA-Net通过提出细节增强注意力模块(DEAB),在单幅图像去雾任务中取得了显著成果。将该模块应用于YoloV8中,通过替换Bottleneck模块,进一步提升了目标检测任务的准确性和鲁棒性,同时保持了较高的计算效率。这一改进为深度学习在图像处理和计算机视觉领域的应用提供了新的思路和方法。
AI浩
2024/12/19
6370
YoloV8改进策略:Block改进|细节增强注意力模块(DEAB)|即插即用
APQ:联合搜索网络架构、剪枝和量化策略
本文提出APQ,以便在资源受限的硬件上进行有效的深度学习推理。与以前分别搜索神经体系结构,修剪策略和量化策略的方法不同,本文以联合方式优化它们。为了应对它带来的更大的设计空间问题,一种有前途的方法是训练量化感知的准确性预测器,以快速获得量化模型的准确性,并将其提供给搜索引擎以选择最佳拟合。但是,训练此量化感知精度预测器需要收集大量量化的<model,precision>对,这涉及量化感知的微调,因此非常耗时。为了解决这一挑战,本文建议将知识从全精度(即fp32)精度预测器转移到量化感知(即int8)精度预测器,这将大大提高采样效率。此外,为fp32精度预测器收集数据集只需要通过从预训练的 once-for-all 网络中采样就可以评估神经网络,而无需任何训练成本。ImageNet 上的大量实验证明了联合优化方法的好处。与MobileNetV2 + HAQ 相比,APQ 以相同的精度将延迟降低2倍,能耗降低1.3倍。与单独的优化方法(ProxylessNAS + AMC + HAQ )相比,APQ可提高ImageNet精度2.3%,同时减少GPU数量级和CO2排放量,从而推动了绿色AI在环保方面的前沿。
AI异构
2021/01/07
1.5K0
[yolov11改进系列]基于yolov11改进检测头引入分布移位卷积DSConvHead的python源码+训练源码
温馨提示:前面博文曾经引入DSConv当时是改变是卷积方式,不是修改检测头。具体可以参考博文:[yolov11改进系列]基于yolov11引入分布移位卷积DSConv的python源码+训练源码-CSDN博客
云未归来
2025/07/22
350
[yolov11改进系列]基于yolov11改进检测头引入分布移位卷积DSConvHead的python源码+训练源码
[yolov11改进系列]基于yolov11引入分布移位卷积DSConv的python源码+训练源码
我们引入了一种卷积层的变体,称为DSConv(分布偏移卷积),其可以容易地替换进标准神经网络体系结构并且实现较低的存储器使用和较高的计算速度。 DSConv将传统的卷积内核分解为两个组件:可变量化内核(VQK)和分布偏移。 通过在VQK中仅存储整数值来实现较低的存储器使用和较高的速度,同时通过应用基于内核和基于通道的分布偏移来保持与原始卷积相同的输出。 我们在ResNet50和34以及AlexNet和MobileNet上对ImageNet数据集测试了DSConv。 我们通过将浮点运算替换为整数运算,在卷积内核中实现了高达14x的内存使用量减少,并将运算速度提高了10倍。 此外,与其他量化方法不同,我们的工作允许对新任务和数据集进行一定程度的再训练。
云未归来
2025/07/18
810
[yolov11改进系列]基于yolov11引入分布移位卷积DSConv的python源码+训练源码
YoloV8改进:Block改进|使用ContextAggregation模块改善C2f模块|即插即用
在计算机视觉领域,目标检测与实例分割任务一直是研究的热点。YoloV8作为目标检测领域的佼佼者,凭借其出色的性能和效率赢得了广泛的认可。然而,随着技术的不断进步,如何进一步提升YoloV8的性能成为了我们追求的目标。近期,我们引入了ContextAggregation模块对YoloV8进行了改进,取得了显著的效果提升。
AI浩
2024/10/22
4070
YoloV8改进:Block改进|使用ContextAggregation模块改善C2f模块|即插即用
推荐阅读
YoloV8改进策略:卷积篇|CGAFusion,增强模型对特征的提取能力|附代码|即插即用
6040
基础干货:高效卷积,降内存提速度保精度(附论文下载)
4090
YoloV8改进策略:Block改进|MBConv在YoloV8中的应用
5441
YoloV8改进策略:卷积篇|大感受野的小波卷积|即插即用
1.6K0
YoloV8改进策略:Block改进|EVC,提高小目标的检测能力|附代码+改进方法
1.5K0
YOLO落地部署 | 一文全览YOLOv5最新的剪枝、量化的进展【必读】
7.6K0
YoloV9改进策略:Block篇|即插即用|StarNet,重写星操作,使用Block改进YoloV9(全网首发)
4400
YoloV8改进策略:注意力改进|Neck层改进|SCSA,探索空间与通道注意力之间的协同效应|即插即用
8770
推倒万亿参数大模型内存墙!万字长文:从第一性原理看神经网络量化
6080
重参架构的量化问题解决了 | 粗+细粒度权重划分量化让RepVGG-A1仅损失0.3%准确性
5420
模型部署系列 | 卷积Backbone量化技巧集锦
8920
YoloV8改进策略:BackBone改进|Next-ViT,下一代视觉Transformer,用于现实工业场景中的高效部署
4250
YoloV8改进策略:Neck改进|Efficient-RepGFPN,实时目标检测的王者Neck
1.2K0
YoloV8改进策略:BackBone改进|Swin Transformer赋能YoloV8,性能跃升的新篇章
9230
YoloV8改进策略:注意力改进|VOLO,视觉识别中的视觉展望器|即插即用|附代码+改进方法
1.5K0
YoloV8改进策略:Block改进|细节增强注意力模块(DEAB)|即插即用
6370
APQ:联合搜索网络架构、剪枝和量化策略
1.5K0
[yolov11改进系列]基于yolov11改进检测头引入分布移位卷积DSConvHead的python源码+训练源码
350
[yolov11改进系列]基于yolov11引入分布移位卷积DSConv的python源码+训练源码
810
YoloV8改进:Block改进|使用ContextAggregation模块改善C2f模块|即插即用
4070
相关推荐
YoloV8改进策略:卷积篇|CGAFusion,增强模型对特征的提取能力|附代码|即插即用
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验