Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >如何在linux服务上创建samba文件共享服务

如何在linux服务上创建samba文件共享服务

作者头像
java攻城狮
发布于 2020-10-10 07:58:22
发布于 2020-10-10 07:58:22
3.4K00
代码可运行
举报
文章被收录于专栏:个人积累个人积累
运行总次数:0
代码可运行

在Linux中samba共享文件的创建

1 准备工作

  • 虚拟机服务器 centos6.8
  • 物理机 windows系统 (访问端)

2 安装步骤

  1. 检查Linux系统上是否有samba相关的软件包,在终端中输入以下指令 rpm -qa | grep 'samba'
  2. 如果查询到如下列表,说明先关服务已经安装
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
samba-3.6.9-151.el6.x86_64                            
//服务器端软件,主要提供samba服务器的守护程序,共享文档,日志的轮替

samba-common-3.6.9-151.el6.x86_64               
//主要提供samba服务器的设置文件与设置文件语法检验程序testparm

samba-client-3.6.9-151.el6.x86_64                    
//客户端软件,主要提供linux主机作为客户端时,所需要的工具指令集

  1. 如果没有安装的话,可以执行以下代码进行安装 yum -y install samba samba-common samba-client
  2. 安装成功之后,系统会生成服务的配置文件和相关的指令
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
/etc/samba/smb.conf   //是samba服务的主配置文件

/etc/init.d/smb       //是samba的启动/关闭文件

  1. 查看samba的服务状态,如果现实找不到smb服务可能是缺少samba主程序包
  • 尝试安装samba包 yum install -y samba,安装之后如果还是现实找不到samba服务,那么可能是指令有问题,进入 /etc/init.d/目录下找与samba相关的文件

  1. 其他都没有问题的时候,可以开始添加samba用户,然后进去config中进行配置文件修改 useradd longrise smbpassword -a longrise
  2. 剩下的就是主要配置文件了 如果添加的用户名名为test,在配置中的Global部分添加 security= test 配置文件如下

  1. 所有的完成之后,关闭防火墙,重启smb服务 service iptables stop 关闭防火墙 service smb restart 重启项目
  2. 在windows系统上开始连接测试,在运行命令中舒服服务系的ip \\127.12.12.12 进行远程访问服务器文件,可进行基本的读写

3 相关代码指令

service smb status/stop/start/restart smb服务的状态开启停止重启

service iptables stop/start linux防火墙关闭指令

useradd name 往smb服务添加用户

smbpassword -a name 给用户设置密码

grep -v "#" /etc/samba/smb.conf |grep -v "^$" 只显示没有注释部分的配置

rpm -qa |grep 'samba' 查找和samba相关的服务

cat /etc/passwd 查看所有的用户和密码(不过密码一般都是不显示的)

cat /etc/passwd |grep username 查看指定用户的信息

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2019-04-17,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
《书生·浦语大模型实战营》第5课 学习笔记:LMDeploy 量化部署 LLM 实践
这种说法是片面的,虽然计算机计算定点数和整数比计算浮点数快,但是模型的参数仅仅是以定点或者整数的方式存储,在实际计算时,还需要把定点数和整数反量化为浮点数进行数值计算,再把计算的结果以定点数或整数进行存储,这一步的目的是最大化减少计算精度的损失。
流川疯
2024/07/01
5370
《书生·浦语大模型实战营》第5课 学习笔记:LMDeploy 量化部署 LLM 实践
基于LMDeploy部署大模型和量化
大模型具有庞大的参数量,内存开销大,7B模型仅权重就需要14+G内存,采用自回归生成token,需要缓存Attention 的k/v带来巨大的内存开销;动态shape,请求参数不固定,Token逐个生成,且数量不定,因此在部署上都存在一些挑战。
阿提说说
2024/03/01
1.5K0
基于LMDeploy部署大模型和量化
《书生大模型实战营第3期》基础岛 第2关 :8G 显存玩转书生大模型 Demo
接下来,我们便可以通过 python /root/demo/cli_demo.py 来启动我们的 Demo。
流川疯
2024/08/11
1840
《书生大模型实战营第3期》基础岛 第2关 :8G 显存玩转书生大模型 Demo
丝滑小连招,部署 Vision Language 模型
以上模型,除了 InternLM-XComposer2 外均采用 Llama 模型结构作为语言模块,而视觉模块则各有不同。LMDeploy 采用 AWQ 算法量化语言模块,并用 TurboMind 引擎进行加速,而视觉部分仍采用原有的 Transformers 对图片进行 encode。InternLM-XComposer2 模型的语言模块,使用了 Plora 对原本的 Llama 模型进行了微调。LMDeploy 在进行量化时,略过了 Plora 部分的权重,推理时 Plora 保持 w16a16 计算不变。我们挑选了 3 款模型,在 MMBench 数据集上,评测并对比了其量化前后的模型精度。如下表所示,LLaVA、InternVL-Chat 量化后,精度几乎无损,InternLM-XComposer2 略有损失。
OpenMMLab 官方账号
2024/06/04
3100
丝滑小连招,部署 Vision Language 模型
lmdeploy 部署 InternLM2.5 7B 多轮对话
LMDeploy 是一个高效且友好的 LLMs 模型部署工具箱,功能涵盖了量化、推理和服务
用户10497140
2024/10/14
1880
《书生大模型实战营第3期》基础岛 第1关 :书生大模型全链路开源体系
[2024.07.19] 我们发布了 1.8B、7B 和 20B 大小的 InternLM2-Reward 系列奖励模型。可以在下方的 模型库 进行下载,或者在 model cards 中了解更多细节。
流川疯
2024/08/05
1550
《书生大模型实战营第3期》基础岛 第1关 :书生大模型全链路开源体系
《书生大模型实战营第3期》进阶岛 第4关: InternVL 多模态模型部署微调实践
InternVL 是一种用于多模态任务的深度学习模型,旨在处理和理解多种类型的数据输入,如图像和文本。它结合了视觉和语言模型,能够执行复杂的跨模态任务,比如图文匹配、图像描述生成等。通过整合视觉特征和语言信息,InternVL 可以在多模态领域取得更好的表现
流川疯
2024/08/24
6970
《书生大模型实战营第3期》进阶岛 第4关: InternVL 多模态模型部署微调实践
浦语·灵笔2(XComposer2)模型部署及使用
官网:https://internlm.intern-ai.org.cn/ 论文地址:https://arxiv.org/html/2407.03320 项目地址:https://github.com/InternLM/InternLM-XComposer 体验地址:https://huggingface.co/spaces/Willow123/InternLM-XComposer
用户10497140
2024/10/26
2970
《书生大模型实战营第3期》进阶岛 第2关: Lagent 自定义你的 Agent 智能体
Lagent 是一个轻量级开源智能体框架,旨在让用户可以高效地构建基于大语言模型的智能体。同时它也提供了一些典型工具以增强大语言模型的能力。
流川疯
2024/08/24
1780
《书生大模型实战营第3期》进阶岛 第2关: Lagent 自定义你的 Agent 智能体
【万字长文】【InternVL】InternVL2-26B模型部署全攻略
LMDeploy 是一个用于压缩、部署、服务 LLM 的工具包,由 MMRazor 和 MMDeploy 团队开发。它具有以下核心功能:
知冷煖
2025/01/16
5120
6G显存玩转大模型,更快更省的4bit量化推理硬核开源!
号外号外!LMDeploy 推出了 4bit 权重量化和推理功能啦。它不仅把模型的显存减少到 FP16 的 40%,更重要的是,经过 kernel 层面的极致优化,推理性能并未损失,反而是 FP16 推理速度的三倍以上。
OpenMMLab 官方账号
2023/08/21
1.5K0
6G显存玩转大模型,更快更省的4bit量化推理硬核开源!
企业级模型推理部署工具vllm使用指南 - 部署最新deepseek-v3-0324模型
vLLM(Virtual Large Language Model)是由加州大学伯克利分校团队开发的高性能大模型推理框架,其核心特点围绕显存优化、高吞吐量、灵活性和易用性展开。
wayn
2025/04/09
4100
企业级模型推理部署工具vllm使用指南 - 部署最新deepseek-v3-0324模型
如何使用vLLM部署DeepSeek V2 Lite模型
最近在进行一些私有化部署大模型,很多企业会考虑数据隐私问题。因此常常会在企业内部部署自主部署大语言模型。常见的能够提供大语言模型的部署工具有,Ollama、vLLM、Xinference、SGLang和LM Studio。Ollama和LM Studio都是只支持GGUF类型量化的大语言模型,vLLM、Xinference和SGlang是支持pytorch或者说transformer类型的大模型,这些类型的模型通常在HuggingFace上都能找到。一般我们使用Ollama和LM Studio在桌面显卡领域部署,也就是个人电脑上部署使用。而在服务器领域,我们通常使用后三者。本篇我们主要关注于vLLM如何部署和量化DeepSeek大语言模型,机器环境是4卡Nvidia 2080Ti,大约48G显存。
AgenticAI
2025/03/18
1800
如何使用vLLM部署DeepSeek V2 Lite模型
《书生大模型实战营第3期》基础岛 第3关 :浦语提示词工程实践
之后的操作都要在这个环境下进行。激活环境后,安装必要的Python包,依次运行下面的命令:
流川疯
2024/08/11
1690
《书生大模型实战营第3期》基础岛 第3关 :浦语提示词工程实践
《书生大模型实战营第3期》基础岛 第5关 :XTuner 微调个人小助手认知
本节主要重点是带领大家实现个人小助手微调,如果想了解微调相关的基本概念,可以访问XTuner微调前置基础。
流川疯
2024/08/15
2860
《书生大模型实战营第3期》基础岛 第5关 :XTuner 微调个人小助手认知
LLM 大模型学习必知必会系列(六):量化技术解析、QLoRA技术、量化库介绍使用(AutoGPTQ、AutoAWQ)
模型的推理过程是一个复杂函数的计算过程,这个计算一般以矩阵乘法为主,也就是涉及到了并行计算。一般来说,单核CPU可以进行的计算种类更多,速度更快,但一般都是单条计算;而显卡能进行的都是基础的并行计算,做矩阵乘法再好不过。如果把所有的矩阵都加载到显卡上,就会导致显卡显存的占用大量增加,尤其是LLM模型大小从7b、14b、34b到几百b不等,占用显存的大小就是惊人的数字,如何在减少运算量和显存占用的条件下,做到推理效果不下降太多呢?在这里需要引入浮点数和定点数的概念。
汀丶人工智能
2024/05/26
2.1K0
LLM 大模型学习必知必会系列(六):量化技术解析、QLoRA技术、量化库介绍使用(AutoGPTQ、AutoAWQ)
模型量化与量化在LLM中的应用 | 得物技术
随着模型在各种场景中的落地实践,模型的推理加速早已成为AI工程化的重要内容。而近年基于Transformer架构的大模型继而成为主流,在各项任务中取得SoTA成绩,它们在训练和推理中的昂贵成本使得其在合理的成本下的部署实践显得愈加重要。
得物技术
2024/04/30
1.1K0
模型量化与量化在LLM中的应用 | 得物技术
《书生大模型实战营第3期》基础岛 第4关 :InternLM + LlamaIndex RAG 实践
本文将分为以下几个部分来介绍,如何使用 LlamaIndex 来部署 InternLM2 1.8B(以 InternStudio 的环境为例)
流川疯
2024/08/15
2030
《书生大模型实战营第3期》基础岛 第4关 :InternLM + LlamaIndex RAG 实践
《书生·浦语大模型实战营》第6课 学习笔记:Lagent & AgentLego 智能体应用搭建
幻觉 随着大语言模型的快速发展,逐渐发现即使是 GPT-4 这样的大语言模型,在某些场景下也不能满足实际需求,有着诸多的局限性,比如幻觉。
流川疯
2024/07/01
1630
《书生·浦语大模型实战营》第6课 学习笔记:Lagent & AgentLego 智能体应用搭建
Xinference实战指南:全面解析LLM大模型部署流程,携手Dify打造高效AI应用实践案例,加速AI项目落地进程
Xorbits Inference (Xinference) 是一个开源平台,用于简化各种 AI 模型的运行和集成。借助 Xinference,您可以使用任何开源 LLM、嵌入模型和多模态模型在云端或本地环境中运行推理,并创建强大的 AI 应用。通过 Xorbits Inference,可以轻松地一键部署你自己的模型或内置的前沿开源模型
汀丶人工智能
2024/08/17
5.1K0
Xinference实战指南:全面解析LLM大模型部署流程,携手Dify打造高效AI应用实践案例,加速AI项目落地进程
推荐阅读
《书生·浦语大模型实战营》第5课 学习笔记:LMDeploy 量化部署 LLM 实践
5370
基于LMDeploy部署大模型和量化
1.5K0
《书生大模型实战营第3期》基础岛 第2关 :8G 显存玩转书生大模型 Demo
1840
丝滑小连招,部署 Vision Language 模型
3100
lmdeploy 部署 InternLM2.5 7B 多轮对话
1880
《书生大模型实战营第3期》基础岛 第1关 :书生大模型全链路开源体系
1550
《书生大模型实战营第3期》进阶岛 第4关: InternVL 多模态模型部署微调实践
6970
浦语·灵笔2(XComposer2)模型部署及使用
2970
《书生大模型实战营第3期》进阶岛 第2关: Lagent 自定义你的 Agent 智能体
1780
【万字长文】【InternVL】InternVL2-26B模型部署全攻略
5120
6G显存玩转大模型,更快更省的4bit量化推理硬核开源!
1.5K0
企业级模型推理部署工具vllm使用指南 - 部署最新deepseek-v3-0324模型
4100
如何使用vLLM部署DeepSeek V2 Lite模型
1800
《书生大模型实战营第3期》基础岛 第3关 :浦语提示词工程实践
1690
《书生大模型实战营第3期》基础岛 第5关 :XTuner 微调个人小助手认知
2860
LLM 大模型学习必知必会系列(六):量化技术解析、QLoRA技术、量化库介绍使用(AutoGPTQ、AutoAWQ)
2.1K0
模型量化与量化在LLM中的应用 | 得物技术
1.1K0
《书生大模型实战营第3期》基础岛 第4关 :InternLM + LlamaIndex RAG 实践
2030
《书生·浦语大模型实战营》第6课 学习笔记:Lagent & AgentLego 智能体应用搭建
1630
Xinference实战指南:全面解析LLM大模型部署流程,携手Dify打造高效AI应用实践案例,加速AI项目落地进程
5.1K0
相关推荐
《书生·浦语大模型实战营》第5课 学习笔记:LMDeploy 量化部署 LLM 实践
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验