前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >远程调试

远程调试

作者头像
sofu456
发布于 2020-11-24 03:50:38
发布于 2020-11-24 03:50:38
1.3K0
举报
文章被收录于专栏:sofu456sofu456

远程调试-附加

vs2019,msvsmon.exe启动对应程序的版本,x86对应x86

vs中选择附加调试,vs低版本的远程调试需要本机和远端的用户名和密码完全相同,vs2019试了下,没有这个问题了

远程调试-启动

远端配置共享目录,然后选择程序路径 \remote-pc\share-directory\dest.exe

运行即可远程启动调试

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2020/11/19 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
《书生大模型实战营第3期》进阶岛 第4关: InternVL 多模态模型部署微调实践
InternVL 是一种用于多模态任务的深度学习模型,旨在处理和理解多种类型的数据输入,如图像和文本。它结合了视觉和语言模型,能够执行复杂的跨模态任务,比如图文匹配、图像描述生成等。通过整合视觉特征和语言信息,InternVL 可以在多模态领域取得更好的表现
流川疯
2024/08/24
8260
《书生大模型实战营第3期》进阶岛 第4关: InternVL 多模态模型部署微调实践
LLM 大模型学习必知必会系列(六):量化技术解析、QLoRA技术、量化库介绍使用(AutoGPTQ、AutoAWQ)
模型的推理过程是一个复杂函数的计算过程,这个计算一般以矩阵乘法为主,也就是涉及到了并行计算。一般来说,单核CPU可以进行的计算种类更多,速度更快,但一般都是单条计算;而显卡能进行的都是基础的并行计算,做矩阵乘法再好不过。如果把所有的矩阵都加载到显卡上,就会导致显卡显存的占用大量增加,尤其是LLM模型大小从7b、14b、34b到几百b不等,占用显存的大小就是惊人的数字,如何在减少运算量和显存占用的条件下,做到推理效果不下降太多呢?在这里需要引入浮点数和定点数的概念。
汀丶人工智能
2024/05/26
2.3K0
LLM 大模型学习必知必会系列(六):量化技术解析、QLoRA技术、量化库介绍使用(AutoGPTQ、AutoAWQ)
浦语·灵笔2(XComposer2)模型部署及使用
官网:https://internlm.intern-ai.org.cn/ 论文地址:https://arxiv.org/html/2407.03320 项目地址:https://github.com/InternLM/InternLM-XComposer 体验地址:https://huggingface.co/spaces/Willow123/InternLM-XComposer
用户10497140
2024/10/26
3450
《书生·浦语大模型实战营》第5课 学习笔记:LMDeploy 量化部署 LLM 实践
这种说法是片面的,虽然计算机计算定点数和整数比计算浮点数快,但是模型的参数仅仅是以定点或者整数的方式存储,在实际计算时,还需要把定点数和整数反量化为浮点数进行数值计算,再把计算的结果以定点数或整数进行存储,这一步的目的是最大化减少计算精度的损失。
流川疯
2024/07/01
5950
《书生·浦语大模型实战营》第5课 学习笔记:LMDeploy 量化部署 LLM 实践
6G显存玩转大模型,更快更省的4bit量化推理硬核开源!
号外号外!LMDeploy 推出了 4bit 权重量化和推理功能啦。它不仅把模型的显存减少到 FP16 的 40%,更重要的是,经过 kernel 层面的极致优化,推理性能并未损失,反而是 FP16 推理速度的三倍以上。
OpenMMLab 官方账号
2023/08/21
1.5K0
6G显存玩转大模型,更快更省的4bit量化推理硬核开源!
丝滑小连招,部署 Vision Language 模型
以上模型,除了 InternLM-XComposer2 外均采用 Llama 模型结构作为语言模块,而视觉模块则各有不同。LMDeploy 采用 AWQ 算法量化语言模块,并用 TurboMind 引擎进行加速,而视觉部分仍采用原有的 Transformers 对图片进行 encode。InternLM-XComposer2 模型的语言模块,使用了 Plora 对原本的 Llama 模型进行了微调。LMDeploy 在进行量化时,略过了 Plora 部分的权重,推理时 Plora 保持 w16a16 计算不变。我们挑选了 3 款模型,在 MMBench 数据集上,评测并对比了其量化前后的模型精度。如下表所示,LLaVA、InternVL-Chat 量化后,精度几乎无损,InternLM-XComposer2 略有损失。
OpenMMLab 官方账号
2024/06/04
3280
丝滑小连招,部署 Vision Language 模型
基于LMDeploy部署大模型和量化
大模型具有庞大的参数量,内存开销大,7B模型仅权重就需要14+G内存,采用自回归生成token,需要缓存Attention 的k/v带来巨大的内存开销;动态shape,请求参数不固定,Token逐个生成,且数量不定,因此在部署上都存在一些挑战。
阿提说说
2024/03/01
1.6K0
基于LMDeploy部署大模型和量化
《书生大模型实战营第3期》基础岛 第2关 :8G 显存玩转书生大模型 Demo
接下来,我们便可以通过 python /root/demo/cli_demo.py 来启动我们的 Demo。
流川疯
2024/08/11
2040
《书生大模型实战营第3期》基础岛 第2关 :8G 显存玩转书生大模型 Demo
【大模型部署实战】VLLM+OpenWebUI实现DeepSeek模型部署,文末有福利
vLLM(Very Large Language Model Serving)是由加州大学伯克利分校团队开发的高性能、低延迟大语言模型(LLM)推理和服务框架。其核心创新在于PagedAttention技术,通过将注意力键值(KV)缓存分页管理,显著提升显存利用率并降低碎片化问题,使吞吐量比传统框架(如Hugging Face Transformers)提升24倍。该框架支持连续批处理、动态显存分配和多GPU并行推理,能够高效处理8k+长上下文请求,并兼容OpenAI API接口,开发者可快速部署Hugging Face模型。通过集成FP8、AWQ等量化技术,vLLM在保证推理精度的同时大幅降低资源消耗,目前已成为企业级AI部署(如DeepSeek-R1 671B模型分布式集群)的首选方案。
AI浩
2025/03/17
6560
【大模型部署实战】VLLM+OpenWebUI实现DeepSeek模型部署,文末有福利
lmdeploy 部署 InternLM2.5 7B 多轮对话
LMDeploy 是一个高效且友好的 LLMs 模型部署工具箱,功能涵盖了量化、推理和服务
用户10497140
2024/10/14
2140
《书生大模型实战营第3期》进阶岛 第2关: Lagent 自定义你的 Agent 智能体
Lagent 是一个轻量级开源智能体框架,旨在让用户可以高效地构建基于大语言模型的智能体。同时它也提供了一些典型工具以增强大语言模型的能力。
流川疯
2024/08/24
1860
《书生大模型实战营第3期》进阶岛 第2关: Lagent 自定义你的 Agent 智能体
《书生大模型实战营第3期》基础岛 第6关 :OpenCompass 评测 InternLM-1.8B 实践
在 OpenCompass 中评估一个模型通常包括以下几个阶段:配置 -> 推理 -> 评估 -> 可视化。
流川疯
2024/08/15
1430
《书生大模型实战营第3期》基础岛 第6关 :OpenCompass 评测 InternLM-1.8B 实践
企业级模型推理部署工具vllm使用指南 - 部署最新deepseek-v3-0324模型
vLLM(Virtual Large Language Model)是由加州大学伯克利分校团队开发的高性能大模型推理框架,其核心特点围绕显存优化、高吞吐量、灵活性和易用性展开。
wayn
2025/04/09
8820
企业级模型推理部署工具vllm使用指南 - 部署最新deepseek-v3-0324模型
Xinference实战指南:全面解析LLM大模型部署流程,携手Dify打造高效AI应用实践案例,加速AI项目落地进程
Xorbits Inference (Xinference) 是一个开源平台,用于简化各种 AI 模型的运行和集成。借助 Xinference,您可以使用任何开源 LLM、嵌入模型和多模态模型在云端或本地环境中运行推理,并创建强大的 AI 应用。通过 Xorbits Inference,可以轻松地一键部署你自己的模型或内置的前沿开源模型
汀丶人工智能
2024/08/17
6.2K0
Xinference实战指南:全面解析LLM大模型部署流程,携手Dify打造高效AI应用实践案例,加速AI项目落地进程
大模型压缩量化方案怎么选?无问芯穹Qllm-Eval量化方案全面评估:多模型、多参数、多维度
最近,来自清华大学电子工程系、无问芯穹和上海交通大学的研究团队展开了一次量化方案的“大摸底”,在《Evaluating Quantized Large Language Models 》(Qllm-Eval)这项工作中评估了不同模型、量化不同张量类型、使用不同量化方法、在不同任务上的性能,本篇工作已被ICML'24接收。Qllm-Eval列举出很多大模型落地环节应当关注的模型能力,对产业中的模型量化工作实践,比如如何选取量化方法、针对哪些层或组件进行优化等问题具有指导意义。
机器之心
2024/06/27
4490
大模型压缩量化方案怎么选?无问芯穹Qllm-Eval量化方案全面评估:多模型、多参数、多维度
【万字长文】【InternVL】InternVL2-26B模型部署全攻略
LMDeploy 是一个用于压缩、部署、服务 LLM 的工具包,由 MMRazor 和 MMDeploy 团队开发。它具有以下核心功能:
Alice师傅的好宝宝
2025/01/16
7190
大语言模型量化方法对比:GPTQ、GGUF、AWQ
在过去的一年里,大型语言模型(llm)有了飞速的发展,在本文中,我们将探讨几种(量化)的方式,除此以外,还会介绍分片及不同的保存和压缩策略。
deephub
2023/11/20
10.6K0
大语言模型量化方法对比:GPTQ、GGUF、AWQ
《书生·浦语大模型实战营》第6课 学习笔记:Lagent & AgentLego 智能体应用搭建
幻觉 随着大语言模型的快速发展,逐渐发现即使是 GPT-4 这样的大语言模型,在某些场景下也不能满足实际需求,有着诸多的局限性,比如幻觉。
流川疯
2024/07/01
1850
《书生·浦语大模型实战营》第6课 学习笔记:Lagent & AgentLego 智能体应用搭建
《书生大模型实战营第3期》基础岛 第1关 :书生大模型全链路开源体系
[2024.07.19] 我们发布了 1.8B、7B 和 20B 大小的 InternLM2-Reward 系列奖励模型。可以在下方的 模型库 进行下载,或者在 model cards 中了解更多细节。
流川疯
2024/08/05
1740
《书生大模型实战营第3期》基础岛 第1关 :书生大模型全链路开源体系
《书生大模型实战营第3期》进阶岛 第6关: MindSearch CPU-only 版部署
MindSearch是一个开源的人工智能搜索引擎框架,其性能与Perplexy.AI Pro相当。部署你自己的困惑.ai风格的搜索引擎!
流川疯
2024/08/24
3610
《书生大模型实战营第3期》进阶岛 第6关: MindSearch CPU-only 版部署
推荐阅读
《书生大模型实战营第3期》进阶岛 第4关: InternVL 多模态模型部署微调实践
8260
LLM 大模型学习必知必会系列(六):量化技术解析、QLoRA技术、量化库介绍使用(AutoGPTQ、AutoAWQ)
2.3K0
浦语·灵笔2(XComposer2)模型部署及使用
3450
《书生·浦语大模型实战营》第5课 学习笔记:LMDeploy 量化部署 LLM 实践
5950
6G显存玩转大模型,更快更省的4bit量化推理硬核开源!
1.5K0
丝滑小连招,部署 Vision Language 模型
3280
基于LMDeploy部署大模型和量化
1.6K0
《书生大模型实战营第3期》基础岛 第2关 :8G 显存玩转书生大模型 Demo
2040
【大模型部署实战】VLLM+OpenWebUI实现DeepSeek模型部署,文末有福利
6560
lmdeploy 部署 InternLM2.5 7B 多轮对话
2140
《书生大模型实战营第3期》进阶岛 第2关: Lagent 自定义你的 Agent 智能体
1860
《书生大模型实战营第3期》基础岛 第6关 :OpenCompass 评测 InternLM-1.8B 实践
1430
企业级模型推理部署工具vllm使用指南 - 部署最新deepseek-v3-0324模型
8820
Xinference实战指南:全面解析LLM大模型部署流程,携手Dify打造高效AI应用实践案例,加速AI项目落地进程
6.2K0
大模型压缩量化方案怎么选?无问芯穹Qllm-Eval量化方案全面评估:多模型、多参数、多维度
4490
【万字长文】【InternVL】InternVL2-26B模型部署全攻略
7190
大语言模型量化方法对比:GPTQ、GGUF、AWQ
10.6K0
《书生·浦语大模型实战营》第6课 学习笔记:Lagent & AgentLego 智能体应用搭建
1850
《书生大模型实战营第3期》基础岛 第1关 :书生大模型全链路开源体系
1740
《书生大模型实战营第3期》进阶岛 第6关: MindSearch CPU-only 版部署
3610
相关推荐
《书生大模型实战营第3期》进阶岛 第4关: InternVL 多模态模型部署微调实践
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档