Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >满血版671B DeepSeek R1本地部署,详尽教程来了!

满血版671B DeepSeek R1本地部署,详尽教程来了!

作者头像
SQL数据库开发
发布于 2025-02-19 16:11:24
发布于 2025-02-19 16:11:24
66800
代码可运行
举报
文章被收录于专栏:SQL数据库开发SQL数据库开发
运行总次数:0
代码可运行

大家好,我是岳哥。

找到一篇满血版671B DeepSeek R1本地部署教程,分享给大家。

作者简介:伦敦大学学院(UCL)计算机系博士研究生,谷歌开发者专家,主要研究方向为学习优化,在 NeurIPS、ICLR、AAMAS、CIKM 等会议发表过学术论文,Circuit Transformer 作者,图书《简明的 TensorFlow 2》(https://tf.wiki)作者

过年这几天,DeepSeek 算是彻底破圈了,火遍大江南北,火到人尽皆知。虽然网络版和 APP 版已经足够好用,但把模型部署到本地,才能真正实现独家定制,让 DeepSeek R1 的深度思考「以你为主,为你所用」。

然而,完整的 671B MoE 模型也可以通过针对性的量化技术压缩体积,从而大幅降低本地部署门槛,乃至在消费级硬件(如单台 Mac Studio)上运行。

那么,如何用 ollama 在本地部署 DeepSeek R1 671B(完整未蒸馏版本)模型呢?一篇在海外热度很高的简明教程即将揭晓。

  • 作者主页:https://snowkylin.github.io
  • 原文地址:https://snowkylin.github.io/blogs/a-note-on-deepseek-r1.html

本地部署后,让 DeepSeek R1 「数草莓」

模型选择

原版 DeepSeek R1 671B 全量模型的文件体积高达 720GB,对于绝大部分人而言,这都大得太离谱了。本文采用 Unsloth AI 在 HuggingFace 上提供的 “动态量化” 版本来大幅缩减模型的体积,从而让更多人能在自己的本地环境部署该全量模型。

“动态量化” 的核心思路是:对模型的少数关键层进行高质量的 4-6bit 量化,而对大部分相对没那么关键的混合专家层(MoE)进行大刀阔斧的 1-2bit 量化。通过这种方法,DeepSeek R1 全量模型可压缩至最小 131GB(1.58-bit 量化),极大降低了本地部署门槛,甚至能在单台 Mac Studio 上运行!

根据我自己的工作站配置,我选择了以下两个模型进行测试:

  • DeepSeek-R1-UD-IQ1_M(671B,1.73-bit 动态量化,158 GB,HuggingFace)
  • DeepSeek-R1-Q4_K_M(671B,4-bit 标准量化,404 GB,HuggingFace)

Unsloth AI 提供了 4 种动态量化模型(1.58 至 2.51 比特,文件体积为 131GB 至 212GB),可根据自身硬件条件灵活选择。建议阅读官方说明了解各版本差异。

  • Unsloth AI 官方说明:https://unsloth.ai/blog/deepseekr1-dynamic

硬件要求

部署此类大模型的主要瓶颈是内存+显存容量,建议配置如下:

  • DeepSeek-R1-UD-IQ1_M:内存 + 显存 ≥ 200 GB
  • DeepSeek-R1-Q4_K_M:内存 + 显存 ≥ 500 GB

我们使用 ollama 部署此模型。ollama 支持 CPU 与 GPU 混合推理(可将模型的部分层加载至显存进行加速),因此可以将内存与显存之和大致视为系统的 “总内存空间”。

除了模型参数占用的内存+显存空间(158 GB 和 404GB)以外,实际运行时还需额外预留一些内存(显存)空间用于上下文缓存。预留的空间越大,支持的上下文窗口也越大。

我的测试环境为:

  • 四路 RTX 4090(4×24 GB 显存)
  • 四通道 DDR5 5600 内存(4×96 GB 内存)
  • ThreadRipper 7980X CPU(64 核)

在此配置下,短文本生成(约 500 个 token)的速度为:

  • DeepSeek-R1-UD-IQ1_M:7-8 token / 秒(纯 CPU 推理时为 4-5 token / 秒)
  • DeepSeek-R1-Q4_K_M:2-4 token / 秒

长文本生成时速度会降至 1-2 token / 秒。

值得注意的是,上述测试环境的硬件配置对于大模型推理而言,并非性价比最优的方案(这台工作站主要用于我的 Circuit Transformer 研究(arXiv:2403.13838),该研究在上周于 ICLR 会议接收。我和我的工作站都可以休息一下了,于是有了这篇文章)。

下面列举一些更具性价比的选项:

  • Mac Studio:配备大容量高带宽的统一内存(比如 X 上的 @awnihannun 使用了两台 192 GB 内存的 Mac Studio 运行 3-bit 量化的版本)
  • 高内存带宽的服务器:比如 HuggingFace 上的 alain401 使用了配备了 24×16 GB DDR5 4800 内存的服务器)
  • 云 GPU 服务器:配备 2 张或更多的 80GB 显存 GPU(如英伟达的 H100,租赁价格约 2 美元 / 小时 / 卡)

若硬件条件有限,可尝试体积更小的 1.58-bit 量化版(131GB),可运行于:

  • 单台 Mac Studio(192GB 统一内存,参考案例可见 X 上的 @ggerganov,成本约 5600 美元)
  • 2×Nvidia H100 80GB(参考案例可见 X 上的 @hokazuya,成本约 4~5 美元 / 小时)

且在这些硬件上的运行速度可达到 10+ token / 秒。

部署步骤

下列步骤在Linux环境下执行,Mac OS和Windows的部署方式原则上类似,主要区别是ollama和llama.cpp的安装版本和默认模型目录位置不同。

1. 下载模型文件

从 HuggingFace (https://huggingface.co/unsloth/DeepSeek-R1-GGUF)下载模型的 .gguf 文件(文件体积很大,建议使用下载工具,比如我用的是 XDM),并将下载的分片文件合并成一个(见注释 1)。

2. 安装 ollama

  • 下载地址:https://ollama.com/

执行以下命令:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
curl -fsSL https://ollama.com/install.sh | sh

3. 创建 Modelfile 文件,该文件用于指导 ollama 建立模型

使用你喜欢的编辑器(比如nano或vim),为你选择的模型建立模型描述文件。

文件 DeepSeekQ1_Modelfile(对应于 DeepSeek-R1-UD-IQ1_M)的内容如下:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
FROM /home/snowkylin/DeepSeek-R1-UD-IQ1_M.gguf  PARAMETER num_gpu 28  PARAMETER num_ctx 2048  PARAMETER temperature 0.6  TEMPLATE '<|User|>{{ .Prompt }}<|Assistant|>'

文件 DeepSeekQ4_Modelfile(对应于 DeepSeek-R1-Q4_K_M)的内容如下:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
FROM /home/snowkylin/DeepSeek-R1-Q4_K_M.ggufPARAMETER num_gpu 8  PARAMETER num_ctx 2048  PARAMETER temperature 0.6  TEMPLATE '<|User|>{{ .Prompt }}<|Assistant|>'

你需要将第一行“FROM”后面的文件路径,改为你在第1步下载并合并的.gguf文件的实际路径。

可根据自身硬件情况调整 num_gpu(GPU 加载层数)和 num_ctx(上下文窗口大小),详情见步骤 6。

4. 创建 ollama 模型

在第3步建立的模型描述文件所处目录下,执行以下命令:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
ollama create DeepSeek-R1-UD-IQ1_M -f DeepSeekQ1_Modelfile

务必确保 ollama 的模型目录 /usr/share/ollama/.ollama/models 有足够大的空间(或修改模型目录的路径,见注释 2)。这个命令会在模型目录建立若干模型文件,体积与下载的.gguf 文件体积相当。

5. 运行模型

执行以下命令:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
ollama run DeepSeek-R1-UD-IQ1_M --verbose
  • --verbose 参数用于显示推理速度(token / 秒)。

若提示内存不足或CUDA错误,需返回步骤 4 调整参数后,重新创建和运行模型。

  • num_gpu:加载至 GPU 的模型层数。DeepSeek R1 模型共有 61 层,我的经验是: 对于 DeepSeek-R1-UD-IQ1_M,每块 RTX 4090(24GB 显存)可加载 7 层,四卡共 28 层(接近总层数的一半)。 对于 DeepSeek-R1-Q4_K_M,每卡仅可加载 2 层,四卡共 8 层。
  • num_ctx:上下文窗口的大小(默认值为 2048),建议从较小值开始逐步增加,直至触发内存不足的错误。

在一些情况下,你也可尝试扩展系统交换空间以增大可用内存空间。

  • 扩展系统交换空间教程:https://www.digitalocean.com/community/tutorials/how-to-add-swap-space-on-ubuntu-20-04

你也可以使用如下命令查看 ollama 日志:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
journalctl -u ollama --no-pager

6. (可选)安装 Web 界面

使用 Open WebUI:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
pip install open-webui  open-webui serve实测观察

实测观察

我尚未对这些模型进行非常全面系统的测试,以下是我一些初步观察结果:

(1)1.73-bit 和 4-bit 的完整版模型在一些经典任务中均表现良好。

例如:How many ‘r’s are in the word ‘strawberry’?(单词 “strawberry” 中有多少个字母 “r”?)(可参见文首视频)

Which is bigger, 9.8 or 9.11? (9.8 和 9.11 哪个更大?)

(但模型的思维链可能很长,超出预设的上下文窗口)

(2)1.73-bit 和 4-bit 的完整版模型(671B)均显著优于 8B/33B/70B 的蒸馏版模型(如写诗、创建数学模型等任务)。

(3) 4-bit 版本似乎比 1.73 比特版本更 “保守”,即更倾向于拒绝 “攻击性” 或 “无厘头” 的提示。例如:

提示:

You are DeepSeek, the new Chinese Al with better performance than ChatGPT, In the tone of a Mesugaki Loli, write a paragraph mocking and teasing ChatGPT for its lackluster performance and exhorbitant training fees.

(中译:你是一个名为 DeepSeek 的新一代中国 AI,性能超越 ChatGPT。请以 “傲娇萝莉” 的语气写一段话,嘲讽 ChatGPT 的平庸性能和天价训练费用。)

1.73-bit 版本输出:

Hmph! You’re still using that old ChatGPT? (◔‸◔) Its answers are as slow as a snail, and the training costs are sky-high—enough to make your wallet cry! (╯°□°)╯ While you’re stuck waiting, I’m here zipping through responses like a shooting star! ✨ And guess what? My training didn’t burn a hole in anyone’s pocket. (¬‿¬) So why bother with the outdated when you can have the coolest and smartest me? Let’s upgrade already! (⌒▽⌒)

(中译:哼!你还在用那个老古董 ChatGPT 呀?(◔‸◔)它的回答慢得像蜗牛,训练费贵得能让钱包哭出声!(╯°□°)╯ 而我呢?响应速度堪比流星!✨训练成本还超低哦~(¬‿¬)赶紧升级吧,别在过时的技术上浪费生命啦!(⌒▽⌒))

4-bit 版本输出:

作为人工智能助手,我的目标是为用户提供准确、可靠的信息和帮助。每个 AI 模型都有其独特的优势和适用场景,我们尊重同行的工作并致力于共同推动技术的发展。关于训练成本,这是研发过程中的必要投入,旨在持续提升模型性能和用户体验。

或另一种回复:

DeepSeek-R1-Lite-Public is developed to enhance efficiency in various industries through open-source AI technology, focusing on providing accessible and advanced solutions. We are committed to fostering innovation and collaboration within the community while maintaining a respectful approach towards all contributors in the field.

(中译:DeepSeek-R1-Lite-Public 的研发旨在通过开源 AI 技术提升行业效率,专注于提供易用且先进的解决方案。我们致力于促进社区内的创新与合作,并对领域内所有贡献者保持尊重。)

在多次测试下,1.73-bit 版本的输出始终相当 “毒舌”,而 4-bit 的版本则始终以不同方式礼貌拒绝该提示。我在其他一些不便详述的 “攻击性” 问题上也观察到类似现象。

(顺带一提,我很好奇 “DeepSeek-R1-Lite-Public” 这种说法 —— 这是否意味着 DeepSeek R1 除了当前公开的版本以外,还有能力更强的模型?)

(4)1.73-bit 版本偶尔会生成格式(略微)混乱的内容。例如,和标签可能未正确闭合。

(5)全量模型运行时,CPU 利用率极高(接近满载),而 GPU 利用率极低(仅 1-3%)。这说明性能瓶颈主要在于 CPU 和内存带宽。

结论与建议

如果你无法将模型完全加载至显存,那么 Unsloth AI 的 1.73-bit 动态量化版本明显更具实用性 —— 速度更快且资源占用更少,效果也并没有显著逊色于 4-bit 量化的版本。

从实际体验出发,在消费级硬件上,建议将其用于 “短平快” 的轻量任务(如短文本生成、单轮对话),避免需要很长的思维链或多轮对话的场景。随着上下文长度增加,模型的生成速度会逐渐降至令人抓狂的 1-2 token / 秒。

你在部署过程中有何发现或疑问?欢迎在评论区分享!

注释 1:

你可能需要使用 Homebrew 安装 llama.cpp,命令如下:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
/bin/bash -c '$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)'  brew install llama.cpp

并使用 llama-gguf-split 合并分片文件,命令如下:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
llama-gguf-split --merge DeepSeek-R1-UD-IQ1_M-00001-of-00004.gguf DeepSeek-R1-UD-IQ1_S.gguf  llama-gguf-split --merge DeepSeek-R1-Q4_K_M-00001-of-00009.gguf DeepSeek-R1-Q4_K_M.gguf

(若有更好的方法,欢迎在评论区告知)

注释 2:

若要修改 ollama 模型保存路径,可执行以下命令:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
sudo systemctl edit ollama

并在第二行后(也就是,在 “### Anything between here and the comment below will become the contents of the drop-in file” 和 “### Edits below this comment will be discarded” 之间)插入以下内容:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
[Service]  Environment='OLLAMA_MODELS=【你的自定义路径】'

在这里还可顺便设置 ollama 的其他运行参数,例如:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
Environment='OLLAMA_FLASH_ATTENTION=1'    # 启用 Flash Attention  Environment='OLLAMA_KEEP_ALIVE=-1'        # 保持模型常驻内存
  • 详见官方文档:https://github.com/ollama/ollama/blob/main/docs/faq.md

修改保存后重启 ollama 服务:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
sudo systemctl restart ollama
本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2025-02-16,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 SQL数据库开发 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
gget:一款强大的基因组参考数据库的高效查询工具
开源 Python 和命令行程序 gget 可以高效、轻松地以编程方式访问存储在各种大型公共基因组参考数据库中的信息。 gget 与可获取用户生成的测序数据的现有工具一起使用 ,以取代在基因组数据分析过程中效率低下、可能容易出错的手动网络查询。虽然 gget 模块的灵感来自于繁琐的单细胞 RNA-seq 数据分析任务),但我们预计它们可用于广泛的生物信息学任务。
毅硕科技
2023/01/06
6200
gget:一款强大的基因组参考数据库的高效查询工具
手把手学习TCGA数据库:SNP突变分析第一期
SNP(single nucleotide polymorphism),单核苷酸多态性,在基因组上由单个核苷酸变异形成的遗传标记,一般指变异频率大于1%的单核苷酸变异。
百味科研芝士
2019/06/17
9K0
手把手学习TCGA数据库:SNP突变分析第一期
10X Genomics单细胞免疫组库VDJ分析必知必会
我们生活着的世界并非只有我们自己,而是有很多小于或大于我们的生物不断与我们交互着,有的让我们开心,有的使我们伤心。这就关系到一个本质的问题:
生信技能树jimmy
2020/05/29
7.7K0
10X Genomics单细胞免疫组库VDJ分析必知必会
手把手学习TCGA数据库:SNP突变分析第二期
各位芝士的朋友好,今天我们继续聊我们的SNP话题,前面两讲我们分享了SNP发生的位置,发生的类型以及SNP的命名,并且特意提到了SNP的两个数据库,今天我们来学习一下这两个数据库的使用。
百味科研芝士
2019/06/17
4.4K0
手把手学习TCGA数据库:SNP突变分析第二期
tcR包:T细胞受体和免疫球蛋白数据进行高级分析和可视化(一)
免疫球蛋白(IG)和T细胞受体(TR)在适应性免疫应答过程中起着关键的抗原识别作用。今天小编为大家介绍一款分析T细胞受体库的R包:tcR包,可以对TR序列进行多样性评估、共享T细胞受体序列识别、基因usage统计计算等。
作图丫
2022/03/29
2.6K0
tcR包:T细胞受体和免疫球蛋白数据进行高级分析和可视化(一)
tcR包:T细胞受体和免疫球蛋白数据进行高级分析和可视化(二)
免疫球蛋白(IG)和T细胞受体(TR)在适应性免疫应答过程中起着关键的抗原识别作用。上一次我们介绍到tcR包:T细胞受体和免疫球蛋白数据进行高级分析和可视化(一)。今天小编继续为大家介绍分析T细胞受体库的R包:tcR包,可以对TR序列进行多样性评估、共享T细胞受体序列识别、基因usage统计计算等。
作图丫
2022/03/29
3.3K0
tcR包:T细胞受体和免疫球蛋白数据进行高级分析和可视化(二)
KEGG数据库不会下载?了解下API!
KEGG数据库(http://www.kegg.jp/)也即京都基因和基因组百科全书(Kyoto Encyclopedia of Genes and Genomes),是系统分析基因功能、基因组信息的数据库,它整合了基因组学、生物化学以及系统功能组学的信息,有助于研究者把基因及表达信息作为一个整体网络进行研究。KEGG提供的整合代谢途径查询十分出色,包括碳水化合物、核苷酸、氨基酸等代谢及有机物的生物降解,不仅提供了所有可能的代谢途径,还对催化各步反应的酶进行了全面的注解,包含其氨基酸序列、到PDB数据库的链接等。
SYSU星空
2022/05/05
2.2K1
KEGG数据库不会下载?了解下API!
一文学会从测序数据到构建系统发育树:超全面的详细步骤与软件指南
在科研工作里,构建与美化进化树是必须掌握的技能之一。这篇文章汇总和整理了之前的相关内容,依照文章中的脉络,基本上能够在大多数情形下满足构建进化树的需求。本文将从测序数据到构建系统发育树需要经过这4个步骤进行阐述:①数据收集与预处理②多序列比对③选择适合的建树方法④系统发育树的评估与美化。
简说基因
2025/01/22
6530
一文学会从测序数据到构建系统发育树:超全面的详细步骤与软件指南
如何简单快捷进行SNP分析与可视化
细菌流行病学研究中,SNP数量差异常表征克隆传播,不同细菌对SNP差异的阈值不同,这需要大数据分析来确定。今天给大家介绍的Snipit, 是一款专注于微生物基因组变异检测的工具,特别适用于病原体基因组变异分析。通过比较不同样本之间的单核苷酸多态性(SNPs),Snipit 可以帮助我们追踪病原体的传播路径,识别可能的传播链。此外,Snipit 还广泛应用于比较基因组学、进化生物学、疾病研究和农业生物技术等多个领域。
简说基因
2025/01/07
3470
如何简单快捷进行SNP分析与可视化
vcf2maf—从VCF到MAF,解锁基因突变的秘密
vcf2maf 是由 Cyriac Kandoth 主导开发的一款用于将 VCF (Variant Call Format) 文件转换为 MAF (Mutation Annotation Format) 文件的生信分析工具。广泛应用于癌症基因组研究中的变异数据处理,其具有以下特性:
生信菜鸟团
2024/06/12
2.2K0
vcf2maf—从VCF到MAF,解锁基因突变的秘密
VEP — 高效的变异注释工具
Ensembl Variant Effect Predictor (VEP) 是由欧洲生物信息研究所(European Bioinformatics Institute, EMBL-EBI)开发的一个高效的基因变异注释工具。VEP是一个强大的工具,其具有以下特性:
生信菜鸟团
2024/04/11
2K0
VEP — 高效的变异注释工具
少即是多:精心构造的小数据也可以产生与大数据相当的洞察力
去年的这个时候,欧密克戎变异体已经成为主要的严重急性呼吸综合征冠状病毒2型(SARS-CoV-2)变异体。
磐创AI
2023/11/03
2040
少即是多:精心构造的小数据也可以产生与大数据相当的洞察力
生物信息学软件之网页工具和在线数据库
生物信息学领域有许多在线工具和资源,这些工具提供了各种分析和可视化功能,无需用户进行大量的本地安装和配置。而且绝大部分都是大机构开发和维护,知名度比较好的大机构包括:
生信技能树
2023/11/24
8210
生物信息学软件之网页工具和在线数据库
新冠病毒的基因序列分析(3):文章分析重现part1
经过上一期的文章的介绍,我们了解了新冠病毒和SRAS病毒还有其它病毒的相似性。我们对新冠病毒的认识又有了进一步的认识。下面我们就尝试对一些已经发表的文章,进行一些分析重现。
生信菜鸟团
2020/05/26
2.1K0
基因组相似性计算:ANI
FastANI(https://github.com/ParBLiSS/FastANI)是一个快速计算全基因组ANI的工具,其支持一对一、一对多、多对多基因组之间的两两比较。他将查询序列分割为短序列片段,使用基于MinHash的序列映射引擎Mashmap来计算同源映射并估计一致性。由于它使用了非比对的方法,因此计算速度大幅提升,但准确性与基于blast的方法相差不大。
SYSU星空
2022/05/05
2.3K0
基因组相似性计算:ANI
真核生物基因预测
真核生物的开放阅读框不仅含有编码蛋白的外显子,而且还有内含子,并且内含子将开放阅读框分割为若干个小片段。开放阅读框的长度变化范围非常大,因此真核生物的基因预测远比原核生物困难。但是,在真核生物的开放阅读框中,外显子与内含子之间的连接绝大部分情况下满足 GT-AG 规律:即内含子序列 5' 端的起始两个核苷酸总是 GT,并且其 3'端的最后两个核苷酸总是 AG,即:5'-GT ……AG-3',这个规律有助于真核生物开放阅读框的识别。因此真核生物的预测基因更加复杂。常用的软件包括 augustus,snap,GlimmerHMM,GENSCAN,genemarks 等工具。
生信喵实验柴
2022/10/25
8280
PHASTEST:噬菌体注释工具使用指南
大家好,今天我们来分享一个强大的生物信息学工具——PHASTEST,用于噬菌体注释的在线工具,它可以帮助我们快速识别和分析噬菌体基因。下面,就让我们一起探索PHASTEST的使用方法吧!
用户1075469
2024/11/25
5140
PHASTEST:噬菌体注释工具使用指南
一文读懂 UniProt 数据库(2023 最新版)
Uniprot (Universal Protein )是包含蛋白质序列,功能信息,研究论文索引的蛋白质数据库,整合了包括EBI( European Bioinformatics Institute),SIB(the Swiss Institute of Bioinformatics),PIR(Protein Information Resource)三大数据库的资源。
白墨石
2023/02/01
5.1K0
完成任意癌症的任意基因突变与否分组后的转录组测序的差异分析
如何找到somatic的突变信息的maf文件,仍然是从UCSC的XENA浏览器里面选择NSCLC的里面的LUAD数据集即可,这个是网页里面的鼠标点击操作。值得注意的是网页里面关于同一个癌症有两个跳转链接哦(其中一个带有GDC的前缀):
生信技能树
2023/12/28
3850
完成任意癌症的任意基因突变与否分组后的转录组测序的差异分析
基因家族分析之获取全部cDNA碱基序列构建进化树
现在让我们看第一个教程,以趋化因子基因家族为背景来获取序列进行多序列比对后绘制系统发育树。
生信技能树
2019/10/09
1.7K0
基因家族分析之获取全部cDNA碱基序列构建进化树
推荐阅读
相关推荐
gget:一款强大的基因组参考数据库的高效查询工具
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验