Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >该如何接手别人遗留下的代码?

该如何接手别人遗留下的代码?

作者头像
我就是马云飞
发布于 2018-10-25 02:46:07
发布于 2018-10-25 02:46:07
6070
举报
文章被收录于专栏:我就是马云飞我就是马云飞

如果你在软件行业工作足够长的时间,迟早你都将面临一个棘手的问题:修复遗留的代码库。本文所提出的并不是唯一可行的方法,且遗憾的是,这种方法并不是众所周知的。不过以下内容保证风险最小化。假设你遇到了修复遗留应用程序的问题,已经存在风险,并且不需要添加更多应用程序。采用本文方法的风险和成本将会比从头开始重写系统更低。

为什么不要重写代码

在我们开始之前,你应该先了解一些事项。首先,请阅读这篇 Joel Spolsky 的著名文章,了解为什么永远不应该重写代码(https://www.joelonsoftware.com/2000/04/06/things-you-should-never-do-part-i/)。在这篇文章中,Spolsky 强调了为什么要重构代码库而不是重写代码库。所谓重构,即在不改变行为的情况下对代码质量进行一系列逐步改进的过程。当你尝试修复代码时,同时更改其结构和行为是自寻麻烦。

话虽如此,但我觉得“永远”一词有些言重。假设你的代码是用 UniBasic 编写的,而如今你已找不到该语言的开发人员(包括愿意学习它的人),那么重写是你唯一的选择。或者,如果你使用的是一个影响较小的小软件,重写可能并不那么危险。

但是,假设你可以轻松找到或者培训开发人员使用当前软件的编程语言,并且该软件的意义举足轻重,而且它的代码库非常庞大,那么重写就不是那么有意义了。重构意味着你的代码一直都在,你不会丢弃业务知识,而你的开发人员不必从头开始写代码,可以快速出成果。换句话说,你可以将风险降至最低。

理虽如此,但是依然有很多公司和开发者选择重写。新代码令人兴奋,有望带来新的机遇。新代码很有趣,但修复旧代码通常被视为苦差事。但是,如果你有一个庞大的遗留代码库,并且你编写的新代码是一个大型项目,而大型项目的风险很高:

IT 权威机构 Standish Group 在1995年的一项研究表明,只有大约17%的 IT 项目被认为是“完全成功的”,52%属于“勉强合格”(没有达到预算、质量或时间目标),30%是“失败的”。最近,Standish 对2003年至2012年期间的3555个 IT 项目进行了调研,这些项目的总成本至少为1000万美元,而仅有6.4%的 IT 项目成功。

尽管这项调研时间有些久远,但它仍然适用于当今 IT 世界。项目越大,风险也越大。事实上,在我参与的各种公司的大型项目中,很少有人能够在预算范围内按时完成项目。有些项目会被彻底取消,由于没人愿意承担失败的责任,因此他们将项目拖延很久,这完全就是一场灾难。比如,原本计划一年完成的项目已经四年都未能完成,目前仍然充满了漏洞和设计缺陷,并且该软件向后兼容,因此只能硬着头皮继续做。该公司能够继续运转的唯一原因在于,他们收购了另一家具有盈利能力的公司。

这个例子暗示了一个行业中没有公开的小秘密:大规模的重写通常会将一堆乱糟糟的代码换成另一堆。这些公司并未真正解决潜在的问题,而是用一系列已知的问题替换了一系列未知的问题。如果你需要修复遗留代码,那是因为你需要将风险降至最低;为什么你会故意采用无法量化的风险?

如何重构遗留代码

假设你不想面对大规模重写带来的成本和风险,那么如何重构代码呢?

首先,你需要对当前项目进行评估,至少包含以下方面:

  • 代码的功能需求是什么?
  • 如果有文档的话,具体有哪些?
  • 通过跟踪 bug,了解哪部分代码更脆弱。
  • 依赖的外部资源有哪些?
  • 如果已做了测试的话,具体包含哪些测试。

所有这些都需要写下来,以便任何人都可以一目了然地查阅这些信息。假如你要雇用专家来收拾这个烂摊子,这些信息则是重要的必需品。如果上面的列表看起来过于简单,那是因为我们正在重构,而不是重写。

是的,你可能会聘请一位外部专家。如果当前项目的开发人员无法制定修复遗留代码库的可靠计划,同时最大限度地降低风险,那么你需要聘请一位在该领域有丰富经验的人,他们不仅会看到你无法看到的问题,还可以让目前的开发人员变得更好。以下内容无法做到完全直观,但专家的经验能够帮助你摆脱困境。你的专家至少需要满足以下条件:

  • 你的代码库使用的主要编程语言的专家
  • 强大的自动化测试背景
  • 熟练使用代码覆盖率工具
  • 熟知数据库
  • 系统设计和架构专家
  • 能够自责自省
  • 了解业务需求
  • 能够说服别人

最后几点似乎很奇怪,但的确非常重要。一流的开发人员很难兼具以上能力,因此很值得花钱去寻找这样的专家。

开始

首先,你得大致清楚如何规划你的应用程序。也就是所谓的架构路线图,但请记住,该路线图比较灵活,它会随着时间的推移而发生变化。这也正是需要架构专家介入的原因。应用程序的各个功能应当被拆分为单独的部分,以确保应用程序的各个部分都具有其专注的领域。当应用程序的每个部分都有其专注领域时,它就更容易维护、扩展和重用,这也是我们想要修复遗留代码库的主要原因。但是,这一阶段最好不要制定太过详细的计划;相反,只需确保你对大方向有一个粗略的认识即可。

接下来,你将像吃大象一样一点一点重构你的应用程序。你将选择一个小的初始目标来熟悉新工具。随着时间的推移,它会变得更容易,但是当你最开始使用时,切不要操之过急。

重构一个大型应用程序意味着需要编写测试,但除非你非常清楚知道自己在做什么,否则你很可能会出错。通常很少使用 TDD,代码已经写好了,你很难为所有代码都编写测试。相反,你应当采用集成测试

你需要做的第一件事是了解应用程序中不会改变的东西。也就是应用程序的输出,无论是通过 JSON API、网站、SOAP 接口还是其它什么方式输出结果都不会改变。由于某些东西必须使用该软件,因此它可以使一切运转起来。你需要为其编写集成测试。假设我们正在重构 Web 应用程序,你已决定首先编写测试以验证是否可以在管理页面上列出用户。

在该测试中,你将创建一个浏览器对象,以管理员用户身份登录,获取用户页面,并编写测试把预期的用户显示在该页面上。想要实现这些功能通常需要你做大量的工作。例如,如何获取连接到测试数据库的代码?如何确保测试之间的数据隔离(换句话说,运行测试的顺序无关紧要)?如何创建浏览器对象?当你真正动手时,你需要回答这些问题,以及更多其它的问题。

如果你已经进行了一些测试,那么可能会更容易实现这一点,如果你没有进行其它测试那就会非常困难,但这是重构非常重要的第一步。

一旦你针对接口的一个相对较小的不变部分进行了第一次集成测试,就可以在测试中运行代码覆盖率工具,以查看这些高级集成测试所涵盖的代码。涵盖的代码通常是可以安全重构的代码。

现在,你可以查看应用程序的哪些功能部分嵌入到经过测试的代码中,并制定计划将这些部分移到你的架构路线图中。此时,我们要避免把一切分散开来。相反,我们应该每次只专注一个点。例如,如果你在整个代码中分散了 SQL,请将其提取到你的架构路线图中,以便拥有一个干净的 API 来处理你需要的数据。又或者你有一个 Web 应用程序,而你一直采用直接打印 HTML 的方式,请尝试使用模板系统并开始将 HTML 整合到模板中。不要一次修复所有东西,否则你会不堪重负。相反,你应当关注一个领域并充分理解。

不做单元测试

请注意,我们一直在讨论集成测试,而不是单元测试。这有一个很好的理由:对于遗留系统的大规模重构,当你刚开始重构时单元模块会发生很大的变化,但集中在静态接口上的集成测试则不会。你想花时间重构你的应用程序,而不是你的测试,所以在你稳定代码内部工作之前,单元测试可能会分散你的注意力。集成测试的优势在于,你可以一次覆盖大部分代码,如果正确完成,可以非常快速地编写。此外,对于结构不良的应用程序,单元测试可能很难执行。集成测试还有助于发现单元测试无法发现的错误:不同组件具有不同期望的错误。但是,集成测试也存在一些缺点:

  • 集成测试比单元测试运行得慢
  • 很难追查 bug
  • 如果没有很好地隔离代码,那么集成测试更容易造成破坏

话虽如此,在这个阶段集成测试的优势很明显:当你有一些基本的测试来防止最坏的错误时,重构会容易得多。同样值得注意的是,如果你在此之前很少甚至没有做测试,如果你有一些可靠的测试,就不会那么糟糕。

如果你还没有实现持续集成(CI)系统,那么现在是时候开始了。即使你的开发人员忘记运行测试,你的 CI 系统也不应该。如果测试失败,你需要快速找到答案。

进阶

在你开始重构了系统的一小部分功能之后,你可能很快会发现原始计划中的一些错误。没关系,你已经开始小规模重构,以尽量减少风险。纠正这些错误,然后开始使用代码覆盖率工具对系统的其它小部分进行集成测试,以及你已经在处理的功能部分(数据库调用、HTML 或者其它部分)。如果你觉得自己已经摆脱了一些最糟糕的问题,那么请开始查看系统的另一个功能,即当前测试的代码共享,看看是否可以解决这个问题。

请注意,这正是专家的架构技能将会发挥作用的地方。他们将理解解耦应用程序采用不同功能部分的重要性。他们将了解如何编写健壮且灵活的界面。他们将学会识别业务逻辑中可以抽象出来的模式。不要把这个责任交给现有的程序员,除非你绝对相信他们拥有完成这项工作所需的技能和经验。

接下来就是重复这些方法,在最坏的情况下可能需要数年才能完成。这需要很长时间,但它有着显着的优点:

  • 代码始终能够正常工作
  • 你无需为同时维护两个系统而付费
  • 业务知识不会丢失
  • 仍然可以添加新功能
  • 可以轻松编写针对现有 bug 的测试(即使你尚未重构该代码)
  • 一旦发现你的代码库“足够好”了,随时都可以收工

为什么这种方法有效?任何大型项目看起来都令人生畏,但通过将其分解为更小且更易于管理的部分,你至少可以知道从哪里开始并了解目标,而不必担心大型项目的失败。

当我以前使用这种技术时,我经常发现自己能够更清楚地了解代码是如何发展的,而且当前经验丰富的团队并没有面对看到他们的工作消失的令人沮丧的前景。这种技术的缺点是,虽然代码质量大大提高,但总有一种感觉,它不够好。然而,正如我之前提到的,许多重写系统仅仅会产生新的设计缺陷以取代旧的系统缺陷。这太常见了,它意味着将已知问题换成未知问题。

总结

上述策略并不能得到所有人的认可,对于那些崇尚新事物的人来说很难接受。事实上,在许多方面它可以被视为无聊(虽然我喜欢重构代码),但我已经成功地在多个遗留代码库中使用了这种方法。但是,如果你仍在尝试从重写与重构之间做出决定,请记住,这种方法是一种成本相对较低且风险也较低的方法。如果它被证明是行不通的,你可能会冒很小的风险。如果改写证明不可行,那么你可能会花费公司一大笔钱。

因此,你应当明白何时应该考虑修复遗留代码库。我建议你未雨绸缪。修复遗留代码库虽不如送火箭上天一般高难度,但它确实需要一定程度的专业知识来转换现有的代码库。遗憾的是,大多数开发人员似乎对此技能并不感兴趣,他们似乎也并不想处理遗留代码库。

原文:https://ovid.github.io/articles/a-simple-way-to-fix-legacy-code.html 作者简介:Curtis“Ovid”Poe,拥有二十年的软件开发经验。主要开发 COBOL 金融应用程序、制药 ETL 系统以及用 Perl 编写大型网站等系统。 译者:安翔,责编:屠敏


本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2018-10-16,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 我就是马云飞 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
Filebeat+Kafka+Logstash+Elasticsearch+Kibana 构建日志分析系统
随着时间的积累,日志数据会越来越多,当你需要查看并分析庞杂的日志数据时,可通过 Filebeat+Kafka+Logstash+Elasticsearch 采集日志数据到Elasticsearch(简称ES)中,并通过 Kibana 进行可视化展示与分析。
高楼Zee
2021/09/23
2.1K0
Filebeat+Kafka+Logstash+Elasticsearch+Kibana 构建日志分析系统
ELK+FileBeat日志分析系统(正式环境nginx日志)
ElasticSearch、Logstash和Kibana 这里还用到一个插件那就是filebeat进行进行采集日志 添加filebeat插件现在已经是非常提倡的做法
全栈程序员站长
2021/06/08
5680
ELK+FileBeat日志分析系统(正式环境nginx日志)
Kubernetes部署ELK并使用Filebeat收集容器日志
Elasticsearch运行时要求vm.max_map_count内核参数必须大于262144,因此开始之前需要确保这个参数正常调整过。
大江小浪
2018/09/19
5.8K0
Kubernetes部署ELK并使用Filebeat收集容器日志
CentOS 7下安装Logstash ELK Stack 日志管理系统(下)
修改防火墙,对外开放tcp/5601 [root@elk elk]# firewall-cmd --permanent --add-port=5601/tcp Success [root@elk elk]# firewall-cmd --reload success [root@elk elk]# firewall-cmd --list-all public (default, active) interfaces: eno16777984 eno33557248 sources: servic
小小科
2018/05/04
1K0
CentOS 7下安装Logstash ELK Stack 日志管理系统(下)
日志分析平台ELK 7.0时代来了
集群架构图 1. Elasticsearch集群部署 1.1 初始化java组件 # 安装jdk root@es-logs-20-114:/usr/local# ls -l | grep jdk lrwxrwxrwx 1 root root 22 Apr 1 2017 jdk -> /usr/local/jdk1.8.0_65 drwxr-xr-x 8 root root 4096 Nov 25 2015 jdk1.8.0_65 # 配置java环境变量 export JAVA_HOME
公众号: 云原生生态圈
2021/11/15
3560
日志分析平台ELK 7.0时代来了
Filebeat限制采集的日志大小实际应用验证
本文是根据上一篇文章拓展的,观看时请结合上一篇文章:容器部署企业级日志分析平台ELK7.10.1(Elasisearch+Filebeat+Redis+Logstash+Kibana)
非著名运维
2022/06/22
1.2K0
Filebeat限制采集的日志大小实际应用验证
Docker 入门到实战教程(十二)ELK+Filebeat搭建日志分析系统
一般我们需要进行日志分析场景:直接在日志文件中 grep、awk 就可以获得自己想要的信息。但在规模较大的场景中,此方法效率低下,面临问题包括日志量太大如何归档、文本搜索太慢怎么办、如何多维度查询。需要集中化的日志管理,所有服务器上的日志收集汇总。常见解决思路是建立集中式日志收集系统,将所有节点上的日志统一收集,管理,访问。
小东啊
2020/07/23
4.8K1
Docker 入门到实战教程(十二)ELK+Filebeat搭建日志分析系统
ELK6.0部署:Elasticsearch+Logstash+Kibana搭建分布式日志平台
总的来说,ElasticSearch负责存储数据,Logstash负责收集日志,并将日志格式化后写入ElasticSearch,Kibana提供可视化访问ElasticSearch数据的功能。
KenTalk
2018/09/11
1.3K0
ELK6.0部署:Elasticsearch+Logstash+Kibana搭建分布式日志平台
Docker通过EFK(Elasticsearch + Fluentd + Kibana)查询日志
Elasticsearch是一个开源搜索引擎,以易用性着称。kibana是一个图形界面,可以在上面条件检索存储在ElasticSearch里数据,相当于提供了ES的可视化操作管理器。
py3study
2020/04/08
3.7K4
Filebeat配置顶级字段Logstash在output输出到Elasticsearch中的使用
本文是根据上一篇文章拓展的,观看时请结合上一篇文章:容器部署企业级日志分析平台ELK7.10.1(Elasisearch+Filebeat+Redis+Logstash+Kibana)https://
非著名运维
2022/06/22
1.3K0
Filebeat配置顶级字段Logstash在output输出到Elasticsearch中的使用
Kubernetes中部署ELK Stack日志收集平台
ELK是Elasticsearch、Logstash、Kibana三大开源框架首字母大写简称。市面上也被称为Elastic Stack。其中Elasticsearch是一个基于Lucene、分布式、通过Restful方式进行交互的近实时搜索平台框架。像类似百度、谷歌这种大数据全文搜索引擎的场景都可以使用Elasticsearch作为底层支持框架,可见Elasticsearch提供的搜索能力确实强大,市面上很多时候我们简称Elasticsearch为es。Logstash是ELK的中央数据流引擎,用于从不同目标(文件/数据存储/MQ)收集的不同格式数据,经过过滤后支持输出到不同目的地(文件/MQ/redis/elasticsearch/kafka等)。Kibana可以将elasticsearch的数据通过友好的页面展示出来,提供实时分析的功能。
没有故事的陈师傅
2021/07/21
1.8K6
搭建ELK日志分析平台(上)—— ELK介绍及搭建 Elasticsearch 分布式集群
笔记内容:搭建ELK日志分析平台(上)—— ELK介绍及搭建 Elasticsearch 分布式集群 笔记日期:2018-03-02
端碗吹水
2020/09/23
2.4K0
搭建ELK日志分析平台(上)—— ELK介绍及搭建 Elasticsearch 分布式集群
【docker】使用docker安装部署elasticsearch+Kibana
Elasticsearch 是一个分布式、RESTful 风格的搜索和数据分析引擎,能够解决不断涌现出的各种用例。作为 Elastic Stack 的核心,它集中存储您的数据,帮助您发现意料之中以及意料之外的情况。
宝耶需努力
2022/12/13
4K0
【docker】使用docker安装部署elasticsearch+Kibana
ELK+filebeat采集java日志
此文章是我在生产环境下搭建ELK日志系统的记录,该日志系统主要是采集Java日志,开发人员能通过kibanaWeb页面查找相关主机的指定日志;对于Java日志,filebeat已做多行合并、过滤行处理,更精准的获取需要的日志信息,关于ELK系统的介绍,这里不再赘述。
肓己
2021/08/12
1.8K0
基于docker部署elk进行日志管理和分析
ELK 是 Elasticsearch、Logstrash 和 Kibana 的缩写,它们代表的是一套成熟的日志管理系统,ELK Stack 已经成为目前最流行的集中式日志解决管理方案。
IT不难
2022/05/23
5490
基于docker部署elk进行日志管理和分析
使用 Docker Compose V2 快速搭建日志分析平台 ELK (Elasticsearch、Logstash 和 Kibana)
ELK的架构有多种,本篇分享使用的架构如图所示: Beats(Filebeat) -> -> Elasticsearch -> Kibana,目前生产环境一天几千万的日志,内存占用大概 10G 左右
易墨
2024/01/21
3.9K1
使用 Docker Compose V2 快速搭建日志分析平台 ELK (Elasticsearch、Logstash 和 Kibana)
Centos7下ELK+Redis日志分析平台的集群环境部署记录
之前的文档介绍了ELK架构的基础知识(推荐参考下http://blog.oldboyedu.com/elk/),日志集中分析系统的实施方案: - ELK+Redis - ELK+Filebeat - ELK+Filebeat+Redis - ELK+Filebeat+Kafka+ZooKeeper
洗尽了浮华
2018/08/01
1.6K0
Centos7下ELK+Redis日志分析平台的集群环境部署记录
kubernetes Filebeat+ELK日志收集监控方案
接收来自filebeat的数据,根据其中的tags进行分类,再添加index进行分类,例如nginx-access-%{+YYYY.MM.dd},在kibana中会根据这个index获取日志。
kubernetes中文社区
2019/06/24
3.2K0
kubernetes  Filebeat+ELK日志收集监控方案
容器部署ELK7.10,适用于生产
一、elk架构简介 首先 logstash 具有日志采集、过滤、筛选等功能,功能完善但同时体量也会比较大,消耗系统资源自然也多。filebeat作为一个轻量级日志采集工具,虽然没有过滤筛选功能,但是仅
YP小站
2021/01/29
1.9K0
容器部署ELK7.10,适用于生产
Elasticsearch +logstash +filebeat+redis+saltstack部署ELK日志平台
ELK是三个开源软件的缩写,分别表示:Elasticsearch , Logstash, Kibana , 它们都是开源软件。新增了一个FileBeat,它是一个轻量级的日志收集处理工具(Agent),Filebeat占用资源少,适合于在各个服务器上搜集日志后传输给Logstash,官方也推荐此工具。
以谁为师
2019/05/31
1.2K0
推荐阅读
相关推荐
Filebeat+Kafka+Logstash+Elasticsearch+Kibana 构建日志分析系统
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档