Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >敏捷 | 如何正确推进敏捷?

敏捷 | 如何正确推进敏捷?

作者头像
Edison Zhou
修改于 2021-01-06 14:31:04
修改于 2021-01-06 14:31:04
9870
举报
文章被收录于专栏:EdisonTalkEdisonTalk

无论你的公司是在做敏捷转型还是一开始就使用敏捷,在推进敏捷的过程中往往都碰到了很多的问题。今天和大家分享一下业界认可的正确推进敏捷的三个步骤:评估诊断、敏捷试点和大规模推广。

相关阅读: (1)如何正确理解敏捷? (2)如何正确推进敏捷? (3)如何填好推进的坑? (4)如何做服务型Scrum Master? (5)无处不在的敏捷思想

1 评估诊断

不管你是使用哪一种敏捷实践方法(虽然大部分企业都是用的Scrum),在推进的时候如果不了解企业自身团队的现状和痛点,也就不知道要从哪里下手去推进。

因此,一般来说,在推进敏捷的时候,我们都需要先进性评估诊断,正如你去医院看病,医生总是会让你先做一些检查,然后再根据检查的结果对症下药。同样,也只有对自身的情况有个清晰的认知,才能针对自身的问题找到适合自己的方法。在敏捷转型实践中,大部分的企业都选择请外部的敏捷教练或者咨询师来帮助企业做敏捷转型,而评估诊断也通常是由他们来做。如果没有请敏捷教练或者咨询师,那也应该从企业内部指定一个熟悉敏捷和了解业界敏捷实践的人来做评估诊断。

对于评估诊断,一般遵循“四步法”来做:

(1)挑选具有代表性的项目(针对进行敏捷转型的企业来说,而针对团队来说可以跳过这一步)

在企业中挑选一些业务上或研发模式上具有代表性的项目,进性深入评估。

(2)访谈评估

对这些选中的项目组中的团队成员进行访谈,从流程、组织、人员技能、度量和技术等维度,对项目进行评估,目的是探查项目的痛点。一般来说,普遍存在的问题都是敏捷的成熟度不高,团队的透明程度不够,协作水平和沟通效率比较低。

(3)制定转型计划

针对访谈评估中找到的痛点,制定推进敏捷的计划,这个计划是要有针对性的。

(4)沟通

在正式推进敏捷之前,与相关干系人进行沟通,比如团队成员、团队Leader等。沟通内容也应该使得整个团队能够达成共识,才能朝着同一个目标努力。

总结:评估诊断的目的是为了了解自己团队的现状以及痛点在哪里,并针对这些痛点,结合短期的目标并找到解决方案,制定合理的计划。在敏捷中,计划的指定通常来说都是渐进的,近期的计划可以落实到细节,但远期的只能是粗略的,这也和我们强调短迭代快反馈的思想一致。

2 团队敏捷试点

试点工作的展开可以分为试点前准备试点推进过程两个步骤,敏捷转型,重在转型,它也是一场变革,对于大一点的企业来说(特别是外企),都建议先从局部试点。只有在试点中积累了经验,测试了可行性之后,才进行大规模的推广。

试点前的准备

“凡事预则立,不预则废”,只有做好准备,才能在敏捷试点时有备无患。很多人还给这个试点前的准备工作起了个外号“迭代0 (Iteration 0)”。

首先,如果是大型企业做敏捷转型的话,需要先挑选试点团队,一般来说都会挑选业务价值高的团队 又或者 敏捷意愿很强烈的团队。对小企业来说,不存在这个问题,但需要有一个经验丰富的敏捷教练或Scrum Master指导团队。

其次,针对选择的团队,调整好组织结构(确认PO,SM等角色),组织好人员(确保小团队内沟通顺畅),规定好需求(PO的知识储备和User Story的编写标准),搭建好架构(演进式架构),选择好方法和工具(Scrum方法、Unit Test、CI/CD等实践),布置好办公环境(看板、白板、Dashboard等),每一步相辅相成,都不能马虎。

“心急吃不了热豆腐”,对于试点前的准备工作来说,就是给团队成员以心理准备和技能储备的缓冲时间,有了这些准备,才有可能在敏捷转型中“事半功倍”。

试点推进过程

在试点推进过程中,其关键核心就是打造一支充满活力和战斗力的敏捷团队。因此,需要朝着这个目标采取一些方法去激活团队的活力。

比如,在试点进行前,为团队指定一个“社会契约”(这些规则需要由团队集体讨论确认达成共识)并张贴到所有团队成员都能看到的地方,保证团队能够有序和高效的运转。在推进试点进行中,定期开展“回顾会议”,引导团队成员自发思考每个迭代的不足和改进方法,使得团队能够做到持续改进,也锻炼团队的自组织能力。在试点过程中和结束后,通过“成绩墙”和“错题集”记录团队的成长,总结敏捷实践中的经验。

PS:针对敏捷回顾会议,我去年有专门写一篇文章来分享如何开好回顾会议,有兴趣的童鞋特别是Scrum Master可以阅读一下。

3 大规模推广

做试点时为了确认敏捷在企业中的可行性和积累踩坑经验,如果确认可行,就可以根据试点结果推广到其他团队了。

但是,规模化推广也并不等于简单拷贝复制,同一个框架不一定适合所有的团队。因为,试点涉及的主要是团队内部的敏捷,而规模化推广则还涉及到团队之间的敏捷。比如,当相互协作的团队个数达到某个程度的时候,管理的复杂度就上升了,使用管理小团队的方法就不够用了。

当前业界主要有两个规模化推广的框架 SaFe(Scaled Agile Framework)和 LeSS(Large Scale Scrum),它们是做规模化推广比较成熟的范式,可以为我们提供一些参考。有兴趣的童鞋,可以自行搜索查阅这两个框架的内容。在我之前所在的M公司的敏捷转型实践中,针对全员做了敏捷基础培训,对核心人员做Scrum Master或Product Owner能力培训或认证,使用Scrum of Scrum来进行跨团队协作的定期沟通,引入白板、电视机(Dashboard)、DevOps等工具营造好的环境氛围等。

规模化推广过程中,个人觉得最重要的有两件事:

(1)因地制宜确定方法

比如,针对纯运维类的项目团队,因为运维类项目开发的内容通常来自客户的建议或生产上的bug,比较零散且无规划,所以不一定适用Scrum,单纯适用看板可能更有效;针对产品较大,大团队拆分后小团队数量众多的情况,可能单纯的Scrum方法不一定能解决好团队协作和沟通,那么可能需要引入Scrum of Scrum会更好;

(2)以“项目”为中心转变为以“产品”为中心

比如,确定Product Owner负责制,统一对外沟通,作为业务代表人管理业务需求,让业务战略与产品战略保持一致,从而使得整个团队的目标也一致,所谓“劲往一处使”。

(3)端到端研发全流程向业务敏捷靠拢

比如,在整个产品研发流程中制定定期反馈机制,争取在每个环节都定期收集反馈,为全流程提供数据支持,便于团队回顾审视的时候识别问题和不足,能够帮助团队做到持续改进。

最后,正如上一篇中提到的,无论它是不是知名的框架,又或者它是否打着敏捷的名头又或者冠以敏捷,本身是无所谓的,也觉得并非要全盘采纳框架的所有方法,只要在具体实践中能够体现敏捷思想,帮助我们解决实际问题就是敏捷的好实践。

4 小结

一般来说,对中小企业来说,由于团队数量较少,所以一般不会涉及到规模化推广的阶段以及规模化框架的使用,只要不断学习和实践Scrum并且有敏捷教练指导就可以做好敏捷实践。但是对于大型企业来说,规模化推广是必不可少的一个环节,这其实也意味着这种企业已经克服了一些困难并取得了一定成果了,需要定制度、定反馈机制、定团队文化和环境等等方式去帮助整个企业完成规模化的推广并持续改进。

参考资料

(1)宋宁,《说透敏捷》(极客时间课程)

(2)Jeff Sutherland & Ken Schwaber《Scrum Guide(2020版)》

(3)周金根,《敏捷开发的12条敏捷原则》

(4)Mike Cohn,《Scrum敏捷软件开发

(5)一些企业内训的敏捷培训资料

作者:周旭龙

出处:https://edisonchou.cnblogs.com

本文版权归作者和博客园共有,欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出原文链接。

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2020-12-22 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
​解密Prompt系列33. LLM之图表理解任务-多模态篇
上一章我们介绍了纯文本模态的表格理解任务,这一章我们聚焦多模态图表数据。先讨论下单纯使用prompt的情况下,图片和文字模态哪种表格模型理解的效果更好更好,再说下和表格相关的图表理解任务的微调方案。
风雨中的小七
2024/07/04
8320
​解密Prompt系列33. LLM之图表理解任务-多模态篇
ICLR 2025 Oral | IDEA联合清华北大提出ChartMoE:探究下游任务中多样化对齐MoE的表征和知识
ChartMoE 是一个以 InternLM-XComposer2 模型为训练起点、引入 MoE Connector 结构的多模态大语言模型,具有先进的图表理解、图表重绘、图表编辑、重要部分高亮、转换图表类型等能力。ChartMoE 为图表(Chart)这种独特于自然图像的输入,设计了多阶段的图文对齐方式,每一个阶段产物都是 MoE Connector 中的一个专家,这样的训练方式和模型设计不仅能获得更全面的视觉表征、显著提高 MLLM 的图表理解能力,还可以在不加入通用数据的情景下,减少模型对通用知识的遗忘。
机器之心
2025/04/02
550
ICLR 2025 Oral | IDEA联合清华北大提出ChartMoE:探究下游任务中多样化对齐MoE的表征和知识
智源Emu开源!超越DeepMind,刷新8项SOTA,首个「多模态-to-多模态」全能高手
首个打通从多模态输入到多模态输出的「全能高手」,统一多模态预训练模型Emu开源,来自智源研究院「悟道·视界」研究团队。
新智元
2023/08/07
3910
智源Emu开源!超越DeepMind,刷新8项SOTA,首个「多模态-to-多模态」全能高手
【论文复现】语言模型中的多模态链式推理
本文主要对2023一篇论文《Multimodal Chain-of-Thought Reasoning in Language Models》主要内容进行介绍。
Eternity._
2024/11/23
2360
【论文复现】语言模型中的多模态链式推理
李航:关于大模型的思考及研究热点
ChatGPT 和 GPT4,相比传统的深度学习技术,如 BERT,主要是在智能性和通用性上取得了巨大突破。具备语言、知识、简单推理能力,能够很好地近似人的智能行为。不需要标注数据就可以在不同领域完成不同任务,也就是进行零样本或小样本学习。
Python数据科学
2023/10/30
2690
李航:关于大模型的思考及研究热点
7B 最强多模态文档理解大模型 mPLUG-DocOwl 1.5
多模态大模型 Multimodal LLM (MLLM) 相关研究致力于实现通用的图片理解,其中类别多样、文字丰富且排版复杂的文档图片一直是阻碍多模态大模型实现通用的痛点。当前爆火的多模态大模型QwenVL-Max, Gemini, Claude3, GPT4V都具备很强的文档图片理解能力,然而开源模型在这个方向上的进展缓慢,距离这些闭源大模型具有很大差距 (例如DocVQA上开源7B SOTA 66.5,而Gemini Pro 1.5为86.5)。
CV君
2024/03/25
8660
7B 最强多模态文档理解大模型 mPLUG-DocOwl 1.5
GPT4平替?业界首个公开使用的通用文档理解多模态大语言模型mPLUG-DocOwl尝鲜报告
ChatGPT、GPT4发布以来,国内外已经出现了许多纯文本多模态的工作,在部分指标上也有着逼近甚至超越的势头。然而其中一个在GPT4技术报告中展示的能力“文档理解”却一直没有模型涉足.多模态大语言模型mPLUG-Owl的升级版mPLUG-DocOwl,专注提升通用文档理解能力,并在ModelScope上线了体验Demo。我们赶紧去看下文档理解这个难题被解决得怎么样了。
CV君
2023/08/31
3560
GPT4平替?业界首个公开使用的通用文档理解多模态大语言模型mPLUG-DocOwl尝鲜报告
达摩院猫头鹰mPLUG-Owl亮相:模块化多模态大模型,追赶GPT-4多模态能力
机器之心专栏 机器之心编辑部 纯文本大模型方兴未艾,多模态领域也开始涌现出多模态大模型工作,地表最强的 GPT-4 具备读图的多模态能力,但是迟迟未向公众开放体验,于是乎研究社区开始在这个方向上发力研究并开源。MiniGPT-4 和 LLaVA 问世不久,阿里达摩院便推出 mPLUG-Owl ,一个基于模块化实现的多模态大模型。 mPLUG-Owl 是阿⾥巴巴达摩院 mPLUG 系列的最新工作,延续了 mPLUG 系列的模块化训练思想,把 LLM 升级为一个多模态大模型。在 mPLUG 系列工作中,之前
机器之心
2023/05/09
7080
达摩院猫头鹰mPLUG-Owl亮相:模块化多模态大模型,追赶GPT-4多模态能力
MLLM首篇综述 | 一文全览多模态大模型的前世、今生和未来
近年来,大型语言模型取得了显著进展。通过扩大数据大小和模型大小,这些LLM提高了惊人的涌现能力,通常包括上下文学习(ICL)、指令跟随和思想链(CoT)。尽管LLM在大多数自然语言处理(NLP)任务中表现出了令人惊讶的Zero/Few-Shot推理性能,但它们天生对视觉“视而不见”,因为它们只能理解离散文本。
集智书童公众号
2023/09/04
13.3K0
MLLM首篇综述 | 一文全览多模态大模型的前世、今生和未来
机器人领域首个开源视觉-语言操作大模型,RoboFlamingo框架激发开源VLMs更大潜能
近年来,大模型的研究正在加速推进,它逐渐在各类任务上展现出多模态的理解和时间空间上的推理能力。机器人的各类具身操作任务天然就对语言指令理解、场景感知和时空规划等能力有着很高的要求,这自然引申出一个问题:能不能充分利用大模型能力,将其迁移到机器人领域,直接规划底层动作序列呢?
机器之心
2024/01/17
8360
机器人领域首个开源视觉-语言操作大模型,RoboFlamingo框架激发开源VLMs更大潜能
清华团队攻破GPT-4V、谷歌Bard等模型,商用多模态大模型也脆弱?
GPT-4 近日开放了视觉模态(GPT-4V)。以 GPT-4V、谷歌 Bard 为代表的多模态大语言模型 (Multimodal Large Language Models, MLLMs) 将文本和视觉等模态相结合,在图像描述、视觉推理等各种多模态任务中展现出了优异的性能。然而,视觉模型长久以来存在对抗鲁棒性差的问题,而引入视觉模态的 MLLMs 在实际应用中仍然存在这一安全风险。最近一些针对开源 MLLMs 的研究已经证明了该漏洞的存在,但更具挑战性的非开源商用 MLLMs 的对抗鲁棒性还少有人探索。
机器之心
2023/10/24
5340
清华团队攻破GPT-4V、谷歌Bard等模型,商用多模态大模型也脆弱?
图文理解能力强大!多模态对话生成模型:mPLUG-Owl,已开源!
miniGPT-4的热度至今未减,距离LLaVA的推出也不到半个月,而新的看图聊天模型已经问世了。今天要介绍的模型是一款类似于miniGPT-4和LLaVA的多模态对话生成模型,它的名字叫mPLUG-Owl。
CV君
2023/08/31
6790
图文理解能力强大!多模态对话生成模型:mPLUG-Owl,已开源!
【论文解读】多模态大模型综述
多模态大语言模型(MLLM)是近年来一个新兴的研究热点,它利用强大的大语言模型(LLM)作为大脑进行多模态研究。MLLM令人惊讶的涌现能力,比如基于图像写故事和无ocr的数学推理,在传统方法中是罕见的,这表明了一条通往人工通用智能的潜在道路。本文旨在对MLLM的最新研究进展进行跟踪和总结。首先,论文提出了MLLM的公式,并描述了它的相关概念。然后,论文讨论了关键的技术和应用,包括多模态指令调整(M-IT)、多模态上下文学习(M-ICL)、多模态思维链(M-CoT)和LLM辅助视觉推理(LAVR)。最后,论文讨论了现有的挑战,并指出了很有前景的研究方向。鉴于MLLM的时代才刚刚开始,作者将继续更新这项调查,并希望它能激发更多的研究。
合合技术团队
2024/03/12
6.4K0
【论文解读】多模态大模型综述
斯坦福 | 提出OctopusV3,参数不超1B,媲美GPT-4V和GPT-4
多模态 AI 系统的特点在于能够处理和学习包括自然语言、视觉、音频等各种类型的数据,从而指导其行为决策。近期,将视觉数据纳入大型语言模型 (如 GPT-4V) 的研究取得了重要进展,但如何有效地将图像信息转化为 AI 系统的可执行动作仍面临挑战。
ShuYini
2024/05/06
2350
斯坦福 | 提出OctopusV3,参数不超1B,媲美GPT-4V和GPT-4
字节团队提出猞猁Lynx模型:多模态LLMs理解认知生成类榜单SoTA
当前大语言模型 (Large Language Models, LLMs) 如 GPT4 在遵循给定图像的开放式指令方面表现出了出色的多模态能力。然而,这些模型的性能严重依赖于对网络结构、训练数据和训练策略等方案的选择,但这些选择并没有在先前的文献中被广泛讨论。此外,目前也缺乏合适的基准 (benchmarks) 来评估和比较这些模型,限制了多模态 LLMs 的 发展。
机器之心
2023/08/08
4870
字节团队提出猞猁Lynx模型:多模态LLMs理解认知生成类榜单SoTA
谷歌发布最新「读屏」AI!PaLM 2-S自动生成数据,多项理解任务刷新SOTA
研究人员将其称为ScreenAI,是一种理解用户界面和信息图表的全新视觉语言模型。
新智元
2024/03/05
2340
谷歌发布最新「读屏」AI!PaLM 2-S自动生成数据,多项理解任务刷新SOTA
字节、华师、华科联合提出TextSquare,8B参数量的文字多模态大模型指标逼近GPT4V
近期多模态大模型(MLLM)在文本中心的VQA领域取得了显著进展,尤其是多个闭源的例如GPT4V和Gemini,甚至在某些方面展现了超越人类的能力。但是开源模型的性能还远远落后于闭源模型,最近许多开创性的研究例如MonKey、LLaVAR、TG-Doc、ShareGPT4V等已开始关注指令微调数据不足的问题,尽管这些努力取得了显著的效果,但仍存在一些问题,图像描述数据和VQA数据属于不同的领域,图像内容呈现的粒度和范围存在不一致性。此外,合成数据的规模相对较小,使得MLLM无法充分发挥潜力。
CV君
2024/04/25
2460
字节、华师、华科联合提出TextSquare,8B参数量的文字多模态大模型指标逼近GPT4V
核心指标超越GPT-4 Turbo!商汤多模态大模型「开箱」
在商汤最新推出的日日新5.0版本中,在语言、知识、推理、数学、代码等领域的能力有明显提升,在主流客观评测上达到或超越GPT-4 Turbo。
AI掘金志
2024/04/28
4080
核心指标超越GPT-4 Turbo!商汤多模态大模型「开箱」
浙大 & 西湖 | 提出Cobra多模态大模型,整合Mamba,计算效率大幅提升!
近年来,多模态大型语言模型(MLLM)在多个领域上取得了成功,但现有MLLM主要是基于Transformer训练得到,计算效率较低。为此,本文作者提出了Cobra,一个具有线性计算复杂度的MLLM,它将Mamba语言模型整合到了视觉模态中。实验结果显示,Cobra在性能上与最先进的方法相当,速度更快,尤其在处理视觉错觉和空间关系判断方面表现突出。Cobra的参数量只有LLaVA的43%,但性能相当。
ShuYini
2024/03/27
8060
浙大 & 西湖 | 提出Cobra多模态大模型,整合Mamba,计算效率大幅提升!
语言模型中的多模态链式推理
本文主要对2023一篇论文《Multimodal Chain-of-Thought Reasoning in Language Models》主要内容进行介绍。
Srlua
2024/12/01
3070
语言模型中的多模态链式推理
推荐阅读
​解密Prompt系列33. LLM之图表理解任务-多模态篇
8320
ICLR 2025 Oral | IDEA联合清华北大提出ChartMoE:探究下游任务中多样化对齐MoE的表征和知识
550
智源Emu开源!超越DeepMind,刷新8项SOTA,首个「多模态-to-多模态」全能高手
3910
【论文复现】语言模型中的多模态链式推理
2360
李航:关于大模型的思考及研究热点
2690
7B 最强多模态文档理解大模型 mPLUG-DocOwl 1.5
8660
GPT4平替?业界首个公开使用的通用文档理解多模态大语言模型mPLUG-DocOwl尝鲜报告
3560
达摩院猫头鹰mPLUG-Owl亮相:模块化多模态大模型,追赶GPT-4多模态能力
7080
MLLM首篇综述 | 一文全览多模态大模型的前世、今生和未来
13.3K0
机器人领域首个开源视觉-语言操作大模型,RoboFlamingo框架激发开源VLMs更大潜能
8360
清华团队攻破GPT-4V、谷歌Bard等模型,商用多模态大模型也脆弱?
5340
图文理解能力强大!多模态对话生成模型:mPLUG-Owl,已开源!
6790
【论文解读】多模态大模型综述
6.4K0
斯坦福 | 提出OctopusV3,参数不超1B,媲美GPT-4V和GPT-4
2350
字节团队提出猞猁Lynx模型:多模态LLMs理解认知生成类榜单SoTA
4870
谷歌发布最新「读屏」AI!PaLM 2-S自动生成数据,多项理解任务刷新SOTA
2340
字节、华师、华科联合提出TextSquare,8B参数量的文字多模态大模型指标逼近GPT4V
2460
核心指标超越GPT-4 Turbo!商汤多模态大模型「开箱」
4080
浙大 & 西湖 | 提出Cobra多模态大模型,整合Mamba,计算效率大幅提升!
8060
语言模型中的多模态链式推理
3070
相关推荐
​解密Prompt系列33. LLM之图表理解任务-多模态篇
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档