前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >人工智能帮你一键生成完美架构图

人工智能帮你一键生成完美架构图

原创
作者头像
霍格沃兹测试开发Muller老师
发布于 2024-05-20 03:59:16
发布于 2024-05-20 03:59:16
1.1K0
举报

简介

架构图通过图形化的表达方式,用于呈现系统、软件的结构、组件、关系和交互方式。一个明确的架构图可以更好地辅助业务分析、技术架构分析的工作。架构图的设计是一个有难度的任务,设计者必须要对业务、相关技术栈都非常清晰才能设计出来符合需求的架构图。

实践演练

  1. 有明确的业务的需求:业务需求必须要清晰不能模棱两可。如果业务需求不够清晰,那么在写提示词的之前,需要提前梳理一下业务需求,将它转换成ChatGPT可以理解的形式。
  2. 确定输出的格式:ChatGPT无法直接生成图形文件,但是可以通过plantuml等各种文字转图片的工具间接生成。
  • 提示词:现在我需要设计一个测试平台产品,这个产品需要包含测试用例的管理、用户管理、测试用例执行、执行记录管理,请根据以上信息帮我生成一张使用Plantuml绘制的类图。

以下是使用ChatGPT绘制出来的类图:

由上图可以看出 ChatGPT 将我们提到了的几个业务对象通过类的方式表示出来,甚至还罗列了可能包含的方法,如此一来便可以间接通过ChatGPT 以及 plantuml 工具生成对应的架构图。

总结

在这次实践中,我们使用了ChatGPT 提示词的以下技巧:

  1. 写清楚需求:明确产品的需求,让生成的架构图更贴近需求。
  2. 系统地测试变化:如果中间步骤输出的信息不满足需求,可以通过提示词进行纠正与补充。
  3. 将复杂的任务拆分为更简单的子任务:直接生成图片或文件 ChatGPT 无法完成,但是可以通过曲线救国的方式简介生成架构图代码,然后再转换为图片。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
暂无评论
推荐阅读
谷歌发布迄今最准确商用端到端语音识别系统,词错率将至5.6%,性能提升16%
新智元编译 【新智元导读】谷歌大脑和Speech团队发布最新端到端自动语音识别(ASR)模型,词错率将至5.6%,相比传统的商用方法实现了16%的改进。新方法利用联合训练,结合多种优化算法显著提升LAS模型的性能,在多语言/方言识别方面有令人瞩目的潜在应用。 论文:https://arxiv.org/pdf/1712.01769.pdf 在谷歌的各种语音搜索应用中使用的传统的自动语音识别(ASR)系统,包括一个声学模型(AM),一个发音模型(PM)和一个语言模型(LM),所有这些模型都是在不同的数据集
企鹅号小编
2018/02/28
1.1K0
谷歌发布迄今最准确商用端到端语音识别系统,词错率将至5.6%,性能提升16%
业界 | 谷歌发布全新端到端语音识别系统:词错率降至5.6%
选自Google Research 作者:Tara N. Sainath、Yonghui Wu 机器之心编译 参与:刘晓坤、李泽南 近日,谷歌发表博客介绍了他们对端到端语音识别模型的最新研究成果,新模型结合了多种优化算法提升 LAS 模型的性能。相较于分离训练的传统系统,新方法充分地发挥了联合训练的优势,在语音搜索任务中取得了当前业内最低的词错率结果。 当前最佳语音搜索模型 传统自动语音识别系统(ASR)一直被谷歌的多种语音搜索应用所使用,它由声学模型(AM)、发音模型(PM)和语言模型(LM)组成,所有这
机器之心
2018/05/10
1K0
学界 | 谷歌语音识别端到端系统单词错误率降至5.6%,较传统模型提升16%
AI 科技评论按:本文是由来自谷歌语音团队的科学家 Tara N. Sainath 和来自谷歌大脑团队的科学家 Yonghui Wu 共同撰写的,文中简单介绍了最新论文《State-of-the-art Speech Recognition With Sequence-to-Sequence Models》的主要思想与取得的成果以及 Listen-Attend-Spell(LAS)的端到端体系结构。AI 科技评论根据原文进行了编译。 提升语音识别的端到端模型 在谷歌各式各样的语音搜索应用中,都是基于传统的自
AI科技评论
2018/03/14
8850
学界 | 谷歌语音识别端到端系统单词错误率降至5.6%,较传统模型提升16%
谷歌手机输入法可以离线语音识别了!模型精度远超经典CTC
2012 年,在深度学习技术的帮助下,语音识别研究有了极大进展,很多产品开始采用这项技术,如谷歌的语音搜索。这也开启了该领域的变革:之后每一年都会出现进一步提高语音识别质量的新架构,如深度神经网络、循环神经网络、长短期记忆网络、卷积神经网络等等。然而,延迟仍然是重中之重:自动语音助手对请求能够提供快速及时的反应,会让人感觉更有帮助。
机器之心
2019/04/09
1.5K0
谷歌手机输入法可以离线语音识别了!模型精度远超经典CTC
谷歌提出新型自动语音识别数据增强大法,直接对频谱图“动刀”,提升模型表现
这种已经无处不在的音频转录成文本的技术,在缺乏足够大的数据集,模型过拟合严重。因此当前如何去扩增音频数据是个大问题。
量子位
2019/05/13
1.1K0
谷歌提出新型自动语音识别数据增强大法,直接对频谱图“动刀”,提升模型表现
重磅 | 小米首次公开发表论文:基于注意力机制的端对端语音识别(附论文翻译)
文/CSDN周翔 今年 3 月,雷军在两会的媒体沟通会上表示,“去年年初,小米设立了探索实验室,不久将有重磅级的人工智能产品发布。” 昨日(7 月 26 日)下午,传闻已久小米人工智能产品——小米 AI 音箱终于现身。在发布会上,王川特意提到了小米脑王刚博士带领的 NLP 团队,也就是说小米已经用上了自己的 NLP 技术。但是语音识别方面,小米 AI 音箱仍然采用了第三方的技术。 不过,AI科技大本营发现,就在几天前,小米在 arXiv 上首次提交了一篇端对端的语音识别论文。这篇论文实际上是西工大计算机
AI科技大本营
2018/04/27
1.7K0
重磅 | 小米首次公开发表论文:基于注意力机制的端对端语音识别(附论文翻译)
动态 | 语音识别如何突破延迟瓶颈?谷歌推出了基于 RNN-T 的全神经元设备端语音识别器
AI 科技评论按:在近二十年来,尤其是引入深度学习以后,语音识别取得了一系列重大突破,并一步步走向市场并搭载到消费级产品中。然而在用户体验上,「迟钝」可以算得上这些产品最大的槽点之一,这也意味着语音识别的延迟问题已经成为了该领域研究亟待解决的难点。日前,谷歌推出了基于循环神经网络变换器(RNN-T)的全神经元设备端语音识别器,能够很好地解决目前语音识别所存在的延迟难题。谷歌也将这项成果发布在了官方博客上,AI 科技评论进行编译如下。
AI科技评论
2019/05/08
1.3K0
动态 | 语音识别如何突破延迟瓶颈?谷歌推出了基于 RNN-T 的全神经元设备端语音识别器
【NLP】自然语言处理学习笔记(一)语音识别
本笔记参考的课程是李宏毅老师的自然语言处理 课程Link:https://aistudio.baidu.com/aistudio/education/lessonvideo/1000466
zstar
2022/06/19
1.8K0
【NLP】自然语言处理学习笔记(一)语音识别
全离线,无延迟!谷歌手机更新语音识别系统,模型大小仅80M
识别延迟一直是设备端语音识别技术需要解决的重大问题,谷歌手机今天更新了手机端的语音识别技术——Gboard,重磅推出了一款端到端、全神经、基于设备的语音识别器,支持Gboard中的语音输入。通过谷歌最新的(RNN-T)技术训练的模型,该模型精度超过CTC,并且只有80M,可直接在设备上运行。
大数据文摘
2019/03/19
2.1K0
全离线,无延迟!谷歌手机更新语音识别系统,模型大小仅80M
10小时训练数据打造多语种语音识别新高度
本文联合撰写: 腾讯:吕志强,颜京豪,胡鹏飞,康健,阿敏巴雅尔 导语|在刚刚结束的NIST OPENASR评测中,TEG AI语音联合清华大学,刷新世界小语种语音识别比赛6项第一。从2000年开始,NIST组织的RT(英文语音识别),LRE(语音语种识别),SRE(语音说话人识别),OPENKWS(语音关键词识别)等比赛一直是语音届的标杆竞赛,其组织比赛方向也可以看出目前学术和工业界的语音研究发展方向。长期以来,NIST组织的语音比赛受到了来自世界一线的研究单位支持与参与。而2020年新增的OPENASR
腾讯高校合作
2021/01/07
1.7K0
基于无监督预训练的语音识别技术落地实践 火山语音表示有话要说
 点击上方“LiveVideoStack”关注我们 ▲扫描图中二维码或点击阅读原文▲ 了解音视频技术大会更多信息 ---- 一直以来,火山语音团队都为时下风靡的视频平台提供基于语音识别技术的智能视频字幕解决方案,简单来说就是可以自动将视频中的语音和歌词转化成文字,来辅助视频创作的功能。但伴随平台用户的快速增长以及对语言种类更加丰富多样的要求,传统采用有监督学习技术来解决的办法日渐遭遇瓶颈,这让团队着实犯了难。 众所周知,传统的有监督学习会对人工标注的有监督数据产生严重依赖,尤其在大语种的持续优化以及小语
LiveVideoStack
2023/04/04
7650
基于无监督预训练的语音识别技术落地实践 火山语音表示有话要说
【论文推荐】最新5篇语音识别(ASR)相关论文—音频对抗样本、对抗性语音识别系统、声学模型、序列到序列、口语可理解性矫正
【导读】专知内容组整理了最近五篇语音识别(Automatic Speech Recognition, ASR)相关文章,为大家进行介绍,欢迎查看! 1. Audio Adversarial Examples: Targeted Attacks on Speech-to-Text(音频对抗样本:针对语音到文本的攻击) ---- ---- 作者:Nicholas Carlini,David Wagner 摘要:We construct targeted audio adversarial examples on
WZEARW
2018/04/13
2.9K0
【论文推荐】最新5篇语音识别(ASR)相关论文—音频对抗样本、对抗性语音识别系统、声学模型、序列到序列、口语可理解性矫正
用于语音识别的数据增强
语音识别的目标是把语音转换成文本,这项技术在我们生活中应用很广泛。比如说谷歌语音助手和亚马逊的 Alexa ,就是把我们的声音作为输入然后转换成文本,来理解我们的意图。
AI研习社
2019/06/14
2.5K0
用于语音识别的数据增强
从不温不火到炙手可热:语音识别技术简史
【导读】语音识别自半个世纪前诞生以来,一直处于不温不火的状态,直到 2009 年深度学习技术的长足发展才使得语音识别的精度大大提高,虽然还无法进行无限制领域、无限制人群的应用,但也在大多数场景中提供了一种便利高效的沟通方式。本篇文章将从技术和产业两个角度来回顾一下语音识别发展的历程和现状,并分析一些未来趋势,希望能帮助更多年轻技术人员了解语音行业,并能产生兴趣投身于这个行业。
AI科技大本营
2019/08/23
1.7K0
从不温不火到炙手可热:语音识别技术简史
利用 AssemblyAI 在 PyTorch 中建立端到端的语音识别模型
这篇文章是由AssemblyAI的机器学习研究工程师Michael Nguyen撰写的。AssemblyAI使用Comet记录、可视化和了解模型开发流程。
AI科技大本营
2020/06/16
1.6K0
谷歌的野心:通用语音识别大模型已经支持100+语言
选自googleblog 机器之心编译 编辑:小舟、杜伟 谷歌表示,推出通用语音模型(USM)是其未来支持 1000 种语言的关键一步。 去年 11 月,谷歌宣布推出「1000 种语言计划」,旨在构建一个机器学习 (ML) 模型,支持世界上使用最广泛的 1000 种语言,从而为全球数十亿人带来更大的包容性。然而,其中一些语言的使用人数不到两千万,因此核心挑战是如何支持使用人数相对较少或可用数据有限的语言。 现在,谷歌公开了更多有关通用语音模型 (USM) 的信息,这是支持 1000 种语言的第一步。USM
机器之心
2023/03/29
6220
谷歌的野心:通用语音识别大模型已经支持100+语言
Attention-lvcsr、Residual LSTM…你都掌握了吗?一文总结语音识别必备经典模型(三)
 机器之心专栏 本专栏由机器之心SOTA!模型资源站出品,每周日于机器之心公众号持续更新。 本专栏将逐一盘点自然语言处理、计算机视觉等领域下的常见任务,并对在这些任务上取得过 SOTA 的经典模型逐一详解。前往 SOTA!模型资源站(sota.jiqizhixin.com)即可获取本文中包含的模型实现代码、预训练模型及 API 等资源。 本文将分 3 期进行连载,共介绍 17 个在语音识别任务上曾取得 SOTA 的经典模型。 第 1 期:NNLM、RNNLM、LSTM-RNNLM、Bi-lstm、Bi-RN
机器之心
2023/02/23
7850
Attention-lvcsr、Residual LSTM…你都掌握了吗?一文总结语音识别必备经典模型(三)
CNN 在语音识别中的应用
本文介绍了语音识别技术中的端到端模型、基于CTC的序列模型、基于序列学习的注意力机制模型、基于3D卷积神经网络的语音识别系统等。其中,端到端模型可以直接从原始音频数据中学习到针对语音识别的抽象表示,具有较好的可扩展性和鲁棒性;而基于CTC的序列模型则通过连接主义学习的方法,将CTC定义的序列映射问题转化为神经网络中的参数优化问题,进一步提高了语音识别的准确率;基于序列学习的注意力机制模型则借鉴了语言学中的注意力机制,通过对输入序列进行加权处理,进一步提高了模型的识别准确率;基于3D卷积神经网络的语音识别系统则利用3D卷积核对输入序列进行卷积处理,提取出序列中的特征信息,进一步提高了模型的识别准确率。
serena
2017/10/20
9.2K3
CNN 在语音识别中的应用
IBM宣称人类语音识别词错率实际应为5.1%,自家系统已突破至5.5%
选自IBM 作者:George Saon 机器之心编译 参与:吴攀、黄小天 去年十月,微软人工智能与研究部门的一个研究者和工程师团队报告他们的语音识别系统实现了和专业速录员相当甚至更低的词错率(WER)——达到了 5.9%,参考机器之心文章《重磅 | 微软语音识别实现历史性突破:语音转录达到专业速录员水平(附论文)》。但 IBM 官方博客今日发文宣称人类的水平实际上应该是 5.1%,而同时该文章还表示 IBM 的系统的词错率已经超越了之前微软报告的最佳水平,达到了 5.5%。IBM 宣称这是一个全新的突破,
机器之心
2018/05/07
6510
IBM宣称人类语音识别词错率实际应为5.1%,自家系统已突破至5.5%
学界 | 词错率2.97%:云从科技刷新语音识别世界纪录
云从表示,这已是云从在近半年以来第二次宣布刷新世界纪录。今年 4 月,云从科技跨镜追踪技术(ReID)技术在 Market-1501,DukeMTMC-reID,CUHK03 三个数据集刷新了世界纪录,其中最高在 Market-1501 上的首位命中率(Rank-1 Accuracy)达到 96.6%,让跨镜追踪技术(ReID)技术在准确率上首次达到商用水平。
机器之心
2018/12/05
7090
推荐阅读
谷歌发布迄今最准确商用端到端语音识别系统,词错率将至5.6%,性能提升16%
1.1K0
业界 | 谷歌发布全新端到端语音识别系统:词错率降至5.6%
1K0
学界 | 谷歌语音识别端到端系统单词错误率降至5.6%,较传统模型提升16%
8850
谷歌手机输入法可以离线语音识别了!模型精度远超经典CTC
1.5K0
谷歌提出新型自动语音识别数据增强大法,直接对频谱图“动刀”,提升模型表现
1.1K0
重磅 | 小米首次公开发表论文:基于注意力机制的端对端语音识别(附论文翻译)
1.7K0
动态 | 语音识别如何突破延迟瓶颈?谷歌推出了基于 RNN-T 的全神经元设备端语音识别器
1.3K0
【NLP】自然语言处理学习笔记(一)语音识别
1.8K0
全离线,无延迟!谷歌手机更新语音识别系统,模型大小仅80M
2.1K0
10小时训练数据打造多语种语音识别新高度
1.7K0
基于无监督预训练的语音识别技术落地实践 火山语音表示有话要说
7650
【论文推荐】最新5篇语音识别(ASR)相关论文—音频对抗样本、对抗性语音识别系统、声学模型、序列到序列、口语可理解性矫正
2.9K0
用于语音识别的数据增强
2.5K0
从不温不火到炙手可热:语音识别技术简史
1.7K0
利用 AssemblyAI 在 PyTorch 中建立端到端的语音识别模型
1.6K0
谷歌的野心:通用语音识别大模型已经支持100+语言
6220
Attention-lvcsr、Residual LSTM…你都掌握了吗?一文总结语音识别必备经典模型(三)
7850
CNN 在语音识别中的应用
9.2K3
IBM宣称人类语音识别词错率实际应为5.1%,自家系统已突破至5.5%
6510
学界 | 词错率2.97%:云从科技刷新语音识别世界纪录
7090
相关推荐
谷歌发布迄今最准确商用端到端语音识别系统,词错率将至5.6%,性能提升16%
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档