首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >挑战前端“三大框架”的解决方案

挑战前端“三大框架”的解决方案

作者头像
程序员老鱼
发布于 2023-05-23 11:29:28
发布于 2023-05-23 11:29:28
51200
代码可运行
举报
文章被收录于专栏:前端实验室前端实验室
运行总次数:0
代码可运行

大家好,我是前端实验室的大师兄!

最近这些年,随着三大框架React、Vue、Angular版本逐渐稳定,前端技术栈的迭代似乎缓慢下来。

如果我们把目光拉伸到未来十年的视角,前端行业会出现哪些框架有可能会挑战React、Vue、Angular呢?

今天大师兄要介绍的 Svelte 应该是其中之一。

简介

Svelte 是一个构建 web 应用程序的工具。它被预测为未来十年可能取代React和Vue等其他框架的新兴技术。

有一个关键的区别:Svelte 在 构建/编译阶段 将你的应用程序转换为理想的 JavaScript 应用,而不是在 运行阶段 解释应用程序的代码。这意味着你不需要为框架所消耗的性能付出成本,并且在应用程序首次加载时没有额外损失。

你可以使用 Svelte 构建整个应用程序,也可以逐步将其融合到现有的代码中。你还可以将组件作为独立的包(package)交付到任何地方,并且不会有传统框架所带来的额外开销。

发展趋势

开发者满意度

从2019年开始, Svelte出现在榜单中。2020年,Svelte在满意度排行榜中超越了react,跃升到了第一位。在过去的两年里,也是碾压三大框架的存在,还能与最新的 Solid 并驾齐驱(都是90%)。

开发者兴趣度

在开发者兴趣度方面,在过去的四年里,Svelte 一直蝉联了第一。

市场占有率

2020年,Svelte 的市场占有率从第6名跃升到第4名,仅次于 React、Angular、Vue 老牌前端框架。

随着 Svelte 在社区里慢慢流行起来,它的占有率还会提升。

在最新的《State of JS survey》中,Svelte 被预测为未来十年可能取代React和Vue等其他框架的新兴技术。

Svelte 特点

No Runtime —— 无运行时代码

React 和 Vue 都是基于运行时的框架,当用户在你的页面进行各种操作改变组件的状态时,框架的运行时会根据新的组件状态(state)计算(diff)出哪些DOM节点需要被更新,从而更新视图。

而 Svelte 会在编译阶段将代码编译到更加贴近dom操作的代码。或者说,Svelte 生成的是命令式的dom创建过程,直接操作Dom。

Less Code —— 更少的代码

我们直接来看官网的例子:

实现的功能也很简单,就是两个Input的值求和,然后展示出来。图中是用svelte编写的代码。看下 React 书写的版本:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
import React, { useState } from 'react';

export default () => { 

    const [a, setA] = useState(1); 
    const [b, setB] = useState(2); 
    function handleChangeA(event) { setA(+event.target.value); } 
    function handleChangeB(event) { setB(+event.target.value); }

    return ( 

       <div> 
          <input type="number" value={a} onChange={handleChangeA}/> 
          <input type="number" value={b} onChange={handleChangeB}/> 
          <p>{a} + {b} = {a + b}</p> 
       </div> 

    );

}

再来看下 Vue 版本:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
<template> 

    <div> 
       <input type="number" v-model.number="a"> 
       <input type="number" v-model.number="b"> 
       <p>{{a}} + {{b}} = {{a + b}}</p> 
   </div> 

</template> 

<script> 

    export default { 
       data: function() { 
          return { a: 1, b: 2 }; 
       } 
    }; 

</script>

三者对比:

框架名称

svelte

react

vue

demo字符数

145

445

263

单纯从代码字符数上,Svelte比Vue和React少。但就此得出说svelte的编码体积更小,这样是不对的。我们一起来看下编译后的对比:

框架名称

svelte

react

vue

体积

42k

22k

1.6k

从上述对比中可以看出,svelte 编译后的体积很少,包体积1.6k,对于一般中小型项目而言,整体运行的代码(编译后的代码+包体积)还是比较小的,所以可以说svelte项目的代码较小。

PS: 对于大型项目而言,因为svelte随着业务的进行,代码编译产物陡峭,大型项目体积并不会比react、vue等小,因此需要辩证看待。

svelte 生成的是命令式的dom创建过程,虚拟 dom 的框架生成的是虚拟 dom 结构创建的过程(vdom 渲染函数)。在基于虚拟 DOM 的框架里,虚拟dom到真实dom的转换过程,被封装在运行时里,所以每个组件虚拟 dom 创建过程仅仅是数据结构的表述,更为紧凑,代码产物也就比较少。

Hight-Performance ——高性能

在Virtual Dom已经是前端框架标配的今天, Svelte 声称自己是没有Virtual Dom加持的, 那性能如何呢?

Jacek Schae 在《A RealWorld Comparison of Front-End Frameworks with Benchmarks》中用主流的前端框架来编写 RealWorld 应用,使用 Chrome 的Lighthouse Audit测试性能,得出数据是Svelte 略逊于Vue, 但好于 React。

Svelte 性能还不错,至少没有我们预期的那么糟糕。

PS:sveltedom 是把数据和真实dom之间的映射关系,在编译的时候就通过AST等算出来,保存在p函数中。p函数就是一堆“if(...){...}”判断,直接保证dom的更新。同时,这也说明“如果项目中涉及了dom操作越多,那这个p函数就越大,编译后的代码提交就会增大”。

其他

本文没有涉及 Svelte 的语法,且 Svelte 的语法极其简单,官方教程学习文档也比较详细,相信大家很快就会上手语法的,这里就不做官网搬运工了。附上地址供大家参阅。

官方地址 https://www.sveltejs.cn/

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2023-02-28,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 前端实验室 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
突破边界:探索Grounding-DINO,重新定义视觉与语言的交汇
Grounding-DINO 是一种创新的视觉-语言模型,旨在提升视觉推理和对象检测任务的表现。Grounding-DION的独特之处在于其能够“感知”并与语言中的实体或属性对应,从而精确定位图像中的目标,并根据文本描述进行分类和推理。该模型不仅提高了多模态任务的准确性,还在跨模态推理领域展示了卓越的应用潜力,适用于复杂的视觉理解和交互场景。
CoovallyAIHub
2025/01/09
8340
突破边界:探索Grounding-DINO,重新定义视觉与语言的交汇
微软Florence-2官宣开源,一统视觉基础模型!华人团队联手打造
只需要一个提示,就可以指示模型完成诸如字幕、对象检测、分割等各种各样的CV和CV语言任务。
新智元
2024/06/27
1.5K0
微软Florence-2官宣开源,一统视觉基础模型!华人团队联手打造
国科大&港中文提出带视觉语言验证和迭代推理的Visual Grounding框架,性能SOTA,代码已开源!(CVPR2022)
Visual grounding是一项定位自然语言表达所指示目标的任务。现有的方法将通用目标检测框架扩展到这个问题上。他们将Visual grounding建立在来自预先生成的proposals或anchors,并将这些特征与文本嵌入融合,以定位文本提到的目标。然而,从这些阶段预定义的位置建模视觉特征可能无法充分利用文本查询中的视觉交叉模态文本和属性信息,这限制了解码器的性能。
CV君
2022/09/01
1K0
国科大&港中文提出带视觉语言验证和迭代推理的Visual Grounding框架,性能SOTA,代码已开源!(CVPR2022)
决策过程是魔法还是科学?首个多模态大模型的可解释性综述全面深度剖析
本文由香港科技大学(广州)、上海人工智能实验室、中国人民大学及南洋理工大学联合完成。主要作者包括香港科技大学(广州)研究助理党运楷、黄楷宸、霍家灏(共同一作)、博士生严一博、访学博士生黄思睿、上海AI Lab青年研究员刘东瑞等,通讯作者胡旭明为香港科技大学/香港科技大学(广州)助理教授,研究方向为可信大模型、多模态大模型等。
机器之心
2025/02/14
3600
决策过程是魔法还是科学?首个多模态大模型的可解释性综述全面深度剖析
会“思考”的目标检测模型来了!IDEA提出Rex-Thinker:基于思维链的指代物体检测模型,准确率+可解释性双突破
在日常生活中,我们常通过语言描述寻找特定物体:“穿蓝衬衫的人”“桌子左边的杯子”。如何让 AI 精准理解这类指令并定位目标,一直是计算机视觉的核心挑战。现有方法常被两大问题困扰: 决策过程不透明 (“黑箱” 预测)和 拒识能力不足 (对不存在物体输出错误结果)。
机器之心
2025/07/02
1210
会“思考”的目标检测模型来了!IDEA提出Rex-Thinker:基于思维链的指代物体检测模型,准确率+可解释性双突破
微软提出:多模态视觉语言理解和视觉定位的大一统
a、 A Unified VL Formulation and Architecture GLIPv2的关键是classification-to-matching技巧,它将任何task-specific fixed-vocab分类问题重新表述为task-agnostic open-vocabulary视觉语言匹配问题,例如CLIP中将图像分类重新表述为图像-文本匹配,使模型可以直接从原始的大量的图像-文本对数据中学习,实现了强大的zero-shot效果。在GLIPv2中,将传统视觉模型中的语义分类线性层替换为视觉语言匹配点积层。 如图1,GLIPv2由一个双编码器
zenRRan
2023/03/03
1.3K0
微软提出:多模态视觉语言理解和视觉定位的大一统
17篇入选CVPR 2020,腾讯优图 9 篇精选论文详解
全球计算机视觉顶级会议CVPR2020 (IEEE Conference on Computer Vision and Pattern Recognition,即IEEE国际计算机视觉与模式识别会议) 即将于2020年6月14日-19日在美国西雅图召开。
AI科技评论
2020/03/10
1.2K0
17篇入选CVPR 2020,腾讯优图 9 篇精选论文详解
动态 | HCP Lab 12篇论文入选世界顶级计算机视觉会议CVPR 2019
全球计算机视觉三大顶会之一 CVPR 2019 (IEEE Conference on Computer Visionand Pattern Recognition) 于 6月 16~20日 在美国洛杉矶如期举办。
AI科技评论
2019/07/05
6940
动态 | HCP Lab 12篇论文入选世界顶级计算机视觉会议CVPR 2019
YOLOv13都来了,目标检测还卷得动吗?别急,还有这些新方向!
2025年已过半,AI领域依旧风起云涌。就在大家还在研究多模态和大模型融合时,YOLOv13 的发布再次把目标检测领域推上热搜,但目标检测,这个曾经被视为CV领域“基础中的基础”,如今也在被频繁问到:“还值得做吗?”但真是这样吗?其实除了 YOLO,还有 DETR、RT-DETR、DINO、Grounding DINO 等一批极具潜力的新模型正悄悄发力。今天我们就来聊聊 2025 年还能不能做目标检测,顺便盘一盘那些你可能还没关注的新方向。
CoovallyAIHub
2025/07/03
9540
YOLOv13都来了,目标检测还卷得动吗?别急,还有这些新方向!
2024年5月计算机视觉论文推荐:包括扩散模型、视觉语言模型、图像编辑和生成、视频处理和生成以及图像识别等各个主题
我们今天总结下2024年5月发表的最重要的论文,重点介绍了计算机视觉领域的最新研究和进展,包括扩散模型、视觉语言模型、图像编辑和生成、视频处理和生成以及图像识别等各个主题。
deephub
2024/06/03
4700
2024年5月计算机视觉论文推荐:包括扩散模型、视觉语言模型、图像编辑和生成、视频处理和生成以及图像识别等各个主题
Meta「分割一切」超进化版来了!IDEA领衔国内顶尖团队打造:检测、分割、生成一切,狂揽2k星
---- 新智元报道   编辑:桃子 好困 【新智元导读】Meta的SAM「分割一切」模型刚发布,国内团队就进行了二创,打造了一个最强的零样本视觉应用Grounded-SAM,不仅能分割一切,还能检测一切,生成一切。 Meta的「分割一切」模型横空出世后,已经让圈内人惊呼CV不存在了。 就在SAM发布后一天,国内团队在此基础上搞出了一个进化版本「Grounded-SAM」。 注:项目的logo是团队用Midjourney花了一个小时做的 Grounded-SAM把SAM和BLIP、Stable Di
新智元
2023/05/09
7980
Meta「分割一切」超进化版来了!IDEA领衔国内顶尖团队打造:检测、分割、生成一切,狂揽2k星
从2D到3D:无类别方法在单目3D目标检测中的应用与评估 !
识别单张图像中的物体一直是一个长期存在的计算机视觉任务,在机器人学和AR/VR等领域有广泛应用。在过去的几十年里,二维目标检测——在二维图像平面上识别和定位物体——在深度学习技术的进步和大型标注数据集的推动下取得了显著的进步。然而,仅识别固定的一组物体是有限的,因为实际环境中物体的多样性极大;仅在二维空间中检测物体对于大多数实际任务也是不足够的,因为世界及其物体存在于三维空间。
AIGC 先锋科技
2025/01/15
4900
从2D到3D:无类别方法在单目3D目标检测中的应用与评估 !
全新的多模态预训练范式:微软提出GLIP统一了对象检测和短语定位任务
作者:金克丝 (在读博士) 方向:多模态学习 学校:南京理工大学 「收录情况」:CVPR-2022 「论文链接」:https://arxiv.org/abs/2112.03857 「代码链接」:https://github.com/microsoft/GLIP 问题 方案 主要贡献 Grounded Language Image Pre-training a、Unified Formulation b、Language-Aware Deep Fusion c、Pre-training with Scala
zenRRan
2022/10/10
3.4K0
全新的多模态预训练范式:微软提出GLIP统一了对象检测和短语定位任务
计算视觉 | Nat.Methods | 一个用于跨九种模态的生物医学对象联合分割、检测和识别的基础模型
错误!!! - 待补充 [ul]- In each iteration i, we aggregate a batch from K mini-batches ({b}{1}^{i},\cdots ,,{b}{K}^{i}). For each mini-batch ({b}{k}^{i}), we randomly select dataset ({{\mathcal{D}}}{m}) for m = 1, ⋯, M with probability pm and sample the mini-batch without replacement. - Concatenate all mini-batches ({B}^{i}=[{b}{1}^{i},\cdots ,,{b}{K}^{i}]). - Perform training step with batch Bi.
生信菜鸟团
2025/02/06
2460
计算视觉 | Nat.Methods | 一个用于跨九种模态的生物医学对象联合分割、检测和识别的基础模型
CVPR 2024 | 擅长处理复杂场景和语言表达,清华&博世提出全新实例分割网络架构MagNet
指代分割 (Referring Image Segmentation,RIS) 是一项极具挑战性的多模态任务,要求算法能够同时理解精细的人类语言和视觉图像信息,并将图像中句子所指代的物体进行像素级别的分割。RIS 技术的突破有望在人机交互、图像编辑、自动驾驶等诸多领域带来革命性变革。它能够极大地提升人机协作的效率和体验。尽管目前最先进的 RIS 算法已经取得了显著进展,但仍然面临着模态差异 (modality gap) 的问题,即图像和文本特征的分布并未完全对齐。这一问题在处理复杂的指代语言表达和罕见语境时尤为突出。
机器之心
2024/04/26
4620
CVPR 2024 | 擅长处理复杂场景和语言表达,清华&博世提出全新实例分割网络架构MagNet
27页综述,354篇参考文献!最详尽的视觉定位综述来了
27 页综述,354 篇参考文献!史上最详尽的视觉定位综述,内容覆盖过去十年的视觉定位发展总结,尤其对最近 5 年的视觉定位论文系统性回顾,内容既涵盖传统基于检测器的视觉定位,基于 VLP 的视觉定位,基于 MLLM 的视觉定位,也涵盖从全监督、无监督、弱监督、半监督、零样本、广义定位等新型设置下的视觉定位。
机器之心
2025/02/03
3170
27页综述,354篇参考文献!最详尽的视觉定位综述来了
多模态AI浪潮来袭,或造福数亿视障人群
外卖、打车、社交、视频……现代社会海量的应用服务着人们的工作和生活,让人非常方便地就能体验到丰富的物质和精神享受。但与此同时,“障碍人群”的需求也值得关注。 第二次全国残疾人抽样调查结果、国家统计局2021年第7次人口普查数据,以及中国互联网络信息中心官网等综合显示:我国有1691万视障人士、2780万听障人士、2977万肢体残障人士、2.6亿60岁及以上老年人、4.16亿非网民,以及大量的认知障碍人士。 其实,进一步说,“非障碍人群”可能也会遇到情境性障碍和临时性障碍,比如突如其来的伤病,在伤病期间,部分
AI科技大本营
2023/04/06
5680
多模态AI浪潮来袭,或造福数亿视障人群
ICML 2022 | 字节跳动 AI Lab 提出多模态模型:X-VLM,学习视觉和语言的多粒度对齐
写在前面 视觉语言预训练提高了许多下游视觉语言任务的性能,例如:图文检索、基于图片的问答或推理。有朋友要问了,除了在公开的学术任务上使用更大的模型/更多的数据/技巧把指标刷得很高,多模态预训练模型有什么实际应用呢? 为此,字节跳动 AI Lab Research 团队提出了X-VLM,首次提出学习多粒度的视觉和语言对齐。实验证明,这种预训练方法十分高效,模型规模无需很大,预训练数据无需很多, 仅216M参数量的X-VLM就能在广泛的多模态任务上获得了十分优秀的表现,例如:图像文本检索、基于图片的问答或推
量子位
2022/06/20
7920
ICML 2022 | 字节跳动 AI Lab 提出多模态模型:X-VLM,学习视觉和语言的多粒度对齐
一文搞懂:RAG、Agent与多模态的行业实践与未来趋势
大模型作为产业变革的核心引擎。通过RAG、Agent与多模态技术正在重塑AI与现实的交互边界。三者协同演进,不仅攻克了数据时效性、专业适配等核心挑战,更推动行业从效率革新迈向业务重构。本文将解析技术演进脉络、实战经验与未来图景,为读者提供前沿趋势的全局视角与产业升级的实践指引。
腾讯云开发者
2025/04/26
7980
一文搞懂:RAG、Agent与多模态的行业实践与未来趋势
精确率提升7.8%!首个多模态开放世界检测大模型MQ-Det登NeurIPS 2023
目前的开放世界目标检测模型大多遵循文本查询的模式,即利用类别文本描述在目标图像中查询潜在目标,但这种方式往往会面临「广而不精」的问题。
新智元
2023/10/25
1.9K0
精确率提升7.8%!首个多模态开放世界检测大模型MQ-Det登NeurIPS 2023
推荐阅读
突破边界:探索Grounding-DINO,重新定义视觉与语言的交汇
8340
微软Florence-2官宣开源,一统视觉基础模型!华人团队联手打造
1.5K0
国科大&港中文提出带视觉语言验证和迭代推理的Visual Grounding框架,性能SOTA,代码已开源!(CVPR2022)
1K0
决策过程是魔法还是科学?首个多模态大模型的可解释性综述全面深度剖析
3600
会“思考”的目标检测模型来了!IDEA提出Rex-Thinker:基于思维链的指代物体检测模型,准确率+可解释性双突破
1210
微软提出:多模态视觉语言理解和视觉定位的大一统
1.3K0
17篇入选CVPR 2020,腾讯优图 9 篇精选论文详解
1.2K0
动态 | HCP Lab 12篇论文入选世界顶级计算机视觉会议CVPR 2019
6940
YOLOv13都来了,目标检测还卷得动吗?别急,还有这些新方向!
9540
2024年5月计算机视觉论文推荐:包括扩散模型、视觉语言模型、图像编辑和生成、视频处理和生成以及图像识别等各个主题
4700
Meta「分割一切」超进化版来了!IDEA领衔国内顶尖团队打造:检测、分割、生成一切,狂揽2k星
7980
从2D到3D:无类别方法在单目3D目标检测中的应用与评估 !
4900
全新的多模态预训练范式:微软提出GLIP统一了对象检测和短语定位任务
3.4K0
计算视觉 | Nat.Methods | 一个用于跨九种模态的生物医学对象联合分割、检测和识别的基础模型
2460
CVPR 2024 | 擅长处理复杂场景和语言表达,清华&博世提出全新实例分割网络架构MagNet
4620
27页综述,354篇参考文献!最详尽的视觉定位综述来了
3170
多模态AI浪潮来袭,或造福数亿视障人群
5680
ICML 2022 | 字节跳动 AI Lab 提出多模态模型:X-VLM,学习视觉和语言的多粒度对齐
7920
一文搞懂:RAG、Agent与多模态的行业实践与未来趋势
7980
精确率提升7.8%!首个多模态开放世界检测大模型MQ-Det登NeurIPS 2023
1.9K0
相关推荐
突破边界:探索Grounding-DINO,重新定义视觉与语言的交汇
更多 >
LV.0
全球人工智能信息服务
目录
  • 简介
  • 发展趋势
    • 开发者满意度
    • 开发者兴趣度
    • 市场占有率
  • Svelte 特点
    • No Runtime —— 无运行时代码
    • Less Code —— 更少的代码
    • Hight-Performance ——高性能
  • 其他
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档