前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >格式塔原理

格式塔原理

作者头像
宇相
发布于 2022-03-22 16:38:56
发布于 2022-03-22 16:38:56
1.7K0
举报
文章被收录于专栏:理论坞理论坞

格式塔是德文“Gestalt”的译音,意思是“完形”,即具有不同部分分离特性的有机整体。这种整体性应用于心理学中,产生了格式塔心理学,在国内又称作“完形心理学”。

格式塔心理学诞生于1912年,是由德国心理学家组成的研究小组试图解释人类视觉的工作原理。他们观察了许多重要的视觉现象并对它们编订了目录。其中最基础的发现是人类视觉是整体的:我们的视觉系统自动对视觉输入构建结构,并在神经系统层面上感知形状、图形和物体,而不是只看到互不相连的边、线和区域。“形状”和“图形”在德语中是Gestalt,因此这些理论也称做视觉感知的格式塔原理。

格式塔心理学派断言:人们在观看时眼脑共同作用,并不是在一开始就区分一个形象的各个单一的组成部分,而是将各个部分组合起来,使之成为一个更易于理解的统一体。当一个格式塔中国包含了太多互不相关的单位,眼脑就会试图将其简化,把各个单位加以组合,使之成为知觉上易于理解的整体。

格式塔理论明确地提出:眼脑作用是一个不断组织、简化、统一的过程,正是通过这一过程,才产生出易于理解、协调的整体。由此产生出了格式塔的一些基本原则(适用于布局和界面设计):

1、接近性原理

接近性原理说的是物体之间的相对距离会影响我们感知它是否以及如何组织在一起。互相靠近(相对于其它物体)的物体看起来属于一组,而那些距离较远的则自动划为组外。 强调的是位置。根据接近程度而组合一起。越接近,组合在一起的可能性就越大。

注:应用接近性原理可以达到减少用户界面上视觉凌乱感和代码数量。

左图中的圆相互之间在水平方向比垂直距离近,那么我们看到了四排圆点,右侧则看成四列。

2、相似性原理

强调的是内容。人们通常把那些明显具有共同特性(如形状、大小、颜色等)的事物组合在一起,即:相似的部分在知觉中会形成若干组。如果其它因素相同,那么相似的物体看起来归属于一组。

图中每个圆点纵横距离相同,但我们习惯性把外形相同的同心圆看成一组

3、连续性原理

和闭合原则有些类似。以实物形象上的不连续使浏览者产生心理上的连续知觉。视觉倾向于感知连续的形式而不是离散的碎片。

我们看到的左图是蓝橙两条相交线而非四条线段与一个圆点,你看到的右图是一些零散的蓝色线条还是IBM三个字母?当然是三个字母,你的视觉有意去组织离散碎片形成整体。

4、封闭性原理

浏览者心理的一种推论倾向,即把一种不连贯的有缺口的图形尽可能在心理上使之趋合。或者说浏览者倾向于从视觉上封闭那些开放或未完成的轮廓。视觉系统自动尝试将敞开的图形关闭起来,从而将其感知为完整的物体而不是分散的碎片。

简单理解,当图形是一个残缺图形,但主体有一种使其闭合的倾向,即主体能自行填补缺口而把其知觉为一个整体。

我们的视觉系统强烈倾向于看到物体,以至于它能将一个空白区解析成一个物体,所以我们看到上图所呈现的是一个圆而非多条线段。设计中通过不完整的图形,让浏览者去闭合,可以吸引用户的兴趣和关注。

最著名的应用便是苹果公司的logo,咬掉的缺口唤起人们的好奇、疑问,给人巨大想象空间。

5、对称性原理

我们倾向于分解复杂的场景来降低复杂度。

我们习惯把上图解析成两个简单对称形状的组合,把右侧二维几何图解析成三维立体面。

6、主体/背景原理

我们的大脑将视觉区域分为主体和背景。主体包括一个场景中占据我们主要注意力的所有元素,其余则是背景。

当物体重叠时我们习惯把小的那个看成是背景之上的主体。

7、共同命运

与接近性、相似永生原理相关,都影响我们感知的物体是否成组。指出一起运动的物体被感知为属于一组或者是彼此相关的。

同样间距大小颜色的图形,那么视觉上会把一起动的图形分为一组。

运动的图例无法用静态图表示,只提示一点在工作中做同类分组传达信息时,给它一致的活动规律展现形式。比如同样功能按钮HOVER效果一样,不至于让用户分不清同类选项。文件夹拖动时同时选中的文件夹出现的反白背景及运动轨迹是共同命运原理最直观的解释。

8、综合

在现实世界的视觉场景中,各种格式塔原理并不是孤立的,而是共同起作用,在工作中用每一条原理来考量各个设计元素之间的关系是否符合设计初衷。设计师是自己稿子的第一道QA人员,我们不能做到让它人人称赞但可以在常识问题上不犯错误。

相关文章

此处为语雀内容卡片,点击链接查看:https://www.yuque.com/go/doc/5313614

此处为语雀内容卡片,点击链接查看:https://www.yuque.com/go/doc/5313529

本文系转载,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文系转载,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
暂无评论
推荐阅读
AI要抢“人类”饭碗?有道新推的人机翻译告诉你协作才能共赢
近日,有道发布了一项全新的翻译服务——人机翻译,通过自研的神经网络翻译技术(YNMT),让翻译的价格创了新低。 早在2011年,有道就推出了专业的人工翻译服务,这项服务由具有翻译资格的译员提供高质量的翻译结果。 而比起纯粹的人工翻译,此次发布的有道人机翻译最大的不同之处在于它把有道神经网络翻译(Youdao Neural Machine Translation,YNMT)和专业人工翻译结合在了一起,处理翻译需求时,首先由YNMT进行初步翻译,在机器翻译结果的基础上,由专业译员对初译结果进行编辑润色,大幅度提
用户1737318
2018/06/06
5720
斯坦福NLP课程 | 第8讲 - 机器翻译、seq2seq与注意力机制
教程地址:http://www.showmeai.tech/tutorials/36
ShowMeAI
2022/05/10
7660
斯坦福NLP课程 | 第8讲 - 机器翻译、seq2seq与注意力机制
浅谈神经机器翻译
由于人类语言的流动性, 自动翻译或者机器翻译可能是最具挑战性的人工智能任务之一.20世纪90年代, 统计方法被用于完成这项任务, 取代了此前传统上的基于语法规则的翻译系统. 最近, 深度神经网络模型在命名为神经机器翻译的领域中获得了最先进的成果.
FesonX
2018/02/05
3.1K0
神经机器翻译与代码(上)
本文中蓝色字体为外部链接,部分外部链接无法从文章中直接跳转,请点击【阅读原文】以访问。
AiTechYun
2019/12/31
1.1K0
神经机器翻译与代码(上)
【Hello NLP】CS224n笔记[7]:机器翻译和seq2seq
相比于计算机视觉,NLP可能看起来没有那么有趣,这里没有酷炫的图像识别、AI作画、自动驾驶,我们要面对的,几乎都是枯燥的文本、语言、文字。但是,对于人工智能的征途来说,NLP才是皇冠上的那颗珍珠,它美丽却又难以摘取,当NLP的问题解决了,机器才真正具备了理解、思考的能力,我们才敢说实现了真正的“智能”。
beyondGuo
2020/06/12
8900
NLP机器翻译全景:从基本原理到技术实战全解析
机器翻译,作为自然语言处理的一个核心领域,一直都是研究者们关注的焦点。其目标是实现计算机自动将一种语言翻译成另一种语言,而不需要人类的参与。
TechLead
2023/10/21
1.5K0
NLP机器翻译全景:从基本原理到技术实战全解析
深度 | 神奇的神经机器翻译:从发展脉络到未来前景(附论文资源)
机器之心(海外)原创 作者:Mos Zhang 参与:Panda 机器翻译(MT)是借机器之力「自动地将一种自然语言文本(源语言)翻译成另一种自然语言文本(目标语言)」[1]。使用机器做翻译的思想最早由 Warren Weaver 于 1949 年提出。在很长一段时间里(20 世纪 50 年代到 80 年代),机器翻译都是通过研究源语言与目标语言的语言学信息来做的,也就是基于词典和语法生成翻译,这被称为基于规则的机器翻译(RBMT)。随着统计学的发展,研究者开始将统计模型应用于机器翻译,这种方法是基于对双语
机器之心
2018/05/08
1.3K0
深度 | 神奇的神经机器翻译:从发展脉络到未来前景(附论文资源)
【AI再创纪录】机器翻译提前7年达到人类专业翻译水平!
【新智元导读】微软昨天宣布其研发的机器翻译系统首次在通用新闻的汉译英上达到了人类专业水平,实现了自然语言处理的又一里程碑突破。 由微软亚洲研究院与雷德蒙研究院的研究人员组成的团队今天宣布,其研发的机器翻译系统在通用新闻报道的中译英测试集上,达到了人类专业译者水平。这是首个在新闻报道的翻译质量和准确率上媲美人类专业译者的翻译系统。 微软技术院士,负责微软语音、自然语言和机器翻译工作的黄学东博士表示,这是自然语言处理领域的一项里程碑式的成就。“这是我们的情怀,是非常有意义的工作,”黄学东告诉新智元:“消除语言障
新智元
2018/03/21
9260
【AI再创纪录】机器翻译提前7年达到人类专业翻译水平!
浅谈神经机器翻译
发明计算机的最早目标之一就是自动将文本从一种语言翻译成另一种语言。
花落花飞去
2018/02/07
1.1K0
从规则到神经网络:机器翻译技术的演化之路
机器翻译(Machine Translation, MT)是人工智能领域的一项关键技术,旨在实现不同语言之间的自动翻译。自从20世纪中叶首次提出以来,机器翻译已从简单的字面翻译演变为今天高度复杂和精准的语义翻译。这项技术的发展不仅彻底改变了全球信息交流的方式,而且对于经济、政治和文化交流产生了深远影响。
TechLead
2023/12/05
1.8K0
从规则到神经网络:机器翻译技术的演化之路
什么是自然语言处理的机器翻译?
机器翻译(Machine Translation,MT)是一种自然语言处理技术,旨在将一种语言的文本自动翻译成另一种语言。机器翻译是自然语言处理领域的重要应用之一,它可以帮助人们在跨语言交流、文档翻译和信息检索等方面更加便捷和高效。本文将详细介绍自然语言处理的机器翻译。
网络技术联盟站
2023/05/12
4190
什么是自然语言处理的机器翻译?
102个模型、40个数据集,这是你需要了解的机器翻译SOTA论文
机器翻译一直是非常吸引研究者的「大任务」,如果某些方法被证明在该领域非常有效,那么它很可能可以扩展到其它问题上。例如 Transformer,它出生于机器翻译家族,却广泛应用于各种序列建模任务。
机器之心
2019/10/30
2.2K0
102个模型、40个数据集,这是你需要了解的机器翻译SOTA论文
微信翻译大型翻车现场?机器翻译到底有哪些不确定性
大数据文摘出品 作者:蒋宝尚、Andy 这两天,微信翻译团队难得的上了次热搜。 事情的发展是这样的。有网友发现,当翻译中带有caixukun的人名拼音时,微信翻译会出现一些奇怪的中文词语,比如 之后,不仅人名测试开始一发不可收拾,网友们纷纷出动,想要寻找微信翻译的其他彩蛋网友们因此大为惊奇,玩得不亦乐乎,以至于这个话题被推上了热搜。 针对相关问题,腾讯微信团队昨天也做出了回应,强调这不是暖心的彩蛋,是翻译引擎在翻译一些没有进行过训练的非正式英文词汇时出现误翻。 文摘菌今天早上进行测试,发现微信团队已经修复
大数据文摘
2019/03/18
9680
微信翻译大型翻车现场?机器翻译到底有哪些不确定性
学界 | FAIR新一代无监督机器翻译:模型更简洁,性能更优
选自arXiv 作者:Guillaume Lample等 机器之心编译 参与:张倩、路 近日,FAIR 研究人员提出两种机器翻译模型的变体,一种是神经模型,另一种是基于短语的模型。研究者结合了近期提出
机器之心
2018/06/08
1.1K0
SFFAI分享 | 杨振:低资源神经机器翻译[附PDF]
虽然神经机器翻译模型取得了巨大的性能提升,但是其成功主要依赖于大量的高质量的双语语料。然而,获得大量的高质量的双语语料的成本极高,需要花费大量的人力和物力。在实际应用场景中,有时并没有大量的双语语料可以使用,更加极端情况是没有任何双语语料用来训练翻译模型。因此,想要继续提升神经翻译模型的性能,需要减少模型对高质量双语语料的依赖。对于低资源甚至无资源的翻译场景,我们需要研究能够更加高效使用单语语料的翻译模型和训练方法。
马上科普尚尚
2020/05/11
7500
SFFAI分享 | 杨振:低资源神经机器翻译[附PDF]
多家翻译软件大型翻车现场?机器翻译到底有哪些不确定性
自然语言处理果真是人工智能皇冠上的明珠,在走向摘取颗果实的路上,人类恐怕还只是走了一半。
AI科技评论
2020/06/09
5660
从冷战到深度学习:一篇图文并茂的机器翻译史
选自Vas3k.com 作者:Ilya Pestov 英语版译者:Vasily Zubarev 中文版译者:Panda 实现高质量机器翻译的梦想已经存在了很多年,很多科学家都为这一梦想贡献了自己的时间和心力。从早期的基于规则的机器翻译到如今广泛应用的神经机器翻译,机器翻译的水平不断提升,已经能满足很多场景的基本应用需求了。近日,Ilya Pestov 用俄语写的机器翻译介绍文章经 Vasily Zubarev 翻译后发表到了 Vas3k.com 上。机器之心又经授权将其转译成了汉语。希望有一天,机器自己就能
机器之心
2018/05/09
1.1K0
从冷战到深度学习:一篇图文并茂的机器翻译史
NLP重磅!谷歌、Facebook新研究:2.26亿合成数据训练神经机器翻译创最优!
机器翻译依赖于大型平行语料库,即源语和目的语中成对句子的数据集。但是,双语语料是十分有限的,而单语语料更容易获得。传统上,单语语料被用于训练语言模型,大大提高了统计机器翻译的流畅性。
新智元
2018/12/18
1.3K0
NLP重磅!谷歌、Facebook新研究:2.26亿合成数据训练神经机器翻译创最优!
FlowSeq、mBART、BERT-fused、mRASP、mRASP2...你都掌握了吗?一文总结机器翻译必备经典模型(三)
机器之心专栏 本专栏由机器之心SOTA!模型资源站出品,每周日于机器之心公众号持续更新。 本专栏将逐一盘点自然语言处理、计算机视觉等领域下的常见任务,并对在这些任务上取得过 SOTA 的经典模型逐一详解。前往 SOTA!模型资源站(sota.jiqizhixin.com)即可获取本文中包含的模型实现代码、预训练模型及 API 等资源。 本文将分 3 期进行连载,共介绍 18 个在机器翻译任务上曾取得 SOTA 的经典模型。 第 1 期:RNNsearch、Multi-task、attention-model
机器之心
2023/03/29
1K0
FlowSeq、mBART、BERT-fused、mRASP、mRASP2...你都掌握了吗?一文总结机器翻译必备经典模型(三)
谷歌开放GNMT教程:如何使用TensorFlow构建自己的神经机器翻译系统
选自谷歌 机器之心编译 参与:机器之心编辑部 近日,谷歌官方在 Github 开放了一份神经机器翻译教程,该教程从基本概念实现开始,首先搭建了一个简单的NMT模型,随后更进一步引进注意力机制和多层 LSTM 加强系统的性能,最后谷歌根据 GNMT 提供了更进一步改进的技巧和细节,这些技巧能令该NMT系统达到极其高的精度。机器之心对该教程进行简要的描述,跟详细和精确的内容请查看项目原网站。 GitHub 链接:https://github.com/tensorflow/nmt 机器翻译,即跨语言间的自动翻译,
机器之心
2018/05/09
1.8K0
谷歌开放GNMT教程:如何使用TensorFlow构建自己的神经机器翻译系统
推荐阅读
相关推荐
AI要抢“人类”饭碗?有道新推的人机翻译告诉你协作才能共赢
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档