前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Mobile-Agent-v2问世,自动化手机操作能力再上新台阶

Mobile-Agent-v2问世,自动化手机操作能力再上新台阶

作者头像
机器之心
发布2024-06-17 14:14:45
1330
发布2024-06-17 14:14:45
举报
文章被收录于专栏:机器之心机器之心

AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com

徐海洋,阿里通义实验室高级算法专家,负责通义多模态大模型mPLUG系列工作,包括基础多模态模型mPLUG/mPLUG-2,多模态对话大模型mPLUG-Owl/Owl2,多模态文档大模型mPLUG-DocOwl,多模态智能体Mobile-Agent等,其中 mPLUG 工作在 VQA 榜单首超人类的成绩。在国际顶级期刊和会议ICML/CVPR/ICCV/ACL/EMNLP/MM/TOIS/IJCAI/AAAI等发表论文30多篇,并担任多个顶级和会议AC/PC/Reviewer。主导参与开源项目mPLUG,X-PLUG,AliceMind,DELTA。

今年年初发布的Mobile-Agent凭借强大的自动化手机操作能力,引起了AI界和手机厂商的广泛关注,仅5个月的时间就已在Github上收获了2,000个Star。

Mobile-Agent基于纯视觉方案,通过视觉感知工具和操作工具实现智能体在手机上的操作,而不依赖其他系统级别的UI文件。借助智能体中枢模型强大的操作能力,Mobile-Agent无需训练和探索,能够实现即插即用。

近日,该团队完成了Mobile-Agent版本更新,发布了Mobile-Agent-v2,并宣称有几大亮点:

  • 继续保留纯视觉方案;
  • 多智能体协作的架构;
  • 更强的任务拆解、跨应用操作和多语言能力。

目前,Mobile-Agent-v2的论文和代码均已发布。

  • 论文链接:https://arxiv.org/abs/2406.01014
  • 代码链接:https://github.com/X-PLUG/MobileAgent

除此之外,Mobile-Agent-v2也已经接入到魔搭的ModelScope-Agent中,可以通过下面的链接了解详细内容:

内容链接:https://github.com/modelscope/modelscope-agent

从魔搭团队公布的演示视频来看,ModelScope-Agent已经可以通过调用Mobile-Agent-v2可以完成自动化打车任务。用户只需要把目的地输入给Agent,便能够实现规划、决策和反思的流程来帮用户完成叫车,适用于老人及视障人群,解决他们不会使用或者无法使用手机APP的问题。

作者团队同样公布了Mobile-Agent-v2在手机上实操的演示视频。首先是一个跨应用操作的例子。用户需要Mobile-Agent-v2查看聊天软件中的未读消息,然后按照消息的要求完成任务。

Mobile-Agent-v2先根据指令要求打开了WhatApps并查看了来自「Ao Li」的消息,消息中要求在TikTok中找一个宠物相关的视频并分享给他。Mobile-Agent-v2随后退出当前应用并进入TikTok中刷视频,在找到一个宠物猫的视频后通过点击分享按钮将视频链接成功发送给「Ao Li」。

下面是一个在社交媒体应用中的例子。用户要求Mobile-Agent-v2在X(推特)中搜索名人「马斯克」,关注他并评论一条他发布的帖子。由于社交媒体应用往往文字较多,UI布局复杂,因此操作难度较大。而从视频中可以看出,Mobile-Agent-v2准确地完成了每一步的操作,尤其是点击关注之后出现的推荐用户挡住了原本的推文,而Mobile-Agent-v2也执行了上划操作并完成评论。

随后是在同样复杂的长视频平台YouTube操作的例子。从上述演示视频来看,Mobile-Agent-v2对于社交媒体和视频平台的操作能力十分惊艳,有成为新一代控评机器人的潜力。

另外,在初代Mobile-Agent中评测的那些相对基础的任务,例如安装应用、导航去某个地点等,Mobile-Agent-v2也能完成。

最后则是在中文应用小红书和微信的例子,包括在小红书中搜索攻略并评论,以及帮助用户回微信。Mobile-Agent-v2可以根据帖子的内容发布相关的评论,也能根据微信消息的内容生成相关的回复。

下面将介绍Mobile-Agent-v2的技术实现。在手机操作任务中,智能体通常需要通过多步操作才能完成任务要求。每次操作时,智能体都需跟踪当前任务进度,即了解之前的操作完成了哪些需求,从而根据用户指令推断下一步的操作意图。

尽管操作历史中保存了每一步的具体操作和相应的屏幕状态,但随着操作次数的增加,操作历史序列会变得越来越长。操作历史的冗长且图文交错的格式,会显著增加智能体追踪任务进度的难度。

如下图所示,经过7轮操作后,输入的操作历史序列长度已超过一万个token,图文交错的数据格式使得智能体追踪任务进度变得异常困难。

为了解决这个问题,Mobile-Agent-v2引入了规划智能体,其角色如图所示。这个智能体会为操作智能体提供任务进度,将冗长的操作历史转化为纯文本。然而,虽然规划智能体简化了任务追踪,但也导致屏幕信息的丢失,使得决策智能体无法从历史屏幕中获取任务相关的信息。

例如,在某些任务中,智能体需要查看天气并撰写穿衣指南,而生成指南时,需要利用历史屏幕中的天气信息。为此,Mobile-Agent-v2引入记忆单元,决策智能体负责更新这些单元内的任务相关信息。此外,由于决策智能体无法直接观察操作后的屏幕信息,Mobile-Agent-v2还加入了反思智能体,负责监测决策智能体操作前后的屏幕状态变化,并判断操作的正确性。

在这篇论文中,作者采用了动态评估方法,选择了五个系统内置应用和五个第三方应用,分别在英文和非英文应用上进行测试。每个应用设计了两条基础指令和两条进阶指令。同时,针对跨应用操作也设计了两条基础指令和两条进阶指令。评估结果如表所示,涵盖了英文和非英文场景。

从结果中可以看出,无论在英文还是非英文场景,Mobile-Agent-v2在基础指令和进阶指令的多个指标上都表现出了全面提升。此外,通过人为引入额外的操作知识(Mobile-Agent-v2 + Know.),性能得到了进一步提升。

作者在文章中展示了消融实验的结果,如下表所示,在去除规划智能体、决策智能体和记忆单元后,整个智能体的性能都出现了下降。

如下图所示,通过分析操作失败的任务,作者发现Mobile-Agent的失败操作大量集中在任务的后期,而Mobile-Agent-v2的失败操作则较为平均分布。这表明Mobile-Agent-v2能够更有效地应对长序列带来的问题。

最后,文章展示了一个完整的操作流程和一个成功反思的例子,其中包含每个角色的输出。更多的例子展示在原论文的最后部分。

© THE END

转载请联系本公众号获得授权

投稿或寻求报道:content@jiqizhixin.com

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2024-06-14,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 机器之心 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档