Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >android 浏览器 开发,Android 浏览器的开发实例分享

android 浏览器 开发,Android 浏览器的开发实例分享

作者头像
全栈程序员站长
发布于 2022-08-28 03:38:07
发布于 2022-08-28 03:38:07
1.3K0
举报

大家好,又见面了,我是你们的朋友全栈君。

本文主要讲解Android浏览器的开发实例,有三部分内容:启动Android默认浏览器、指定浏览器进行访问以及打开本地的html文件。

一、启动Android默认浏览器

Java代码

Intent intent = new Intent();

intent.setAction(“android.intent.action.VIEW”);

Uri content_url = Uri.parse(“http://www.cnblogs.com”);

intent.setData(content_url);

startActivity(intent);

这样子,android就可以调用起手机默认的浏览器访问。

二、指定浏览器进行访问

1、指定android自带的浏览器访问

(“com.android.browser”:packagename;“com.android.browser.BrowserActivity”:启动主activity)

Java代码

Intent intent = new Intent();

intent.setAction(“android.intent.action.VIEW”);

Uri content_url = Uri.parse(“http://www.jizhuomi.com/android”);

intent.setData(content_url);

intent.setClassName(“com.android.browser”,”com.android.browser.BrowserActivity”);

startActivity(intent);

2、启动其他浏览器(当然该浏览器必须安装在机器上)

只要修改以下相应的packagename和主启动activity,即可调用其他浏览器。

intent.setClassName(“com.android.browser”,”com.android.browser.BrowserActivity”);

uc浏览器”:”com.uc.browser”, “com.uc.browser.ActivityUpdate“

opera:”com.opera.mini.android”, “com.opera.mini.android.Browser”

qq浏览器:”com.tencent.mtt”, “com.tencent.mtt.MainActivity”

三、打开本地html文件

打开本地的html文件的时候,一定要指定某个浏览器,而不能采用方式一来浏览,具体示例代码如下:

Java代码

Intent intent = new Intent();

intent.setAction(“android.intent.action.VIEW”);

Uri content_url = Uri.parse(“content://com.android.htmlfileprovider/sdcard/help.html”);

intent.setData(content_url);

intent.setClassName(“com.android.browser”,”com.android.browser.BrowserActivity”);

startActivity(intent);

关键点是调用了”content”这个filter。

以前有在win32编程的朋友,可能会觉得用这种形式”file://sccard/help.html“是否可以,可以很肯定的跟你说,默认的浏览器设置是没有对”file“这个进行解析的,如果要让你的默认android浏览器有这个功能需要自己到android源码修改manifest.xml文件,然后自己编译浏览器代码生成相应的apk包来重新在机器上安装。

大体的步骤如下:

1、打开packages/apps/Browser/AndroidManifest.xml文件把加到相应的后面就可以了。

XML/HTML代码

2、重新编译打包,安装,这样子,新的浏览器就支持”file”这个形式了。

以上就是对Android 浏览器的开发的示例代码,希望能帮助开发此功能的朋友,谢谢大家的支持!

发布者:全栈程序员栈长,转载请注明出处:https://javaforall.cn/146285.html原文链接:https://javaforall.cn

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2022年5月1,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
利用大型语言模型和扩散模型大规模生成视觉最小变化数据,提升VLMs的细粒度理解能力 !
细粒度地理解目标、属性及其关系对于视觉-语言模型(VLMs)有效泛化到新的、未见过的场景和构图至关重要。以往的研究如ARO [40] 和 Sugarcrepe [8],强调了VLMs在这一领域的不足,主要关注于理解两个非常相似的标题之间的细粒度差异——一个人工编写的标题和自动生成的硬负例2标题,其中硬负例标题与原标题仅在目标、属性或两个目标之间的关系上有所不同。虽然可以通过基于规则的方法合成标题的硬负例,但为图像合成这样的硬负例则非常具有挑战性。
AIGC 先锋科技
2024/07/31
3420
利用大型语言模型和扩散模型大规模生成视觉最小变化数据,提升VLMs的细粒度理解能力 !
中科院最新工作:基于自步课程学习实现多模态大模型CLIP在多模态视觉语言理解与定位任务上的迁移研究
本篇分享论文CLIP-VG: Self-paced Curriculum Adapting of CLIP for Visual Grounding,其工作内容是基于自步课程学习实现多模态大模型CLIP在多模态视觉语言理解与定位任务上的迁移研究。
CV君
2024/01/03
1.1K0
中科院最新工作:基于自步课程学习实现多模态大模型CLIP在多模态视觉语言理解与定位任务上的迁移研究
​多所高校联合揭秘 TRAC 框架 | 探索 LVLMs 在细粒度视觉描述生成中的潜力!
在他们的真实描述中提供了广泛的概述。特别是,它们在生成细粒度描述方面的效力受到其固有的简洁性、简单性和多目标关注性的显著限制。此外,传统的评估指标如BLEU 和 SPICE(Brocker等人,2016)不适合评估细粒度描述,因为它们过于依赖这些粗略的真实描述,缺乏必要的粒度。
AIGC 先锋科技
2024/07/08
2440
​多所高校联合揭秘 TRAC 框架 | 探索 LVLMs 在细粒度视觉描述生成中的潜力!
高效的测试时间促进视觉语言模型的训练 !
开放集图像分类是计算机视觉领域一个基本且具有挑战性的任务。最近,视觉语言模型(VLMs)在这个领域展现出了强大的能力。一个突出的模型是CLIP (Radford等人,2021年),将图像和语言编码到统一的嵌入空间中,通过测量图像表示和文本类描述之间的相似度来进行分类。
未来先知
2024/08/29
2240
高效的测试时间促进视觉语言模型的训练 !
全新 SOTA backbone | 2024年了,再见ViT系列Backbone,实数难得,不知道效果如何?
指纹是一种不可变且独特的生物特征,广泛应用于各种场景中的人体认证,包括法医、银行识别和物理访问控制。
集智书童公众号
2024/04/19
4290
全新 SOTA  backbone | 2024年了,再见ViT系列Backbone,实数难得,不知道效果如何?
哈佛大学提出SpLiCE | 证实CLIP潜在空间的高度结构性,并提出了稀疏线性嵌入替代密集表示
),用于将CLIP表示转换为人类可解释的概念的稀疏线性组合。与之前的工作不同,SpLiCE不需要概念标签,可以在事后应用。 通过使用多个真实世界数据集的广泛实验,作者验证了SpLiCE输出的表示可以解释甚至替代传统的密集CLIP表示,在保持等效的下游性能的同时显著提高它们的可解释性。作者还展示了SpLiCE表示的几个用例,包括检测虚假相关性、模型编辑以及量化数据集中的语义变化。 代码:https://github.com/AI4LIFE-GROUP/SpLiCE
集智书童公众号
2024/03/01
1.1K0
哈佛大学提出SpLiCE | 证实CLIP潜在空间的高度结构性,并提出了稀疏线性嵌入替代密集表示
视觉的跨界 Wiki-LLaVA | lmage + Question 的奇妙反应,生成多模态大型语言模型(MLLMs)!
近期,大型语言模型(LLM)在零样本文本任务中展现了令人印象深刻的性能。特别是,近期的研究设计出了能够根据用户指示处理多样任务的模型[6, 30, 41]。在这个背景下,经典的方法是在多种通过自然语言描述的任务上微调模型[7, 34],从而使模型能够吸收外部提供的指示,并促进在多个领域内的强大泛化能力。 在这些进展之后,计算机视觉界开始研究将这些模型扩展到视觉和语言的情境中,从而生成多模态大型语言模型(MLLMs)。在这方面,通过视觉到语言的 Adapter 将视觉特征融合到LLM的主干中,引起了显著的性能提升,使得对需要精心设计的视觉描述的视觉和语言任务能够广泛泛化。
AIGC 先锋科技
2024/07/08
3890
视觉的跨界 Wiki-LLaVA  |  lmage + Question 的奇妙反应,生成多模态大型语言模型(MLLMs)!
Meta AI开源CLIP-DINOiser | 如何将自监督DINO的Trick教给CLIP?这里就是答案!
语义分割是许多实际系统中进行关键视觉感知任务的一个关键步骤,例如自动驾驶汽车和工业机器人。通常以数据集为导向进行处理,最佳方法需要一个经过人工标注的训练数据集,该数据集针对特定且有限的一组类别进行处理。强大的视觉语言模型的出现正在推动从封闭词汇范式向开放世界范式的转变。
集智书童公众号
2024/01/17
1.1K0
Meta AI开源CLIP-DINOiser | 如何将自监督DINO的Trick教给CLIP?这里就是答案!
加州大学通过知识提炼增强CLIP概念的渗透,从 CLIP 到 KnowledgeCLIP 大语言模型赋能视觉语言融合 !
多模态编码器在视觉语言领域的预训练,例如CLIP(Radford等,2021),已被发现对学习源自图像和文本配对数据的可转移特征非常有益。CLIP的学习框架是对比式的,通常依赖于数据增强以消除不必要的插入和捷径。
AIGC 先锋科技
2025/01/14
2580
加州大学通过知识提炼增强CLIP概念的渗透,从 CLIP 到 KnowledgeCLIP 大语言模型赋能视觉语言融合 !
LaMI-DETR:基于GPT丰富优化的开放词汇目标检测 | ECCV'24
论文: LaMI-DETR: Open-Vocabulary Detection with Language Model Instruction
VincentLee
2024/10/22
2060
LaMI-DETR:基于GPT丰富优化的开放词汇目标检测 | ECCV'24
LRP-QViT完美而来 | 输出层分配相关性+剪切通道让Swin Transformer量化后居然涨1.5个点
视觉 Transformer (ViTs)在各种视觉任务上取得了最先进(SOTA)的性能,包括图像分类,目标检测和分割。然而,它们的计算需求高、内存占用大且能源消耗大,这使得在资源受限的平台部署起来不切实际。压缩和加速技术已经被研究用于ViTs,旨在在保持性能的同时减少原始网络大小。用于模型缩减的各种方法包括网络剪枝,低秩分解,量化,知识蒸馏,以及动态标记减少。
集智书童公众号
2024/01/29
1K0
LRP-QViT完美而来 | 输出层分配相关性+剪切通道让Swin Transformer量化后居然涨1.5个点
超越语义理解,VLMs通过像素值预测增强视觉细节感知能力 !
大型语言模型(LLMs)彻底改变了人工智能领域,使得机器能够以惊人的表现感知和生成人类般的文本。随着这一进步,基于LLM的视觉语言模型(VLMs)正在迅速发展,并在视觉和语言的跨领域内。最近的一些VLMs,如,在多个视觉语言任务上表现出色,包括视觉问答(VQA)和指代表达理解(REC)。通常,这些基于LLM的VLMs采用类似的建模设计:一个预训练的视觉编码器来提取视觉特征,一个映射模块将这些特征与语言空间对齐,以及一个LLM进行推理。
AIGC 先锋科技
2024/08/13
3110
超越语义理解,VLMs通过像素值预测增强视觉细节感知能力 !
哈工大提出 CoCoLe: 从视觉概念到语言提示,VLMs 微调技术在少样本设置中的突破 !
预训练的视觉-语言模型(VLMs),例如CLIP [26]和ALIGN [15],在各种下游任务中已经取得了卓越的零样本性能。这些模型在大规模图像-文本数据集上通过对比优化目标进行训练,有效地将不同模态对齐并嵌入到一个共享的向量空间中。尽管它们的性能令人印象深刻,但由于其庞大的体积,将这些模型适应到多样化的下游任务仍然具有挑战性。因此,近期的研究集中在了通过在保持基础模型不变的同时调整附加参数来改进预训练VLMs的下游任务适应能力。例如,提示调优方法,如CoOp [42]和ProGrad [43],用可学习的提示替代手动提示以获得特定任务的知识,而基于 Adapter 的方法直接在VLMs顶部利用额外的模块,如Clip-adapter [9]和Tip-adapter [38]。这些方法在有限标注数据下取得了显著进展。
AIGC 先锋科技
2024/07/20
2510
哈工大提出 CoCoLe: 从视觉概念到语言提示,VLMs 微调技术在少样本设置中的突破 !
NODE-Adapter:神经常微分方程助力更优视觉-语言推理!
这些挑战将阻碍它们将视觉-语言模型(VLMs)适应于下游任务的能力。受到这一关键观察的启发,作者提出了一种新颖的方法,称为NODE-Adapter,该方法利用神经常微分方程进行更优的视觉-语言推理。 为了充分利用视觉和文本模态,并更有效、更准确地估计类别原型,作者将方法分为两个阶段:跨模态原型构建和利用神经常微分方程进行跨模态原型优化。具体来说,作者利用VLM将手工制作的提示编码为文本特征,将少样本支持图像编码为视觉特征。 然后,作者分别通过对文本特征和视觉特征取平均来估计文本原型和视觉原型,并将文本原型和视觉原型自适应地结合构建跨模态原型。 为了减轻原型偏差,作者将原型优化过程建模为一个初值问题,使用神经常微分方程来估计连续梯度流。 作者广泛的实验结果,包括少样本分类、域泛化和人-物交互视觉推理,证明了提出的方法显著优于现有的最先进方法。
AIGC 先锋科技
2024/07/31
2370
NODE-Adapter:神经常微分方程助力更优视觉-语言推理!
ProLIP模型:首个使用概率目标进行亿级图像-文本数据预训练的VLMs !
视觉语言模型(VLMs)旨在实现视觉和语言的联合嵌入空间,已成为近年来机器学习领域的重要基石。在训练过程中,VLMs通过对比学习将一对对齐的图像-文本(例如,一张图像及其对应的描述)映射到相同的空间。从大规模图像-文本对齐数据集中学习到的丰富的联合表示在各种下游任务上取得了显著的成功,例如零样本分类(将类标签视为模版文本,例如,一张照片)或图像-文本跨模态检索。
AIGC 先锋科技
2024/11/12
1630
ProLIP模型:首个使用概率目标进行亿级图像-文本数据预训练的VLMs !
从梯度下降到动态提示:IPO 如何利用 LLMs 改善视觉语言模型的训练?
视觉语言模型,经过在包含广泛真实世界概念的图像文本对上进行训练 ,在各种下游任务上表现出显著的适应性 。这些模型通过填充预定义的 Prompt 模板(例如,“一张[CLASS]的照片”)来完成特定的类名填充文本编码器。尽管它们在新任务上的有效泛化,但 Prompt 模板的词序变化可能会影响性能 [8]。手动创建手工制作的 Prompt 已经过时,自然语言处理 [9; 10] 和计算机视觉最近的发展提出了学习一组软 Prompt 的方法,所需的 Token 数据最小。尽管在 Prompt 学习方面取得了进步,但目前的最佳状态仍受限于其缺乏可解释性和基础类上的过拟合问题,这在多样化和动态应用环境中可能具有阻碍作用。这些限制强调了在视觉语言模型中优化 Prompt 的必要性。
未来先知
2025/01/02
1100
从梯度下降到动态提示:IPO 如何利用 LLMs 改善视觉语言模型的训练?
对比感知校准(CAC)多模态方法,为视觉语言模型开放词汇任务校准难题破局 !
视觉-语言模型,如CLIP,在庞大的网络规模文本-图像数据集上进行预训练,已在各种下游图像分类任务中展现出令人印象深刻的零样本能力和图像-文本对齐能力。针对少量 Token 数据提升视觉语言模型(VLM)在特定任务上的性能,已经提出了多种 Prompt 学习方法。
AIGC 先锋科技
2025/03/03
1320
对比感知校准(CAC)多模态方法,为视觉语言模型开放词汇任务校准难题破局 !
在线高斯自适应革新 OTTA 视觉语言模型 !
视觉-语言对齐已成为一种强大的范式,可用于预训练模型,这些模型能够处理各种下游任务,且在少量或没有 Token 数据的情况下也能胜任。如CLIP[19]这样的对比方法通过联合优化视觉编码器和文本编码器来学习可迁移的视觉表示,从而对配对图像和标题的表示进行对齐。这使创建图像分类器成为可能,而无需重新训练模型,只需使用类别的文本描述。随后,分类过程仅仅依赖于测量文本特征与图像特征之间的相似度,从而实现零样本预测。这已经在广泛认可的监督学习基准,如ImageNet[3]上展示了令人印象深刻的零样本性能。这一成功激励了对适应视觉-语言模型(VLMs)以处理未见任务的方法的研究,从而绕过了重新训练模型的需求,无论是通过 Prompt 优化[20, 32]、低秩适应[26]还是在嵌入空间中的 Adapter 。这些后一种方法特别引人关注,因为它们不需要访问模型权重——被称为黑盒方法——这使得它们适用于基于API的应用。
AIGC 先锋科技
2025/02/10
1410
在线高斯自适应革新 OTTA 视觉语言模型  !
VG4D | 突破4D点云识别局限,融合视觉-语言模型实现动作识别新高度!
近期,机器人技术和自动驾驶系统利用实时的深度传感器,如激光雷达(LiDARs),来实现三维感知。激光雷达产生的点云可以提供丰富的几何信息,并帮助机器理解环境感知。早期方法集中于从静态点云中解析现实世界,忽略了时间变化。为了更好地理解时间变化的世界,近期研究更专注于在4D空间理解点云视频,包括三个空间维度和一个时间维度。已有几项工作在4D点云建模方面取得进展。这些方法要么旨在设计改进的网络来建模4D点云,要么采用自监督方法来提高4D点云表示的效率。
AIGC 先锋科技
2024/07/08
4440
VG4D | 突破4D点云识别局限,融合视觉-语言模型实现动作识别新高度!
​三星新出检测神器 | 通过聊天+看图的形式轻松完成目标检测,性能 SOTA
RAL构成两个损失,反映与负词汇的语义相似性。此外,RAF使用大型语言模型(LLM)中的文字化概念增强视觉特征。 作者的实验证明了RALF在COCO和LVIS基准数据集上的有效性。作者在COCO数据集的新颖类别上取得了高达3.4 box
集智书童公众号
2024/04/25
3090
​三星新出检测神器 | 通过聊天+看图的形式轻松完成目标检测,性能 SOTA
推荐阅读
利用大型语言模型和扩散模型大规模生成视觉最小变化数据,提升VLMs的细粒度理解能力 !
3420
中科院最新工作:基于自步课程学习实现多模态大模型CLIP在多模态视觉语言理解与定位任务上的迁移研究
1.1K0
​多所高校联合揭秘 TRAC 框架 | 探索 LVLMs 在细粒度视觉描述生成中的潜力!
2440
高效的测试时间促进视觉语言模型的训练 !
2240
全新 SOTA backbone | 2024年了,再见ViT系列Backbone,实数难得,不知道效果如何?
4290
哈佛大学提出SpLiCE | 证实CLIP潜在空间的高度结构性,并提出了稀疏线性嵌入替代密集表示
1.1K0
视觉的跨界 Wiki-LLaVA | lmage + Question 的奇妙反应,生成多模态大型语言模型(MLLMs)!
3890
Meta AI开源CLIP-DINOiser | 如何将自监督DINO的Trick教给CLIP?这里就是答案!
1.1K0
加州大学通过知识提炼增强CLIP概念的渗透,从 CLIP 到 KnowledgeCLIP 大语言模型赋能视觉语言融合 !
2580
LaMI-DETR:基于GPT丰富优化的开放词汇目标检测 | ECCV'24
2060
LRP-QViT完美而来 | 输出层分配相关性+剪切通道让Swin Transformer量化后居然涨1.5个点
1K0
超越语义理解,VLMs通过像素值预测增强视觉细节感知能力 !
3110
哈工大提出 CoCoLe: 从视觉概念到语言提示,VLMs 微调技术在少样本设置中的突破 !
2510
NODE-Adapter:神经常微分方程助力更优视觉-语言推理!
2370
ProLIP模型:首个使用概率目标进行亿级图像-文本数据预训练的VLMs !
1630
从梯度下降到动态提示:IPO 如何利用 LLMs 改善视觉语言模型的训练?
1100
对比感知校准(CAC)多模态方法,为视觉语言模型开放词汇任务校准难题破局 !
1320
在线高斯自适应革新 OTTA 视觉语言模型 !
1410
VG4D | 突破4D点云识别局限,融合视觉-语言模型实现动作识别新高度!
4440
​三星新出检测神器 | 通过聊天+看图的形式轻松完成目标检测,性能 SOTA
3090
相关推荐
利用大型语言模型和扩散模型大规模生成视觉最小变化数据,提升VLMs的细粒度理解能力 !
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档