Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >我想调试下build.gradle | Gradle 调试

我想调试下build.gradle | Gradle 调试

作者头像
逮虾户
发布于 2022-03-06 01:50:21
发布于 2022-03-06 01:50:21
1K0
举报
文章被收录于专栏:逮虾户逮虾户

theme: smartblue

前言

我在写gradle plugin的时候,碰到过两个大难题,所见即所得,当场运行我们的代码。这部分我们之前已经介绍过。协程 路由 组件化 1+1+1>3

另外一个就是调试了插件或者build.gralde,这期把我当前的调试方式介绍给大家。

最近发现了森哥(Booster)作者,其实在booster的文档中也有对应教程,但是和我学会的貌似有点不一样,有兴趣的可以去看看。

调试 Gradle Plugin 森哥牛逼 破

准备工作

下面来介绍下我的方式,首先是前置的准备工作。

  1. 找到edit configuration
  1. 添加一个新的configuration
  1. 选择remote
  1. 改个合理的名字 没啥
  1. 一定要在debug的时候选择这个模式哦

开启调试模式

首先我们简单的输入一下命令行

./gradlew xxxxx(大概率是Avengers Assemble) -Dorg.gradle.debug=true --no-daemon

这个时候我们的命令行会进入锁定状态,不知道的同学还以为是程序卡主了。

然后这个时候我们需要做的是切换到remote的项目中去,然后点击图片中的debug按钮。

高能预警 一定要注意第五步哦。

当我们按下debug按钮时,原来终止的命令行就会继续执行,然后当运行到我们的代码块时,就能调试我们当前的代码了。

当然我们还可以拿来调试很多别的东西,比如说lintcompiler(kapt)kspbuild.gralde等等。

ksp支持

根据ksp官方issue,以及调试模式要额外添加参数

小贴士 ksp的debug模式的命令行要多一点 --no-daemon -Dorg.gradle.debug=true -Dkotlin.compiler.execution.strategy=in-process

打脸了 更简单的版本

根据评论区大佬到回复哦,更简单的调试版本,新版的Android studio在这部分进行了调整优化,步骤如下。

虽然我可能还是会选择旧的。略微有点看看的,也不知道是错觉还是咋了。

  1. 点开右边的gradle
  1. 找到你想要的task 点下debug

如果gradle task 不见了 可以参考下图 把勾选去掉

听说你们想要错误堆栈

有的同学说在编译的时候gradle其实已经挂了,这个时候不显示堆栈,很难帮助定位问题。

其实很简单哦,只要在命令行后面加个-s 就行了。

./gradlew xxxxx(大概率是Avengers Assemble) -s

结尾

最后先附上参考资料 Android gradle 脚本断点调试

再次感谢大佬教会了我。本文这次主要以图片内容为主,教会大家debug就可以方便大家更好的去学习gradle相关的知识。

立正挨打,哈哈哈 ,更新下文章内容

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2021/07/16 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
ANSJ中文分词使用方法
一、前言 之前做solr索引的时候就使用了ANSJ进行中文分词,用着挺好,然而当时没有写博客记录的习惯。最近又尝试了好几种JAVA下的中文分词库,个人感觉还是ANSJ好用,在这里简单总结之。 二、什么是中文分词 百度百科对其定义如下: 中文分词(Chinese Word Segmentation) 指的是将一个汉字序列切分成一个一个单独的词。分词就是将连续的字序列按照一定的规范重新组合成词序列的过程。我们知道,在英文的行文中,单词之间是以空格作为自然分界符的,而中文只是字、句和段能通过明显的分界符来简单划
魏守峰
2018/04/28
2.5K0
基于java的中文分词工具ANSJ
ANSJ 这是一个基于n-Gram+CRF+HMM的中文分词的java实现. 分词速度达到每秒钟大约200万字左右(mac air下测试),准确率能达到96%以上 目前实现了.中文分词. 中文姓名识别 . 用户自定义词典,关键字提取,自动摘要,关键字标记等功能 可以应用到自然语言处理等方面,适用于对分词效果要求高的各种项目. 分词的目的是创建一个高稳定可用的中文分词工具,可以利用到各种需要文字处理的场景中下面简单介绍一下Ansj中文分词的主要算法及特点. 数据结构 高度优化Trie树 在用户自定义词典以
Spark学习技巧
2018/01/31
1.9K0
基于java的中文分词工具ANSJ
Elasticsearch 默认分词器和中分分词器之间的比较及使用方法
转载出处:https://zhuanlan.zhihu.com/p/29183128 介绍:ElasticSearch 是一个基于 Lucene 的搜索服务器。它提供了一个分布式多用户能力的全文搜索引擎,基于 RESTful web 接口。Elasticsearch 是用 Java 开发的,并作为Apache许可条款下的开放源码发布,是当前流行的企业级搜索引擎。设计用于云计算中,能够达到实时搜索,稳定,可靠,快速,安装使用方便。
皇上得了花柳病
2020/05/18
4K0
学好Elasticsearch系列-分词器
在Elasticsearch中,分词器是用于将文本数据划分为一系列的单词(或称之为词项、tokens)的组件。这个过程是全文搜索中的关键步骤。
BookSea
2023/08/08
3740
学好Elasticsearch系列-分词器
一起学 Elasticsearch 系列-分词器
在Elasticsearch中,分词器是用于将文本数据划分为一系列的单词(或称之为词项、tokens)的组件。这个过程是全文搜索中的关键步骤。
BookSea
2023/11/27
3940
一起学 Elasticsearch 系列-分词器
ElasticSearch 6.x 学习笔记:4.IK分词器插件
(1)源码  https://github.com/medcl/elasticsearch-analysis-ik
拓荒者
2019/03/11
1.2K0
ElasticSearch 6.x 学习笔记:4.IK分词器插件
Elasticsearch分词器
一个 tokenizer(分词器)接收一个字符流,将之分割为独立的 tokens(词元,通常是独立的单词),然后输出 tokens 流。
乐心湖
2021/02/01
6320
Elasticsearch分词器
elasticsearch教程--中文分词器作用和使用
本文都是基于elasticsearch安装教程 中的elasticsearch安装目录(/opt/environment/elasticsearch-6.4.0)为范例
IT小白龙
2019/06/12
2.4K0
elasticsearch教程--中文分词器作用和使用
ES系列一、CentOS7安装ES 6.3.1、集成IK分词器
拷贝到服务器上,解压:tar -xvzf elasticsearch-6.3.1.tar.gz 。解压后路径:/home/elasticsearch-6.3.1
热心的大肚皮
2023/02/28
5250
ES系列一、CentOS7安装ES 6.3.1、集成IK分词器
ElasticSearch系列-分词器
Analysis:文本分析是把全文本转换一系列单词(term/token)的过程,也叫分词(Analyzer)。Analysis是通过Analyzer来实现的。分词就是将文档通过Analyzer分成一个一个的Term(关键词查询),每一个Term都指向包含这个Term的文档。
架构狂人
2023/09/15
3640
ElasticSearch系列-分词器
018.Elasticsearch分词器原理及使用
默认分词器:按照非字母和非数字字符进行分隔,单词转为小写 测试文本:a*B!c d4e 5f 7-h 分词结果:a、b、c、d4e、5f、7、h
CoderJed
2020/07/06
1.5K0
ElasticSearch 分词器,了解一下
这篇文章主要来介绍下什么是 Analysis ,什么是分词器,以及 ElasticSearch 自带的分词器是怎么工作的,最后会介绍下中文分词是怎么做的。
武培轩
2020/03/09
2.5K0
ElasticSearch 分词器,了解一下
如何使用Pig集成分词器来统计新闻词频?
散仙在上篇文章中,介绍过如何使用Pig来进行词频统计,整个流程呢,也是非常简单,只有短短5行代码搞定,这是由于Pig的内置函数TOKENIZE这个UDF封装了单词分割的核心流程,当然,我们的需求是各种各样的,Pig的内置函数,仅仅解决了80%我们常用的功能,如果稍微我有一些特殊的需求,就会发现内置函数解决不了,不过也无需担忧,Pig开放了各个UDF的接口和抽象类,从加载,转换,过滤,存储等等,都有对应的实现接口,只要我们实现或继承它,就非常方便扩展。 本篇呢,散仙会使用Ansj分词器+Pig来统计中文的
我是攻城师
2018/05/11
9400
Elasticsearch之中文分词器插件es-ik的自定义词库
          如果我想根据自己的本家姓氏来查询,如zhouls,姓氏“周”。
双面人
2019/04/10
1.5K0
Elasticsearch之中文分词器插件es-ik的自定义词库
【Elasticsearch系列十八】Ik 分词器
官网:https://github.com/medcl/elasticsearch-analysis-ik
kwan的解忧杂货铺
2024/09/22
2690
ElasticSearch 如何使用 ik 进行中文分词?
大家好,我是历小冰。在《为什么 ElasticSearch 比 MySQL 更适合复杂条件搜索》 一文中,我们讲解了 ElasticSearch 如何在数据存储方面支持全文搜索和复杂条件查询,本篇文章则着重分析 ElasticSearch 在全文搜索前如何使用 ik 进行分词,让大家对 ElasticSearch 的全文搜索和 ik 中文分词原理有一个全面且深入的了解。
程序员历小冰
2021/04/12
1.6K0
ElasticSearch 如何使用 ik 进行中文分词?
ELK专栏之IK分词器和Java api操作索引--05
● 我们想要的效果是:中华人民共和国,人民大会堂。而standard分词器不能满足我们的要求。
大忽悠爱学习
2022/09/29
8220
ELK专栏之IK分词器和Java api操作索引--05
好玩的ES--第二篇之高级查询,索引原理和分词器
ES中提供了一种强大的检索数据方式,这种检索方式称之为Query DSL ,Query DSL是利用Rest API传递JSON格式的请求体(Request Body)数据与ES进行交互,这种方式的丰富查询语法让ES检索变得更强大,更简洁。
大忽悠爱学习
2022/05/10
1.4K0
好玩的ES--第二篇之高级查询,索引原理和分词器
Elasticsearch 常用分词器介绍与 ik 分词器自定义词库添加
Elasticsearch 是一个基于 Lucene 的搜索服务器,拥有非常强大的全文检索能力。 用户完全可以通过搭建一个 Elasticsearch 集群来实现搜索引擎的基本功能。 但是,Elasticsearch 本身并不支持中文分词,但好在他支持编写和安装额外的分词管理插件,而开源的中文分词器 — ik 就非常强大,具有20万以上的常用词库,可以满足一般的常用分词功能。 本文,我们就来介绍如何安装 ik 分词库,如何为 ik 分词库添加自定义词库。
用户3147702
2022/06/27
2.5K0
Elasticsearch 常用分词器介绍与 ik 分词器自定义词库添加
IK分词器 IKAnalyzer 简单demo
所用IKAnalyzer:IK-Analyzer-2012FF 百度云:http://pan.baidu.com/s/1bne9UKf  
大道七哥
2019/09/10
2.3K0
IK分词器 IKAnalyzer 简单demo
相关推荐
ANSJ中文分词使用方法
更多 >
领券
💥开发者 MCP广场重磅上线!
精选全网热门MCP server,让你的AI更好用 🚀
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档