Loading [MathJax]/jax/input/TeX/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >arXiv引用格式转换为已发表会议标准引用格式小工具分享

arXiv引用格式转换为已发表会议标准引用格式小工具分享

作者头像
种花家的奋斗兔
发布于 2021-02-04 01:45:05
发布于 2021-02-04 01:45:05
3.8K02
代码可运行
举报
运行总次数:2
代码可运行

0.写在前面

伴随着预印本平台 arXiv 的广泛使用,越来越多的研究者喜欢在写论文参考文献时直接使用 arXiv 信息。这看似非常方便,但也存在问题:这篇 arXiv 论文是否在 ACL、EMNLP、NAACL、ICLR 或 AAAI 等学术会议上发表过?

没错,在某些情况下,只引用 arXiv 信息显得不那么准确,这种不准确的文献条目甚至可能会违反某些会议的论文提交或 camera-ready 版本提交规则。

如何解决这一问题呢?最近,上交毕业生、南加州大学博士生林禹臣开发了一个简单的 Python 工具——Rebiber,它能够基于 ACL Anthology 和 DBLP 数据库自动解决这一问题。

项目地址https://github.com/yuchenlin/rebiber

1. 安装

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
pip install rebiber -U

或者

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
git clone https://github.com/yuchenlin/rebiber.git
cd rebiber/
pip install -e .

2. 使用方法

rebiber -i /path/to/input.bib -o /path/to/output.bib

-i:input

-o:output

如果不加“-o” 则会覆盖原始文件。

示例如下:

在该示例中,文章的原始信息来自 Google Scholar,仅包括标题、作者、期刊(arXiv)、年份。而事实上该论文已被 EMNLP 2020 接收,原始信息显然不够准确。

经过 Rebiber 转换后,原始 arXiv 信息被转换为来自正式来源的准确信息,包括标题、作者、年月、出版商、数字对象识别码(doi)、网址等详细内容。

其他测试:

输入:

运行:

输出:

如果结果是这样说明没有成功找到转换格式:

3.支持

Rebiber 支持的会议包括 ACL Anthology 涵盖的会议,如 ACL、EMNLP、NAACL 及其 workshop,以及 DBLP 涵盖的会议,如 ICLR 2020。

目前,Rebiber 支持的会议列表如下所示:

Name

Years

ACL Anthology

(until 2021-01)

AAAI

2010 -- 2020

AISTATS

2013 -- 2020

ALENEX

2010 -- 2020

ASONAM

2010 -- 2019

BigDataConf

2013 -- 2019

BMVC

2010 -- 2020

CHI

2010 -- 2020

CIDR

2009 -- 2020

CIKM

2010 -- 2020

COLT

2000 -- 2020

CVPR

2000 -- 2020

ICASSP

2015 -- 2020

ICCV

2003 -- 2019

ICLR

2013 -- 2020

ICML

2000 -- 2020

IJCAI

2011 -- 2020

KDD

2010 -- 2020

MLSys

2019 -- 2020

NeurIPS

2000 -- 2020

RECSYS

2010 -- 2020

SDM

2010 -- 2020

SIGIR

2010 -- 2020

SIGMOD

2010 -- 2020

SODA

2010 -- 2020

STOC

2010 -- 2020

UAI

2010 -- 2020

WSDM

2008 -- 2020

WWW (The Web Conf)

2001 -- 2020

4.手动添加会议

从DBLP 下载bib文件放置到rebiber/data文件夹下,然后转换为json格式,并将json文件路径添加到bib_list.txt.文件中。

示例

ICLR2020

1. 下载 https://dblp.org/db/conf/iclr/iclr2020.html 网站中的bib文件到data/iclr2020.bib

2. 转换为json格式

python bib2json.py -i data/iclr2020.bib -o data/iclr2020.json

3. 在 bib_list.txt.文件中 添加一行 data/iclr2020.json

5. Reference:

https://github.com/yuchenlin/rebiber

https://mp.weixin.qq.com/s?__biz=MzI4MDYzNzg4Mw==&mid=2247524063&idx=1&sn=5f6b2632afe12d27dd34ee0ec212a502&chksm=ebb7a60bdcc02f1d3e0f37e67ac793af15296373661a7e608c10baa55c25ca6743a48aa27861&mpshare=1&scene=23&srcid=0129Grgx8tCG5ShdYiastuqQ&sharer_sharetime=1611851356623&sharer_shareid=593b144921024cb60eff321150c59384#rd

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2021/01/29 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
「自然语言处理(NLP)」你必须要知道的八个国际顶级会议!
国际学术会议是一种学术影响度较高的会议,它具有国际性、权威性、高知识性、高互动性等特点,其参会者一般为科学家、学者、教师等。具有高学历的研究人员把它作为一种科研学术的交流方式,够为科研成果的发表和对科研学术论文的研讨提供一种途径 ;同时也能促进科研学术理论水平的提高。针对自然语言处理方向比较重要的几个会议有:ACL、EMNLP、NACAL、CoNLL、COLING、ICLR、AAAI、NLPCC等。
ShuYini
2020/01/02
3.9K0
2021年ML和NLP学术统计:谷歌断层第一,强化学习大牛Sergey Levine位居榜首
选自 marekrei 机器之心编译 机器之心编辑部 这有一份关于 2021 年 ML 和 NLP 出版物的统计数据,并以可视化的方式进行展现,例如最高产的作者、机构、主题等。 2021 年是自然语言处理(NLP)和机器学习(ML)非常高产的一年,现在是时候统计一下去年 NLP 和 ML 领域的论文了。 来自剑桥大学机器学习和自然语言处理的研究员 MAREK REI 总结分析了 2021 年经典论文,并归纳了 2021 年 ML 和 NLP 出版物的统计数据,他对人工智能行业的主要会议和期刊进行了分析,它们
机器之心
2022/05/27
5260
2021年ML和NLP学术统计:谷歌断层第一,强化学习大牛Sergey Levine位居榜首
不要再用arxiv链接了!为了让论文引用更规范,上交毕业生、南加州大学华人博士创建了一个小工具
伴随着预印本平台 arXiv 的广泛使用,越来越多的研究者喜欢在写论文参考文献时直接使用 arXiv 信息。这看似非常方便,但也存在问题:这篇 arXiv 论文是否在 ACL、EMNLP、NAACL、ICLR 或 AAAI 等学术会议上发表过?
机器之心
2021/02/23
1K0
不要再用arxiv链接了!为了让论文引用更规范,上交毕业生、南加州大学华人博士创建了一个小工具
收藏!编码器中如何融入结构信息?这几篇论文一定不要错过
编码器已经成为了很多 NLP 模型中的基本结构。不管你是做机器翻译,还是做句法分析,不管你是需要得到单词的上下文表示,还是需要得到句子的表示,你都需要一个强有力的编码器。输入一个句子,编码器最终输出每个单词的表示或者整个句子的表示。
godweiyang
2020/03/24
8430
收藏!编码器中如何融入结构信息?这几篇论文一定不要错过
「自然语言处理(NLP)」 你必须要知道的 “ 十二个国际顶级会议 ” !
 了解科研动态、进行学术研究、发表研究成果最好的方法就是研读国际顶会论文。那么在自然语言处理方向上,有哪些值得关注的国际顶会呢?今天作者给大家整理了12个在NLP领域中,比较有影响的国际顶会。它们分别是:AAAI、ACL、ICLR、NeurIPS、ICML、COLING、EMNLP、IJCAI、EACL、NAACL、CoNLL、NLPCC。部分会议作者之前单独整理过也有论文列表下载,如有错误的地方欢迎批评指正。
ShuYini
2022/12/06
12.8K0
Github项目推荐 | 知识图谱文献集合
https://github.com/shaoxiongji/awesome-knowledge-graph
AI研习社
2019/05/08
2.5K0
如何快速跟进NLP领域最新技术?(文献阅读清单)
在过去的两年中,NLP在各种不同任务和应用上的进展十分迅速。这些进展是由于构建NLP系统的经典范式发生了转变带来的:很长一段时间以来,研究人员都使用预训练的词嵌入(如word2vec或GloVe)来初始化神经网络,然后使用一个特定于任务的架构,该架构使用单个数据集以监督方法训练。
新智元
2019/05/29
1.1K0
交大ADAPT实验室 | 常识知识论文列表
近年来,常识知识(commonsense knowledge)越发成为NLP领域,乃至多模态,跨学科的研究热点。尽管以BERT为代表的的预训练语言模型已经在实体识别、机器翻译、情感分析等任务上取得了亮眼的表现,它们在面对一些人类可以使用常识轻易解决的问题时仍然表现不佳,面对对抗样本时也极为脆弱。似乎这些模型知识只是学到了一些浅层线索和语义,而与人类的知识体系并不相同。因此,将常识知识融入机器学习中就成为了一个充满前景的解决方案。不过,如何抽取常识知识,如何利用常识知识,乃至如何定义“常识本身”依然是有待研究的难题。 交大ADAPT实验室近年来正将研究兴趣专注于这一领域。在此过程中,我们也将自己的阅读加以筛选、归类和统计,整合成了一份论文列表,在GitHub上开源。
blmoistawinde
2020/11/24
6920
ML&NLP顶会论文发表总榜:谷歌最狂,清北入前十,周明、张岳、刘挺华人前三
伦敦帝国理工学院机器学习和自然语言处理著名学者Marek Rei 教授从2016年起,每年都会对ML&NLP相关的会议论文进行统计和分析,并一年一度发表分析结果,目前已成为该领域权威性的报告内容。
AI科技评论
2020/02/21
8030
「自然语言处理NLP」的“高光时刻” --- 28篇标志性论文
自然语言处理专家elvis在medium博客上发表了关于NLP在2019年的亮点总结。对于自然语言处理(NLP)领域而言,2019年是令人印象深刻的一年。在这篇博客文章中,我想重点介绍一些我在2019年遇到的与机器学习和NLP相关的最重要的故事。我将主要关注NLP,但我还将重点介绍一些与AI相关的有趣故事。标题没有特别的顺序。故事可能包括论文,工程工作,年度报告,教育资源的发布等。
深度学习技术前沿公众号博主
2020/05/18
6420
「自然语言处理NLP」的“高光时刻” --- 28篇标志性论文
刘知远:NLP研究入门之道(二)走近NLP学术界
地址 https://github.com/zibuyu/research_tao
zenRRan
2019/05/06
3.8K0
​AI顶会论文很多附带源代码?不少是假开源!
大数据文摘授权转载自数据派THU 作者:林嘉亮 审校:陈之炎 看到一篇绝佳的AI论文,非常期待作者能提供源代码,全文搜索HTTP,可惜出来的都不是源代码的链接。好不容易碰到一篇附带源代码的论文,点进去却是大大的404。终于发现某个不是404的源代码仓库,结果只是放上了几句说明,写着“代码coming soon”,然后一等就是一万年...... 所以,AI顶会论文中附带源代码的占比究竟有多少?这些代码中有多少已经失效了?这些代码的特点如何?作者是否为读者提供了足够详细的文档来运行这些源代码? 来自厦门大学自然
大数据文摘
2023/04/10
1.3K0
​AI顶会论文很多附带源代码?不少是假开源!
【论文】2019年各大顶会神经关系抽取(NRE)优质论文整理分享
本资源整理了2019年ACL, EMNLP, COLING, NAACL, AAAI, IJCAI等各类AI顶会中,一些神经网络关系提取(Neural Relation Extraction)相关的优质论文,文末根据关键词分类。
zenRRan
2020/02/18
1K0
​原创 | AI顶会论文很多附带源代码?不少是假开源!
作者:林嘉亮审校:陈之炎 本文约3500字,建议阅读10分钟相当多的作者没有向用户提供足够详细的文档,导致了一些重要信息的缺失。
数据派THU
2022/12/16
1.2K0
​原创 | AI顶会论文很多附带源代码?不少是假开源!
NLP 事件抽取综述(中)—— 模型篇
本系列文章主要分享近年来事件抽取方法总结,包括中文事件抽取、开放域事件抽取、事件数据生成、跨语言事件抽取、小样本事件抽取、零样本事件抽取等。主要包括以下几大部分:
zenRRan
2020/12/31
6.8K0
NLP 事件抽取综述(中)——  模型篇
2018自然语言处理与机器学习论文发表统计
来源:http://www.marekrei.com/blog/ml-and-nlp-publications-in-2018/
zenRRan
2019/11/20
7220
2018自然语言处理与机器学习论文发表统计
超全必读!NLP 事件抽取综述(下)
本系列文章主要分享近年来事件抽取方法总结,包括中文事件抽取、开放域事件抽取、事件数据生成、跨语言事件抽取、小样本事件抽取、零样本事件抽取等。主要包括以下几大部分:
NewBeeNLP
2021/01/08
3.5K0
自动化洞察,如何通过贡献陈述分析揭示NLP领域的本质 !
将研究领域进行分类有许多益处,其中包括将科学家聚集到一个有凝聚力的感兴趣领域进行进步。虽然通常会对科学领域进行一些广泛的描述,但学科的性质是动态和多维的,并且会随时间变化。
AIGC 先锋科技
2024/10/15
1270
自动化洞察,如何通过贡献陈述分析揭示NLP领域的本质 !
【NLP】四万字全面详解 | 深度学习中的注意力机制(二)
目前深度学习中热点之一就是注意力机制(Attention Mechanisms)。Attention源于人类视觉系统,当人类观察外界事物的时候,一般不会把事物当成一个整体去看,往往倾向于根据需要选择性的去获取被观察事物的某些重要部分,比如我们看到一个人时,往往先Attend到这个人的脸,然后再把不同区域的信息组合起来,形成一个对被观察事物的整体印象。
黄博的机器学习圈子
2021/01/11
9040
【NLP】四万字全面详解 | 深度学习中的注意力机制(二)
2022中文命名实体识别最新进展
中文命名实体识别 github:https://github.com/taishan1994/awesome-chinese-ner
西西嘛呦
2022/05/10
2.5K0
推荐阅读
「自然语言处理(NLP)」你必须要知道的八个国际顶级会议!
3.9K0
2021年ML和NLP学术统计:谷歌断层第一,强化学习大牛Sergey Levine位居榜首
5260
不要再用arxiv链接了!为了让论文引用更规范,上交毕业生、南加州大学华人博士创建了一个小工具
1K0
收藏!编码器中如何融入结构信息?这几篇论文一定不要错过
8430
「自然语言处理(NLP)」 你必须要知道的 “ 十二个国际顶级会议 ” !
12.8K0
Github项目推荐 | 知识图谱文献集合
2.5K0
如何快速跟进NLP领域最新技术?(文献阅读清单)
1.1K0
交大ADAPT实验室 | 常识知识论文列表
6920
ML&NLP顶会论文发表总榜:谷歌最狂,清北入前十,周明、张岳、刘挺华人前三
8030
「自然语言处理NLP」的“高光时刻” --- 28篇标志性论文
6420
刘知远:NLP研究入门之道(二)走近NLP学术界
3.8K0
​AI顶会论文很多附带源代码?不少是假开源!
1.3K0
【论文】2019年各大顶会神经关系抽取(NRE)优质论文整理分享
1K0
​原创 | AI顶会论文很多附带源代码?不少是假开源!
1.2K0
NLP 事件抽取综述(中)—— 模型篇
6.8K0
2018自然语言处理与机器学习论文发表统计
7220
超全必读!NLP 事件抽取综述(下)
3.5K0
自动化洞察,如何通过贡献陈述分析揭示NLP领域的本质 !
1270
【NLP】四万字全面详解 | 深度学习中的注意力机制(二)
9040
2022中文命名实体识别最新进展
2.5K0
相关推荐
「自然语言处理(NLP)」你必须要知道的八个国际顶级会议!
更多 >
领券
💥开发者 MCP广场重磅上线!
精选全网热门MCP server,让你的AI更好用 🚀
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验