前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >机器学习论文+代码大全,这个网站请收藏好

机器学习论文+代码大全,这个网站请收藏好

作者头像
量子位
发布于 2018-07-24 08:34:39
发布于 2018-07-24 08:34:39
1.2K0
举报
文章被收录于专栏:量子位量子位
问耕 发自 麦蒿寺 量子位 出品 | 公众号 QbitAI

好消息,好消息。

一个网站,关于机器学习的网站,在著名的reddit上获得国外网友的热情追捧。如果你要问为什么,其实特别简单。

这个网站,集合了arXiv上最新的机器学习研究论文,而且还关联了这些论文在GitHub上的代码。

无图无真相。

你看,是不是清晰明了。

在这个网站上,机器学习最新研究的基本情况,全都一口气集合了起来。还能根据不同的条件,搜索、筛选相关论文。

电脑、手机端皆可适配访问。

而且,亲测不用访问外国网站

话不多说,请记住这个网址:

https://paperswithcode.com/

或者点击左下角的“阅读原文”,直接前往。

这个网站的作者是:“Robert and Ross”,是他俩利用业余时间搞出来的。他们还在reddit上开贴答疑。

既然话已经说到这了,如果你还不知道,顺手推荐一个“老牌”姊妹网站:GitXiv。同样是把arXiv和GitHub内容整合在一起。

GitXiv的网址:

http://www.gitxiv.com/

就这样,祝大家研究顺利~

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2018-06-23,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 量子位 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
总结!语义信息检索中的预训练模型
本文对预训练模型在召回(retrieval), 排序(re-ranking),以及其他部分的应用做一个总结,参考学长们的综述:Pre-training Methods in Information Retrieval[1]
NewBeeNLP
2022/11/11
1.9K0
总结!语义信息检索中的预训练模型
综述!信息检索中的花式预训练
目前信息检索(Information Retrieval)几乎都是使用深度学习系列的方法,即NeuIR(neural information retrieval)。而随着预训练在深度学习领域的大放光芒,信息检索中也出现了各种预训练策略。这篇文章博主将整理来自清华大学与中科院的信息检索综述,先上路径。
NewBeeNLP
2022/04/14
1.7K0
综述!信息检索中的花式预训练
COIL:结合稠密检索和词汇匹配的更高效检索模型
今天分享来自 NAACL 2021的一篇文章,一种基于上下文倒排索引的信息检索模型:「COIL(COntextualized Inverted List)」。
NewBeeNLP
2022/01/19
1.7K0
COIL:结合稠密检索和词汇匹配的更高效检索模型
论文领读|缺少有标注的数据集怎么训练文本检索模型?来看看 LaPraDoR怎么做的吧
欢迎来到「澜舟NLP论文领读」专栏!快乐研究,当然从研读 paper 开始——澜舟科技团队注重欢乐的前沿技术探索,希望通过全新专栏和大家共同探索人工智能奥秘、交流 NLP「黑科技」,踩在「巨人」肩上触碰星辰!
澜舟科技
2022/06/13
7962
论文领读|缺少有标注的数据集怎么训练文本检索模型?来看看 LaPraDoR怎么做的吧
检索式对话系统在美团客服场景的探索与实践
在传统的客服、IM等场景中,坐席需要花费大量时间回答用户的各种咨询,通常面临答案查询时间长、问题重复、时效要求高等挑战。因而,使用技术手段辅助坐席快速、准确、高效地回答用户的各类问题非常有必要。
美团技术团队
2022/12/16
1.2K0
检索式对话系统在美团客服场景的探索与实践
多维度信息捕捉:利用向量、稀疏向量、全文搜索及张量实现RAG的极致性能
开源 AI 原生数据库 Infinity 0.2 release 正式发布,提供了 2 种新数据类型:稀疏向量Sparse Vector 和 张量Tensor,在此前的全文搜索和向量搜索之外, Infinity 提供了更多的召回手段,如下图所示,用户可以采用任意 N 路召回(N ≥ 2)进行混合搜索,这是目前功能最强大的 RAG 专用数据库。
汀丶人工智能
2025/04/22
1990
多维度信息捕捉:利用向量、稀疏向量、全文搜索及张量实现RAG的极致性能
奥创纪元:当推荐系统遇到大模型LLM
大模型LLM在越来越多的领域开始崭露头角,比如我们在今年上半年曾在某电商平台落地过较为直观简单的LLMx搜索项目(我们称之为LLM应用的第一阶段),同时拿到线上收益,LLM的潜力可见一斑。
NewBeeNLP
2023/12/04
1.9K0
奥创纪元:当推荐系统遇到大模型LLM
LLM4Rec:当推荐系统遇到大语言模型
大模型LLM在越来越多的领域开始崭露头角,前段时间我们整理了大模型在推荐系统中的应用 survey,当时留了一些坑没填上,今天补上。
NewBeeNLP
2024/01/17
3.5K0
LLM4Rec:当推荐系统遇到大语言模型
预训练技术在美团到店搜索广告中的应用
搜索广告在优化流量变现效率等商业指标之外,也需要重点优化用户体验,降低不相关广告对用户体验的损害,这样才能保证平台生态的健康发展。本文对预训练技术在广告相关性的落地方案进行了介绍,既包括训练样本上的数据增强、预训练及微调阶段的BERT模型优化等算法探索层面的工作,也包括知识蒸馏、相关性服务链路优化等实践经验。
美团技术团队
2021/12/09
1.5K0
预训练技术在美团到店搜索广告中的应用
BGE M3-Embedding 模型介绍
BGE M3-Embedding来自BAAI和中国科学技术大学,是BAAI开源的模型。相关论文在https://arxiv.org/abs/2402.03216,论文提出了一种新的embedding模型,称为M3-Embedding,它在多语言性(Multi-Linguality)、多功能性(Multi-Functionality)和多粒度性(Multi-Granularity)方面表现出色。M3-Embedding支持超过100种工作语言,支持8192长度的输入文本,同时支持密集检索(Dense Retrieval)、多向量检索(Multi-Vector Retrieval)和稀疏检索(Sparse Retrieval),为现实世界中的信息检索(IR)应用提供了统一的模型基础,通过这几种检索方式的组合,取得了良好的混合召回效果。
JadePeng
2024/04/19
11K0
BGE M3-Embedding 模型介绍
技术前沿综述:RAG领域的重要进展与创新亮点
在已经过去的 2024 年,RAG 的发展可以称得上是风起云涌,我们回顾全年,从多个角度对全年的发展进行总结。 首先用下图镇楼:
汀丶人工智能
2025/04/23
6430
技术前沿综述:RAG领域的重要进展与创新亮点
MT-BERT在文本检索任务中的实践
基于微软大规模真实场景数据的阅读理解数据集MS MARCO,美团搜索与NLP中心提出了一种针对该文本检索任务的BERT算法方案DR-BERT,该方案是第一个在官方评测指标MRR@10上突破0.4的模型。
美团技术团队
2020/08/28
1.7K0
MT-BERT在文本检索任务中的实践
突破双塔: 生成式交互向量化召回
TLDR: 本文介绍了一种突破传统的双塔式(two-tower)模型的新方法,这种方法利用一个轻量级的生成模型提取一侧(例如文档侧)的特征,并模拟生成另一侧(例如查询侧)的特征。这种模型的优点在于,它实现在底层进行特征交叉,而不仅仅是在顶层进行内积。效果显著,同时Serving效率与纯双塔模型持平。此研究相当于进一步扩展了双塔式模型中引入交叉特征的可能性,并展望了在召回侧引入交叉特征的新做法。
炼丹笔记
2023/12/11
2K0
突破双塔: 生成式交互向量化召回
BERT在美团搜索核心排序的探索和实践
为进一步优化美团搜索排序结果的深度语义相关性,提升用户体验,搜索与NLP部算法团队从2019年底开始基于BERT优化美团搜索排序相关性,经过三个月的算法迭代优化,离线和线上效果均取得一定进展。本文主要介绍探索过程以及实践经验。
美团技术团队
2020/07/14
2.2K0
BERT在美团搜索核心排序的探索和实践
手把手!基于领域预训练和对比学习SimCSE的语义检索(附源码)
之前看到有同学问,希望看一些偏实践,特别是带源码的那种,安排!今天就手把手带大家完成一个基于领域预训练和对比学习SimCSE的语义检索小系统。
NewBeeNLP
2021/12/27
1.6K0
手把手!基于领域预训练和对比学习SimCSE的语义检索(附源码)
业界总结 | 如何改进双塔模型,才能更好的提升你的算法效果?
今天写点技术干货来回馈一下我的粉丝们。本来想继续写对比学习(Contrastive Learing)相关类型的文章,以满足我出一本AI前沿技术书籍的梦想,但奈何NIPS2021接收的论文一直未公开,在arxiv上不停地刷,也只翻到了零碎的几篇。于是,我想到该写一下双塔模型了,刚进美团的第一个月我就用到了Sentence-BERT。
对白
2022/04/01
7570
业界总结 | 如何改进双塔模型,才能更好的提升你的算法效果?
KDD 2020 | 详解语义Embedding检索技术在Facebook搜索中的应用实战
导读:今天分享一下Facebook发表在KDD 2020的一篇关于社交网络搜索中的embedding检索问题的工作,干货很多,推荐一读。
石晓文
2020/09/07
2.3K0
KDD 2020 | 详解语义Embedding检索技术在Facebook搜索中的应用实战
改进 Elastic Stack 中的信息检索:引入 Elastic Learned Sparse Encoder,我们的新检索模型
英文原文请参考:https://www.elastic.co/blog/may-2023-launch-information-retrieval-elasticsearch-ai-model
点火三周
2023/07/20
2K0
改进 Elastic Stack 中的信息检索:引入 Elastic Learned Sparse Encoder,我们的新检索模型
谷歌 ICLR 2020 | 向量化召回也需要『预训练』
今天分享的paper是来自谷歌的:PRE-TRAINING TASKS FOR EMBEDDING-BASED LARGE-SCALE RETRIEVAL
NewBeeNLP
2021/04/26
1.1K0
谷歌 ICLR 2020 | 向量化召回也需要『预训练』
解密Prompt系列20. LLM Agent 之再谈RAG的召回多样性优化
几个月前我们就聊过RAG的经典方案解密Prompt系列14. LLM Agent之搜索应用设计。前几天刚看完openAI在DevDay闭门会议上介绍的RAG相关的经验,有些新的感悟,借此机会再梳理下RAG相关的优化方案。推荐直接看原视频(需科学上网)A Survey of Techniques for Maximizing LLM Performance
风雨中的小七
2023/11/29
3.5K2
解密Prompt系列20. LLM Agent 之再谈RAG的召回多样性优化
推荐阅读
相关推荐
总结!语义信息检索中的预训练模型
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档