首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    用最低调的功能,炫最高调的Deno

    微信群里 JJC 大佬发出了一个链接,我在 PC 端打开便是上面图中所示。凡尔赛?莫非是 Deno 的新特性?怀着对技术的热情和好奇,我先搜索了一下,原来--“凡尔赛文学”是网络热词,和“打工人“、“后浪“、“内卷“等一起入选《咬文嚼字》2020年度十大流行词。“凡尔赛文学”兴起于微勃,比较典型的范式如““老公竟然送了我一辆粉红的兰博基尼,这颜色选的也太直男了吧,哎,怎么跟他说我不喜欢这个颜色呢?”,通俗地来说,“凡尔赛文学”就是“用最低调的话,炫最高调的耀”,慢慢地居然成为了一门学问--“凡学”(PS:驳学表示不服……了解这么多,其实是我和社会脱轨了,和圈子脱轨了,群里大佬张口就来,而我确是一脸懵逼。好在代码开源,作为资深 Copy攻城狮,加上 Deno 对新手入门比较友好,我便开始研(git)究(clone)大佬的代码,挺有趣的!

    02

    【GPT总结】Why Can GPT Learn In-Context?

    这篇论文提出了一种新的方法,利用大型预训练语言模型展示了惊人的上下文学习能力。通过少量的示范输入-标签对,它们可以在没有参数更新的情况下预测未见输入的标签。尽管在性能上取得了巨大成功,但其工作机制仍然是一个开放问题。在这篇论文中,作者将语言模型解释为元优化器,并将上下文学习理解为隐式微调。在理论上,他们发现Transformer的注意力具有梯度下降的双重形式。基于此,他们将上下文学习理解为以下过程:GPT首先根据示范示例生成元梯度,然后将这些元梯度应用于原始的GPT以构建一个ICL模型。通过在真实任务上全面比较上下文学习和显式微调的行为,提供了支持我们理解的实证证据。实验结果表明,从多个角度来看,上下文学习的行为与显式微调类似。受Transformer注意力和梯度下降之间的双重形式启发,作者设计了一种基于动量的注意力机制,类比于带有动量的梯度下降。改进后的性能进一步支持了我们的理解,更重要的是,展示了利用我们的理解进行未来模型设计的潜力。该论文的代码可在\url{https://aka.ms/icl}上找到。

    01

    SCOPUS数据库_数据库的构成

    ScienceDirect数据库 1. Elsevier简介 荷兰Elsevier 是全球最大的科学文献出版发行商,已有180多年的历史。其产品涵盖科学、技术和医学等各个领域,包括1800多种学术期刊(大部分被SCI、SSCI、EI收录,是世界上公认的高品位学术期刊), 5000多种书籍以及电子版全文和文摘数据库。 2. ScienceDirect数据库简介 Science Direct数据库是Elsevier公司的核心产品,也是全球最大的科学文献全文数据库,涵盖了科学、技术以及医学领域的21个学科(数学、物理、化学、天文学、医学、生命科学、商业及经济管理、计算机科学、工程技术、能源学、环境科学、材料科学、社会科学等众多学科)。它提供Elsevier的1800多种期刊的检索和全文下载,其中SCI收录1393种,EI收录515种。

    01

    天文学家发现首个“流浪黑洞”,60多个科研机构追踪10年,终因引力透镜露出马脚

    行早 晓查 发自 凹非寺 量子位 | 公众号 QbitAI 十年磨一剑,天文学家终于发现了首个在太空中“流浪”的孤立黑洞。 这两天,Nautre刊登了该消息,在天文界引发不少关注,此项目历经10年,背后60多个科研机构参与,目标黑洞就藏在下面图片中: 看完图,你发现黑洞在哪了么? 在2011年8月8日的照片中,左边的恒星突然变得很亮,之后就变暗了,而且后来一直没再变过。 没错,在箭头所指的位置,就藏着一颗黑洞。 也许你会好奇,既然叫黑洞,为什么在照片里反而会变亮呢?此外,这个“孤立黑洞”又是个什么? 这就

    02

    干货满满,中科院信工所于静新课帮你get学术研究与论文写作技能

    机器之心报道 机器之心编辑部 中科院信息工程研究所副研究员于静老师近期在 B 站开设了《科研与英文学术论文写作》视频课程,全程干货。 科研与学术论文写作是学术研究者需要具备的核心能力之一,但目前处于科研起步阶段的同学对如何做出高水平学术研究、如何写出高质量学术论文、如何培养必备的学术能力仍存在诸多困惑,也缺少科学的方法指导。在宝贵的在校学习阶段,尽早掌握一套完善科学的科研方法、了解具有实操价值的论文写作规范能够有效助力高水平学术成果的产出。 近期,中科院信息工程研究所副研究员于静老师在 “CCF 学生领航计

    02
    领券