首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    AI for Science:清华团队提出使用低维优化求解器求解高维/大规模优化问题的高效方法

    摘要:在2023年7月即将召开的机器学习领域知名国际会议ICML2023中,清华大学计算机系徐华老师团队以长文的形式发表了采用低维优化求解器求解高维/大规模优化问题的最新研究成果(论文标题“GNN&GBDT-Guided Fast Optimizing Framework for Large-scale Integer Programming”)。本项研究针对工业界对于大规模整数规划问题的高效求解需求,提出了基于图卷积神经网络和梯度提升决策树的三阶段优化求解框架,探索了仅使用小规模、免费、开源的优化求解器求解只有商用优化求解器才能解决的大规模优化问题的道路,在电力系统、物流配送、路径规划等诸多应用领域中均具有潜在的应用价值。

    03

    CIKM'21 多关系图神经网络的社区问答

    为了研究像Stack Overflow这样的社区问答(CQA)平台,人们提出了各种数据挖掘任务。这些任务之间的相关性通过多任务学习(MTL)为彼此提供了有用的学习信号。然而,由于这些任务的高度异质性,很少有现有的工作能够在一个统一的框架中共同解决它们。为了解决这一难题,我们开发了一种基于多关系图的MTL模型——异构多任务图同构网络(Heterogeneous Multi-Task graph Isomorphism Network, HMTGIN),该模型有效地解决了异构CQA任务。在每次训练前向传递中,HMTGIN通过图同构网络的扩展和跳跃连接嵌入输入的CQA论坛图。嵌入然后在所有特定任务的输出层共享,以计算各自的损失。此外,利用两个基于任务关系领域知识的跨任务约束对联合学习进行正则化。在评估中,嵌入在不同的任务特定的输出层之间共享,以做出相应的预测。据我们所知,HMTGIN是第一个能够从多关系图的角度处理CQA任务的MTL模型。为了评估HMTGIN的有效性,我们从Stack Overflow中构建了一个具有200多万个节点的大规模多关系图CQA数据集。大量实验表明: (1) HMTGIN在5个任务上优于所有基线; (2) 提出的MTL策略和跨任务约束具有显著优势。

    01

    【ICML2023】基于最优多任务插值的多模态基础模型迁移

    来源:专知本文为论文介绍,建议阅读5分钟在这项工作中,我们提出了一种通用的参数高效迁移学习方法。 基础模型在多任务学习方面取得了很大的进展,实现了统一的单模态和多模态任务接口。然而,在迁移学习过程中,这类多任务学习器的潜力尚未得到充分利用。在这项工作中,我们提出了一种通用的参数高效迁移学习方法,称为预测-插值调优(π-调优),适用于视觉、语言和视觉-语言任务。它汇集了从类似任务中学到的轻量级任务特定专家的参数,以帮助目标下游任务。任务相似性在统一的模态无关空间中进行预测,形成一个可扩展的图表来展示任务之间

    01

    首个中文编写的操作系统,作者还自创了甲乙丙编程语言?

    这两天,圈里一个名为“火龙”的操作系统突然爆红,其作者调侃地称其为“全宇宙首个采用中文编写的操作系统”,使用自创的甲语言、乙语言开发,支持64位多核多任务图形化,采用分页式内存管理。 1 自创甲、乙、丙语言 既然要开发操作系统,编程语言必不可少,为此他创建了三种编程语言,取名还透着一分随性:甲、乙、丙语言。 甲语言:一门对机器码助记语言,让人更容易理解的语言,发明目的是为了开发操作系统。 乙语言:一门对甲语言进行结构化过程化的语言,发明目的是为了提高开发效率。 丙语言:一门面向对象的高级语言,可以理解为

    03
    领券