通过使用任务特定的图指令对大语言模型进行微调,我们可以引导模型生成更适合当前图学习任务的响应,进一步提高其在处理各种图学习任务时的适应性和性能。
指令设计
同样采用第一阶段的邻居采样方法生成图信息。...但由于思维链方法的效果与模型参数大小密切相关,如何在较小的模型中充分利用其优势成为关键。...即使最近开发的基于图神经网络的强大模型,如NodeFormer、DIFFormer和GKD,在有监督任务中展现出出色的结构建模能力,但在迁移到未经进一步训练的新数据集时,其性能大幅下降。...而GraphGPT的表现更为出色,得益于两步的图结构指令微调,保持甚至增强了性能,同时也保留了通用的图结构模式。
多任务图学习近期研究发现,结合不同类型的指令微调数据可以进一步优化大语言模型的性能。...结果显示,在相同设置下,精调大语言模型参数会导致GPU内存溢出(OOM),即使batch size仅为1。而使用我们提出的精调方法,batch size为2时训练依然能够稳定进行。