官网:https://internlm.intern-ai.org.cn/ 论文地址:https://arxiv.org/html/2407.03320 项目地址:https://github.com/InternLM/InternLM-XComposer 体验地址:https://huggingface.co/spaces/Willow123/InternLM-XComposer
InternLM-XComposer-2.5 模型框架
InternLM-XComposer-2.5 主要功能
多轮多图像对话:浦语•灵笔2.5 支持自由形式的多轮多图像对话,使其能够在多轮对话中与人类自然互动。
细粒度视频理解:浦语•灵笔2.5 将视频视为由数十到数千帧组成的超高分辨率复合图像,从而通过密集采样和每帧更高的分辨率捕捉细节。
超高分辨率理解:浦语•灵笔2.5使用560×560分辨率的VT视觉编码器增强了 IXC2-4KHD 中提出的动态分辨率解决方案,支持具有任意纵横比的高分辨率图像。
高质量文本-图像文章创作:浦语•灵笔2.5利用特别设计的“思维链”(CoT)和“直接偏好优化”(DPO)技术,显著提高了其创作内容的质量
出色的性能:浦语•灵笔2.5 在 28 个基准测试中进行了评估,在16个基准测试上优于现有的开源先进模型。它还在16个关键任务上超越或与 GPT-4V 和 Gemini Pro 表现相近。
浦语·灵笔2(XComposer2)模型部署
打卡开发机 --- share 找到模型
conda activate lmdeploy
pip install modelscope==1.9.5 -i https://pypi.tuna.tsinghua.edu.cn/simple/
ln -s /root/share/new_models/Shanghai_AI_Laboratory/internlm-xcomposer2-7b /root/models/internlm-xcomposer2-7b
cd /root/models/
复制
首先让我们进入创建好的conda环境,并通下命令启动API服务器
lmdeploy serve api_server \
/root/models/internlm-xcomposer2-7b \
--model-format hf \
--quant-policy 0 \
--server-name 0.0.0.0 \
--server-port 23333 \
--tp 1
复制
命令解释:
稍待片刻,终端显示如下。
code及技术报告
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。