首页
学习
活动
专区
工具
TVP
发布

Datawhale专栏

专栏成员
513
文章
738001
阅读量
76
订阅数
对吴恩达 workflow 概念产品化的思考!
本文针对当前 workflow 类型产品所存在的问题,思考了产品设计的方法论,主要内容包括:将任务进行形式化表达,提出 workflow 的系统设计可以形式化地表达为 DFA 的构造,以及流程节点设计是给定约束条件下的 DFA 状态数量最小化问题。
Datawhale
2024-06-19
780
深度剖析AI机会,数字人智能对话系统:未来的人机交互新范式
随着人工智能时代的到来,大模型的技术日新月异,我们不仅仅满足于文字之间的交互,希望能够有更近一步的交流。既然现在文字已经能够很好的模拟人类了,那随之而来的,是不是我们能够通过模拟人类交流的方式来交互。
Datawhale
2024-06-19
1300
Datawhale出品:《GLM-4 大模型部署微调教程》发布!
就在昨天,智谱 AI 发布了最新开源模型 GLM4,通过 10T 高质量多语言数据与更先进的训练技术,达到了更加出色的生成效果。
Datawhale
2024-06-08
6330
GLM-4最新开源版本硬核测评!Datawhale成员万字测评(一)
智谱今天新推出了一个 glm-4-9b 模型,支持 120k 左右的上下文与 8192 的输出长度,在拿到测试资格的时候我就立马开始了上手评测。
Datawhale
2024-06-08
4710
开发者视角看GLM-4-9B!Datawhale成员万字测评(二)
智谱于 2024年6月5日发布了其新一代开源模型——GLM-4-9B,以 9B 的体量,同时支持了 128K 长上下文推理、26种语言多语言支持,且在多个经典评测任务上都实现了超过以往同等开源模型的效果。在 GLM-4-9B 发布之初,我们抢先体验了其效果,并在多种开发者常见任务上进行评测,帮助开发者进一步了解该模型的使用和性能。
Datawhale
2024-06-08
3510
达到1k stars后🥂,我对大模型开源教程的反思!
“五·一”节后第一个开心的消息是我们开源的大模型基础项目(https://github.com/datawhalechina/so-large-lm)已经达到1k stars⭐️了。这个开源项目是为了提供浅显易懂且前沿的大模基础知识而打造的,能收获1k个stars⭐️也是对这个项目的肯定。我为一起付出努力的贡献者感到开心,也为这个课程的核心贡献者表达谢意。
Datawhale
2024-05-18
1250
AI顶会 ICLR 最新演讲:“The ChatGLM's Road to AGI”,首个中国大模型团队!
北京时间5月9日晚,第十二届国际学习表征会议(International Conference on Learning Representations,ICLR) 在奥地利维也纳展览会议中心举办。
Datawhale
2024-05-18
930
时间序列和时空数据扩散模型27页综述!
题目: A survey on diffusion models for time series and spatio-temporal data
Datawhale
2024-05-09
1490
FaceChain高保真人像风格生成挑战赛:一等奖方案
大家好,我是马琦钧,Datawhale成员,毕业于浙江农林大学,统计学/会计学双学位,获得过由阿里云、谷歌、百度、CVPR、思否、极棒等举办的相关赛事奖项。
Datawhale
2024-04-30
1010
一个开源的轻量级agent框架-Agere
agere是一个开源的轻量级agent框架,主要特点是通用性和完全的可定制性。它通过将一个复杂流程拆解为一系列独立的小步骤,来简化构建具有复杂逻辑的agent的流程。
Datawhale
2024-04-24
2420
一文带你了解基于大模型的Agent
在当前信息时代,大型语言模型(Large Language Models,LLMs)的发展速度和影响力日益显著。大模型强大的推理以及生成能力成为了搭建智能体的最好的组件。本内容来源于Datawhale的开源的“生成大模型基础(so-large-lm)”,一个致力于探索和理解大型模型发展的前沿课程:https://github.com/datawhalechina/so-large-lm
Datawhale
2024-04-24
5450
动手做一个最小Agent——TinyAgent!
大家好,我是不要葱姜蒜。在ChatGPT横空出世,夺走Bert的桂冠之后,大模型愈发地火热,国内各种模型层出不穷,史称“百模大战”。大模型的能力是毋庸置疑的,但大模型在一些实时的问题上,或是某些专有领域的问题上,可能会显得有些力不从心。因此,我们需要一些工具来为大模型赋能,给大模型一个抓手,让大模型和现实世界发生的事情对齐颗粒度,这样我们就获得了一个更好用的大模型。
Datawhale
2024-04-24
910
WanJuan-CC数据集:为大型语言模型训练提供高质量Webtext资源
如何在参差不齐的海量网页数据中提炼高质量内容?如何保证模型训练数据的质量和安全性,如何构建高效的处理策略?上海人工智能实验室的这篇论文提供了一种不错的参考方案。
Datawhale
2024-04-24
4590
超过GPT3.5?Mixtral 8*7B 模型结构分析
2023年12月11日,Mistral AI团队发布了一款高质量的稀疏专家混合模型Mixtral 8x7B。
Datawhale
2024-04-24
1530
AI + X 组队学习来了!一起学Sora
AI+X系列:和学习生态伙伴联合发起,将人工智能(AI)与各个学科、领域、行业(X)结合, 激发无限潜力和创造力(X),让学习者拥有更多可能性(X)。
Datawhale
2024-04-24
1130
Sora技术详解及影响分析!
从openai sora[1]的技术报告首段可以看出sora的野心远远不止视频生成,他们的目标是通过视频数据来学习一个世界模型或者世界模拟器,这才是真正令人兴奋和激动的部分。
Datawhale
2024-04-24
1690
《开源大模型食用指南》发布,7个小时,一杯奶茶速通大模型!
《开源大模型食用指南》是一个围绕开源大模型、针对国内初学者、基于 AutoDL 平台的中国宝宝专属大模型教程,针对各类开源大模型提供包括环境配置、本地部署、高效微调等技能在内的全流程指导,简化开源大模型的部署、使用和应用流程,让更多的普通学生、研究者更好地使用开源大模型,帮助开源、自由的大模型更快融入到普通学习者的生活中。项目的主要内容包括:
Datawhale
2024-04-24
1K0
GPT-4变笨的原因揭秘
如果说今年早些时候那次「间歇式降智」与 OpenAI 重新设计 GPT-4 架构有关,前段时间的「变懒」传闻就更搞笑了,有人测出只要告诉 GPT-4「现在是寒假」,它就会变得懒懒散散,仿佛进入了一种冬眠状态。
Datawhale
2024-04-24
1560
2024年AI七大事件预测:1. 微软OpenAI将决裂、2.AI…
在全球经济面临衰退,世界各地冲突不断的2023年里,科技股为主的纳斯达克指数却逆市大涨43%,几乎来到了2021年的历史最高点。
Datawhale
2024-04-24
2670
动手做一个最小RAG——TinyRAG
接下来我会带领大家一步一步地实现一个简单的RAG模型,这个模型是基于RAG的一个简化版本,我们称之为Tiny-RAG。Tiny-RAG是一个基于RAG的简化版本,它只包含了RAG的核心功能,即Retrieval和Generation。Tiny-RAG的目的是为了帮助大家更好地理解RAG模型的原理和实现。
Datawhale
2024-04-24
1120
点击加载更多
社区活动
AI代码助手快速上手训练营
鹅厂大牛带你玩转AI智能结对编程
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档