送「20+AI工具合集新手攻略」&「提示词指南」
Hi,你好,我是练习时长两年半的AI大玩家,目前专注 AI视频,AI绘画,AI工具的分享,希望能够将AI讲述的通俗易懂,不再让人焦虑,分享普通人用得上的AI经验。
今日主题:ChatGPT 统计数据
自从出了Veo2,谷歌真的完完全全吊打了Open AI,Open AI更是计划推出2000美元的套餐,所有人都在觉得Open AI不行了,是不是有财政压力之类的说法,对此,我表示看客,但是对于Open AI在某种意义上来说,是AIGC的吹哨人,开启了AI的元年,正是因为他的出现,才会有这种的大模型如雨后春笋般出现
接下来,就让我们盘点一下,Open AI的一些数据吧
ChatGPT 使用“Transformer 架构”,这是一种深度学习技术,它处理包含数十亿个单词的 TB 级数据,以便为用户输入的问题或提示提供答案。它是机器学习自然语言处理模型的一种版本,称为大型语言模型 (LLM)。
听首席执行官兼联合创始人 Sam Altman在 2023 年的播客中谈论 OpenAI 的历史。在第 41 分钟,他谈到了人工智能当前面临的挑战。除其他事项外,他描述了当前的 GPT 版本主要经过训练以听起来连贯,而不是验证事实,并引用道:“[AI 聊天机器人] 是非常令人信服的胡说八道者”。
ChatGPT-4于 2023 年 3 月推出,是该工具的最新版本。自从使用 GPT-4 语言模型更新以来,ChatGPT 可以使用多达 25,000 个单词(比以前的版本多 8 倍)进行响应,并且能够处理图像输入以及文本,使其成为多模式的。
据估计,ChatGPT-4 是在 100 万亿个参数上进行训练的,这大致相当于人脑的参数。这意味着最新版本的训练数据可能比 ChatGPT-3 使用的 1750 亿个参数大 571 倍。(来源:Wired、Hix.ai)
OpenAI 报告称,最新版本可以产生多 40% 的事实响应,并且对不允许内容的请求的响应可能性降低了 82%。
GPT-3.5 和 GPT-4 之间的主要区别在于它们的能力,包括它们可以处理的信息量和类型。GPT-4 有两种版本,一种是 8K 版本,其上下文长度约为 8,000 个标记,另一种是 32K 版本,可以处理大约 32,000 个标记。这意味着该工具的最新版本可以处理更长的文档,创建更大的文本,并维持更长的对话而不会丢失上下文。
OpenAI 正在继续开发 ChatGPT,据报道,GPT-5 将于 2023 年 12 月完成训练。Sam Altman报告称,GPT-5 需要更多数据进行训练,计划使用互联网上公开可用的数据集。不过,目前尚未确定 GPT-5 的发布日期。
OpenAI 使用人类反馈强化学习 (RLHF) 训练模型。ChatGPT 使用的训练数据集非常庞大。Wired报道称,它包含:
ChatGPT 无法访问互联网,只能从其训练数据集中收集信息。该数据集的 60% 基于“常见抓取”数据的过滤版本。简单来说,这是从网页、文本和元数据中抓取的 8 年数据。
据估计,如果使用单个 NVIDIA Tesla V100 GPU 训练该工具,则使用其当前数据集进行训练大约需要 355 年。但据报道,OpenAI 使用 1,023 个 A100 GPU 来训练 ChatGPT。这意味着训练过程可能仅需 34 天即可完成。(来源:斯坦福大学Lambda Labs)
据The Information报道,OpenAI 的年化收入在 2023 年 12 月突破 16 亿美元,这主要归功于 ChatGPT,而就在两个月前,该公司的收入才刚刚达到 13 亿美元。此前的报道显示,OpenAI 最初预计 2023 年底的收入将达到 2 亿美元。
最近销售额的增长伴随着有报道称该公司正在寻求筹集新资金,并希望以至少 1000 亿美元的估值完成本轮融资。该公司预计将在 2024 年继续增长,一些 OpenAI 高管预测到今年年底,其年化经常性收入将达到 50 亿美元。如果这一预测正确,OpenAI 在 2024 年的平均日收入将达到 13,661,202 美元。
好了,介绍到此,再会!