暂无搜索历史
过去几年,我们在热烈讨论大模型。无论是 GPT、Claude、Gemini,还是国内的千问、文心、通义——它们代表了智能的「大脑」。 但我们逐渐意识到:大脑不...
人机交互的历史,其实是一部“翻译史”。 从最初的打孔卡、汇编代码,到命令行(CLI),再到图形界面(GUI),我们一直在让机器“听懂人话”的路上前行。
我们每天上网——打开浏览器、输入网址、发消息、视频通话——看似轻而易举。可在这条看不见的网络背后,信息如何准确地从我的电脑“跑”到地球另一端?
当我们回顾这几年深度学习的发展,会发现一个明显的趋势——AI 不再只是“一个模型”,而正在成为“一个系统”。
在过去的几年中,AI的发展速度令所有人目不暇接: 从卷积网络征服图像识别,到Transformer统治自然语言处理; 从ChatGPT点燃语言智能的时代,到...
在深度学习的发展历程中,卷积网络学会了「看」,Transformer 学会了「读」,而生成模型学会了「写」。 但智能的终极形态,不仅是理解与表达,还包括「行动...
深度学习的发展轨迹,其实是一条不断拓宽「输入维度」的曲线。 从最早的 图像识别(CNN) 到 语音识别(RNN、CTC),再到 自然语言处理(Transfor...
当人类阅读一幅漫画、听一段音乐、看一场电影时,我们的大脑在同时处理图像、语言、声音、情绪等多种模态。 而过去十年,深度学习的进步几乎都是“单模态”的:
在深度学习训练的世界里,优化算法 是模型能否成功学习的核心。 神经网络的本质,是一个巨大的参数空间搜索问题。我们希望找到那组参数,使得模型在训练集与验证集上都...
深度学习训练的最后阶段,往往并不是算法问题,而是工程问题。 优化器、学习率、网络结构固然重要,但能让模型真正「稳」和「泛化好」的,是各种“看似附属”的模块:激...
前几篇我们讲了神经网络的基本结构、反向传播机制,以及优化算法的演化。 到了这一步,模型的数学原理我们已经有了清晰的认识。 但在真正的训练过程中,你会发现事情...
在前三篇中,我们已经走完了神经网络的核心理论路径—— 从神经元到前向传播,从损失函数到反向传播,从优化算法到数值稳定。 你现在已经可以手写一个两层网络并跑通...
在第一篇里,我们讲过神经元和前向传播。 我们知道一个神经网络的基本结构:输入经过层层加权求和、非线性激活,最后得到输出。 接着通过损失函数计算误差。
前面我们讲到一个神经元的数学本质,其实整个神经网络的前向传播(Forward Propagation),就是把“加权求和 + 激活函数”这个小操作重复多次。
本系列是为那些想“真正理解”深度学习的人写的。 不谈框架黑箱,不追求堆砌术语。 我们从最小的神经元开始,一步步走向真正可理解的深度学习。
于是有人告诉你:“映射个端口就行”,你照做了,但 NAT、局域网、防火墙、ISP 限制……各种问题接踵而来。
在上世纪九十年代末到 2000 年初的游戏黄金期, P2P 是最自然的联机模式。 那时网络带宽低、云服务器昂贵、在线玩家有限—— 每个玩家都是一个“节点”...
上一部分讲完了 NAT、局域网结构与“联机为什么难”的根源; 从这一部分开始,我们就要进入“真正能让联机发生”的三种关键技术:
很多人第一次接触“内网穿透”这个词,都是从这种痛苦的联机经历开始的。 那种感觉就像——“我好不容易建了个世界,朋友却永远停在加载界面。”
有的人以为是“因为栈在线程里”, 有的人以为是“因为堆要调用 malloc/free”, 还有的人简单地把它理解成“因为栈是连续的、堆是离散的”。
暂未填写公司和职称
暂未填写个人简介
暂未填写技能专长
暂未填写学校和专业
暂未填写个人网址
暂未填写所在城市