首页
学习
活动
专区
圈层
工具
发布

#优化

【优选算法必刷100题】第007~008题(双指针算法):三数之和、四数之和问题求解

艾莉丝努力练剑

本题与两数之和类似,是非常经典的面试题。与两数之和稍微不同的是,题目中要求找到所有【不重复】的三元组。那我们可以利用在两数之和那里用的双指针思想,来对我们的暴力...

100

HuggingFace全球热榜登顶:腾讯混元翻译模型技术解析与应用

安全风信子

HuggingFace平台迎来了一个重要里程碑——腾讯混元翻译模型Hunyuan-MT-7B在全球模型热榜中登顶,引起了广泛关注。该模型在8月底结束的国际计算语...

400

Rust高级特性与AI辅助:集合类型、错误处理与模块化编程

安全风信子

我们介绍了Rust的基础概念、环境搭建方法,以及控制流、函数和复合类型等核心概念。在本文中,我们将深入探讨Rust的集合类型、错误处理机制和模块化编程等高级特性...

200

116_数据结构与算法优化:从基础到高级的实战实现与性能分析

安全风信子

在CTF(Capture The Flag)竞赛中,杂项编程挑战往往涉及到对各种数据结构与算法的灵活运用。这些挑战不仅要求参赛者掌握基础的数据结构知识,还需要具...

600

158_企业应用:客服自动化优化 - 2025年LLM驱动的智能客服A/B测试KPI指标体系设计与实践

安全风信子

本文将深入探讨LLM驱动的智能客服系统在企业应用中的A/B测试方法论,重点关注独特KPI指标的设计原则、实施策略和评估框架。我们将从客服自动化的最新趋势出发,系...

1200

144_推理时延优化:Profiling与瓶颈分析 - 使用PyTorch Profiler诊断推理延迟,优化矩阵运算的独特瓶颈

安全风信子

在2025年的大模型时代,推理时延优化已经成为部署LLM服务的关键挑战之一。随着模型规模的不断扩大(从数亿参数到数千亿甚至万亿参数),即使在最先进的硬件上,推理...

1100

143_成本优化:Spot实例与预留实例云资源节省计算详解与最佳实践

安全风信子

通过这个综合评估框架,企业可以全面衡量云成本优化的效果,并指导未来的优化决策。根据云成本优化的行业基准,一个成熟的云成本优化计划通常可以实现25-40%的总体计...

900

141_模型更新:在线学习策略 - 焦点在增量微调的独特无中断部署

安全风信子

在大语言模型(LLM)的实际生产环境中,模型更新是维持服务质量和持续改进的关键环节。随着业务需求的演变、数据分布的变化以及模型能力的提升,如何高效、安全地更新已...

900

131_推理加速:ONNX与TensorRT深度技术解析与LLM模型转换优化实践

安全风信子

在大语言模型(LLM)时代,高效的推理加速已成为部署高性能AI应用的关键挑战。随着模型规模的不断扩大(从BERT的数亿参数到GPT-4的数千亿参数),推理过程的...

1900

125_训练加速:FlashAttention集成 - 推导注意力优化的独特内存节省

安全风信子

2025年,大型语言模型的训练面临着前所未有的挑战。随着模型参数量和序列长度的不断增加,传统注意力机制的内存瓶颈问题日益突出。FlashAttention作为一...

1500

123_自监督任务变体:Causal LM详解 - GPT-style下一词预测机制与训练优化

安全风信子

本指南将深入探讨因果语言建模的理论基础、实现方法和优化策略,重点关注GPT-style下一词预测的独特机制和训练技巧。通过本指南,读者将全面理解因果语言建模的工...

1200

134_边缘推理:TensorFlow Lite - 优化移动端LLM部署技术详解与实战指南

安全风信子

TensorFlow Lite优化工具包提供了一系列用于模型压缩和性能优化的工具。这些工具可以在保持模型精度的同时,显著减小模型体积,提升推理速度,降低能耗。主...

1700

129_量化技术:INT8与动态量化 - 推导压缩的精度损失公式

安全风信子

在2025年的大语言模型(LLM)时代,随着模型规模的指数级增长,部署这些庞然大物变得越来越具有挑战性。GPT-5和Claude 4.5等最新模型的参数量已经达...

1700

128_自我监督变体:SimCLR for Text - 推导对比学习的文本应用,代码实现无标注预训练的独特目标

安全风信子

在大型语言模型快速发展的今天,自我监督学习已成为训练高质量模型的核心技术。然而,传统的掩码语言建模(MLM)和因果语言建模(CLM)方法存在一些局限性,如计算效...

1000

122_集群管理:Slurm配置 - 优化大规模训练调度

安全风信子

本文将深入探讨如何使用Slurm进行LLM训练的集群管理和调度优化。我们将从Slurm的基础知识出发,详细介绍配置文件设置、作业提交策略、资源分配优化、监控与调...

800

121_训练评估:困惑度分析 - 分析指标与下游任务关系

安全风信子

在大规模语言模型(LLM)的训练过程中,评估模型性能是一个至关重要但常被简化处理的环节。2025年的研究表明,仅依赖单一指标(如困惑度)来判断模型质量已经无法满...

700

119_LLM训练的高效内存管理与优化技术:从ZeRO到Flash Attention

安全风信子

本文将全面介绍LLM训练中的内存管理挑战,深入剖析各种内存优化技术的原理和实现,包括ZeRO系列优化器、梯度检查点、内存分区策略、注意力机制优化等,并通过丰富的...

1500

117_LLM训练的高效分布式策略:从数据并行到ZeRO优化

安全风信子

在2025年,大型语言模型(LLM)的规模已经达到了数千亿甚至数万亿参数,训练这样的庞然大物需要先进的分布式训练技术支持。本文将深入探讨LLM训练中的高效分布式...

700

116_大规模预训练数据管理与质量控制机制

安全风信子

在2025年的大语言模型(LLM)训练领域,数据管理和质量控制已成为决定模型性能上限的关键因素。随着模型规模的不断扩大(从早期的数十亿参数到如今的数千亿参数),...

700

114_预训练:Masked LM优化与动态掩码效率深度解析

安全风信子

在大型语言模型(LLM)的预训练阶段,训练目标函数的设计直接影响模型的学习效率和最终性能。Masked Language Modeling(MLM)作为BERT...

800
领券