首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >2022最新上架App Store 全流程(完整版)

2022最新上架App Store 全流程(完整版)

作者头像
iOS程序应用
发布于 2023-04-17 02:46:02
发布于 2023-04-17 02:46:02
7010
举报

前言 过完年回来app上架到App Store,虽然之前上架过,还是遇到不少坑,特别是配置证书的时候,还好是上架是一次性通过,整理一份详细图文详解。项目是flutter项目上架到App Store,与原始的iOS上架还是有些差别。

环境 macOS 10.15.7 Flutter 2.0.6 Xcode Version 12.4 vscode Apple Developer 配置 developer.apple.com 点击“Account”栏目

如果该App需要多人协作开发,请进入People进入人员编辑。注意负责上架AppStore的人员需要有管理级别的权限

然后点击 Certificates, Identifiers & Profiles 图标

  1. Certificates:证书 Certificates作用是为Mac电脑提供开发能力,具有Certificates的Mac电脑能够真机调试、打包、上架APP到app store。

Certificates有两种环境:开发(Development)环境和生产(Distribution)环境。 Certificates还有两种类型:Software 和 Services。

可以理解为:

(1).开发环境(Development):直接用Xcode调试debug就属于开发环境,在模拟器上debug是不需要Certificates的。但是在真机上调试运行就需要Certificates开发证书,发布到APP Store 需要 Certificates 生产证书。 (2).生产环境(Distribution):上架app store,打包生成ipa包等都属于生产环境。只要是通过Archive生成都都是属于生产环境。 (3). Software: 使mac具有相应的开发和发布能力,一台Mac只需要建立一套即可。 (4). Services: Apple提供的额外服务,最常见的就是消息推送服务,会针对不同的App建立不同的Services Certificates,毕竟每个app需要的Services不同。

针对Software部分需要注意: Certificates是对Mac电脑有效的,是根据Mac的CSR请求证书创建的,而不是对app,所以Certificates的开发(Development)证书和发布(Distribution)证书是有数量限制的。超过数量就不能再创建了,除非删除已有的证书。 只要你这个Mac电脑拥有了Certificates证书,就能用申请Certificates的账号在这个Mac上开发多个app而不需要再重新申请Certificates。所以正确操作是,对一个Mac电脑,只需要申请一套Certificates就好了,在创建第二个第三app时不需要再去创建一套Certificates。 Services的证书是需要另外创建的,而且没有数量限制,但是还是建议只用一台Mac创建就好,他人合作导出.p12文件给对方Mac安装即可。 Software和Services都是和Mac绑定的: Certificates是和Mac绑定的,不能直接copy给其他Mac使用,但是Certificates可以导出.p12给其他Mac电脑用的,导出的.p12同样具有测试打包和发布的能力。如果多人协同开发,第二个Mac也是不需要再去申请一套Certificates的。用他人Mac电脑上Certificates导出的.p12文件安装上即可。

Certificates:证书 (1) 通过Mac钥匙串管理工具生成CSR请求文件,用于申请Certificates,与Certificates绑定

这里需要注意,不要选中证书列表中的某个证书,否则菜单就不是这个。

邮箱地址填一个,选择存储到磁盘,会正常一个.certSigningRequest文件,重命名一下,便于识别。

(2) 申请开发Development证书 先创建software部分,再创建推送证书部分。

选择iOS Development ,创建iOS Development 开发证书。Xcode11以上可以创建Apple Development 证书.

continue 下一步

选择刚刚的证书文件,

下载下来,名称是 development.cer, 如果是选择了iOS App Development 证书则名称是 ios_development.cer,最好改一下名称,方便识别。

然后双击按钮,打开钥匙串管理工具,在我的证书 就能看到安装了,需要注意的是现实的名称 不是文件名,是你开发者账号的个人team名称,里面的秘钥名称就是你刚刚填写的名称

(3) 申请iOS Distribution (App Store and Ad Hoc)生产证书

方法与上面一样,只是选择的时候选iOS Distribution (App Store and Ad Hoc)类型

然后上传CSR文件,Register,Download, 该名称。 (4) 推送证书申请 推送证书的申请与第二部分是一样的,只是中间会让选择证书绑定的App id。(这里需要先创建Identifiers,查看步骤2.Identifiers:App 身份证) 同样,需要申请Development和Distribution两种环境。

选择Mac钥匙串工具导出的.certSigningRequest文件,与这台Mac绑定。

2.Identifiers:App id iOS每个APP都有自己唯一的身份证(Identifiers)。app的身份证就在这里申请,也就是app的唯一标识。

填写app描述,和Bundle ID

关于Bundle ID:十分重要的东西,可以理解为app的身份证号码。所有app都是唯一的。为了避免重复和辨识,一般都采用反域名的格式+app名称。 如图所示。这里一经申请变无法更改,在每个项目建立时就应该事先定义好app的Bundle ID。Bundle ID除了这里申请app需要用到以外,在申请第三方服务:如微信登陆、友盟推送、google服务等等都需要使用到Bundle ID与你的app绑定。所以,Bundle ID非常重要。 一般,我们会采用Explicit(明确的)Bundle ID标识,而不会采用Wildcard(通配符)来定义Bundle ID。 如果采用了,会导致推送这部分是没用的。

然后Register,回到 identifiers列表页可以看到刚刚创建的。

3.Devices: 设备列表 app的每个设备都有唯一的udid。将udid加入到Devices列表后,这些设备具有debug测试和ad hoc安装能力。 反正,需要测试的iPhone,iPad都需要加入到这个列表里面。 Devices设备列表是针对开发者账号,所以也只需要添加一次。 如何查看设备的udid。有很多方法,

3.1. Xcode查看(开发者查看自己的)

3.2.用蒲公英 www.pgyer.com/tools/udid

添加设备列表

image.png

4.Profiles: 描述文件 描述文件Profiles将team、Identifiers、Certificates、Devices等信息联系起来。 Profiles同样分为两种环境:开发(Development)环境和发布(Distribution)环境,不同的环境需建立不同的描述文件Profiles。 描述文件是这对app绑定的,所以每个APP都会建立相应的一套描述文件。但是描述文件可copy给其他Mac使用,但是对于的Mac需要安装相应的Certificates导出的.p12文件。

创建描述文件 将上面创建的所有信息联系起来,供xcode使用。 同样分别创建Development和Distribution两种环境的描述文件

选择App ID

选择对应的 certificates证书,开发对应开发,生产对应生产,注意是当前项目的证书,不要选择其他项目的证书。

开发环境和Ad Hoc需要选择需要测试的Devices设备,选中的Devices才具有测试和安装能力。全选即可。

然后下载,重命名。描述文件不需要安装

至此所有准备的证书和描述文件都创建完毕。

5.Xcode配置 (1).登录Xcode开发者账号,这一步容易忘记,特别是新的苹果账号,当然也可以到里面选择证书再配置

(2).配置证书及签名 首先需要取消Automatically manage signing。否则是XCode自动管理证书,会自动创建证书和bundle id等。这样会不利于证书管理。我这里就采坑了,导致自动安装了其他的证书,导致生产证书# Xcode Signing certificate is invalid when build on ext device 只好到钥匙串中删除,刚刚自动按钮的证书,退出Xcode,重新打开就可以了。 配置profile描述文件,需要为debug和release两种环境分别配置描述文件。选择3.6章节里创建的对应的描述文件,debug对应development, release对应Distribution。

provisonint Profile 文件选择,开发对应着开发,生产对应着生产。

此处可能会有个小坑,与钥匙串安装的cer 不对应,Buuld Settings 重新选择一下就可以了

调试 一个是模拟器调试 一个真机调试(数据线连上苹果手机)

6.App Connnect 注册APP

套装ID 就是申请的indentifiers,选择

填写App资料,需要注意几点: APP图标时,图标中不能包含alpha通道或者透明度;LanchImage的图片格式只能是png格式,jpg格式Xcode无法加载成功;填写联系人的时候,需要加区号,比如中国 需要+86;App预览与截屏图片,需要6.5英寸和5.5英寸就行,UI设计图的时候:5.5英寸 1242 × 2208 ; 6.5英寸 1242 × 2688

7.多人协作开发证书管理 (1).多台Mac运行相同iOS项目。

是与生成csr的mac电脑绑定的,其他的Mac 电脑无法安装,这样其他的Mac电脑就无法真机测试打包这个iOS项目了。 但是,我们可以在钥匙串中导出.p12文件给其他的Mac安装,安装后这台Mac也具有同样打包测试发布能了。 开发需要导入developer证书,发布需要导出Distribution证书。 选择对应的证书,导出

最好重新命名方便识别。 .p12文件其实就加密的.cer证书。可以copy给其他Mac安装。 第二台Mac安装.p12后,进行第四章的XCode配置后即可具有开发、测试、发布iOS的能力

(2).多人多台Mac开发相同ios项目 如果不方便把开发者账号和密码给其他人用,需要把对应开发人员加入到 开发者成员中。

随后新用户会收到一封邀请邮件,同意后即会加入开发者计划中。新用户登陆苹果开发者中心,会看到自己加入的team

新用户用刚刚导出p12文件在Xcode上配置就可以协同开发ios项目。

8.APP打包上架 (1)打包并上传IPA包 首先确保证书正确、profile描述文件正确。

需要注意的是build构建号 每次都是唯一的,version为版本号,多个版本号可以属于同一个version,

flutter项目可以顺便 改pubspec.yaml文件 version字段 如:1.0.0+1,对应ios的版本更改

设备选择:

flutter项目需要注意:需要执行 flutter build ios --release --no-codesign,需要注意的是是在flutter外层目录路径下执行,而不是ios目录路径,(我习惯在vscode中跑命令)

Product -> Archive:

直接Distribute App (如果不放心可以先Validate App)

进入Select a method of distribution(打包方式选择)界面: App Store:App Store上架包用 Ad hoc:发布测试包用,如蒲公英发布 Enterprise:企业包用 Development:开发包用 根据自己的证书和描述文件选择,在这里选择App Store,点击Next

Select a destination : 选择是直接上传还是导出,直接上传就可以

Select certificate and iOS App Store profile: 之前创建的描述文件

然后等待上传

上传成功之后,需要进入 App Store Connect, 看到

image.png看到刚刚提交的版本,然后点击App Store ,如果第一次发版,直接在 “构建版本” 选择对应的版本文件,如果是已经上架成功,需要更新版本

填写完整的信息,提交审核。

其他(持续补充……) 2022年4月25号以后构建提交App Store的,需要在Xcode13或更高的版本

xcode13需要升级系统MacOS 12版本及以上 如我升级之后的版本是:

升级后系统是

Xcode版本: Xcode Version 13.3 (13E113)

隐私合规需要注意,上一篇安卓上架已经详细说过

参考:juejin.cn/post/704849…

配置证书的过程中有时候用Xcode打开项目会崩溃,

参考:juejin.cn/post/703564…

上架之后App Store还搜索不到APP如何下载体验

如果已经上架,但是App Store还搜索不到APP,刚刚通过的需要等24小时,可以去 七麦数据 查看 www.qimai.cn/rank/releas…

flutter项目,上架的介绍图,如果没有UI提供,而是直接截图,需要注意需要去掉右上角的DEBUG图标

在main.dart页面,MaterialApp中,增加 debugShowCheckedModeBanner: false, 即可。如:

如何发布ios测试包

如何发布iOS测试包 文章转载掘金作者:杰森陈请添加链接描述 【原文】

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2022-08-22,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
用户意图对齐,无需人工标注,Zephyr-7B 超越 Llama2-Chat-70B
该研究目标是创建一个与用户意图更符合的小型语言模型。通过应用蒸馏监督微调(distilled supervised fine-tuning, dSFT)和蒸馏直接偏好优化(distilled direct preference optimization, dDPO)以及利用AI反馈(AI Feedback, AIF)的偏好数据,研究者成功提升了模型的任务准确性和意图对齐度。ZEPHYR-7B模型以7B参数在聊天基准测试中创立了新标准,无需人工注释,且在MT-Bench测试中超过了之前的模型。此方法的优势包括较短的训练时间和无需额外采样,为开放大型语言模型(LLMs)的发展和微调提供了新方向。同时,研究未考虑模型安全性如可能产生有害输出等问题。
唐国梁Tommy
2023/11/02
7560
用户意图对齐,无需人工标注,Zephyr-7B 超越 Llama2-Chat-70B
UCLA华人提出全新自我对弈机制!LLM自己训自己,效果碾压GPT-4专家指导
在去年底,有网友扒出前OpenAI首席科学家Ilya曾经在很多场合表示过,LLM的发展不存在数据瓶颈,合成数据可以解决大部分的问题。
新智元
2024/02/06
2090
UCLA华人提出全新自我对弈机制!LLM自己训自己,效果碾压GPT-4专家指导
每日学术速递10.29
1.SD4Match: Learning to Prompt Stable Diffusion Model for Semantic Matching
AiCharm
2023/11/01
4080
每日学术速递10.29
全面超越DPO:陈丹琦团队提出简单偏好优化SimPO,还炼出最强8B开源模型
为了将大型语言模型(LLM)与人类的价值和意图对齐,学习人类反馈至关重要,这能确保它们是有用的、诚实的和无害的。在对齐 LLM 方面,一种有效的方法是根据人类反馈的强化学习(RLHF)。尽管经典 RLHF 方法的结果很出色,但其多阶段的过程依然带来了一些优化难题,其中涉及到训练一个奖励模型,然后优化一个策略模型来最大化该奖励。
机器之心
2024/06/04
3480
全面超越DPO:陈丹琦团队提出简单偏好优化SimPO,还炼出最强8B开源模型
当LLM学会左右互搏,基础模型或将迎来集体进化
金庸武侠小说中有一门武学绝技:左右互搏;乃是周伯通在桃花岛的地洞里苦练十余年所创武功,初期想法在于左手与右手打架,以自娱自乐。而这种想法不仅能用来练武功,也能用来训练机器学习模型,比如前些年风靡一时的生成对抗网络(GAN)。
机器之心
2024/01/11
2150
当LLM学会左右互搏,基础模型或将迎来集体进化
深入了解Deepseek模型的最佳三篇论文
DeepSeek-R1:通过强化学习提升大型语言模型的推理能力。 2025年1月发布,提出了一种使用强化学习而非监督学习的方法,显著提升了语言模型在数学和逻辑推理任务中的表现,开辟了新的研究方向。
致Great
2025/02/09
1.6K0
深入了解Deepseek模型的最佳三篇论文
ICLR 2025|大模型也需要好奇心,TeleAI 提出探索驱动的对齐方法,8B越级胜70B
在自然界中,好奇心驱使着生物探索未知,是生存和进化的关键。人类,作为地球上最具智能的物种,其探索精神引领了科技、文化和社会的进步。1492 年,哥伦布怀揣探索未知的理想,勇敢地向西航行,最终发现了新大陆。
机器之心
2025/02/03
1700
ICLR 2025|大模型也需要好奇心,TeleAI 提出探索驱动的对齐方法,8B越级胜70B
人类偏好就是尺!SPPO对齐技术让大语言模型左右互搏、自我博弈
Richard Sutton 在 「The Bitter Lesson」中做过这样的评价:「从70年的人工智能研究中可以得出的最重要教训是,那些利用计算的通用方法最终是最有效的,而且优势巨大。」
机器之心
2024/05/14
2710
人类偏好就是尺!SPPO对齐技术让大语言模型左右互搏、自我博弈
每日论文速递 | 使用对比Reward改进RLHF
摘要:来自人类反馈的强化学习(RLHF)是将大语言模型(LLM)与人类偏好相匹配的主流范式。然而,现有的 RLHF 在很大程度上依赖于准确、翔实的奖励模型,而奖励模型对各种来源的噪声(如人类标签错误)很脆弱、很敏感,从而使管道变得脆弱。在这项工作中,我们通过在奖励上引入惩罚项来提高奖励模型的有效性,该惩罚项被命名为contrastive rewards。我们的方法包括两个步骤:(1) 离线采样步骤,获取对提示的回应,作为计算基线;(2) 使用基线回应计算对比奖励,并将其用于近端策略优化 (PPO) 步骤。我们的研究表明,对比奖励使 LLM 能够惩罚奖励的不确定性、提高鲁棒性、鼓励改进基线、根据任务难度进行校准以及减少 PPO 中的差异。通过 GPT 和人类的评估,我们的实证结果表明,对比性奖励可以大幅提高 RLHF,而且我们的方法始终优于强基线。
zenRRan
2024/03/25
6850
每日论文速递 | 使用对比Reward改进RLHF
清华SuperBench全球测评出炉,Claude 3拿下多个冠军!合成数据才是人类未来?
此次测评,还增加了Llama 3-8b 和Llama 3-70b两个最近炙手可热的模型。
新智元
2024/05/06
3070
清华SuperBench全球测评出炉,Claude 3拿下多个冠军!合成数据才是人类未来?
教会羊驼说话:Instruction Tuning的最新进展
大型语言模型(LLM),凭借其数十亿的参数和数万亿token的庞大训练数据,展现了强大的功能。为了成为一种全能的任务解决工具,LLM必须学会根据用户指令作出连贯且有益的回应,而不仅仅是重复网络上的语言模式。基于此,开放式指令调整open-ended instruction tuning[1]应运而生。这种方法对LLM进行微调,使其能够按照用户的指令作出有用、诚实和无害的回应。随着ChatGPT取得巨大成功,人们对这种方法的兴趣日益浓厚。开放式指令调整通常包括两个阶段:
zenRRan
2023/12/15
5100
教会羊驼说话:Instruction Tuning的最新进展
Deita: 有限高质量数据在LLM的潜力是真的大
数据工程在指令调优中的有着关键作用。当选择适当时,只需要有限的数据就可以实现卓越的性能。然而,什么是良好的指令调优数据以进行对齐,以及如何自动有效地选择数据仍需研究。本文深入研究了对齐的自动数据选择策略。在复杂性、质量和多样性三个维度上评估数据。并提出DEITA(Data-Efficient Instruction Tuning for Alignment),一个从LLaMA和Mistral模型中微调的模型
zenRRan
2024/01/05
6260
Deita: 有限高质量数据在LLM的潜力是真的大
每周AI论文速递(240610-240614)
最近在大语言模型 (LLMs) 方面的进展显示了其在自然语言理解和生成任务中的显著能力。随着LLMs数量的增加,如何利用多个LLMs的集体智慧成为一个令人期待的研究方向。为此,我们提出了一种新的方法,通过Mixture-of-Agents (MoA) 方法来利用多个LLMs的集体优势。在我们的方法中,我们构建了一个分层的MoA架构,每层包含多个LLM智能体。每个智能体在生成响应时将前一层所有智能体的输出作为辅助信息。MoA模型在AlpacaEval 2.0、MT-Bench和FLASK上实现了最先进的性能,超过了GPT-4 Omni。例如,我们仅使用开源LLMs的MoA在AlpacaEval 2.0中以65.1%的得分显著领先,而GPT-4 Omni的得分为57.5%。
叶子的技术碎碎念
2025/04/08
960
每周AI论文速递(240610-240614)
120亿Stable LM 2上线即开源!2万亿token训练,碾压Llama 2 70B
见状,不少网友纷纷喊话:干的漂亮!但,Stable Diffusion 3啥时候出啊?
新智元
2024/04/12
1620
120亿Stable LM 2上线即开源!2万亿token训练,碾压Llama 2 70B
LeCun力荐!进化算法淘汰77%低质数据:RIP方法让模型性能狂飙60%
在LLM的开发中,推动模型进步的主要驱动力是精心挑选高质量的训练示例。虽然Scaling Law的确能实现「力大砖飞」,但仅仅增加数据量并不能保证模型性能的提升,数据的质量才是关键。低质量的数据可能会引入噪声,影响模型的训练效果。
新智元
2025/02/25
1140
LeCun力荐!进化算法淘汰77%低质数据:RIP方法让模型性能狂飙60%
南洋理工提出简单如精细理念,通过双向负反馈损失进行LLM定位 !
直接偏好优化(DPO)作为一种比从人类反馈中学习的强化学习(RLHF)更具有计算效率的替代方案,结合了接近策略优化(PPO),消除了奖励模型和在线采样的需求。
AIGC 先锋科技
2025/01/01
1780
南洋理工提出简单如精细理念,通过双向负反馈损失进行LLM定位  !
Hugging Face:2023开源LLM大爆发,数据竞赛已开启!
下面,让我们跟随Hugging Face的研究员Clémentine Fourrier一起,
新智元
2024/01/04
3950
Hugging Face:2023开源LLM大爆发,数据竞赛已开启!
73页,开源「后训练」全流程!AI2发布高质量Tülu 3系列模型,拉平闭源差距,比肩GPT-4o mini
只进行过「预训练」的模型是没办法直接使用的,存在输出有毒、危险信息的风险,也无法有效遵循人类指令,所以通常还需要进行后训练(post-train),如「指令微调」和「从人类反馈中学习」,以使模型为各种下游用例做好准备。
新智元
2025/02/15
880
73页,开源「后训练」全流程!AI2发布高质量Tülu 3系列模型,拉平闭源差距,比肩GPT-4o mini
DeepSeekMath:突破开放式语言模型中数学推理能力的极限,提出了GRPO,值得关注学习
由于数学推理具有复杂且结构化的特性,这对语言模型构成了重大挑战。在本文中,我们介绍了 DeepSeekMath 7B 模型,该模型在 DeepSeek-Coder-Base-v1.5 7B 模型的基础上,使用从 Common Crawl 获取的 1200 亿个与数学相关的标记,以及自然语言和代码数据继续进行预训练。在不依赖外部工具包和投票技术的情况下,DeepSeekMath 7B 在竞赛级 MATH 基准测试中取得了 51.7% 的优异成绩,接近 Gemini-Ultra 和 GPT-4 的性能水平。通过对 DeepSeekMath 7B 生成的 64 个样本进行自洽性验证,其在 MATH 基准测试上的准确率达到了 60.9%。DeepSeekMath 的数学推理能力归因于两个关键因素:首先,我们通过精心设计的数据选择流程,充分利用了公开可用的网络数据的巨大潜力。其次,我们引入了组相对策略优化(Group Relative Policy Optimization,GRPO)算法,这是近端策略优化(Proximal Policy Optimization,PPO)算法的一个变体,它在增强数学推理能力的同时,还能优化 PPO 的内存使用。
AI浩
2025/06/08
2110
DeepSeekMath:突破开放式语言模型中数学推理能力的极限,提出了GRPO,值得关注学习
使用ORPO微调Llama 3
ORPO是一种新的微调技术,它将传统的监督微调和偏好对齐阶段结合到一个过程中。减少了训练所需的计算资源和时间。论文的实证结果表明,ORPO在各种模型大小和基准上都优于其他对齐方法,所以这次我们就来使用最新的Llama 3来测试下ORPO的效果。
deephub
2024/04/26
5410
使用ORPO微调Llama 3
推荐阅读
用户意图对齐,无需人工标注,Zephyr-7B 超越 Llama2-Chat-70B
7560
UCLA华人提出全新自我对弈机制!LLM自己训自己,效果碾压GPT-4专家指导
2090
每日学术速递10.29
4080
全面超越DPO:陈丹琦团队提出简单偏好优化SimPO,还炼出最强8B开源模型
3480
当LLM学会左右互搏,基础模型或将迎来集体进化
2150
深入了解Deepseek模型的最佳三篇论文
1.6K0
ICLR 2025|大模型也需要好奇心,TeleAI 提出探索驱动的对齐方法,8B越级胜70B
1700
人类偏好就是尺!SPPO对齐技术让大语言模型左右互搏、自我博弈
2710
每日论文速递 | 使用对比Reward改进RLHF
6850
清华SuperBench全球测评出炉,Claude 3拿下多个冠军!合成数据才是人类未来?
3070
教会羊驼说话:Instruction Tuning的最新进展
5100
Deita: 有限高质量数据在LLM的潜力是真的大
6260
每周AI论文速递(240610-240614)
960
120亿Stable LM 2上线即开源!2万亿token训练,碾压Llama 2 70B
1620
LeCun力荐!进化算法淘汰77%低质数据:RIP方法让模型性能狂飙60%
1140
南洋理工提出简单如精细理念,通过双向负反馈损失进行LLM定位 !
1780
Hugging Face:2023开源LLM大爆发,数据竞赛已开启!
3950
73页,开源「后训练」全流程!AI2发布高质量Tülu 3系列模型,拉平闭源差距,比肩GPT-4o mini
880
DeepSeekMath:突破开放式语言模型中数学推理能力的极限,提出了GRPO,值得关注学习
2110
使用ORPO微调Llama 3
5410
相关推荐
用户意图对齐,无需人工标注,Zephyr-7B 超越 Llama2-Chat-70B
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档