前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >在s32ds中使用静态库

在s32ds中使用静态库

作者头像
羽翰尘
修改于 2019-11-26 09:07:56
修改于 2019-11-26 09:07:56
1.5K0
举报
文章被收录于专栏:技术向技术向

本文由腾讯云+社区自动同步,原文地址 https://cloud.tencent.com/developer/article/1540858

逐步描述了搭建环境的步骤

  1. 新建eclipse工程的时候选择c\c++工程而不是 S32DS 工程, 后者直接使用交叉工具链。选择static library。
  2. 在新建工程的下一步中直接选择交叉工具链,或者建好工程后选择 project->Properties->C/C++ Build->Settings->Cross Settings 选择交叉工具链的prefix和path, 在power pc中是powerpc-eabivle-和C:\NXP\S32DS_Power_v2017.R1\Cross_Tools\powerpc-eabivle-4_9\bin, 这个需要根据自己的安装路径做修改。
  3. optional 如果要为每一个函数生成一个section, 需要在编译选项中加上 -ffunction-sections, 在eclipse中的位置是project->Properties->C/C++ Build->Settings->Cross Gcc Compiler-> Miscellaneous, 在other flags中直接填入-ffunction-sections.
  4. 编译后,生成的库名为lib+工程名+.a
  5. 打开需要添加库的工程,设置库的名称与搜索库的路径,库的名称与step 4 中的工程名相同,搜索路径为库文件所在的路径。
  6. 设置只链接需要的库函数,这样可以减小image的大小 & 除去错误(比如库函数a中调用了没有实现的函数,在此设置下我们只要不调用库函数a就不会链接出错) 具体的路径:project->Properties->C/C++ Build->Settings->Stand S32DS C Linker-> Miscellaneous, 选中remove unused sections。 注意需要把properties的窗口放到足够大小才会显示下部的复选框。
本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2018-01-28,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
成本不到100美元!UC伯克利再开源类ChatGPT模型「考拉」:数据量大没有用,高质量才是王道
---- 新智元报道   编辑:LRS 【新智元导读】语言模型动物园加入新成员Koala,更符合真实用户需求! 自从Meta开源LLaMA之后,学术界内各种类ChatGPT模型如雨后春笋般开始发布。 先是斯坦福提出了70亿参数Alpaca,紧接着又是UC伯克利联手CMU、斯坦福、UCSD和MBZUAI发布的130亿参数Vicuna,在超过90%的情况下实现了与ChatGPT和Bard相匹敌的能力。 最近伯克利又发布了一个新模型「考拉Koala」,相比之前使用OpenAI的GPT数据进行指令微调,Koa
新智元
2023/05/09
3370
成本不到100美元!UC伯克利再开源类ChatGPT模型「考拉」:数据量大没有用,高质量才是王道
2000元训练比肩ChatGPT的开源大模型!GPT-4亲自盖章认证,模型权重均可下载
鱼羊 编辑整理 量子位 | 公众号 QbitAI 2000块,调教出一个达到ChatGPT九成功力的开源大模型。 还是被GPT-4亲自盖章认证实力的那种。 这事儿,一群主要来自加州大学伯克利分校的研究人员做到了。 如图中所见,这个模型名叫Vicuna (小羊驼)。 没错,熟悉的配方,熟悉的味道 。Vicuna同样是基于Meta开源的LLaMA大模型(大羊驼)微调而来。 与此前斯坦福大学基于LLaMA的Alpaca(还是羊驼)不同的是,尽管也薅了ChatGPT羊毛——用了ChatGPT生成的数据,但Vic
量子位
2023/04/06
7800
2000元训练比肩ChatGPT的开源大模型!GPT-4亲自盖章认证,模型权重均可下载
300美元平替ChatGPT!斯坦福130亿参数「小羊驼」诞生,暴杀「草泥马」
---- 新智元报道   编辑:桃子 好困 【新智元导读】继草泥马(Alpaca)后,斯坦福联手CMU、UC伯克利等机构的学者再次发布了130亿参数模型骆马(Vicuna),仅需300美元就能实现ChatGPT 90%的性能。 继Meta的LLaMA模型开源后,AI界研究人员就在这个模型基础上衍生出许多版本。 前段时间,斯坦福发布了Alpaca,是由Meta的LLaMA 7B微调而来,仅用了52k数据,性能可以与GPT-3.5匹敌。 今天,斯坦福学者联手CMU、UC伯克利等,再次推出一个全新模型——1
新智元
2023/04/01
7760
300美元平替ChatGPT!斯坦福130亿参数「小羊驼」诞生,暴杀「草泥马」
24小时内、200美元复制RLHF过程,斯坦福开源「羊驼农场」模拟器
机器之心报道 编辑:小舟、马梓文 平替不止模型,RLHF也有平替了。 2 月底,Meta 开源了一个大模型系列 LLaMA(直译为羊驼),参数量从 70 亿到 650 亿不等,被称为 Meta 版 ChatGPT 的雏形。之后斯坦福大学、加州大学伯克利分校等机构纷纷在 LLaMA 的基础上进行「二创」,陆续推出了 Alpaca、Vicuna 等多个开源大模型,一时间「羊驼」成为 AI 圈顶流。开源社区构建的这些类 ChatGPT 模型迭代速度非常快,并且可定制性很强,被称为 ChatGPT 的开源平替。 然
机器之心
2023/05/31
2640
24小时内、200美元复制RLHF过程,斯坦福开源「羊驼农场」模拟器
收藏!大型语言模型(LLMs)大盘点,含源码及Demo地址(附链接)
来源:AINLPer 本文约4000字,建议阅读8分钟 本文作者盘点了一些组织或者个人开源的模型。 ChatGPT爆火出圈,国内很多高校、研究机构和企业都发出类似ChatGPT的发布计划。ChatGPT没有开源,复现难度极大,即使到现在GPT3的完全能力也没有任何一个单位或者企业进行了复现。刚刚,OpenAI又官宣发布了图文多模态的GPT4模型,能力相对ChatGPT又是大幅提升,似乎闻到了以通用人工智能主导的第四次工业革命的味道。 无论是国外还是国内,目前距离OpenAI的差距越来越大,大家都在紧锣密鼓的
数据派THU
2023/05/11
1.9K0
收藏!大型语言模型(LLMs)大盘点,含源码及Demo地址(附链接)
【AI大模型】LLM主流开源大模型介绍
随着ChatGPT迅速火爆,引发了大模型的时代变革,国内外各大公司也快速跟进生成式AI市场,近百款大模型发布及应用。
小言从不摸鱼
2024/09/24
5070
【AI大模型】LLM主流开源大模型介绍
用GPT4进行指令微调
代码:https://instruction-tuning-with-gpt-4.github.io/
西西嘛呦
2023/04/08
1.5K0
用GPT4进行指令微调
调用多个ChatGPT API相互对话,清华开源的多轮对话数据UltraChat来了
机器之心报道 机器之心编辑部 UltraChat 解决了数据荒的一大难题。 自 ChatGPT 发布以来,这段时间对话模型的热度只增不减。当我们赞叹这些模型表现惊艳的同时,也应该猜到其背后巨大的算力和海量数据的支持。 单就数据而言,高质量的数据至关重要,为此 OpenAI 对数据和标注工作下了很大力气。有多项研究表明,ChatGPT 是比人类更加可靠的数据标注者,如果开源社区可以获得 ChatGPT 等强大语言模型的大量对话数据,就可以训练出性能更好的对话模型。这一点羊驼系列模型 ——Alpaca、Vicu
机器之心
2023/04/21
1.6K0
调用多个ChatGPT API相互对话,清华开源的多轮对话数据UltraChat来了
重训「羊驼」大模型并彻底开放商用,UC伯克利博士生:Meta不愿做就自己做
与此同时,之前发布的70亿以及30亿参数版本也完成了1T token的训练,并发布PyTorch和JAX权重。
量子位
2023/08/05
2800
重训「羊驼」大模型并彻底开放商用,UC伯克利博士生:Meta不愿做就自己做
训练个中文版ChatGPT没那么难:不用A100,开源Alpaca-LoRA+RTX 4090就能搞定
机器之心报道 机器之心编辑部 Alpaca-LoRA 将微调类 ChatGPT 模型的算力需求降到了消费级,训练个自己的中文对话模型真就没那么难了。 2023 年,聊天机器人领域似乎只剩下两个阵营:「OpenAI 的 ChatGPT」和「其他」。 ChatGPT 功能强大,但 OpenAI 几乎不可能将其开源。「其他」阵营表现欠佳,但不少人都在做开源方面的努力,比如前段时间 Meta 开源的 LLaMA。 LLaMA 是一系列模型的总称,参数量从 70 亿到 650 亿不等,其中,130 亿参数的 LLaM
机器之心
2023/03/29
2.8K0
训练个中文版ChatGPT没那么难:不用A100,开源Alpaca-LoRA+RTX 4090就能搞定
开源狂潮让巨头惨败!谷歌内部文件曝光:我们和OpenAI都没有护城河
---- 新智元报道   编辑:桃子 Aeneas 【新智元导读】因为开源,AI军备竞赛,谷歌和OpenAI全是输家? 重磅! 谷歌的一份名为《我们没有护城河,OpenAI也没有》的内部文件疑似被泄露, 今天早上,外媒SemiAnalysis公布了这份重磅炸弹泄露文件。 据悉,这份文件是一名匿名人士在Discord服务器上分享出来的,文件来自谷歌内部的一名研究员,真实性已被确认。 SemiAnalysis特别强调,这份文件仅代表谷歌员工的意见,不代表整个公司的意见。 内部文件 我们没有护城河,Op
新智元
2023/05/09
1800
开源狂潮让巨头惨败!谷歌内部文件曝光:我们和OpenAI都没有护城河
数学能力超ChatGPT,70B开源大模型火了:用AI微调AI,微软全华班出品
如下图所示,经过GSM8k数据集测试,WizardMath数学能力直接击败了ChatGPT、Claude Instant 1、PaLM 2-540B等一众大模型——
量子位
2023/09/08
3360
数学能力超ChatGPT,70B开源大模型火了:用AI微调AI,微软全华班出品
单个GPU就能跑!UC伯克利领头,130亿参数「小羊驼」权重公布
---- 新智元报道   编辑:好困 【新智元导读】刚刚,UC伯克利、CMU、斯坦福等,联手发布了最新开源模型骆马(Vicuna)的权重。 3月31日,UC伯克利联手CMU、斯坦福、UCSD和MBZUAI,推出了130亿参数的Vicuna,俗称「小羊驼」(骆马),仅需300美元就能实现ChatGPT 90%的性能。 今天,团队正式发布了Vicuna的权重——只需单个GPU就能跑! 项目地址:https://github.com/lm-sys/FastChat/#fine-tuning 130亿参数,
新智元
2023/04/04
8250
单个GPU就能跑!UC伯克利领头,130亿参数「小羊驼」权重公布
开发者笑疯了! LLaMa惊天泄露引爆ChatGPT平替狂潮,开源LLM领域变天
---- 新智元报道   编辑:Aeneas 好困 【新智元导读】Meta的LLaMA模型开源,让文本大模型迎来了Stable Diffustion时刻。谁都没想到,LLaMA的一场「史诗级」泄漏,产生了一系列表现惊艳的ChatGPT「平替」。 谁能想到,一次意外的LLaMA泄漏,竟点燃了开源LLM领域最大的创新火花。 一系列表现出色的ChatGPT开源替代品——「羊驼家族」,随后眼花缭乱地登场。 开源和基于 API 的分发之间的摩擦,是生成式AI生态系统中最迫在眉睫的矛盾之一。 在文本到图像领域,
新智元
2023/04/10
8500
开发者笑疯了! LLaMa惊天泄露引爆ChatGPT平替狂潮,开源LLM领域变天
重磅内幕:OpenAI即将开源新模型!开源社区的繁荣,全靠大厂「施舍」?
---- 新智元报道   编辑:Aeneas 好困 【新智元导读】OpenAI再次开源,是科技大厂的「施舍」还是开源社区的「救赎」? 就在刚刚,根据The Information的最新爆料,OpenAI即将发布一款全新的开源大语言模型。 虽然目前还不清楚,OpenAI是不是打算利用即将开源的模型,来抢占Vicuna或其他开源模型的市场份额。 但几乎可以肯定的是,新模型的能力大概率无法与GPT-4甚至GPT-3.5相竞争。 毕竟,270亿美元的估值也决定了,OpenAI最先进的模型将会被用于商业目的,
新智元
2023/05/22
1920
重磅内幕:OpenAI即将开源新模型!开源社区的繁荣,全靠大厂「施舍」?
比HuggingFace快24倍!伯克利神级LLM推理系统开源,碾压SOTA,让GPU砍半
过去2个月,来自UC伯克利的研究人员给大语言模型们安排了一个擂台——Chatbot Arena。
新智元
2023/08/05
1K0
比HuggingFace快24倍!伯克利神级LLM推理系统开源,碾压SOTA,让GPU砍半
每一个人的大模型:开源BELLE项目集训练、数据、模型、评估、APP一体
机器之心专栏 机器之心编辑部 BELLE 的目标是促进中文对话大模型开源社区的发展,愿景是成为能够帮到每一个人的 LLM  Engine。 最近一段时间,以 “羊驼” 家族为代表的各类 ChatGPT 替代模型不断涌现。一方面,开源社区也有了可以与 ChatGPT “一较高下” 的开源模型;而另一方面,各模型在如何提升 LLM 的指令表现方面以及评估 LLM 效果的方法不尽相同。 此前,一个基于斯坦福的 Alpaca 、并进行了中文优化的项目受到大家关注,即开源中文对话大模型 70 亿参数的 BELLE
机器之心
2023/04/21
9530
每一个人的大模型:开源BELLE项目集训练、数据、模型、评估、APP一体
世界首款真开源类ChatGPT大模型Dolly 2.0,可随意修改商用
机器之心报道 编辑:泽南、蛋酱 我们鼓励员工手搓了一个数据集,训练 LLM 还把它开源。 众所周知,在 ChatGPT 的问题上 OpenAI 并不 Open,从 Meta 那里开源的羊驼系列模型也因为数据集等问题「仅限于学术研究类应用」,在人们还在因为寻找绕过限制方法的时候,主打 100% 开源的大模型来了。 4 月 12 日,Databricks 发布了 Dolly 2.0,这是两周前发布的类 ChatGPT 人类交互性(指令遵循)大语言模型(LLM)的又一个新版本。 Databricks 表示,Dol
机器之心
2023/04/21
3280
世界首款真开源类ChatGPT大模型Dolly 2.0,可随意修改商用
OpenAI被曝将发布全新开源大模型,网友:GPT平替?
杨净 发自 凹非寺 量子位 | 公众号 QbitAI OpenAI终于要“Open”了! 最新爆料,他们正准备发布全新的开源语言模型。 GPT-2之后,这尚属四年来首次。 不少网友戳戳手表示期待:这是要发自己的开源平替了吗? 毕竟目前最好的开源模型与GPT-4还相差较远。仅参数这方面,一个200亿,一个1.3 万亿个,就差了三个数量级。 OpenAI要Open了 既然如此,那么OpenAI此举“会改变整个大模型的竞争格局吗?”。 不少网友表示,首当其冲的可能就是LLaMA大模型即羊驼家族。 毕竟Chat
量子位
2023/05/19
2710
OpenAI被曝将发布全新开源大模型,网友:GPT平替?
两大可商用开源大模型同时发布!性能不输LLaMA,羊驼家族名字都不够用了
梦晨 发自 凹非寺 量子位 | 公众号 QbitAI 从Meta的LLaMA发展出的羊驼家族一系列大模型,已成为开源AI重要力量。 但LLamA开源了又没全开,只能用于研究用途,还得填申请表格等,也一直被业界诟病。 好消息是,两大对标LLaMA的完全开源项目同时有了新进展。 可商用开源大模型来了,还一下来了俩: MosaicML推出MPT系列模型,其中70亿参数版在性能测试中与LLaMA打个平手。 Together的RedPajama(红睡衣)系列模型,30亿参数版在RTX2070游戏显卡上就能跑。 对
量子位
2023/05/12
3500
两大可商用开源大模型同时发布!性能不输LLaMA,羊驼家族名字都不够用了
推荐阅读
成本不到100美元!UC伯克利再开源类ChatGPT模型「考拉」:数据量大没有用,高质量才是王道
3370
2000元训练比肩ChatGPT的开源大模型!GPT-4亲自盖章认证,模型权重均可下载
7800
300美元平替ChatGPT!斯坦福130亿参数「小羊驼」诞生,暴杀「草泥马」
7760
24小时内、200美元复制RLHF过程,斯坦福开源「羊驼农场」模拟器
2640
收藏!大型语言模型(LLMs)大盘点,含源码及Demo地址(附链接)
1.9K0
【AI大模型】LLM主流开源大模型介绍
5070
用GPT4进行指令微调
1.5K0
调用多个ChatGPT API相互对话,清华开源的多轮对话数据UltraChat来了
1.6K0
重训「羊驼」大模型并彻底开放商用,UC伯克利博士生:Meta不愿做就自己做
2800
训练个中文版ChatGPT没那么难:不用A100,开源Alpaca-LoRA+RTX 4090就能搞定
2.8K0
开源狂潮让巨头惨败!谷歌内部文件曝光:我们和OpenAI都没有护城河
1800
数学能力超ChatGPT,70B开源大模型火了:用AI微调AI,微软全华班出品
3360
单个GPU就能跑!UC伯克利领头,130亿参数「小羊驼」权重公布
8250
开发者笑疯了! LLaMa惊天泄露引爆ChatGPT平替狂潮,开源LLM领域变天
8500
重磅内幕:OpenAI即将开源新模型!开源社区的繁荣,全靠大厂「施舍」?
1920
比HuggingFace快24倍!伯克利神级LLM推理系统开源,碾压SOTA,让GPU砍半
1K0
每一个人的大模型:开源BELLE项目集训练、数据、模型、评估、APP一体
9530
世界首款真开源类ChatGPT大模型Dolly 2.0,可随意修改商用
3280
OpenAI被曝将发布全新开源大模型,网友:GPT平替?
2710
两大可商用开源大模型同时发布!性能不输LLaMA,羊驼家族名字都不够用了
3500
相关推荐
成本不到100美元!UC伯克利再开源类ChatGPT模型「考拉」:数据量大没有用,高质量才是王道
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档