前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >Laravel 简短学习 just write the code in the PHP way

Laravel 简短学习 just write the code in the PHP way

作者头像
Marco爱吃红烧肉
发布于 2021-07-27 08:30:06
发布于 2021-07-27 08:30:06
1.2K00
代码可运行
举报
文章被收录于专栏:无敌小笼包无敌小笼包
运行总次数:0
代码可运行

自用笔记:本文属于自用笔记,不做详解,仅供参考。

artisan

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
/,ɑːtɪ'zæn; 'ɑːtɪzæn//'ɑrtəzn/
n. 工匠,技工

介绍


ArtisanLaravel 的命令行接口的名称,它提供了许多实用的命令来帮助你开发 Laravel 应用,它由强大的 Symfony Console 组件所驱动。

可以使用 list 命令来列出所有可用的 Artisan 命令:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
php artisan list

Available commands:

命令

explain

说明

clear-compiled

Remove the compiled class file

清除编译后的类文件

down

Put the application into maintenance mode

使应用程序进入维修模式

env

Display the current framework environment

显示当前框架环境

help

Displays help for a command

显示命令行的帮助

list

Lists commands

列出命令

migrate

Run the database migrations

运行数据库迁移

optimize

Optimize the framework for better performance

为了更好的框架去优化性能

serve

Serve the application on the PHP development server

在php开发服务器中服务这个应用

tinker

Interact with your application

在你的应用中交互

up

Bring the application out of maintenance mode

退出应用程序的维护模式

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
app
 app:name            Set the application namespace 设置应用程序命名空间
auth
 auth:clear-resets   Flush expired password reset tokens 清除过期的密码重置密钥
cache
 cache:clear         Flush the application cache 清除应用程序缓存
 cache:table         Create a migration for the cache database table 创建一个缓存数据库表的迁移
config
 config:cache        Create a cache file for faster configuration loading 创建一个加载配置的缓存文件
 config:clear        Remove the configuration cache file 删除配置的缓存文件
db
 db:seed             Seed the database with records 发送数据库的详细记录
event
 event:generate      Generate the missing events and listeners based on  registration  在记录上生成错过的事件和基础程序
key
 key:generate        Set the application key 设置程序密钥
make
 make:auth           Scaffold basic login and registration views and routes
 make:console        Create a new Artisan command 生成一个Artisan命令
 make:controller     Create a new controller class 生成一个资源控制类
 make:event          Create a new event class  生成一个事件类
 make:job            Create a new job class
 make:listener       Create a new event listener class
 make:middleware     Create a new middleware class 生成一个中间件
 make:migration      Create a new migration file 生成一个迁移文件
 make:model          Create a new Eloquent model class 生成一个Eloquent 模型类
 make:policy         Create a new policy class
 make:provider       Create a new service provider class 生成一个服务提供商的类
 make:request        Create a new form request class 生成一个表单消息类
 make:seeder         Create a new seeder class
 make:test           Create a new test class
migrate
 migrate:install     Create the migration repository 创建一个迁移库文件
 migrate:refresh     Reset and re-run all migrations 复位并重新运行所有的迁移
 migrate:reset       Rollback all database migrations 回滚全部数据库迁移
 migrate:rollback    Rollback the last database migration 回滚最后一个数据库迁移
 migrate:status      Show the status of each migration 显示列表的迁移 上/下
queue
 queue:failed        List all of the failed queue jobs 列出全部失败的队列工作
 queue:failed-table  Create a migration for the failed queue jobs database table     创建一个迁移的失败的队列数据库工作表
 queue:flush         Flush all of the failed queue jobs                 清除全部失败的队列工作
 queue:forget        Delete a failed queue job 删除一个失败的队列工作
 queue:listen        Listen to a given queue 监听一个确定的队列工作
 queue:restart       Restart queue worker daemons after their current job 重启现在正在运行的所有队列工作
 queue:retry         Retry a failed queue job 重试一个失败的队列工作
 queue:table         Create a migration for the queue jobs database table 创建一个迁移的队列数据库工作表
 queue:work          Process the next job on a queue 进行下一个队列任务
route
 route:cache         Create a route cache file for faster route registration 为了更快的路由登记,创建一个路由缓存文件
 route:clear         Remove the route cache file 清除路由缓存文件
 route:list          List all registered routes  列出全部的注册路由
schedule
 schedule:run        Run the scheduled commands 运行预定命令
session
 session:table       Create a migration for the session database table                 创建一个迁移的SESSION数据库工作表
vendor
 vendor:publish      Publish any publishable assets from vendor packages 发表一些可以发布的有用的资源来自提供商的插件包
view
 view:clear          Clear all compiled view files

每个命令也包含了「帮助」界面,它会显示并概述命令可使的参数及选项。只要在命令前面加上 help 即可显示帮助界面:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
php artisan help migrate
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
php artisan make:auth

编写命令


除了使用 Artisan 本身所提供的命令之外,Laravel 也允许你自定义 Artisan 命令。

自定义命令默认存储在 app/Console/Commands 目录中,当然,只要在 composer.json 文件中的配置了自动加载,你可以自由选择想要放置的地方。

若要创建新的命令,你可以使用 make:console Artisan命令生成命令文件:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
php artisan make:console SendEmails

上面的这个命令会生成 app/Console/Commands/SendEmails.php 类,–command 参数可以用来指定调用名称:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
php artisan make:console SendEmails --command=emails:send

命令结构


一旦生成这个命令,应先填写类的 signaturedescription 这两个属性,它们会被显示在 list 界面中。 命令运行时 handle 方法会被调用,请将程序逻辑放置在此方法中。 接下来讲解一个发送邮件的例子。 为了更好的代码重用性,还有可读性,建议把处理业务逻辑的代码抽到一个功能类里。 Command 类构造器允许注入需要的依赖,Laravel 的 服务容器 将会自动把功能类 DripEmailer 解析到构造器中

Route


你可以在 app/Http/routes.php 文件中定义应用程序的大多数路由,该文件将会被 App\Providers\RouteServiceProvider 类加载。最基本的 Laravel 路由仅接受 URI 和一个闭包

view-Blade


BladeLaravel 所提供的一个简单且强大的模板引擎。相较于其它知名的 PHP 模板引擎,Blade 并不会限制你必须得在视图中使用 PHP 代码。所有 Blade 视图都会被编译缓存成普通的 PHP 代码,一直到它们被更改为止。这代表 Blade 基本不会对你的应用程序生成负担。

Blade 视图文件使用 .blade.php 做为扩展名,通常保存于 resources/views 文件夹内。

@extends('layouts.app')

这表示此视图的基视图是 resources/views/layouts/app.blade.php 。这个函数还隐含了一个小知识:在使用名称查找视图的时候,可以使用 . 来代替 /\.

@Section('content') ... @endsection 这两个标识符之前的代码,会被放到基视图的 @yield('content') 中进行输出。

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2017-05-31,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
一文搞懂!如何高效微调你的 LLM
当前以 ChatGPT 为代表的预训练语言模型(PLM)规模变得越来越大,在消费级硬件上进行全量微调(Full Fine-Tuning)变得不可行。此外,为每个下游任务单独存储和部署微调模型变得非常昂贵,因为微调模型与原始预训练模型的大小相同。
NewBeeNLP
2023/08/29
2.3K0
一文搞懂!如何高效微调你的 LLM
大模型Prompt-Tuning技术进阶
近两年来,随之Prompt-Tuning技术的发展,有诸多工作发现,对于超过10亿参数量的模型来说,Prompt-Tuning所带来的增益远远高于标准的Fine-tuning,小样本甚至是零样本的性能也能够极大地被激发出来,得益于这些模型的 参数量足够大 ,训练过程中使用了 足够多的语料 ,同时设计的 预训练任务足够有效 。最为经典的大规模语言模型则是2020年提出的GPT-3,其拥有大约1750亿的参数,且发现只需要设计合适的模板或指令即可以 实现免参数训练的零样本学习 。
@小森
2024/06/06
4090
大模型Prompt-Tuning技术进阶
6种大模型微调技术
由于LLM参数量都是在亿级以上,少则数十亿,多则数千亿。当我们想在用特定领域的数据微调模型时,如果想要full-tuning所有模型参数,看着是不太实际,一来需要相当多的硬件设备(GPU),二来需要相当长的训练时间。
皮大大
2025/05/07
3080
大模型微调方法总结
paper:LoRA: Low-Rank Adaptation of Large Language Models(https://arxiv.org/pdf/2106.09685.pdf)
腾讯技术工程官方号
2023/07/26
2.5K0
大模型微调方法总结
一文带你了解当前主流PEFT技术
随着LLaMA3的发布,大模型开源社区的战力又提升了一分,国内目前应该已经有不少大佬已经开始着手对LLaMA3进行研究或微调,对于微调技术,目前比较常见的就是Peft系列的技术,那么什么是PEFT,有哪些分类,为什么这么受大家欢迎呢?今天我们就好好聊聊这个话题。
叶子的技术碎碎念
2025/04/08
3780
一文带你了解当前主流PEFT技术
LoRA: 大模型快速训练的秘诀
LoRA的提出在上述PEFT方法之后,来自微软的研究者认为,现有的Adapter Tuning和Prefix Tuning这两种方法均有缺点:
Steve Wang
2023/10/12
9000
LoRA: 大模型快速训练的秘诀
未闻Prompt名
个人觉得2021年NLP最火的两个idea,一个是对比学习(Contrastive Learning),另一个就是Prompt
mathor
2021/12/24
2.2K0
未闻Prompt名
人工智能大语言模型微调技术:SFT 监督微调、LoRA 微调方法、P-tuning v2 微调方法、Freeze 监督微调方法
SFT(Supervised Fine-Tuning)监督微调是指在源数据集上预训练一个神经网络模型,即源模型。然后创建一个新的神经网络模型,即目标模型。目标模型复制了源模型上除了输出层外的所有模型设计及其参数。这些模型参数包含了源数据集上学习到的知识,且这些知识同样适用于目标数据集。源模型的输出层与源数据集的标签紧密相关,因此在目标模型中不予采用。微调时,为目标模型添加一个输出大小为目标数据集类别个数的输出层,并随机初始化该层的模型参数。在目标数据集上训练目标模型时,将从头训练到输出层,其余层的参数都基于源模型的参数微调得到。
汀丶人工智能
2023/07/16
17.4K0
人工智能大语言模型微调技术:SFT 监督微调、LoRA 微调方法、P-tuning v2 微调方法、Freeze 监督微调方法
人工智能大语言模型微调技术:SFT 监督微调、LoRA 微调方法、P-tuning v2 微调方法、Freeze 监督微调方法
SFT(Supervised Fine-Tuning)监督微调是指在源数据集上预训练一个神经网络模型,即源模型。然后创建一个新的神经网络模型,即目标模型。目标模型复制了源模型上除了输出层外的所有模型设计及其参数。这些模型参数包含了源数据集上学习到的知识,且这些知识同样适用于目标数据集。源模型的输出层与源数据集的标签紧密相关,因此在目标模型中不予采用。微调时,为目标模型添加一个输出大小为目标数据集类别个数的输出层,并随机初始化该层的模型参数。在目标数据集上训练目标模型时,将从头训练到输出层,其余层的参数都基于源模型的参数微调得到。
汀丶人工智能
2023/10/11
8.8K0
人工智能大语言模型微调技术:SFT 监督微调、LoRA 微调方法、P-tuning v2 微调方法、Freeze 监督微调方法
ReFT(表征微调):比PeFT效果更好的新的大语言模型微调技术
ReFT(Representation Finetuning)是一种突破性的方法,有望重新定义我们对大型语言模型进行微调的方式。
deephub
2024/04/15
1.5K0
ReFT(表征微调):比PeFT效果更好的新的大语言模型微调技术
了解大语言模型的参数高效微调(Parameter-Effcient Fine-Tuning)
大语言模型在众多应用领域实现了突破性的进步,显著提升了各种任务的完成度。然而,其庞大的规模也带来了高昂的计算成本。这些模型往往包含数十亿甚至上千亿参数,需要巨大的计算资源来运行。特别是,当需要为特定的下游任务定制模型时,尤其是在计算能力有限的硬件平台上,这一挑战尤为突出。
叶庭云
2024/05/25
1.2K0
了解大语言模型的参数高效微调(Parameter-Effcient Fine-Tuning)
解密Prompt系列3. 冻结LM微调Prompt: Prefix-tuning & Prompt-tuning & P-tuning
这一章我们介绍在下游任务微调中固定LM参数,只微调Prompt的相关模型。这类模型的优势很直观就是微调的参数量小,能大幅降低LLM的微调参数量,是轻量级的微调替代品。和前两章微调LM和全部冻结的prompt模板相比,微调Prompt范式最大的区别就是prompt模板都是连续型(Embedding),而非和Token对应的离散型模板。核心在于我们并不关心prompt本身是否是自然语言,只关心prompt作为探针能否引导出预训练模型在下游任务上的特定能力。
风雨中的小七
2023/03/10
5.8K0
解密Prompt系列3. 冻结LM微调Prompt: Prefix-tuning & Prompt-tuning & P-tuning
从统一视角看各类高效finetune方法
随着预训练模型参数量越来越大,迁移学习的成本越来越高,parameter-efficient tuning成为一个热点研究方向。在以前我们在下游任务使用预训练大模型,一般需要finetune模型的所有参数。随着parameter-efficient tuning技术的发展,一些注入adaptor、prefix tuning、LoRA等成本更低的finetune方法被提出。那么各种各样的parameter-efficient tuning方法之间是否存在某些潜在的关系呢?ICLR 2022就有一篇相关的研究,从统一的视角理解现有的各类parameter-efficient tuning方法,并提出了一套迁移框架,可以实现更接近全量参数finetune效果的部分参数finetune。
圆圆的算法笔记
2022/12/19
2.4K0
从统一视角看各类高效finetune方法
如何将大模型应用到自己的业务中?7种大模型应用方式和代表论文总结
如何将大模型应用落地到自己的业务或工作中?这篇文章整理了7种目前业内最常用的大模型应用方法,以及各个方法的代表论文。通过对各种应用大模型方法的特点对比,找到最适合自己场景的应用方法。
圆圆的算法笔记
2023/08/17
3.8K0
如何将大模型应用到自己的业务中?7种大模型应用方式和代表论文总结
大模型微调新手全流程友好指南
关于大模型微调的文章已经写过有两篇:大模型微调与RAG检索增强有何区别?从基础原理到案例分析全面详解和一文带你了解大模型微调的前世今生,基础概率和理论原理内容基本上都涵盖全面,因此本篇文件不做过多的原理解释说明,主要聚焦于大模型微调的实战和各个代码功能模块细节的讲解。
fanstuck
2025/04/30
7427
大模型微调新手全流程友好指南
LoRA大模型降维训练
LoRA: Low-Rank Adaptation of Large Language Models
iResearch666
2023/09/13
9140
LoRA大模型降维训练
Fine-tuning过时啦,NLG生成任务如何Tuning?
Fine-tuning范式大家肯定都再熟悉不过,微调所有语言模型参数,而从gpt3出现之后提出的in-context learning,还是越来越火的prompt,fine-tuning 已经out of state了。而这篇文章就提出prefix-tuning的nlg训练方法。
百川AI
2022/05/16
1.3K0
Fine-tuning过时啦,NLG生成任务如何Tuning?
揭秘大模型背后的机理,清华49页长文全方位分析参数高效微调方案Delta Tuning
机器之心专栏 机器之心编辑部 本文中,包括刘知远、唐杰、孙茂松等在内来自清华大学的研究者对大模型的参数高效微调进行了全方位的理论和实验分析。 预训练语言模型 (PLM) 已经毫无疑问地成为各种 NLP 任务的基础架构,而且在 PLM 的发展中,呈现出了一个似乎不可逆的趋势:即模型的规模越来越大。更大的模型不仅会在已知任务上取得更好的效果,更展现出了完成更复杂的未知任务的潜力。然而,更大的模型也在应用上面临着更大的挑战,传统方法对超大规模的预训练模型进行全参数微调的过程会消耗大量的 GPU 计算资源与存储
机器之心
2022/04/08
2.7K0
揭秘大模型背后的机理,清华49页长文全方位分析参数高效微调方案Delta Tuning
大模型(LLMs)算法工程师相关的面试题和参考答案
需要注意的是,复读机问题是大型语言模型面临的一个挑战,解决这个问题是一个复杂的任务,需要综合考虑数据、训练目标、模型架构和生成策略等多个因素。目前,研究人员和工程师们正在不断努力改进和优化大型语言模型,以提高其生成文本的多样性和创造性。
机器学习AI算法工程
2023/11/13
7.3K0
大模型(LLMs)算法工程师相关的面试题和参考答案
全景解读 LLM 后训练技术
本文介绍了大语言模型的后训练技术,包括微调、强化学习和测试时扩展,探讨其挑战与未来方向,并提供实践指南。
一点人工一点智能
2025/03/20
1180
全景解读 LLM 后训练技术
推荐阅读
相关推荐
一文搞懂!如何高效微调你的 LLM
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验