首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

我被卡住了,试图做一个基于回合的游戏,但在结束一个回合并开始一个新的回合时遇到了麻烦。

对于基于回合的游戏,在结束一个回合并开始一个新的回合时,可能会遇到一些问题。以下是一些解决这些问题的方法:

  1. 确定回合的规则和条件:首先,你需要明确回合的规则和条件。这包括确定每个回合的时间限制、玩家之间的交互方式以及胜利条件等。这样可以确保每个回合都有明确的目标和规则,便于游戏进行。
  2. 设计合适的界面和交互方式:为了使玩家能够清楚地知道回合的开始和结束,你可以设计一个直观的界面和交互方式。例如,可以在屏幕上显示当前回合的信息,包括当前玩家、剩余时间等。同时,你可以添加一些动画或音效来提醒玩家回合的变化。
  3. 合理安排游戏逻辑和状态转换:在结束一个回合并开始新的回合时,你需要确保游戏逻辑和状态转换的正确性。这包括保存和更新玩家的数据、计算得分、检查是否达到胜利条件等。你可以使用状态机或事件驱动的方式来管理游戏的逻辑和状态转换。
  4. 处理异常情况和错误:在游戏过程中,可能会出现各种异常情况和错误。例如,玩家掉线、游戏崩溃等。为了提高游戏的稳定性和容错性,你可以添加一些异常处理机制,例如自动恢复游戏状态、断线重连、错误日志记录等。
  5. 进行测试和优化:在完成游戏的开发后,进行测试和优化是很重要的。你可以进行功能测试、性能测试、压力测试等,以确保游戏的稳定性和流畅性。同时,你可以根据测试结果进行优化,例如优化代码、减少资源占用等。

对于云计算相关的解决方案,腾讯云提供了一系列产品,可以帮助你构建和部署基于回合的游戏:

  1. 云服务器(ECS):提供虚拟服务器实例,可用于托管游戏服务和运行游戏逻辑。 产品链接:https://cloud.tencent.com/product/cvm
  2. 云数据库 MySQL版:提供高可靠性、可扩展性和安全性的云数据库服务,可用于存储玩家数据和游戏状态。 产品链接:https://cloud.tencent.com/product/cdb_mysql
  3. 云函数(SCF):可在云端运行代码,可用于处理游戏逻辑和事件触发。 产品链接:https://cloud.tencent.com/product/scf
  4. 云存储(COS):提供大规模、安全、低成本的对象存储服务,可用于存储游戏资源、日志等。 产品链接:https://cloud.tencent.com/product/cos

请注意,以上只是一些示例产品,腾讯云还提供更多与云计算相关的服务和解决方案,可根据具体需求选择适合的产品。

页面内容是否对你有帮助?
有帮助
没帮助

相关·内容

AlphaGo背后力量:蒙特洛树搜索入门指南

在本文中,我会试图解释蒙特洛树搜索大多数细节,其中我们也会不时回顾 AlphaGo/Zero,并试图解释那些在 DeepMind AI 程序系列中使用 MCTS 变体。...有限两人零和回合游戏 蒙特洛树搜索运行框架/环境是「游戏」,其本身是一个非常抽象广义术语,所以在这里我们只针对于一种游戏类型:有限两人零和回合游戏——这听起来或许有点复杂,不过其实很简单,让我们来分析一下...模拟开始节点标注为已访问。 ? 反向传播是从子节点(模拟开始地方)遍历根节点。模拟结果传输至根节点,反向传播路径上每个节点统计数据都被计算/更新。...反向传播保证每个节点数据都会反映开始于其所有子节点模拟结果(因为模拟结果传输博弈树根节点)。...因为我们会在搜索开始时很快结束对取得单次获胜节点贪婪探索。 简单示例: 假设我们仅使用 exploitation UCT 组件开始蒙特洛树搜索。

1.5K50

游戏数值策划

早几年由于游戏盛行,比较流行乘法公式,从《神仙道》战斗公式从减法改成乘法后,一直到14年《刀塔传奇》开始的卡牌时代,行业都更倾向用乘法公式,试图通过乘法公式带来更平滑数值体验。 2....像是《炉石传说》中酒馆下棋,第一回合只需要进行1-3次操作,但是却有33秒准备时间(第一回合时长是45秒,但是开头动画到招揽随从之后还剩下可操作时间是33秒),一个操作需要11-33秒时间来完成...图片 《炉石传说》酒馆每回合可支配金币最大值和最小值 也就是说,对于《炉石传说》酒馆这个自走棋玩法,第一个回合只要考虑3个金币支配策略,第二回合只要考虑是4个金币支配策略,所有玩家都是一样...1) 阶段性节点 阶段性节点,顾名思义,这样节点代表着一个阶段结束,下一阶段开始。 这样节点可以根据玩法直观地看出来。比如回合玩法,我们很明显可以以回合作为关键时间节点。...玩家在局外可以从自己牌库中选择8张牌来组成玩家自己“出战组”;被选入出战组中的卡牌会随机出现在槽中;游戏过程中,有限时间内摧毁对手塔数量大于自己摧毁数量,或者摧毁对手中间国王塔,就算获得胜利

1K20
  • 强化学习方法汇总,以及他们区别

    这样就没必要去炸真实世界, 连自己也炸死了, 他可以像玩游戏一样炸炸游戏世界, 也保住了自己小命....我们现在说动作都是一个一个不连续动作, 而对于选取连续动作, 基于价值方法是无能为力. 我们却能用一个概率分布在连续动作中选取特定动作, 这也是基于概率方法优点之一....回合更新 和 单步更新 ? 强化学习还能用另外一种方式分类, 回合更新和单步更新, 想象强化学习就是在玩游戏, 游戏回合开始结束....回合更新指的是游戏开始后, 我们要等待游戏结束, 然后再总结这一回合所有转折点, 再更新我们行为准则....而单步更新则是在游戏进行中每一步都在更新, 不用等待游戏结束, 这样我们就能边玩边学习了.

    1.2K40

    现场|David Silver原文演讲:揭秘新版AlphaGo算法、硬件和训练细节

    一个版本AlphaGo Lee还是通过“只考虑人类可能走位置”和“预判50回合”来限制搜索规模,如今AlphaGo Master已经考虑是全局最有价值位置,并且预测更少回合数目还能达到更高准确率...这样一来,蒙特洛树更窄更浅,回合中考虑走子位置更少、预判回合数更少,预判依靠更强大网络,只用4个TPU、AlphaGo Lee十分之一计算能力就达到了更高棋力。...下面来仔细介绍一下算法中细节。 首先,我们让AlphaGo跟自己对弈。这是基于强化学习,我们已经不再拿人类棋局给它学习了。AlphaGo自己训练自己,自己从自己身上学习。...当它选择这一步落子、实施、并到一个回合时,会再一次运行搜索,仍然是基于策略网络和价值网络、火力全开搜索,来生成下一步落子计划,如此循环,直到一局棋结束。...随后,我们用这些数据来训练神经网络。 首先,当 AlphaGo 和它自己下棋时,用这些训练数据来训练一个新策略网络。

    87360

    矛与盾 | 二进制漏洞攻防思想对抗

    栈溢出指的是局部变量在使用过程中,由于代码编写考虑不当,造成了其大小超出了其本身空间,覆盖掉了前栈帧EBP和返回地址等。由于返回地址不对,函数调用结束后跳转到了不可预期地址,造成了程序崩溃。...微软你出来,保证不打死你! 0×1 第一回合GS 守方:你不是要覆盖返回地址吗?在函数执行一开始先往栈上保存个数据,等函数返回之前先检查这个数据,要是不一致那一定是被覆盖了,就不返回了!...0×5 第五回合Flash 守方:世界上没有什么问题是一个大招不能解决,如果有,那就两个。 攻方A:哎,路子越来越窄,日子难过啊。...而Flash作为浏览器插件存在,居然发展出很多不不闪不挂漏洞,Flash漏洞利用研究如星火燎原般炽热。 0×6 第六回合 混乱 攻方:整形溢出、类型混淆、双重释放、UAF,看我万箭齐发!...游戏收入! 微软:+10086 FaceBook:算了,还是转HTML5吧。 攻方:别这样。。。刚精通AS代码。 安全厂商:推荐用户卸载Flash! 吃瓜群众:卸载?

    1.5K61

    Windows 11 及其安卓子系统折腾记

    Windows 11 及其安卓子系统折腾记 独立观察员 2021 年 10 月 24 日 目录 一、安装 Windows 11 二、尝试安装安卓子系统 1、第一回合:尝试安装亚马逊应用商店 2、第二回合...: 看底下系统要求,处理器(这个应该误判)和系统版本都不符合要求: 2、第二回合:更改语言和地区 网上找了篇参考文章:《[保姆级教程!...再次使用 “链接二” 进行跳转,出现个要求填写邮箱弹窗,大致是用于接收 “垃圾邮件” : 再次进入到安卓子系统(WSA)应用页面,还是不满足要求: 这时终于注意到了一个关键信息 —— 需要系统是...Beta 渠道: 而我现在系统是 Dev 渠道也不知道当时怎么会下载了这么一个系统),而且 Beta 渠道切换不了: 还是对改语言方式不死心,把能改都改成美国了,然后注销: 再次尝试...3、第三回合:安装正确 Beta 系统 使用下面的链接下载一个正式版: https://uupdump.net/download.php?

    3.3K10

    “法外狂徒”为什么那么多?用程序来告诉你!

    这时候,如果有一批好人组成一个信任联盟,这批好人就会在竞争当中脱颖而出: ? 那么,在社会这个巨大赛场上,想要成为竞争优胜者,我们应该做一个什么样的人呢?...小灰最近写了一个程序,再现了这个“合作与背叛”比赛,并且按照自己想法编写了各种策略,试图找出有没有比“一报还一报”更好竞争策略。...这一实践让产生了许多认识,自认为还蛮有意思,今天特意分享给大家。 首先说一说小灰这个程序中具体比赛规则: 1. 比赛分成M回合,一共有N个参赛者(N为偶数): ? 2....M回合之后,所有参赛者按照总分值进行排名。 ? 根据游戏规则,小灰也设计了6种不同风格参赛者,他们各有各博弈策略: 1. 老实型 这个类型参赛者永远选择合作,从不背叛。 2....在参赛者较多,回合数较少局面下,骗子型占有巨大优势。 2. 在参赛人数较少,回合数较多局面下,老实人以及愿意首先合作的人开始显现出优势。 3. 偶尔欺骗型,无论在哪个局面都不占优势。 4.

    41410

    一个叫板顶级人类棋手围棋AI输给了它同类

    机器之心报道 机器之心编辑部 AI:「能战胜顶级人类玩家。」另一个 AI:「玩不过人类,但我能战胜你。」 近几年,自我博弈中强化学习已经在围棋、国际象棋等一系列游戏中取得了超人表现。...之前就有研究表明,自我博弈中看似有效连续控制策略也可以对抗策略利用,这表明自我博弈可能并不像之前认为那样强大。这就引出一个问题:对抗策略是攻克自我博弈方法,还是自我博弈策略本身就能力不足?...值得注意是,这些游戏表明,该研究提出对抗策略并不是完全在做博弈,而是通过欺骗 KataGo 在对攻击者有利位置落子,以过早地结束游戏。...如下图 4a 所示,他们发现在 32 个受害者回合时,A-MCTS-S 对受害者胜率下降到了 80%。但这里,受害者在训练与推理时都没有搜索。...此外,研究者还测试了 A-MCTS-R,并发现它表现更好,在 32 个受害者回合时对 Latest 取得了超过 99% 胜率,但在 128 个回合时胜率下降到 10% 以下。

    28220

    微软Azure决战亚马逊AWS终获五角大楼百亿美元大单,贝索斯猛怼特朗普

    微软意外胜出后,贝索斯声称亚马逊总统特朗普针对提起诉讼。最终国防部天平并没有倾向亚马逊,微软笑到了最后。情。」...第一回合:微软意外胜出,亚马逊傻眼 2019年10月,美国五角大楼宣布,在争夺为美国国防部提供公共云资源服务权激烈角逐中,微软击败亚马逊胜出。...显然,很多人,包括亚马逊自己,都没想到这个结果:五角大楼竟然不选择,云计算市场老大AWS,而选择了小老弟微软Azure?凭什么!想不通。 第二回合:亚马逊阻挠见效,成功按下交易暂停键 ?...第三回合:结局已定,亚马逊必不会轻易let go 然而,最终国防部天平并未倾向亚马逊。尽管亚马逊目前仍然在云市场占据最多份额,但五角大楼却用100亿美金给了亚马逊狠狠一次重击。...亚马逊:特朗普对有意见不公平,微软:去找爸爸哭吧 虽然联合企业防御基础设施项目从一开始就引发了激烈争议,但当特朗普公开表示担心合同会落入亚马逊手中时,该项目再次引发了大规模关注。

    35920

    网络游戏是如何实现对战呢?本文告诉你

    ,任天堂、世嘉与普空、SNK 在家用游戏机、街机市场硝烟四起争战仍然让全世界玩家都把目光集中到了主机游戏领域中,可以说整个八九十年代,就是主机游戏黄金时代。...才可以进入到下一回合进行。...3.3 同步模式与游玩体验 基于 c-s 与帧同步同步方式很大程度上解决了《帝国时代》等游戏中,一个人网络慢,所有人停下来等他问题,玩过 war3 的人应该会有体会,当你网络顿时,只有你客户端上运行缓慢甚至静止...每当游戏开始前,参与游戏玩家电脑就会协商确定一个随机种子,从而保证对同一操作计算结果一致。...而同时,MOBA 类游戏中,每个魔法施放其实都有一定前摇动画和施法结束后摇动画,虽然这个动画在介绍中有规定时间长度,但在实际游玩过程中,玩家并不会在乎这个动画是否比预期长了一些或短了一些,这就为客户端与服务端通信后模拟数据修正以及网络通信延迟发生留有了余地

    2.7K21

    复盘 | 离AI取代人类还有多远?

    首先是采用蒙特洛树搜索基本思想,其实很简单:多次模拟未来棋局,然后选择在模拟中选择次数最多走法 AlphaGo具体下棋基本思想如下: Step 1:基于深度模仿“脑” 来预测未来下一步走法,...Step 2:结合两种方式来对未来到L走势进行评估,一个是使用全局分析“脑”进行评估,判断赢面,一个是使用快速感知“脑”做进一步预测直到比赛结束得到模拟结果。...中国人发明这项充满东方智慧模拟战争游戏中国超级计算机独占鳌头。 值得一提是,浪潮天梭在比赛中,同时迎战柳大华、张强、汪洋、徐天红、朴风波5位大师。...至于落败原因,樊麾分析称,“首先是自己棋有点臭,尤其是到了后半盘,开始读秒时候老打‘勺子’,下得也比较着急,这些毛病,事后看都被电脑抓住了。...其次应该说是心态问题,太想赢了,而且一开始也不太相信它能战胜。” 樊麾对记者说:“如果没有人告诉一定不知道它是电脑,它太像人了。它一定是在思考。按照人说法,它应该有棋风吧。”

    84750

    背后逻辑水深得很

    当两位参赛者在同一回合中都选择结束比赛,并向比赛主持人说出同一颜色时,两人都胜利。 反之,如果只有一人选择结束比赛说出颜色,或两人说出颜色不同,则两人一起失败。...而当双方都基于这一逻辑去思考时,在同时接收和发送信息规则下就很容易产生额外“争论”和“确认”回合。 打破“逻辑对称性” 出题人教授提出了一种思路:使用“随机性”来破这种“对称性”。...最简单随机小游戏:丢硬币。 而发送信息内容就可以是这样: 从现在开始打算每一轮都抛硬币,正面是红色,反面是蓝色,并在下一回合中向你告知抛硬币结果。...如果你也这样做,那么我们应该很快就能在某个回合中抛到相同一面,然后我们就可以在下一回合确认,然后在下下回合中胜利。...事实上,上述这一问题还有三个变体: 1、交替发送 两名参赛者只能交替回合发送信息,一个回合中只能有一人发送 2、碰撞问题 两名参赛者如果在同一回合发送信息,则信息产生碰撞,参赛者会知晓“发送失败”,但对方信息也因此无法收到

    24920

    以太坊大合并,矿工祭了!EVGA终结英伟达22年合作

    ---- 智元报道   编辑:武穆 好困 【智元导读】苦GPU挖矿久矣游戏玩家们,又迎来一个重大利好:以太坊合并,显卡挖矿时代成为历史,已经没有悬念。...本周,以太坊顺利完成「合并」,这下老矿工们不淡定了。 加密货币成功地从工作量证明(PoW)切换到权益证明(PoS)。 简单来说就是:显卡挖矿时代结束了!...而矿工们依然在做最后挣扎: 从以太坊哈希率变化来看,大部分矿工都坚持到了最后一分钟。 当然,也有人试图转向其他阵地,希望用手里显卡获得一些简单奖励。...这一点有数据作为支持,在以太坊合并前,以太坊网络总哈希率几个月来一直在下降,这表明一些矿工早就开始退出了。 不妨看看基于NiceHash和WhatToMine数据,统计得出结果。...不过,对不少矿工来说,最直接扭亏为盈方式,当然是——卖显卡啊! 能用,谁用矿渣呀 几家欢乐几家愁。 对游戏玩家来说,今年真是从「胜利走向胜利」。

    66920

    一文带你实战强化学习(上) | DQN

    ,用于保存每一回合得到奖励 12 rewardList = [] 第5行代码作用是注册一个游戏环境,传入参数是要注册游戏名称,我们这里注册是“FrozenLake8x8-v0”游戏,也可以换成其它游戏...第12行代码定义了一个数组“rewardList”用来保存每个回合得到累积奖励,“FrozenLake8x8-v0”游戏只有在agent到达目标位置后才会得到奖励值1,其余状态奖励值均为0,所以在所有回合结束后...第16行代码是重置游戏环境,此时agent位于开始位置。第19行代码设置循环目的,是确保agent能够走到游戏结束状态(可能是agent到达了目标位置,也可能是掉进了“冰窟窿”)。...式2 第27行代码更新了当前环境状态,第28行代码判断一个回合游戏是否结束。接下来我们再看如何使用带探索策略来选择动作,即如何对环境进行探索。...,其中使用了一个参数“total_reward”来统计每一回合得到累积奖励,当agent掉进“冰窟窿”或者到达目标位置后一回合游戏结束,此时“total_reward”值分别为0和1。

    1.6K20

    使用PyTorch实现简单AlphaZero算法(3):神经网络架构和自学习

    为了在代码中实现这一点,我们需要一个其中存储了棋盘状态和策略目标的缓存区,在游戏结束获得实际奖励值时,目标值分配给临时缓冲区中每个元素。...AlphaZero自我游戏训练过程,它得到唯一真正奖励是在游戏结束时,所以获得奖励是非常少,而价值头专注于预测这个奖励,如果我们想改善价值训练,就需要增加AlphaZero游戏次数。...可以看到对于一个3 x 3棋盘,即使没有MCTS,在80个回合后至少可以达到75%胜率 对于一个4 x 4棋盘,训练在500个回合后就会饱和,然后就会变成振荡,但在1300回合附近,没有MCTS...这25种可能映射到一个圆(在开始)或一个弧(后面经过训练)。 在1000次蒙特洛演练中使用未经训练值网络所采取行动。(5 × 5-> 25动作)。25个动作映射到圆/圆弧中角度。...有一种称为hidden queen chess”/ “secret queen chess”国际象棋变体,其中每个玩家在游戏开始时选择他们一个棋子作为皇后,并且该选择不会向对手透露。

    62130

    这就叫“面试造火箭,工作拧螺丝!”

    于是你飞快又想到了一个方法: flag = redis(业务唯一流水号,过期时间); if(flag){ save(业务消息); } 可以利用业务唯一流水号结合 Redis 来做一个锁...如果不丢弃,那么理论上在“过期时间”到了,锁释放后,第二次请求拿到锁,就能接着往下走。...但是现在想让你给我设计一个通用技术组件,不需要基于某个具体业务场景去设计。想听听你思路。 拿到题目,你开始觉得这是刁难,看着面试官求知眼神,你又开始怀疑:这个老登不会是来套方案吧?...看着自己已经咬秃了左右大拇指指甲,感觉自己灵感和指甲一样都光秃秃开始后悔前面几个回合咬得太快了,原以为可以秒杀这个面试,没想到面试官还在缠斗。你动了使用必杀技来结束战斗念想。...面试官也愣住了,看着你“资深发型”,当即就握住了手:你就是要找的人才。不面了,就你了,明天来报道! 入职 入职之后你第一件事情就是看看这个公司代码。

    9210

    游戏 Idea:No.1 废墟

    游戏描述」:单人游戏,横版卷轴冒险,解谜游戏。 「体验」:废墟跑酷 + 历史解谜 「故事设定」:废墟未来世界。主角一觉醒来,发现世界已经崩塌,他开始蔓藤、奇怪动植物追赶。...原型.jpg 「原型玩法」:从 Start 开始,每回合经过一个单元格,每个单元格会有一个概率事件(对应玩家操作难度)比如「缠人植物:20%消灭敌人,40%摆脱敌人,40%敌人缠住一回合」等,有些植物有攻击能力...玩家有30HP和50回合数(回合数对应玩家通关限时)玩家可以拿到武器,比如「导弹:80%几率可以获取,增加20%几率消灭敌人」在敌人原先数值上增加20%几率,然后按比例再归一。...攻击敌人(消灭之后不会再次遇到同一个敌人)2. 逃跑(一定几率躲开敌人效果) 历史解密部分游戏原型还没想好。。。...没错,这是「阿尔希波夫」拯救世界故事 ---- 今天就到这里,每天一个游戏 Idea,博主有这个脑洞计划很久了。主要以游戏机制和故事设定为主,时间充裕的话,会增加游戏原型。

    46170

    深度强化学习专栏(三)

    而在无模型强化学习方法中,由于不知道中间动作(或状态)奖励,所以如果想要知道某个状态价值,就需要从这个状态出发,按照当前策略,走完多个回合并得到多个累积奖励,然后计算这多个累积奖励平均值作为当前状态价值...蒙特洛方法不足地方是它只能应用于回合步数有限情况(因为蒙特洛方法只有在一个回合结束并得到一个奖励后,才能去更新一个状态价值),然而现实问题中,很多问题并不能在有限步数里结束,例如无人驾驶和机器人控制...蒙特洛更新和时序差分更新 在蒙特洛方法里我们都是利用一个回合结束后得到奖励来更新当前Q值,这种更新方式称为蒙特洛更新。...我们希望可以尽早更新Q值,而不是只有等到一个回合结束之后才能更新,这就是时序差分更新。 在蒙特洛算法中,更新Q值公式为: ?...在介绍蒙特洛方法时候,我们说到了确定性和非确定性环境状态,在时序差分学习方法中,如果环境状态是确定,则Q值更新公式为: ? 式5 2.

    73220

    超越99.9%人类玩家,微软专业十段麻将AI论文细节首次公布

    : 全局奖励预测用来训练一个预测器,进而根据当前和先前回合信息来预测游戏最终奖励。...接下来,在线上游戏过程中,研究者采用运行时策略调整来利用当前轮次观察结果,以便得到更好效果。 下图展示了几个模型结构: ? 图 4:discard 模型结构。 ?...全局奖励预测机制 为了使得为 RL 训练提供有效信号,需要适当地将最终游戏奖励(全局奖励)归因至每一回合游戏中去。...参数化蒙特洛策略调整 研究者提出一种称为参数化蒙特洛策略调整全新方法。在每一局开始阶段,使用如下方法调整离线训练策略以适应其初始私有牌: 模拟。...通过全局奖励预测器将游戏奖励分配到每个回合,训练有素智能体能够更好地将最终游戏奖励最大化,而不只是每一回合得分。图 9 中智能体(朝南向玩家)在最后一局中遥遥领先,并且抓得一手好牌。 ?

    91020

    如何使用MapTool构建交互式地牢RPG 【Gaming】

    通过使用MapTool,游戏大师大部分工作在RPG开始之前就完成了。...一些发行Linux版本提供了JavaFX包,因此如果您试图运行MapTool并获得有关JavaFX错误,请下载最新自包含版本: 对于 基于Ubuntu and other Debian系统 对于...战争之雾是一个减法过程;它从100%黑暗开始,随着玩家进步,你可以使用雾工具栏中“视图”菜单下“战争迷雾”绘图工具来显示地图部分。...这通常是一个GM在游戏中要做最多文件工作,因为它涉及到跟踪轮到谁,每个怪物受到了多少伤害,每个怪物攻击造成了多少伤害,每个怪物有什么特殊能力,等等。...这似乎是一个简单改变,但在激烈战斗中,这是通GM最大武器。 在比赛中 显然你可以用MapTool做很多事情,但是只要做一点准备工作,你大部分工作在你开始玩之前就做好了。

    4.4K60
    领券