Loading [MathJax]/jax/input/TeX/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >excel 的条件格式(一)

excel 的条件格式(一)

原创
作者头像
mr.songw
修改于 2021-02-04 02:50:56
修改于 2021-02-04 02:50:56
3.8K0
举报
文章被收录于专栏:Python 自习室Python 自习室

在 excel 中,使用条件格式可以将符合条件的单元格进行突出显示。

一、突出显示单元格规则

为了对大于某个值的单元格进行突出显示,可以如下操作:

1.选定数据区域 A1:A10

2.点击开始菜单,在样式组里点击条件格式。

3.点击突出显示单元格规则,选择大于。

4.输入值并选择格式化样式。

5.点击确定,便得到了如下结果,excel 对值大于 60 的单元格进行了突出显示。

6.如果将单元格 A6 的值改为 90,excel 会自动地修改单元格 A6 的样式。

依据以上步骤,同样的可以将第 3 步中的其他条件(小于、介于、等于、文本包含、发生日期、重复值)作用于单元格。

二、清除规则

为了清除规则,可以如下操作:

1.选定数据区域 A1:A10

2.点击开始菜单,在样式组里点击条件格式。

3.点击清除规则,清除所选单元格的规则。

三、最前/最后规则

为了对大于平均值的单元格进行突出显示,可以如下操作:

1.选定数据区域 A1:A10

2.点击开始菜单,在样式组里点击条件格式。

3.点击最前/最后规则,高于平均值。

4.选择格式化样式。

5.点击确定,便得到了如下结果,excel 会首先计算平均值(46.6),然后对值大于平均值的单元格进行突出显示。

依据以上步骤,同样的可以将第 3 步中的其他条件(前 10 项、前 10%、最后10 项、最后 10%、高于平均值、低于平均值)作用于单元格。

四、使用公式设置格式化条件

更高级地,可以使用公式确定需要设置格式的单元格,公式的值必须为 TRUE 或者 FALSE。

1.选择数据区域

2.点击开始菜单,在样式组里点击条件格式。

3.点击新建规则。

4.选择使用公式确定要设置格式的单元格。

5.输入公式 =ISEVEN(A1)

6.选择格式化样式并点击确定。

7.结果如下,对所有的偶数进行了突出显示。

通常在书写公式时,使用的是左上角的单元格。excel 会自动地将左上角单元格的公式拷贝到其他单元格。于是,A2 单元格的公式为 =ISEVEN(A2),A3 单元格的公式为 =ISEVEN(A3),以此类推。

另外一个例子:

8.选择数据区域 A2:G6。

9.重复 2-4 的操作。

10.输入公式 =$G2=“USA”。

11.选择格式化样式并点击确定。

12.结果如下,对所有位于 USA 的供应商进行了突出显示。

由于在书写公式时,固定了 G 列,所以 A2,B2,C2,D2,E2,F2 单元格也包含了公式 =$G2=“USA”;A3,B3,C3,D3,E3,F3 单元格包含公式 =$G3=“USA”,以此类推。

五、管理规则

为了查看工作表中的所有规则,可以使用条件格式中的管理规则。在管理规则界面同样可以进行规则的创建、编辑和删除。

1.选择 A1

2.点击开始菜单,在样式组里点击条件格式。

3.点击管理规则。便出现了规则管理界面,如下:

由于我们选择的是 A1,所以显示的是作用于 A1 上的规则。

4.在下拉菜单中,可以将当前选择切换到当前工作表,这样便可以看到当前工作表中的所有规则。

六、总结

本文介绍如何使用 excel 的条件格式对符合条件的单元格进行突出显示。

如果本文对您有帮助的话,还请点赞、关注。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
强化学习从基础到进阶-常见问题和面试必知必答[4]::深度Q网络-DQN、double DQN、经验回放、rainbow、分布式DQN
左右两侧会同时变化使得训练过程不稳定,从而增大回归的难度的问题。目标网络选择将右边部分,即
汀丶人工智能
2023/10/11
7310
【强化学习】Q-Learning算法详解
QLearning是强化学习算法中value-based的算法,Q即为Q(s,a)就是在某一时刻的 s 状态下(s∈S),采取 动作a (a∈A)动作能够获得收益的期望,环境会根据agent的动作反馈相应的回报reward r,所以算法的主要思想就是将State与Action构建成一张Q-table来存储Q值,然后根据Q值来选取能够获得最大的收益的动作。
全栈程序员站长
2022/11/09
2.8K0
【强化学习】Q-Learning算法详解
【深度学习】强化学习(五)深度强化学习
  强化学习的基本任务是通过智能体与环境的交互学习一个策略,使得智能体能够在不同的状态下做出最优的动作,以最大化累积奖励。这种学习过程涉及到智能体根据当前状态选择动作,环境根据智能体的动作转移状态,并提供即时奖励的循环过程。
Qomolangma
2024/07/30
5150
【深度学习】强化学习(五)深度强化学习
【强化学习】理论知识整理汇总
本篇旨在总结强化学习相关术语,主要参考了邹伟等人所著的《强化学习》(清华大学出版社)这本书。
zstar
2022/06/14
8750
【强化学习】理论知识整理汇总
强化学习系列(一)--基础概念
最近了解了强化学习方面的知识,准备进行下整理和总结。本文先介绍强化学习中一些基础概念。
languageX
2022/01/05
1.6K1
强化学习方法小结
在介绍强化学习算法之前先介绍一个比较重要的概念,就是Bellman方程,该方程表示动作价值函数,即在某一个状态下,计算出每种动作所对应的value(或者说预期的reward)。
marsggbo
2019/12/23
7120
强化学习方法小结
强化学习-3:动态规划 planning by dynamic programming(DP)
\[ v_{\pi}(s)=\max _{a \in \mathcal{A}} q_{\pi}(s, a) \] 主动改变策略,策略改变之后进行评估 根据q值,从集合A中选a,更新策略\(\pi\),使新q大于之前一步 \[ q_{\pi}\left(s, \pi^{\prime}(s)\right)=\max _{a \in \mathcal{A}} q_{\pi}(s, a) \geq q_{\pi}(s, \pi(s))=v_{\pi}(s) \] 所以
列夫托尔斯昊
2020/08/25
4510
强化学习-3:动态规划 planning by dynamic programming(DP)
强化学习基础篇3:DQN、Actor-Critic详细讲解
在之前的内容中,我们讲解了Q-learning和Sarsa算法。在这两个算法中,需要用一个Q表格来记录不同状态动作对应的价值,即一个大小为 $状态个数,动作个数$ 的二维数组。在一些简单的强化学习环境中,比如迷宫游戏中(图1a),迷宫大小为4*4,因此该游戏存在16个state;而悬崖问题(图1b)的地图大小为 4*12,因此在该问题中状态数量为48,这些都属于数量较少的状态,所以可以用Q表格来记录对应的状态动作价值。但当我们需要应用强化学习来解决实际问题时,比如解决国际象棋问题或围棋问题,那么环境中就会包含 $10^{47}$ 个state或 $10^{170}$ 个state,如此庞大的状态数量已经很难用Q表格来进行存储,更不要说在3D仿真环境中,机器人手脚弯曲的状态是完全不可数的。由此可以看到Q表格在大状态问题和不可数状态问题时的局限性。同时,在一个强化学习环境中,不是所有的状态都会被经常访问,其中有些状态的访问次数很少或几乎为零,这就会导致价值估计并不可靠。
汀丶人工智能
2023/06/03
2.4K0
强化学习基础篇3:DQN、Actor-Critic详细讲解
强化学习从基础到进阶-案例与实践[2]:马尔科夫决策、贝尔曼方程、动态规划、策略价值迭代
图 2.1 介绍了强化学习里面智能体与环境之间的交互,智能体得到环境的状态后,它会采取动作,并把这个采取的动作返还给环境。环境得到智能体的动作后,它会进入下一个状态,把下一个状态传给智能体。在强化学习中,智能体与环境就是这样进行交互的,这个交互过程可以通过马尔可夫决策过程来表示,所以马尔可夫决策过程是强化学习的基本框架。
汀丶人工智能
2023/10/11
1.1K0
强化学习从基础到进阶-案例与实践[2]:马尔科夫决策、贝尔曼方程、动态规划、策略价值迭代
强化学习-2:Markov decision process(MDP)
我们说一个state若满足 ,则其具有马尔可夫性,即该state完全包含了历史中的所有信息。马尔科夫过程是无记忆的随机过程,即随机状态序列 具有马尔可夫属性。
列夫托尔斯昊
2020/08/25
7550
强化学习-2:Markov decision process(MDP)
强化学习笔记4:无模型预测 model-free prediction
对于Env来说,不是参数已知的MDP 比如元组中a、s、P的关系不确定 or 未知
列夫托尔斯昊
2020/08/25
5600
强化学习(二)马尔科夫决策过程(MDP)
    在强化学习(一)模型基础中,我们讲到了强化学习模型的8个基本要素。但是仅凭这些要素还是无法使用强化学习来帮助我们解决问题的, 在讲到模型训练前,模型的简化也很重要,这一篇主要就是讲如何利用马尔科夫决策过程(Markov Decision Process,以下简称MDP)来简化强化学习的建模。
刘建平Pinard
2018/08/14
1.4K0
强化学习(二)马尔科夫决策过程(MDP)
强化学习从基础到进阶-案例与实践[3]:表格型方法:Sarsa、Qlearning;蒙特卡洛策略、时序差分等以及Qlearning项目实战
策略最简单的表示是查找表(look-up table),即表格型策略(tabular policy)。使用查找表的强化学习方法称为表格型方法(tabular method),如蒙特卡洛、Q学习和Sarsa。本章通过最简单的表格型方法来讲解如何使用基于价值的方法求解强化学习问题。
汀丶人工智能
2023/10/11
1K0
强化学习从基础到进阶-案例与实践[3]:表格型方法:Sarsa、Qlearning;蒙特卡洛策略、时序差分等以及Qlearning项目实战
【深度学习】强化学习(三)强化学习的目标函数
  强化学习的基本任务是通过智能体与环境的交互学习一个策略,使得智能体能够在不同的状态下做出最优的动作,以最大化累积奖励。这种学习过程涉及到智能体根据当前状态选择动作,环境根据智能体的动作转移状态,并提供即时奖励的循环过程。
Qomolangma
2024/07/30
3610
【深度学习】强化学习(三)强化学习的目标函数
强化学习从基础到进阶-案例与实践[6]:演员-评论员算法(advantage actor-critic,A2C),异步A2C、与生成对抗网络的联系等详解
在REINFORCE算法中,每次需要根据一个策略采集一条完整的轨迹,并计算这条轨迹上的回报。这种采样方式的方差比较大,学习效率也比较低。我们可以借鉴时序差分学习的思想,使用动态规划方法来提高采样效率,即从状态
汀丶人工智能
2023/10/11
6830
强化学习从基础到进阶-案例与实践[6]:演员-评论员算法(advantage actor-critic,A2C),异步A2C、与生成对抗网络的联系等详解
强化学习从基础到进阶-常见问题和面试必知必答[6]:演员-评论员算法(advantage actor-critic,A2C),异步A2C、与生成对抗网络的联系等详解
以及一个初始的演员与环境交互、收集数据以及反馈。通过每一步得到的反馈,我们进一步更新我们的策略
汀丶人工智能
2023/10/11
4000
从强化学习Reinforcement Learning到DQN(Deep Q-learning Network)学习笔记
本篇博客大概会记录强化学习RL的基础知识,基本方法,以及如何推导到DQN,和关于DeepMind的Playing Atari with Deep Reinforcement Learning(DQN学习打砖块游戏)这篇论文的一些理解,后续改进方向,还有一些具体实现。若有理解不当,恳请指出!
大鹅
2021/06/16
7530
强化学习(五)用时序差分法(TD)求解
    在强化学习(四)用蒙特卡罗法(MC)求解中,我们讲到了使用蒙特卡罗法来求解强化学习问题的方法,虽然蒙特卡罗法很灵活,不需要环境的状态转化概率模型,但是它需要所有的采样序列都是经历完整的状态序列。如果我们没有完整的状态序列,那么就无法使用蒙特卡罗法求解了。本文我们就来讨论可以不使用完整状态序列求解强化学习问题的方法:时序差分(Temporal-Difference, TD)。
刘建平Pinard
2018/08/30
1.6K0
强化学习(五)用时序差分法(TD)求解
强化学习从基础到进阶-案例与实践[5]:梯度策略、添加基线(baseline)、优势函数、动作分配合适的分数(credit)
如图 5.1 所示,强化学习有 3 个组成部分:演员(actor)、环境和奖励函数。智能体玩视频游戏时,演员负责操控游戏的摇杆, 比如向左、向右、开火等操作;环境就是游戏的主机,负责控制游戏的画面、负责控制怪兽的移动等;奖励函数就是当我们做什么事情、发生什么状况的时候,可以得到多少分数, 比如打败一只怪兽得到 20 分等。同样的概念用在围棋上也是一样的,演员就是 Alpha Go,它要决定棋子落在哪一个位置;环境就是对手;奖励函数就是围棋的规则,赢就是得一分,输就是负一分。在强化学习里,环境与奖励函数不是我们可以控制的,它们是在开始学习之前给定的。我们唯一需要做的就是调整演员里面的策略,使得演员可以得到最大的奖励。演员里面的策略决定了演员的动作,即给定一个输入,它会输出演员现在应该要执行的动作。
汀丶人工智能
2023/10/11
5360
强化学习从基础到进阶-案例与实践[5]:梯度策略、添加基线(baseline)、优势函数、动作分配合适的分数(credit)
【参赛经验分享】DQN强化学习玩转俄罗斯方块代码详解
看到比赛的第一个想法是可以用强化学习的方式来学一个智能体出来。于是在找到了这个Github项目,花了两天时间恶补了一下强化学习的知识,但是读代码还是花费了不少时间,网上对于DQN训练俄罗斯方块智能体的解释都不大详细,所以就写一篇比较详细的。
用户8886107
2021/08/12
3K1
【参赛经验分享】DQN强化学习玩转俄罗斯方块代码详解
推荐阅读
强化学习从基础到进阶-常见问题和面试必知必答[4]::深度Q网络-DQN、double DQN、经验回放、rainbow、分布式DQN
7310
【强化学习】Q-Learning算法详解
2.8K0
【深度学习】强化学习(五)深度强化学习
5150
【强化学习】理论知识整理汇总
8750
强化学习系列(一)--基础概念
1.6K1
强化学习方法小结
7120
强化学习-3:动态规划 planning by dynamic programming(DP)
4510
强化学习基础篇3:DQN、Actor-Critic详细讲解
2.4K0
强化学习从基础到进阶-案例与实践[2]:马尔科夫决策、贝尔曼方程、动态规划、策略价值迭代
1.1K0
强化学习-2:Markov decision process(MDP)
7550
强化学习笔记4:无模型预测 model-free prediction
5600
强化学习(二)马尔科夫决策过程(MDP)
1.4K0
强化学习从基础到进阶-案例与实践[3]:表格型方法:Sarsa、Qlearning;蒙特卡洛策略、时序差分等以及Qlearning项目实战
1K0
【深度学习】强化学习(三)强化学习的目标函数
3610
强化学习从基础到进阶-案例与实践[6]:演员-评论员算法(advantage actor-critic,A2C),异步A2C、与生成对抗网络的联系等详解
6830
强化学习从基础到进阶-常见问题和面试必知必答[6]:演员-评论员算法(advantage actor-critic,A2C),异步A2C、与生成对抗网络的联系等详解
4000
从强化学习Reinforcement Learning到DQN(Deep Q-learning Network)学习笔记
7530
强化学习(五)用时序差分法(TD)求解
1.6K0
强化学习从基础到进阶-案例与实践[5]:梯度策略、添加基线(baseline)、优势函数、动作分配合适的分数(credit)
5360
【参赛经验分享】DQN强化学习玩转俄罗斯方块代码详解
3K1
相关推荐
强化学习从基础到进阶-常见问题和面试必知必答[4]::深度Q网络-DQN、double DQN、经验回放、rainbow、分布式DQN
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档