首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    SQL中的Null值处理

    在日常的开发中,遇到需要处理 Null 值的场景还是蛮常见的。比如,查询某个字段包含 Null 值的记录、在展示的时候将 Null 值转为其它值、聚合包含 Null 值的列等。...今天就和大家聊聊在 MySQL 中处理 Null 值时需要注意的点,本文包含以下内容: 查找 Null 值 将 Null 值转为实际值 在排序中对 Null 值的处理 计算非 Null 值的数量 聚合...Null 列 1 查找 Null 值 查找 Null 值不能使用 “=”,而应该使用“is Null”。...类似的,在处理字符串类型的字段的时候,我们要找出某个字段没有值的记录。假设该字段叫作 xxx,xxx 允许设置 Null 值。...3 处理排序中的 Null 值 如果是使用默认的升序对包含有 Null 值的列做排序,有 Null 值的记录会排在前面,而使用了降序排序,包含了 Null 值的记录才会排在后面。

    2.9K30

    2021年大数据Spark(三十):SparkSQL自定义UDF函数

    ---- 自定义UDF函数      无论Hive还是SparkSQL分析处理数据时,往往需要使用函数,SparkSQL模块本身自带很多实现公共功能的函数,在org.apache.spark.sql.functions...SparkSQL与Hive一样支持定义函数:UDF和UDAF,尤其是UDF函数在实际项目中使用最为广泛。...|     | hehe|     | xixi|     +-----+      */     //3.使用自定义函数将单词转为大写     //SQL风格-自定义函数     //spark.udf.register...("函数名",函数实现)     spark.udf.register("small2big", (value: String) => value.toUpperCase())     df.createOrReplaceTempView...)     import org.apache.spark.sql.functions._     val small2big2: UserDefinedFunction = udf((value: String

    2.3K20

    Spark 处理小文件

    小文件合并综述 1.1 小文件表现 不论是Hive还是Spark SQL在使用过程中都可能会遇到小文件过多的问题。...小文件过多最直接的表现是任务执行时间长,查看Spark log会发现大量的数据移动的日志。我们可以查看log中展现的日志信息,去对应的路径下查看文件的大小和个数。...3.不论在Hive还是在Spark中,每一个存储块都对应一个Map程序,一个Map呈现就需要一个JVM,启动一个JVM去读取或者写小文件是吃力不讨好的行为。...一个元数据大概150字节),影响namenode性能 5.影响磁盘寻址时间 1.3 小文件出现的原因 启用了动态分区,往动态分区表插入数据时,会插入大量小文件 reduce的数量设置的较多,到reduce处理时...我们知道,以MapReduce为代表的大数据系统,都习惯用K-V键值对的形式来处理文件,最后文件落盘,也是一个reduce对应一个输出文件。

    1.7K00
    领券