首页
学习
活动
专区
圈层
工具
发布

如何使用Cloudera Manager为Hadoop服务角色启用远程JMX访问

JMX主要用于配置和监控资源状态,使用它可以监视和管理Java虚拟机。本篇文章Fayson主要介绍如何使用Cloudera Manager为Hadoop服务角色启用远程的JMX访问。...测试环境 1.RedHat7.2 2.CM和CDH版本为5.13.1 2 Hadoop服务启用JMX访问 在Hadoop集群中所有基于JVM运行的服务,均可以为其启用JMX访问,这里Fayson主要选择...注意:在配置参数中指定了JMX的远程端口好9004,可以根据需要修改为其它端口。如果当前服务器有多个角色需要启用JMX则需要指定不同的端口,否则会出现口被占用问题。...3 远程访问JMX 做过Java开发的多数都使用过JDK自带的jconsole和jvisualvm监控JVM的运行情况,这里Fayson也是使用JDK自带的工具来远程的访问JMX。...4 总结 1.本文主要是基于JVM运行的Hadoop服务角色启用远程JMX访问 2.如果需要在单个主机上为多个角色启用JMX,则需要确保为每个角色设置不同的端口号,否则会无法正常启用,会出现端口已在使用问题

2.4K30

监控hadoop生态系统企业应该用什么监控软件

3.支持作业与任务执行的可视化与分析,能够更好地查看依赖和性能。 4.通过一个完整的RESTful API把监控信息暴露出来,集成了现有的运维工具。...其实hadoop提供了相关接口--那就是Hadoop JMX 接口.将http://namenode:50070/dfshealth.jsp 替换为 http://namenode:50070/jmx...就可以看到Hadoop自带的JMX接口所返回的JSON格式的数据,信息非常全面。...通过同样的方法,可以获得: JobTracker的信息:http://namenode:50030/jmx DataNode的信息:http://datanode:50075/jmx TaskTracker...信息:http://datanode:50060/jmx 总结 通过上面介绍,相信大家有了一定的认识,但是到底哪个适合,这个跟场景和公司的技术储备有关系。

2.3K71
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    如何通过Livy的RESTful API接口向Kerberos环境的CDH集群提交作业

    Livy的RESTful API接口向非Kerberos环境的CDH集群提交作业》和《如何在Kerberos环境的CDH集群部署Livy》。...本篇文章主要介绍如何使用java代码调用Livy提供的RESTful API接口向Kerberos环境的CDH集群提交Spark作业操作。..., submitJob); //通过提交作业返回的SessionID获取具体作业的执行状态及APPID // KBHttpUtils.getAccess(LIVY_HOST...3.通过CM和Yarn的8088界面查看作业执行结果 CM上Yarn的应用程序界面显示 [5o7whmy9tk.jpeg] Yarn的8088界面显示 [qm13ahj3lq.jpeg] Spark的...History界面显示 [l4j8f2kw6u.jpeg] 显示作业运行成功 5.总结 ---- 在Java 访问Kerberos环境的Livy API接口时需要在代码中加载krb5.conf、login-yran.conf

    4.3K120

    如何通过Livy的RESTful API接口向非Kerberos环境的CDH集群提交作业

    (编程API和RESTful API接口),本篇文章主要介绍如何使用java代码调用Livy提供的RESTful API接口向非Kerberos环境的CDH集群提交Spark作业操作。...Java代码调用Livy的RESTful API实现向非Kerberos的CDH集群作业提交 * creat_user: Fayson * email: htechinfo@163.com * creat_date...+ "/batches", headers, submitJob); //通过提交作业返回的SessionID获取具体作业的执行状态及APPID HttpUtils.getAccess...", "\nstderr: ", "\nYARN Diagnostics: "] } 通过如上返回的结果,我们可以看到作业的APPID。...3.查看Livy界面提交作业的状态 [3weekffrp8.jpeg] 4.通过CM和Yarn的8088界面查看作业执行结果 Yarn的应用程序界面显示 [935ble4eve.jpeg] [2qkszjiegr.jpeg

    2.7K70

    0823-5.15.1-HDFS慢导致Hive查询慢问题分析

    作者:周鹏辉 文档编写目的 CDH集群在业务高峰的时候,偶尔会出现Hive 查询慢的现象,本文通过分析Hive出现查询慢时候的集群状态,查找导致Hive查询慢的原因。...文档概述 1.异常现象 2.异常分析 3.总结 生产环境 1.CDH和CM版本:CDH5.15.1和CM5.15.1 2.集群启用Kerbeos+OpenLDAP+Sentry 异常现象 1.10月14...192.168.0.42:1004,DS-a2d024d3-7421-4605-aefc-447ad44ef24b,DISK]] ... 2020-10-14 14:46:55,411 INFO org.apache.hadoop.yarn.client.api.impl.YarnClientImpl...3.)通过如下方式获取HDFS的监控数据和磁盘信息 curl -s http://xxnn001:50070/jmx > ann.jmx sar -A -f /var/log/sa/sa15 > /tmp...4).通过上面的分析问题的根源在于Hive作业产生大量小文件,由于前面讲到的锁的竞争,NameNode的响应变慢。

    3.8K30

    hbase基本介绍

    概览 Apache HBase™是Hadoop数据库,一个分布式、可扩展的大数据存储。 当您需要对大数据进行随机、实时的读写访问时,请使用Apache HBase™。...正如Bigtable利用了谷歌文件系统提供的分布式数据存储,Apache HBase在Hadoop和HDFS上提供了类似Bigtable的功能。 基本特性 线性和模块化的可伸缩性。 严格一致的读写。...方便的基类支持Hadoop MapReduce作业与Apache HBase表。 易于使用Java API进行客户端访问。 实时查询的块缓存和Bloom过滤器。...通过服务器端筛选器下推查询谓词 Thrift网关和支持XML、Protobuf和二进制数据编码选项的REST-ful Web服务 可扩展的基于JIRB的shell 支持通过Hadoop指标子系统将指标导出到文件或...Ganglia;或通过JMX 本文为从大数据到人工智能博主「xiaozhch5」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。

    44610

    工作流引擎比较:Airflow、Azkaban、Conductor、Oozie和 Amazon Step Functions

    Airflow 优点 与所有其他解决方案相比,Airflow是一种功能超强的引擎,你不仅可以使用插件来支持各种作业,包括数据处理作业:Hive,Pig(尽管你也可以通过shell命令提交它们),以及通过文件...你可以使用本地执行程序通过单个节点运行所有作业,或通过Celery / Dask / Mesos编排将它们分发到一组工作节点。...缺点 作为通用编排引擎,它没有非常丰富的功能,但可能不是最初设计的目的,它的优势在于对Hadoop / Pig / Hive的原生支持,尽管你也可以使用命令行实现这些功能,但它本身不能通过Airflow...监控部分通过JMX可接受(似乎没有记录)。但是,如果你的机器负载很重,它通常不会很好,因为端点可能会卡住。...Oozie 优点 Oozie通过db设置提供了一个看似可靠的HA模型(貌似b / c我没有看到它),它为Hadoop相关工作提供本机支持,因为它是为该生态系统构建的。

    6.9K30

    如何查看集成Sentry后Hive作业的真实用户

    内容概述 1.执行Hive作业 2.查看Hive作业用户方式 3.总结 测试环境 1.RedHat7.2 2.CM和CDH集群为5.11.2 3.集群已启用Sentry和Kerberos 2.执行Hive...] 3.通过Cloudera Manager提供的API界面查看Hive作业的真实用户 curl -u admin:admin "http://ip-172-31-22-86.ap-southeast-...在Hive作业运行完成后可以通过Cloudera Manager界面的“Yarn应用程序”列表看到执行作业的真实用户。...可以通过CM提供的API接口来获取运行完成的Hive作业的详细信息查看真实用户,也需等待作业执行完成。...推荐关注Hadoop实操,第一时间,分享更多Hadoop干货,欢迎转发和分享。 [583bcqdp4x.gif] 原创文章,欢迎转载,转载请注明:转载自微信公众号Hadoop实操

    2.2K50

    Hadoop JMX监控和预警

    Hadoop slave node会定期发出一些metrics信息来反映服务的健康状况,服务团队可以通过查看这些metrics来了解服务是否处于健康状态,并回溯了解历史表现。...集群 metrics信息,主要通过两种方式进行: 1.在每个节点中部署一个独立的JMX client 以HBase集群为例,监控HBase集群服务器堆使用情况、RegionServer的RPC处理metrics...2.在Hadoop的metrics系统中添加JMX sink JMX sink需要根据Hadoop的metrics接口开发,并嵌入Hadoop运行时环境中。...对于通过构建JMX client来收集JMX metrics,那么最好有一个agent(代理)来监控JMX client是否工作良好,否则如果有些JMX client停止工作,可能会出现一些JMX数据丢失...JMX监控和预警 目前Hadoop集群监控的方式很多,比如Restful API,具体Hadoop组件内置的API、JMX等。但具体采取哪种方式,则取决于我们的实际生产需求。

    2.2K30

    「可观测」如何为「新能源车企」缓解运维焦虑?

    构建 EMR 这类泛 Hadoop 大数据平台的可观测性,旨在了解构成集群的全栈设施和组件的健康和性能状况,手段是通过对下至基础设施层、上至中间件和应用程序层的可观测数据进行收集、关联、聚合和分析,以探知系统的运行状况和健康趋势...Java 应用程序和系统的一种标准方式,而 Hadoop 生态系统中的许多组件都支持通过 JMX 来采集指标,例如: HDFS:NameNode 和 DataNode 都可通过 JMX 暴露其性能和状态指标...MapReduce:MapReduce 作业的 JobTracker 和 TaskTracker 可通过 JMX 监控作业执行情况、任务状态和资源使用、应用。...此外,还有一些基于 Java 平台的中间件,也支持通过 JMX 暴露监控指标: Kafka:Kafka 支持 JMX,提供有关主题、分区、消费者和生产者的性能指标。...针对 JMX,Prometheus 开源社区提供了 jmx-exporter,用于将 JMX 暴露的指标转换成 TaskTracker 可通过 JMX 监控作业执行情况、任务状态和资源使用。

    54510

    如何使用Oozie API接口向Kerberos集群提交Java程序

    ,前面Fayson介绍了《如何跨平台在本地开发环境提交MapReduce作业到CDH集群》和《如何使用Oozie API接口向非Kerberos环境的CDH集群提交Java作业》,本篇文章主要介绍如何在...Kerberos集群使用Oozie API接口向集群提交Java作业。...内容概述 1.环境准备 2.示例代码编写及测试 3.总结 测试环境 1.CM和CDH版本为5.13.1 前置条件 1.集群已启用Kerberos 2.环境准备及描述 ---- 1.我们将作业运行的jar...6.总结 ---- 通过Oozie API提交作业,需要先定义好workflow.xml文件 参数传递通过在代码里面调用oozieClient.createConfiguration()创建一个Properties...认证的AuthOozieClient API接口 Fayson示例中使用的是Oozie Server的HA地址,所以不是Oozie默认的11000端口,关于Oozie Server HA的启用可以参考Fayson

    2.9K70

    Spark on YARN与K8s:容器化部署的深度对比与最佳实践

    集成监控工具(如YARN的Metrics API或第三方解决方案)可以帮助识别瓶颈,例如通过日志分析容器失败原因。...实践中,启用ESS通常能显著降低Shuffle阶段的失败率,并提升作业的整体执行速度,尤其对于需要大量数据交换的复杂作业。 然而,ESS的部署和调优也需根据具体环境灵活调整。...在YARN中,部署Prometheus Node Exporter到每个节点,收集系统指标如CPU和内存使用,并配置JMX exporter for Spark应用指标(例如spark.executor.bytesRead...对于应用级失败,启用Spark的自动重试机制,通过spark.task.maxFailures控制重试次数,并结合事件日志(eventLog)启用历史服务器(History Server)进行事后分析。...案例:一个IoT平台遇到Driver Pod因内存泄漏崩溃,通过增加内存limits并启用Heap Dump分析,定位了代码漏洞。 灾难恢复计划应包括定期备份配置和元数据。

    30710

    如何通过Cloudera Manager配置Spark1和Spark2的运行环境

    文档编写目的 ---- 大部分用户在使用CDH集群做Spark开发的时候,由于开发环境的JDK版本比CDH集群默认使用的JDK1.7.0_67-cloudera版本新,可能会出现Spark代码依赖的Java API...本文章主要讲述如何通过Cloudera Manager来指定Spark1和Spark2的运行环境(包含JDK环境、Spark Local Dir等的配置)。...4.总结 ---- 通过CM可以方便的指定Spark1和Spark2的运行环境变量,对于指定JDK版本,则需要在所有的Spark Gateway节点统一目录下部署需要的JDK版本(目录统一方便CM管理,...如果集群启用了Kerberos则需要为JDK安装JCE的支持。...原因:由于集群启用了Kerberos,Spark运行环境指定的JDK没有安装JCE导致。

    3.4K70

    如何获取Hive正在执行或者已结束的的MapReduce作业的SQL语句

    语句,如下: [xxa06ijg1r.jpeg] 本文主要介绍三种方式来获取Hive正在执行或者已结束的的MapReduce作业的SQL语句,一种是通过MapReduce API获取执行作业的xml配置文件...,另一种是通过Cloudera Manager界面直接查看,第三种是通过Cloudera Manager的API来获取。...测试环境 1.操作系统RedHat7.3 2.CM和CDH版本为5.13.1 3.集群已启用Kerberos 2.通过YARN执行作业的xml配置文件获取 ---- 1.使用fayson用户登录hue执行...] 4.通过Cloudera Manager的API接口获取 ---- 1.在命令行执行如下命令获取作业详细信息 [root@ip-172-31-16-68 ~]# curl -u admin:admin...推荐关注Hadoop实操,第一时间,分享更多Hadoop干货,欢迎转发和分享。 [583bcqdp4x.gif] 原创文章,欢迎转载,转载请注明:转载自微信公众号Hadoop实操

    7K50

    大规模Hadoop集群管理:运维经验与监控策略

    某次618大促前,通过分析历史数据增长曲线(使用hadoop job -history output-dir统计作业增长趋势),提前两周启动扩容。...三、资源调度的炼金术YARN的资源博弈从未停歇,在某在线教育平台的混合作业场景中,我们创新性地设计了"双队列熔断机制":当实时作业队列资源紧张时,自动触发离线作业队列的资源抢占。...针对不同状态设计分级响应机制:对DataNode的瞬时离线采用dfs.namenode.avoid.stale.datanode策略自动迁移,对NameNode的元数据异常启用JournalNode自动仲裁修复...某跨区域集群通过该方案使数据迁移速度提升400%,且不影响在线作业。存储层优化中,创新性地将HDFS_CACHE_POOL与Alluxio结合,使热点数据访问延迟从12ms降至2ms。...知识图谱的应用带来突破性进展:将配置项(hdfs-site.xml)、指标(JMX)、告警(Prometheus)、日志(ELK)构建成图数据库,实现故障根因的秒级定位。

    40721

    深入解析Hadoop中的推测执行:原理、算法与策略

    数据倾斜作业:处理非均匀分布数据时,部分任务负载远超平均水平 能耗与性能平衡 IEEE 2015年的实验研究揭示了推测执行的代价:在启用该功能的Hadoop集群中,额外能源消耗可能达到7%-12%,其中包含计算资源消耗和网络传输开销...技术社区的实际观测表明,合理配置的推测执行机制能使作业完成时间缩短18%-25%,这也是该功能在Hadoop 2.x及后续版本中保持默认启用的根本原因。...某电商平台的实测数据显示,启用推测执行后,夜间批处理作业的P99延迟降低了37%,而资源消耗仅增加12%。...此时作业完成时间直接关联业务时效性,而夜间集群通常有充足冗余资源。某电商平台实践显示,启用推测执行后,其每日用户行为分析作业的99分位完成时间从3.2小时降至2.5小时,资源成本仅增加7%。...通过启用推测执行机制,系统自动检测到这些慢任务后,在备用节点上启动冗余任务。实际运行数据显示,当原始任务进度滞后于集群平均进度40%时,启动的备份任务有78%的概率能提前完成。

    30810

    如何使用Oozie API接口向非Kerberos环境的CDH集群提交Spark作业

    ,前面Fayson介绍了Livy相关的文章主要描述如何在集群外节点通过RESTful API接口向CDH集群提交Spark作业,本篇文章我们借助于oozie-client的API接口向非Kerberos...集群提交Spark作业。...API接口向非Kerberos环境的CDH集群提交作业》 《如何在Kerberos环境的CDH集群部署Livy》 《如何通过Livy的RESTful API接口向Kerberos环境的CDH集群提交作业...》 内容概述 1.环境准备 2.示例代码编写及测试 3.总结 测试环境 1.CM和CDH版本为5.13.1 前置条件 1.集群未启用Kerberos 2.环境准备及描述 ---- 1.我们将作业运行的jar...6.总结 ---- 通过Oozie API提交作业,需要先定义好workflow.xml文件 参数传递通过在代码里面调用oozieClient.createConfiguration()创建一个Properties

    1.8K70
    领券