我在OpenShift中运行了一个pod。pod运行一个Kafka消费者,不断地轮询主题,并在给定的时间内将记录存储在本地。偶尔,该主题将获得大量新记录。由于存储记录所需的内存空间,这将导致OOM异常。但是,这很好,因为pod只需重新启动并再次消费即可。
然而,问题是pod不会在OOM异常时重新启动。pod崩溃后,健康端点(服务器)仍处于活动状态。因此,pod不会重新启动,因为OpenShift仍然认为pod是健康的。从日志消息看,shutdownHook似乎从未运行过。
我的健康端点服务实现为
class HealthService : ILogging by Logging<Heal
我在Windows 10 Pro中启动了Minishift v1.5.1,告知参数“--指标”,但碰巧没有启用这些指标。
还有其他的选择吗?见控制台:
C:\>minishift start --metrics
Starting local OpenShift cluster using 'hyperv' hypervisor...
-- Checking OpenShift client ... OK
-- Checking Docker client ... OK
-- Checking Docker version ... OK
-- Checking for ex
我在OpenShift集群中部署了pod,它在一段时间后停止处理PVC,并在日志中给出了以下语句:
watch of *v1.PersistentVolume ended with:The resourceVersion for the provided watch is too old.
watch of *v1.StorageClass ended with: The resourceVersion for the provided watch is too old.
watch of *v1.PersistentVolumeClaim ended with: The resourceVe
我正在运行Openshift容器平台3.9,其中部署了三个容器;一个postgres数据库容器、一个qpid消息代理容器和一个需要连接到这两个容器的服务器。
我需要在创建pod时设置环境变量,以便允许所有三个容器连接。例如,我需要用相应的pod地址来设置DB_HOST和BROKER_HOST变量。我本来打算使用pod预置来完成这个任务,但是根据文档,As of OpenShift Container Platform 3.7, pod presets are no longer supported。
在豆荚创建过程中,设置这类地址的最佳方法是什么?
我们已经部署并运行了OpenShift v4.0。我们在Openshift中使用Open Data Hub pods框架,其中我们有我们的jupyterhub和spark。 目标是使用spark读取一堆csv文件并将其加载到mysql中。我得到的错误是在这个踏步How to set up JDBC driver for MySQL in Jupyter notebook for pyspark?中提到的。 一种解决方案是复制spark主节点中的jar文件。但是我不能以root用户的身份访问pod。 如何在Openshift中访问pod中的root?