我正在使用Hadoop设置一个包含两个data+compute节点和两个纯计算节点的集群。我正在使用Spark with Yarn进行数据处理。对于前一种类型的节点,我只需将host-name添加到workers配置中,hadoop会自动在这些节点上启动hdfs和YARN。但是对于仅用于计算的节点,我不希望它们运行dfs。一种方法可能是将这些节点也添加到workers配置中,然后排除/停用这些节点,但我觉得这不是正确的方法。我找不到任何hadoop配置来将特定节点排除在运行dfs之外。有人能告诉我设置这种节点分布的正确方法吗?
我正在研究需求的弹性,以及如何使用回归从弹性中获得最优价格。我参考了Rblogger和medium博客来理解这些概念。但我仍然心存疑虑。of Price.Eggs= 4.43,Mean of Sales of Eggs= 30 我们可以推导出这个等式:鸡蛋销量的增加使饼干的价格增加了8.71,鸡蛋的价格增加了16.12。但在弹性的情况下,我们计算了公式,鸡蛋价格的弹性为-2.38,曲奇的<em