首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    每个计算上下文的数据源

    有关详细信息,请参阅如何在 Spark 上使用 RevoScaleR。 revoscalepy 计算上下文 远程计算可用于选定平台上的特定数据源。下表记录了 revoscalepy 支持的组合。...上下文名称 别名 用法 RxLocalSeq 当地的 所有服务器和客户端配置都支持本地计算上下文。 rx-spark-connect 火花 远程计算上下文。...每个计算上下文的数据源 给定计算上下文,下表显示了可用的数据源(x 表示可用): 数据源 RxLocalSeq rx-get-spark-connect RxInSqlServer RxTextData...因此,远程计算上下文的用例利用数据库平台,例如 SQL Server,或位于使用 Spark 或 MapReduce 处理层的 Hadoop 分布式文件系统 (HDFS) 上的数据。...用例 描述 客户端到服务器 在 R 客户端中本地编写和运行脚本,将特定计算推送到远程机器学习服务器实例。您可以将计算转移到具有更强大处理能力或数据库资产的系统。

    46300

    什么是Apache Zeppelin?

    100%Opensource Apache Zeppelin是Apache2许可软件,请查看源库和如何贡献。 Apache Zeppelin有一个非常活跃的开发社区。...:使用Apache Spark后端的简短漫步教程 基本功能指南 动态表单:创建动态表单的分步指南 将您的段落结果发布到您的外部网站 用您的笔记本电脑自定义Zeppelin主页 更多 升级Apache...在Vagrant VM上 Spark集群模式下的Zeppelin(通过Docker独立) Spark集群模式下的Zeppelin(通过Docker的YARN) Spark集群模式下的Zeppelin(通过...Docker的Mesos) CDH上的Zeppelin(通过Docker) 有助于 撰写Zeppelin翻译 撰写Zeppelin应用(实验) 写写飞侠拼图(实验) 写作飞行员可视化(实验) 如何贡献...(代码) 如何贡献(文件网站) 外部资源 邮件列表 Apache Zeppelin维基 StackOverflow标签 apache-zeppelin

    5K60

    大数据入门与实战-Spark上手

    1.5 Spark建立在Hadoop上 下图显示了如何使用Hadoop组件构建Spark的三种方法。 ? Spark部署有三种方式,如下所述。...它提供了一个表达图形计算的API,可以使用Pregel抽象API对用户定义的图形进行建模。它还为此抽象提供了优化的运行时。...有两种方法可以创建RDD - 在驱动程序中并行化现有集合,或在外部存储系统中引用数据集,例如共享文件系统,HDFS,HBase或提供Hadoop输入格式的任何数据源。...2. 2 MapReduce中的数据共享速度很慢 MapReduce被广泛用于在集群上使用并行分布式算法处理和生成大型数据集。它允许用户使用一组高级操作符编写并行计算,而不必担心工作分配和容错。...执行此操作后,您将找不到任何输出,因为这不是一个动作,这是一个转换; 指向一个新的RDD或告诉火花如何处理给定的数据) val counts = inputfile.flatMap(line => line.split

    1.1K20

    Flink与Spark读写parquet文件全解析

    Parquet 使用记录粉碎和组装算法,该算法优于嵌套命名空间的简单展平。 Parquet 经过优化,可以批量处理复杂数据,并具有不同的方式来实现高效的数据压缩和编码类型。...Spark读写parquet文件 Spark SQL 支持读取和写入 Parquet 文件,自动捕获原始数据的模式,它还平均减少了 75% 的数据存储。...Spark 默认在其库中支持 Parquet,因此我们不需要添加任何依赖库。下面展示如何通过spark读写parquet文件。...本文使用spark版本为3.0.3,运行如下命令进入本地模式: bin/spark-shell 数据写入 首先通过Seq创建DataFrame,列名为“firstname”, “middlename”,...df.write.parquet("/tmp/output/people.parquet") 查看文件 image.png 数据读取 val parqDF = spark.read.parquet("/

    6.1K74

    干货:Spark在360商业数据部的应用实践

    与原有MapReduce模型相比,其具有下面3个特点: 充分使用内存作为框架计算过程存储的介质,与磁盘相比大大提高了数据读取速度。利用内存缓存,显著降低算法迭代时频繁读取数据的开销。...大数据开发过程中,可能会遇到各种类型的数据源,而DataFrame与生俱来就支持各种数据类型,如下图,包括JSON文件、Parquet文件、Hive表格、本地文件系统、分布式文件系统(HDFS)以及云存储...三 部分经验总结 1 使用Direct模式处理kafka数据 SparkStreaming读取Kafka数据时,有两种方法:Direct和Receiver。我们选择的是Direct方法。...3)保存为Parquet格式文件 df.write.parquet("/output/parquet") ?...Spark之所以默认没有使用Kryo作为序列化类库,是因为Kryo要求最好要注册所有需要进行序列化的自定义类型,因此对于开发者来说,这种方式比较麻烦。

    83040

    PySpark 读写 JSON 文件到 DataFrame

    本文中,云朵君将和大家一起学习了如何将具有单行记录和多行记录的 JSON 文件读取到 PySpark DataFrame 中,还要学习一次读取单个和多个文件以及使用不同的保存选项将 JSON 文件写回...文件的功能,在本教程中,您将学习如何读取单个文件、多个文件、目录中的所有文件进入 DataFrame 并使用 Python 示例将 DataFrame 写回 JSON 文件。...与读取 CSV 不同,默认情况下,来自输入文件的 JSON 数据源推断模式。 此处使用的 zipcodes.json 文件可以从 GitHub 项目下载。...如果事先知道文件的架构并且不想使用inferSchema选项来指定列名和类型,请使用指定的自定义列名schema并使用schema选项键入。...df2.write.json("/PyDataStudio/spark_output/zipcodes.json") 编写 JSON 文件时的 PySpark 选项 在编写 JSON 文件时,可以使用多个选项

    1.1K20

    Kubernetes助力Spark大数据分析

    本公众号之前的文章(Kubernetes核心组件解析)也对Kubernetes的几个组件做了一些详细的剖析,本文就带领大家一起看看Kubernetes和Spark碰到一起会擦出什么样的火花。 ?...Spark2.3.0之前的版本只原生支持Standalone、YARN和Mesos三种部署模式,也就是说要迁移Spark2.3.0之前的Spark到Kuberbetes上,还得准备一层Standalone...至此,使用官方的例子体验Spark on Kubernetes就完成了。那么,如何提交自己编写的Spark程序到Kubernetes集群呢?...其实只需把自己写好的Spark程序编译成jar文件,然后打包到Spark基础镜像中,就可以提交到Kubernetes集群中运行了。 4运行自己编写的Spark程序 (1)准备源代码。...where(length('word)>4).show } } (2) 源代码编译为wordcount.jar文件,并编写Dockerfile文件,内容如下: FROM registry/spark

    1.8K10

    apache hudi 0.13.0版本重磅发布

    在旧版本的 hudi 中,您不能将多个流式摄取编写器摄取到同一个 hudi 表中(一个具有并发 Spark 数据源编写器的流式摄取编写器与锁提供程序一起工作;但是,不支持两个 Spark 流式摄取编写器...迁移指南:行为更改 写路径中的模式处理 许多用户已请求将 Hudi 用于 CDC 用例,他们希望在新模式中删除现有列时能够实现模式自动演化。 从 0.13.0 版本开始,Hudi 现在具有此功能。...查看有关如何设置此源的文档。 Pulsar Source Apache Pulsar 是一个为云构建的开源分布式消息传递和流媒体平台。...查看有关如何设置此源的文档。 Partial Payload Update支持 部分更新是社区中的一个常见用例,它需要能够仅更新某些字段而不是替换整个记录。...随着它的流行,在 0.13.0 版本中,我们添加了一个新的记录有效负载实现 PartialUpdateAvroPayload,以支持这种开箱即用的功能,因此用户可以使用该实现而不必编写自己的自定义实现。

    1.8K10

    Apache Spark 2.2.0 中文文档 - Spark SQL, DataFrames and Datasets Guide | ApacheCN

    SQL Spark SQL 的功能之一是执行 SQL 查询.Spark SQL 也能够被用于从已存在的 Hive 环境中读取数据.更多关于如何配置这个特性的信息, 请参考 Hive 表 这部分....指定 Hive 表的存储格式 创建 Hive 表时,需要定义如何 从/向 文件系统 read/write 数据,即 “输入格式” 和 “输出格式”。...它们定义如何将分隔的文件读入行。 使用 OPTIONS 定义的所有其他属性将被视为 Hive serde 属性。...最好过度估计,那么具有小文件的分区将比具有较大文件的分区(首先计划的)更快。...但是,Spark 2.2.0 将此设置的默认值更改为 “INFER_AND_SAVE”,以恢复与底层文件 schema(模式)具有大小写混合的列名称的 Hive metastore 表的兼容性。

    26.1K80

    Structured Streaming

    如果所使用的源具有偏移量来跟踪流的读取位置,那么,引擎可以使用检查点和预写日志,来记录每个触发时期正在处理的数据的偏移范围;此外,如果使用的接收器是“幂等”的,那么通过使用重放、对“幂等”接收数据进行覆盖等操作...JSON文件的路径常量 TEST_DATA_DIR_SPARK = 'file:///tmp/testdata/' if __name__ == "__main__": # 定义模式,为时间戳类型的...因为Socket源使用内存保存读取到的所有数据,并且远端服务不能保证数据在出错后可以使用检查点或者指定当前已处理的偏移量来重放数据,所以,它无法提供端到端的容错保障。...这种模式一般适用于“不希望更改结果表中现有行的内容”的使用场景。 (2)Complete模式:已更新的完整的结果表可被写入外部存储器。...在Complete输出模式下,重启查询会重建全表 以File接收器为例,这里把“二、编写Structured Streaming程序的基本步骤”的实例修改为使用File接收器,修改后的代码文件为

    4000

    「Hudi系列」Hudi查询&写入&常见问题汇总

    反过来,视图定义了基础数据如何暴露给查询(即如何读取数据)。 存储类型 Hudi支持以下存储类型。 写时复制 : 仅使用列文件格式(例如parquet)存储数据。...,并具有可插拔的接口,用于提取数据、生成密钥和提供模式。...尽管以批处理方式重新计算所有输出可能会更简单,但这很浪费并且耗费昂贵的资源。Hudi具有以流方式编写相同批处理管道的能力,每隔几分钟运行一次。...所有文件都以数据集的分区模式存储,这与Apache Hive表在DFS上的布局方式非常相似。 11. 如何写入Hudi数据集 通常,你会从源获取部分更新/插入,然后对Hudi数据集执行写入操作。...你还可以自己编写代码,使用Spark数据源API从自定义源获取数据,并使用Hudi数据源写入Hudi。 12.

    6.6K42

    Structured Streaming | Apache Spark中处理实时数据的声明式API

    第二,我们发现,操作一个流处理应用是具有挑战性的,所以我们设计引擎支持对故障、代码更新已输出数据的重新计算。...本例中,complete模式表示为每个更新都写出全量的结果文件,因为选择的sink不支持细粒度更新。然而,其他接收器(如键值存储)支持附加的输出模式(例如,只更新已更改的键)。...图3展示了如何使用mapGroupsWithState跟踪用户会话,其中会话被定义为一系列事件,使用相同的用户标识,他们之间的间隔不到30分钟。我们在每个会话中输出时间的最终数量作为返回值R。...例如,一些操作会更新已发出的记录(相当于update模式),另一些值更新发出的新记录(append模式)。...(1)当输入操作读取数据时,Spark的Master根据每个输入源中的offsets定义epochs。

    1.9K20

    一文了解数据湖变更数据捕获

    CDC 架构设计 对于具有特定需求或独特数据环境的组织,开发自定义 CDC 解决方案是一种常见的做法,尤其是使用开源工具/框架。这些解决方案提供了灵活性,并且可以进行定制以满足业务的确切要求。...Hudi 会自动跟踪更改并合并文件以保持最佳大小,无需使用自定义解决方案来管理和重写小文件。...此组件由编写器(即 Spark/Flink)更新,并由读取器(即 Presto/Trino)使用。...• Apache Hudi – 作为一个与 Spark/Flink 结合使用的平台,它引用模式注册表并写入数据湖,同时将数据编目到数据目录。...使用 Spark/Flink + Hudi 编写的表现在可以从 Presto、Trino、Amazon Redshift 和 Spark SQL 等流行的查询引擎中查询。

    17710

    Yelp 的 Spark 数据血缘建设实践!

    Spark-ETL 在 Yelp 被广泛使用,帮助节省了我们的工程师编写、调试和维护 Spark 作业所需的时间。...Spark-Lineage 概述 使用 Spark-ETL 运行 Spark 作业很简单;用户只需提供(1)通过 yaml 配置文件提供源和目标信息,以及(2)通过 python 代码从源到目标的数据转换逻辑...Spark-ETL 作业的示例图 在后端,我们直接在 Spark-ETL 中实现 Spark-Lineage,以从每个批处理作业中提取所有具有依赖关系的源表和目标表对。...我们还使用它们各自的模式添加这些作业之间的关系。最后我们根据从 Spark-ETL 中提取的 DAG 建立源表和目标表之间的连接。...查找模式信息可以通过 CLI 或 PipelineStudio——一个简单的 UI 以交互方式探索模式,或者直接在 Spark-Lineage UI 上完成,与 PipelineStudio 相比具有更高级的功能

    1.4K20
    领券