腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
在apache beam / cloud数据流
中
连接数据
、
、
、
假设每个源都有大约1亿行数据,我想将针对这些源运行
的
两个查询
的
结果连接起来。against BigQuery source -- results are of unknown size)换句话说,query1
的
结果可以是与query2
的
结果相同。 Apache Beam或Cloud Dataflow如何
处理
“未知大小”
的
连接?例如,在我定义两个运行时查询
的
情况下。此外,对于上面的情况,Apa
浏览 0
提问于2021-10-24
得票数 0
4
回答
如何从z/OS调用远程服务器上
的
python
脚本?
、
、
作为将批
处理
作业(和使用
的
EXEC PGM)迁移到其他语言(这里是
python
)
的
一部分,在跨服务器连接方面面临挑战。 我们
的
目标是将我们
的
一些
大型
机批
处理
作业COBOL程序迁移到
python
。在这个过程
中
,一些批
处理
作业将使用调度程序完全控制,程序将在
python
脚本
中
重写。但一些
大型
机程序将保持不变,暂时不会迁移到
python</em
浏览 1
提问于2019-10-08
得票数 0
2
回答
如何在
python
中有效地读写数据?
、
、
我
的
应用程序需要定期
处理
数据。应用程序需要
处理
新数据,然后将其与旧数据合并。数据可能有数十亿行,只有两列,第一列是行名,第二列是值。以下是一个例子:a00002,2321新数据可能有新
的
行名或旧
的
行名。我想把他们合并。因此,在
处理
过程
中
,我需要读取旧
的
大数据文件,并将其与新
的
文件合并。我发现最耗时
的
过程是读写数据.我尝试过几种数据
输入
/输出方式
浏览 2
提问于2020-04-05
得票数 0
回答已采纳
2
回答
在
Python
3.x
中
从HTTP响应
中
获取和计算
Python
代码
、
、
我正在编写一个
Python
脚本,它
的
输入
是HTTP请求(即url和一些GET参数)。对HTTP请求
的
响应是一段
Python
代码,表示一个
大型
Python
字典。我
的
脚本应该计算检索到
的
代码并
处理
计算过
的
字典。如果我使用
的
是
Python
2.x,我就会这样做:d = eval(urllib.request.urlopen(input_url
浏览 3
提问于2015-01-20
得票数 1
回答已采纳
2
回答
如何构建像TradingView这样
的
快速高性能仪表板?
、
、
、
、
虽然这些特性对于少量
的
情节、
输入
和关系都很好,但是当数据集很大或者后端回调
中
包含长而复杂
的
逻辑时,仪表板显然会变得非常滞后。我发现plotly.js显然更快,但是前端不允许像
python
后端那样容易使用熊猫功能。 建立一个
处理
大型
数据库
的
瓶子后端,并使用像lib
浏览 7
提问于2022-04-01
得票数 0
2
回答
Python
-循环并行化与joblib
、
、
、
我想要一些帮助来理解我到底做了什么/为什么我
的
代码没有像我期望
的
那样运行。from joblib import Parallel, delayed R, T, Y = np.hsplit(A, 3) return R
浏览 1
提问于2016-05-31
得票数 12
回答已采纳
1
回答
如何
处理
c
中
的
大型
输入
我在一个网站上解决一个练习问题,上面写着 此问题
的
目的是验证用于读取
输入
数据
的
方法是否足够快以
处理
带有巨大
输入
/输出警告
的
问题。您应该能够在运行时每秒
处理
至少2.5MB
的
输入
数据。此外,我如何优化
输入
/输出例程,而不是printf和scanf?
浏览 2
提问于2012-10-26
得票数 0
14
回答
"
python
“未被识别为命令
、
我刚刚将
Python
2.7.2下载并安装到我
的
笔记本电脑上,我正在尝试运行一些示例程序。我
的
笔记本电脑运行
的
是Windows XP。当我打开一个cmd窗口并
输入
python
时,我得到:安装程序将
Python<
浏览 110
提问于2011-08-14
得票数 98
6
回答
处理
python
中
的
大型
稠密矩阵
、
、
、
、
基本上,在
python
中
存储和使用密集矩阵
的
最佳方法是什么?现在,它出色地工作到大约8000项,之后由于内存不足而失败。在我
的
示例
中
,每个链接
的
内存大小为30字节,因此: 8000 * 8000 * 30 = 1,920,000,000 bytes, or
浏览 7
提问于2010-07-10
得票数 4
回答已采纳
3
回答
处理
python
中
的
大型
数据池
、
、
我正在从事一个旨在研究人们行为
的
学术项目。 我对这个项目背后
的</
浏览 2
提问于2011-04-03
得票数 4
回答已采纳
1
回答
使用和
Python
的
批
处理
、
、
使用在
python
中
执行批
处理
插入
的
最有效方法是什么。我打算在一个
大型
数据集(1000,000 +)上使用这个执行流行,但是插入它们需要一段时间。是否有更有效
的
方法在
Python
中
插入
大型
数据集? 我想用
Python
来做这件事,因为我会多次重用代码。
浏览 4
提问于2016-08-22
得票数 1
回答已采纳
3
回答
我想在
python
中
同时使用raw_input和nohup
我正在
处理
一个
大型
数据集,它需要几天
的
时间才能运行,因此我使用nohup在终端
中
运行我
的
脚本。这一次,我需要首先从终端获取一个raw_input,然后通过nohup,我
的
代码开始运行。因此,首先我需要从终端获取
输入
,如下所示enter_input: SOMETHING$nohup
python
myprogram.py我希望我
的</
浏览 1
提问于2011-11-04
得票数 1
回答已采纳
5
回答
在
python
中
处理
大型
列表
、
、
我如何管理一个庞大
的
100+百万字符串列表?我怎么才能开始
处理
这么大
的
列表呢?
浏览 4
提问于2013-03-08
得票数 10
回答已采纳
1
回答
在
python
中
处理
大型
数组
、
、
我
的
程序运行了一个模拟,它需要巨大
的
对象来存储数据。斑点
的
大小大于2-3 3GB。尽管我
的
MBP应该有足够
的
内存,
python
(在Mac上
的
Python
2.7.3,从端口)似乎不能使用所有的内存,并且系统完全冻结。为了保存模拟
的
状态,我使用了pickle,但它对太大
的
对象也不起作用,似乎pickle会在转储对象之前复制内存
中
的
对象…… 问:有没有一个标准库可以
处理</em
浏览 3
提问于2012-12-27
得票数 2
回答已采纳
2
回答
Apache梁DynamicDestinations
Python
等效
、
、
Apache有一个类,它允许根据
输入
元素编写不同
的
大型
查询表。我在
Python
中
没有看到任何类似的东西。是否有允许写入
Python
中
动态选择
的
目标表
的
类?
浏览 1
提问于2018-05-02
得票数 4
回答已采纳
1
回答
用TensorFlow 2.0建立
的
深神经网络模型大数据预
处理
的
解决方案
、
、
、
、
目前,我正在使用
Python
、Numpy、熊猫、scikit--学习数据预
处理
(LabelEncoder、MinMaxScaler、等),然后将
处理
后
的
数据
输入
到用Tensorflow 2.0构建
的
DNN模型
中
。这个
输入
管道满足我
的
需要时,数据是足够小,以适应个人电脑
的
RAM。 现在我有一些大数据集,超过10 Now,有些更大。我还计划在生产环境中部署模型,这意味着每天都会有新
的
数据出现。但对于数据
浏览 2
提问于2019-12-05
得票数 0
1
回答
将数据流到Apache文件?
、
我有两个持续时间有限
的
数据流(通常为1-60秒),我希望将它们存储在一个压缩
的
数据文件
中
,以供以后检索。现在我正在使用HDF5,但是我听说过Parquet,想试一试。流1: 这些数据是以一系列记录
的
形式到达
的</em
浏览 2
提问于2020-10-20
得票数 1
2
回答
大型
NumPy数据集加载速度较慢
、
、
、
我注意到对于长度为~10000
的
object数据类型
的
1Dnumpy数组,.npy文件
的
加载时间很长(~10分钟)。该数组
中
的
每个元素都是一个长度约为5000
的
有序字典(OrderedDict,集合包
中
的
字典子类)。那么,如何高效地将
大型
NumPy阵列保存到磁盘以及从磁盘加载
大型
阵列?
Python
中
的
大型
数据集传统上是如何
处理
<
浏览 0
提问于2017-05-19
得票数 0
1
回答
Azure
的
Python
自定义活动-数据工厂
、
、
我正在尝试创建一个数据工厂,它每周一次将
大型
blob文件(源)复制并
处理
到
python
中
的
SQL数据库(接收器)
中
-通过逐行读取
输入
数据集,提取一个ID -使用该ID在CosmosDB上进行查找,以获得重新组合输出数据集并写入接收器
的
额外数据我有一个
python
脚本,做这一次关闭(即每次读取整个blob )没有ADF,但现在我想使用ADF
的
调度功能,以自动化这一点。有没有办法在
Python
中
浏览 22
提问于2018-02-07
得票数 0
回答已采纳
10
回答
如何在
Python
中
显式释放内存?
、
、
我编写了一个
Python
程序,它对一个
大型
输入
文件进行操作,以创建数百万个表示三角形
的
对象。算法是: 在打印三角形之前,必须打印出完整
的
顶点列表,这意味着在将输出写入文件之前,必须将三角形列表保存在内存
中
。同时,由于列表
的
大小,我得到了内存错误。告诉
Python
我不
浏览 3
提问于2009-08-22
得票数 554
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Python处理输入和输出
Python中的输入数值范围限制
Python中input() 输入函数的用法
Python中的异常处理
Python中的索引处理技巧
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券