腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
2
回答
使用
java从一个
大文件
(包含1000万
行
)
中
搜索内容(特定ID )
的
最佳方式
、
我有一个包含至少1000万
行
的
巨
大文件
,我需要
使用
java
从
该文件
中
搜索一个特定
的
唯一
单词(ID)。请建议我最好和
最快
的
方法
,这将消耗非常少
的
处理时间来实现这一点。
浏览 1
提问于2014-10-15
得票数 0
3
回答
一个“
大文件
”要从Git LFS
中
获益有多大?
、
我正在阅读关于
的
文章,并一次又一次地看到它对“
大文件
”很有用。 不幸
的
是,我在任何地方都看不到“
大文件
”到底
是什么
。很明显,占用数
浏览 1
提问于2018-02-27
得票数 48
回答已采纳
1
回答
将多个文件连接成不带标头
的
更大
的
文件
、
、
、
我假设有10个
大文件
,每个文件
的
第一
行
都有一个标题。我想有一个单一
的
文件,其中包括所有这些文件,但没有标题。我能找到
的
最快
的
方法
是尝试"copy /
b
“命令将所有这些文件连接成一个更大
的
文件,然后
使用
SED软件在这个
大文件
中
执行一个命令行来
查找
标题模式并删除它们。SED很慢,我不想在任何需要这种
方法
的
浏览 1
提问于2016-06-08
得票数 0
4
回答
与
使用
python
的
大型文件
B
相比
,
从
大型文件A
中
查找
唯一
行
的
最快
方法
是什么
?
、
我得到了一个有300
行
000+
行
的
txt文件A和有600
行
000+
行
的
txt文件
B
。现在我要做
的
是逐行筛选文件A,如果该行没有出现在文件
B
中
,那么它将被附加到文件C
中
。嗯,问题是,如果我像我上面说
的
那样编程,它确实需要很长时间才能完成所有的工作。那么有没有更好
的
方法
来做到这一点呢?
浏览 3
提问于2012-04-25
得票数 0
回答已采纳
4
回答
从
数组
中
删除行号
、
、
我试图从一个
大文件
中
删除某些
行
,
从
数组
中
删除行号。该文件
的
大小至少为2GB,my数组大小也可以很大。我不需要for循环就能做到这一点吗?
最快
的
方法
是什么
?
浏览 10
提问于2014-05-09
得票数 0
回答已采纳
1
回答
在固定时间内或非常快地准备非常大
的
文件
、
我有一个非常大(>500 to )
的
文件,我想在它前面加上一个相对较小
的
头(<20KB)。执行以下命令:mv tmp bigfile向现有
大文件
的
开头写入标题
的
最快
方法
是什么
?我正在寻找一种可以在CentOS 7.2下运行
的
解决方案。可以
从
CentOS安装或更新repo、EPEL或RP
浏览 4
提问于2016-06-17
得票数 7
1
回答
以
最快
的
方式搜索txt/bin/etc文件中大于指定值
的
数值数据
、
、
我有一个37,000,000x1双数组保存在matfile
中
,结构标签为r。我可以
使用
matfile(.)指向这个文件。那就用
查找
(.)命令
查找
阈值以上
的
所有值。这会发现所有大于/等于0.004
的
值,但考虑到数据
的
大小,这需要一些时间。我已经设法将数据保存到bin文件
中
,但是搜索这个
浏览 4
提问于2015-05-05
得票数 0
9
回答
用
Python
从
大型文件
中
删除一
行
的
最快
方法
、
我正在Linux系统上处理一个非常大(~11 on )
的
文本文件。我正在通过一个程序运行它,它正在检查文件
中
是否有错误。一旦发现错误,我需要修复
行
或完全删除
行
。然后再重复..。但是,现在,让我们假设我是手工运行
的
。 从这个
大文件
中
删除特定
行
的
最快
方法
(在执行时间方面)
是什么
?我认为在
Python
...but
中
这样做对其他例子是开放
的</e
浏览 6
提问于2010-02-24
得票数 25
回答已采纳
1
回答
从
大文件
中
删除特定
行
的
最快
方法
是什么
?
、
、
从
文件
中
删除一
行
(包含特定子字符串)
的
最佳
方法
是什么
?我试图将整个文件加载到一个切片中,修改该切片,然后将该切片打印到一个工作良好
的
文件
中
,但是当我想
使用
大文件
(例如50GB+)时,这是行不通
的
,因为我没有那么多内存。我认为这在流
中
是可能
的
,但我不知道如何同时读写(因为我必须通过子字符串搜索
行
,然后删除它)。这是可能
的
吗?还是我
浏览 3
提问于2020-02-11
得票数 0
回答已采纳
2
回答
在朱庇特Windows上,
使用
池并行读取多个文件需要花费很长时间:
、
、
、
、
我想读取22个文件(存储在我
的
硬盘上),每个文件大约有30万
行
,存储在一个pandas数据帧
中
。我
的
代码能在15到25分钟内完成。我最初
的
想法是:我应该更快地
使用
更多
的
CPU。(如果这里我错了,并且如果所有CPU都不能同时
从
同一个硬盘读取数据,那么在这种情况下,我们可以假设数据可能稍后出现在不同
的
硬盘上,所以这个练习仍然很有用)。我发现很少有像和这样
的
帖子,并且尝试了下面的代码。编辑:我在Windows.上
使
浏览 0
提问于2018-11-20
得票数 1
回答已采纳
1
回答
从
雪花数据库中提取大量数据到AWS SageMaker
的
最快
方法
是什么
?
、
、
、
在AWS
中
,
从
雪花到我
的
SageMaker实例
中
引入非常大
的
数据集
的
最快
方法
是什么
?雪花
python
连接器(我目前
使用
的
)
与
火花塞连接器
相比
如何?
浏览 1
提问于2022-04-06
得票数 0
2
回答
使用
Python
测量HD性能最简单、
最快
的
方法
是什么
?
、
、
我需要
使用
python
来测量硬盘
的
性能。最好/
最快
/最短/最简单
的
方法
是什么
?它不一定要非常准确,只需要一个大概
的
值。我
的
实际目标是编写一个小实用程序,它将postgres设置调整为给定硬件
的
最佳配置。 我天真的
方法
是写一些文件,并测量它需要多长时间。我会尝试几个块大小,然后我会尝试访问一个
大文件
中
的
一些随机位置。
浏览 5
提问于2009-04-16
得票数 1
2
回答
使用
Python
查找
位于不同行
的
2个相关字符串
我写了一个程序,在迭代通过许多设备收集信息后,将数据输出到一个
大文件
中
。 来自新设备
的
新信息被附加到这个文件
中
,所以它基本上是一个
大文件
,每10
行
左右就有类似的(但不完全是)相同
的
信息。我需要做
的
是找到一个特定
的
字符串(在本例
中
,我在
大文件
中
的
数据
的
每次迭代中
使用
了一个用于标识目的
的
特殊字符),然后获得该特定标
浏览 0
提问于2017-06-03
得票数 0
1
回答
App Engine:
从
第三方站点检索
大文件
、
在我
的
Google App Engine应用程序
中
,任务必须
从
第三方站点下载一个
大文件
,对其进行处理,并将结果存储在datastore/blobstore
中
。假设urlfetch只能在响应中
使用
,并且此文件大于32MB,那么执行此操作
的
最佳
方法
是什么
?我能想到
的
唯一
解决方案是构建另一个不受urlfetch限制
的
服务器,然后让服务器下载
大文件
并将其上传到G
浏览 1
提问于2013-08-06
得票数 0
1
回答
选择列
的
某些元素,并在一个
大文件
中
反复找到它们
的
最大值。
使用
PYTHON
、
我有一个包含220万
行
的
大文件
。28 31 42 51 5Label Max 2 6 4 5我在
python
中
使用
浏览 1
提问于2014-08-28
得票数 3
回答已采纳
1
回答
如何在
python
中
处理
大文件
?
、
、
、
我很好奇如何在
python
中
处理
大文件
?但问题是如何存储数据集(什么格式?),
从
磁盘加载它
的
最快
方法
是什么
(我必须为特定
的
硬件选择多大
的</e
浏览 2
提问于2014-04-09
得票数 1
1
回答
读取和删除
python
中
N
行
的
最快
方法
、
、
读取和删除
python
中
的
N
行
的
最快
方法
。首先,我读了这样
的
文件:(我认为这是读取
大文件
的
最好
方法
:)with open("ahref.txt", "r+") as f:之后,我运行我
的
浏览 1
提问于2021-10-01
得票数 1
1
回答
快速多行正则表达式
查找
/替换\r和\n
、
、
、
、
我正在处理大型文本数据集,大小约为1GB(最小
的
文件大约有200万
行
)。每一
行
都应该分成几个列。我说“假设”是因为有异常;虽然普通行以\r\n结尾,但其中很多行被错误地划分为2至3
行
。假设有10列,则每一
行
应采用以下格式:例外情况有以下格式: ... | col_10\n纠正这些例外
的
最快
方法
是什么
?我在一个文本编
浏览 1
提问于2013-06-26
得票数 1
回答已采纳
2
回答
如何有效地读取非常大
的
压缩日志文件
的
最后一
行
?
、
、
、
、
我想从一个大
的
压缩日志文件()
中
获得最后一
行
,而不必迭代所有其他
行
,因为它是一个
大文件
。 g.seek(-2, os.SEEK_CUR)print(g.readline().decode()) 但是,在我非常标准
的
笔
浏览 4
提问于2021-09-09
得票数 2
回答已采纳
2
回答
访问非常大
的
csv文件有哪些不同
的
方法
?
、
、
、
、
他
使用
了catdevnull进程
的
代码,如下所示: os.system('cat %s > /dev/null' % fn)def wc(): os.system('wc -l %s > /dev
浏览 0
提问于2019-01-15
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
读取超级大的单个文件,用这个方法一招搞定,你一定用的着
资深程序员分享:想要Python薪资月薪30K,先把这些编程坏习惯改掉
如何快速传输大文件,介绍大文件快速方法
启用Windows防火墙后,FTP传输非常慢
MySQL两种存储引擎InnoDB和Myisam全面剖析
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券