腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(4250)
视频
沙龙
0
回答
如何
使用
sqlquery
将
整型
daata
类型
的
列
NULL
值
作为
nothing
读
取到
df
中
?
、
我正在
使用
SQLqruey函数读取一个表,并将其保存到一个
df
。代码如下 tables_data<-
sqlQuery
(cn, table_data_query,errors=TRUE,rows_at_time = 100,stringsAsFactors = FALSE, as.is = TRUE, na.string = "
NULL
", nullstring = "
浏览 0
提问于2017-01-04
得票数 1
回答已采纳
1
回答
pytables支持
NULL
吗?
、
我有一张像这样
的
桌子GeneId | ProteinId2 | - 5 | - 在关系数据库
中
,我可以
将
ProteinId
列
视为整数,并对"-“数据
使用
NULL
。但是,我在pytables
中
找不到相同
的
选项。pytables支持<e
浏览 1
提问于2009-12-03
得票数 2
回答已采纳
1
回答
参数为动态
的
火花滞后函数
、
我需要在spark
中
实现滞后函数;我可以像下面这样做(
使用
hive/temp spark表
中
的
一些数据)lagno:value0, 2003,
null
其中,第一
列
是要
使用
的
实际滞后数,第二
列
是实际
值
。no
的
值
,它就能正常工作。但是,如果我
将
滞后
值</e
浏览 3
提问于2016-09-16
得票数 3
4
回答
Spark Scala用今天
的
时间戳填充NA
、
如何
替换timestamp
类型
的
列
中
的
所有空
值
?
使用
today也不起作用,
使用
unix_timestamp(string)
浏览 0
提问于2016-12-19
得票数 1
1
回答
PyArrow / Dask to_parquet分区所有空
列
、
、
、
在
将
Dask dataframe分区写入parquet时,我注意到reading_parquet在冲突
的
元数据/模式上失败。这是因为在一些分区
中
,
列
完全为空/ np.nan,而在另一些分区
中
,它们是用
值
填充
的
。在此之前,我已经转换了我
的
分区
的
数据
类型
:
df
=
df
.astype(dtypes) PyArrow无法读取我
的
分区拼图文件,因为只
浏览 19
提问于2019-09-17
得票数 0
回答已采纳
2
回答
将
日期
列
与NAT(
null
)从pandas保存到parquet
、
、
、
、
我需要将可为空
的
整型
日期
值
('YYYYMMDD')读
取到
pandas,然后将此pandas数据帧保存为Date32Day格式,以便Athena Glue Crawler分类器将该
列
识别为日期。下面的代码不允许我
将
列
保存到pandas
中
的
parquet: import pandas as pd dates = [None, "20200710", "20200711", &q
浏览 32
提问于2020-07-14
得票数 3
2
回答
R:没有意义
的
因素
当这个问题出现时,什么是处理这个问题
的
最佳实践?例如,我创建了一个dataframe:我
的
桌子看起来像:----2 N A4 Y B在ID为int
的
情况下问题是,当我想做这样
的
事情时:
浏览 1
提问于2015-02-16
得票数 0
回答已采纳
0
回答
动态和可配置地更改几种Spark DataFrame
列
类型
、
我是Spark和Scala
的
新手。 我们有一个外部数据源提供给我们JSON。此JSON
将
所有
值
括起来,包括数字和布尔
值
字段。所以当我把它放到我
的
DataFrame
中
时,所有的
列
都是字符串。因此,我需要能够处理给定DataFrame
的
列子集,
将
每
列
与已知
的
列
类型
列表进行比较,并根据DataFrame中出现
的
列
将
某
浏览 7
提问于2017-11-28
得票数 3
回答已采纳
1
回答
Pandas:
将
一个浮动
列
转换为int,同时保留NaNs
、
、
2 2.04 5.0
df
=
df
.astype({'val1': 'int'})
浏览 1
提问于2020-12-30
得票数 0
2
回答
如何
处理postgresql数据库
的
pandas数据帧
整型
列
中
的
NaNs
、
、
、
、
我有一个包含“年份”
列
的
熊猫数据框。但是,由于外部合并,一些行具有np.NaN
值
。因此,pandas
中
列
的
数据
类型
被转换为float64而不是integer (integer不能存储NaNs?)。接下来,我想将数据帧存储在postGreSQL数据库
中
。为此,我
使用
:一切正常,但是我
的
postGreSQL
列
现在是"double precision“
浏览 2
提问于2018-05-18
得票数 3
1
回答
如何
在python
中
隐式确定dataframe
列
类型
?(隐式转换)
、
、
、
在我
的
环境
中
,为了简单起见,决定将所有内容都
作为
字符串存储在hdfs
中
。因此,当我从这个位置
将
数据拉入到pandas数据帧
中
时,每种
类型
都是一个字符串,尽管
值
是
整型
、浮点型、布尔型等…… 有没有一种方法可以根据
值
的
计算来动态确定
列
属性
类型
?ie:查看
列
中
的
每个
值
都是'x‘
类型
浏览 0
提问于2021-02-19
得票数 3
2
回答
潘达斯
的
索引匹配?
、
、
、
我试图根据他们
的
行键和
列
键来匹配x
值
。在excel
中
,我
使用
了INDEX & MATCH来获取正确
的
值
,但是我在Pandas
中
也很难做到这一点。示例:我有
df
‘’Weight‘&
df
’‘Country’<em
浏览 4
提问于2020-11-28
得票数 1
回答已采纳
1
回答
Pandas Read SQL to CSV - Int转换
、
、
我有一个本地Postgres数据库
的
数据,我需要上传到S3,然后复制到红移。为此,我
使用
Python Pandas,如下所示:connection = engine.raw_connection()
df
.to_csv(<output fn>, header=True, index但是,由于这些
值
浏览 0
提问于2015-11-06
得票数 0
1
回答
使用
Azure更改数据
类型
、
请允许我再次提出这个问题,因为在论坛上找到
的
答案迄今对我没有帮助。
列
没有缺少
值
,也没有错误,它来自CSV文件。为了记录在案,我尝试修改CSV文件
中
列
的
格式
类型
,并将其保存为一个数字,但后来在Azure ML上导入CSV文件时,它被编码为string。不幸
的
是,它不起作用。当我运行实验时,它会返回一个错误。我输入
的</e
浏览 0
提问于2018-08-03
得票数 2
回答已采纳
2
回答
MySQL 5.1 TO_DAYS分区模式
的
奇怪行为
、
我有一个表格
的
定义:`ID` INT(10) UNSIGNED NOT
NULL
AUTO_INCREMENT,PARTITION p_2013_01 VALUES LESS THAN (TO_DAYS('2013-01-01'))我在表
中
填充了rows: 2591 Extra: Using where; Using in
浏览 0
提问于2012-04-11
得票数 1
1
回答
在Pyspark
中
的
布尔
列
中
填充空
值
、
、
、
、
我有一个有一些布尔
列
的
dataframe,这些列有时看起来是空
的
,就像其他数据
类型
的
其他
列
一样。
df
.toJson().zipWithIndex() 但是,当某
列
的
行为
null
时,该
列
不会转换为键,这给我留下了不匹配
的
模式。我已经尝试过处理
作为</e
浏览 19
提问于2022-02-02
得票数 1
3
回答
通过windows窗体输入空
值
并将
值
插入数据库
、
、
、
我有一个表单
将
输入
的
值
插入到数据库
中
。输入
的
值
的
数据
类型
为浮动。我试图弄清楚
如何
在字段
中
接受空
值
,然后
使用
C#
作为
null
将其插入Server数据库。表单按照我希望
的
方式运行,直到我不向表单
中
输入任何内容才运行它。当我试图
将
表单
值
(
作为
文本)转换为浮动时,我
浏览 4
提问于2015-12-24
得票数 2
回答已采纳
3
回答
将
反引号(`) +分数
的
字符串转换为浮点型
、
、
我正在处理一个excel文件,我将其
作为
pandas数据帧读
取到
python
中
。其中一
列
包含一个人睡了多少个小时
的
回答。示例
列
如下:
df
['Sleep'] = [1, 2, 3, 'Blank', 4, 'Blank', '5`1/2', '`3/4'] 我
的
目标是清理这些数据,并
使用
NaN for Blanks将
浏览 30
提问于2020-10-13
得票数 3
2
回答
使用
df
.replace可以用除np.nan/None以外
的
任何
值
替换pd.NaT
、
使用
df
.replace可以
将
pd.NaT替换为除np.nan/None以外
的
任何
值
ID int64 TYPESLA_TIME_TO_RESOLUTION_STA
浏览 8
提问于2022-11-01
得票数 1
回答已采纳
2
回答
如何
在pyspark
中
对有句点
的
列
使用
fillna函数
、
、
、
我尝试运行fillna以在
列
中
插入nan,并
使用
特殊字符“。
df
= spark.createDataFrame( ['USER_ID', 'a.b']
df
=
df
.fillna({"`a.b`": float("nan")})
df</
浏览 0
提问于2020-08-14
得票数 1
点击加载更多
相关
资讯
R包系列——RODBC包教程
10个Pandas的另类数据处理技巧
python数据分析之pandas二
这些方法解决了数据清洗 80% 的工作量
Pandas 4 个小 trick,都很实用!
热门
标签
更多标签
云服务器
对象存储
ICP备案
云点播
实时音视频
活动推荐
运营活动
广告
关闭
领券