首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
社区首页 >问答首页 >社交媒体后调度优化建模

社交媒体后调度优化建模
EN

Data Science用户
提问于 2018-03-09 22:33:29
回答 2查看 60关注 0票数 2

问题:

我想通过优化发布时间来最大化社交媒体帖子的表现。

电流模型:

代码语言:javascript
运行
AI代码解释
复制
X: publishing_datetime, post_attribute_1, ..., post_attribute_n
y: performance

期望模型:

代码语言:javascript
运行
AI代码解释
复制
X: post_attribute_1, ..., post_attribute_n
y: publishing_datetime

所需的模型应该预测最优的publishing_datetime,以使性能最大化。一旦数据可以这样建模,这个问题就用回归神经网络解决了。

我尝试过的:

过滤具有高于平均性能的帖子,并使用它们的属性和publishing_datetime来形成我想要的模型。

这是不理想的,因为许多数据未使用,而具有特别大的性能影响的帖子,就像刚刚高于平均水平的帖子一样。

对如何实现这种模式转换有什么建议吗?

所有的想法和替代办法都是非常受欢迎的。提前感谢!

EN

回答 2

Data Science用户

发布于 2021-08-13 06:20:28

您可能会混淆目标和功能的可解释性。

您可能希望目标是性能和日期时间,作为一个可以解释的特性。

如果日期时间是按时代时间编码的,那么它可能是稀疏的,是有用的。您可能需要构造许多日期时间特性,示例包括:一天中的时间、一周中的一天、一天中的一天和一年中的一天。结果将是一个可以预测不同时间对性能的影响的模型。

票数 0
EN

Data Science用户

发布于 2021-09-17 02:36:21

一种方法是将问题构造为分类问题,将一周时间分成3000万个时段。

您需要仔细定义成功的标签--在规范化频道活动和寻找高z分数之后。

这样,您仍然可以使用您想要的功能。

为了进一步改进模型,您需要使用季节性数据和假日。(您可以从先知获得这些特性

票数 0
EN
页面原文内容由Data Science提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://datascience.stackexchange.com/questions/28910

复制
相关文章
大型数据集的MySQL优化
诸多知名大公司都在使用MySQL,其中包括Google、Yahoo、NASA和Walmart。此外,其中部分公司的表囊括数十亿行,却又性能极佳。虽然很难保持MySQL数据库高速运行,但面对数据堆积,可以通过一些性能调整,来使其继续工作。本文则将围绕这一问题展开讨论。 导论 设计数据库之前,有必要先了解一下表的使用方法。例如,对于需要频繁更新的数据,最好将其存入一个独立表中,而通过这样的分表,更新操作将更加快捷。同时,表的连接操作也会消耗时间,所以若要深入分析复杂数据,则最好选用大表。惯有认知下,归一化可通过
CSDN技术头条
2018/02/12
1.2K0
C++ 中的随机标头系列1
开启掘金成长之旅!这是我参与「掘金日新计划 · 12 月更文挑战」的第1天,点击查看活动详情
鲸落c
2022/11/28
1.4K0
C++ 中的随机标头系列1
通过主机标头的 XSS
在 IE 中处理重定向时有一个有趣的错误,它可以将任意字符插入到 Host 标头中。假设您有以下 http 响应:
Khan安全团队
2022/01/11
1.6K0
通过 HTTP 标头的 XSS
在某些情况下,在应用程序的一个 HTTP 标头中传递的信息未正确清理,并在请求页面的某处或另一端输出,从而导致 XSS 情况。
Khan安全团队
2022/03/09
2.2K0
常见的HTTP标头介绍
在网络爬虫的实践过程中会遇到诸多挑战,被屏蔽是最令人头疼的一个。幸好,有许多技术可以帮助您免受IP屏蔽带来的影响,这其中,HTTP标头(HTTP Headers)的使用和优化是最有效的方法之一,但它往往也是最被大家低估的方法之一。
用户7850017
2022/05/07
1.2K0
常见的HTTP标头介绍
在MATLAB中优化大型数据集时通常会遇到的问题以及解决方案
以上是在MATLAB中优化大型数据集时可能遇到的问题,对于每个问题,需要根据具体情况选择合适的解决方案。
一凡sir
2023/08/09
6650
MNIST数据集的格式转换
本文介绍了MNIST数据集格式的转换,包括将原始数据转换为二进制格式、将图像和标签分离、将标签转换为独热编码等步骤。作者还提供了一个基于Python的fetch\_mnist工具,可以方便地读取和转换MNIST数据集。该工具在测试集上的表现良好,可以快速地处理大规模的MNIST数据集,为深度学习模型的训练和测试提供有力的支持。
锦小年
2018/01/02
2.3K0
MNIST数据集的格式转换
在Pytorch中构建流数据集
在处理监督机器学习任务时,最重要的东西是数据——而且是大量的数据。当面对少量数据时,特别是需要深度神经网络的任务时,该怎么办?如何创建一个快速高效的数据管道来生成更多的数据,从而在不花费数百美元在昂贵
deephub
2020/12/11
1.2K0
在Pytorch中构建流数据集
CDO转换数据集格式
在进行数据处理和分析的过程中或是基于其他原因,为了方便进一步的处理,有时需要将NetCDF数据格式转换为GRIB数据格式。
bugsuse
2020/04/21
3.5K0
设置和获取HTTP标头
%Net.HttpRequest的以下每个属性都包含具有相应名称的HTTP标头的值。如果不设置这些属性,则会自动计算它们:
用户7741497
2022/06/09
2.5K0
R语言之处理大型数据集的策略
在实际的问题中,数据分析者面对的可能是有几十万条记录、几百个变量的数据集。处理这种大型的数据集需要消耗计算机比较大的内存空间,所以尽可能使用 64 位的操作系统和内存比较大的设备。否则,数据分析可能要花太长时间甚至无法进行。此外,处理数据的有效策略可以在很大程度上提高分析效率。
timerring
2023/10/13
3620
sklearn数据集转换为csv以及数据集描述
radius 半径(从中心到边缘上点的距离的平均值) texture 纹理(灰度值的标准偏差) perimeter 周长 area 面积 smoothness 平滑度(半径长度的局部变化) compactness 紧凑度(周长 ^ 2 /面积 - 1.0) concavity 凹面(轮廓的凹部的严重性) concave points 凹点(轮廓的凹部的数量) symmetry 对称性 fractal dimension 分形维数(海岸线近似 - 1)
lovelife110
2021/01/14
1.1K0
大数据实用组件Hudi--实现管理大型分析数据集在HDFS上的存储
问题导读 1.什么是Hudi? 2.Hudi对HDFS可以实现哪些操作? 3.Hudi与其它组件对比有哪些特点? 前两天我们About云群大佬公司想了解Hudi ,并上线使用。Hudi 或许大家了解的比较少,这里给大家介绍下Hudi这个非常实用和有潜力的组件。 Hudi是在HDFS的基础上,对HDFS的管理和操作。支持在Hadoop上执行upserts/insert/delete操作。这里大家可能觉得比较抽象,那么它到底解决了哪些问题? Hudi解决了我们那些痛点 1.实时获取新增数据 你是否遇到过这样的问题,使用Sqoop获取Mysql日志或则数据,然后将新增数据迁移到Hive或则HDFS。对于新增的数据,有不少公司确实是这么做的,比较高级点的,通过Shell调用Sqoop迁移数据实现自动化,但是这里面有很多的坑和难点,相对来说工作量也不少,那么有没有更好的解决办法那?---Hudi可以解决。Hudi可以实时获取新数据。 2.实时查询、分析 对于HDFS数据,我们要查询数据,是需要使用MapReduce的,我们使用MapReduce查询,这几乎是让我们难以接受的,有没有近实时的方案,有没有更好的解决方案--Hudi。 什么是Hudi Apache Hudi代表Hadoop Upserts anD Incrementals,管理大型分析数据集在HDFS上的存储。Hudi的主要目的是高效减少摄取过程中的数据延迟。由Uber开发并开源,HDFS上的分析数据集通过两种类型的表提供服务:读优化表(Read Optimized Table)和近实时表(Near-Real-Time Table)。 读优化表的主要目的是通过列式存储提供查询性能,而近实时表则提供实时(基于行的存储和列式存储的组合)查询。 Hudi是一个开源Spark库(基于Spark2.x),用于在Hadoop上执行诸如更新,插入和删除之类的操作。它还允许用户仅摄取更改的数据,从而提高查询效率。它可以像任何作业一样进一步水平扩展,并将数据集直接存储在HDFS上。 Hudi的作用 上面还是比较抽象的话,接着我们来看下图,更形象的来了解Hudi
用户1410343
2020/01/14
5.2K0
大数据实用组件Hudi--实现管理大型分析数据集在HDFS上的存储
Java工具集-Excel行转换为对象工具类
代码示例 package com.simple.util.poi; import com.simple.util.time.DateUtil; import org.apache.commons.collections.CollectionUtils; import org.apache.commons.lang3.StringUtils; import java.io.Serializable; import java.lang.reflect.Field; import java.util.Arra
cwl_java
2020/06/10
1K0
nuScenes数据集在OpenPCDet中的使用及其获取
从官方网站上下载数据NuScenes 3D object detection dataset,没注册的需要注册后下载。 注意: 如果觉得数据下载或者创建data infos有难度的,可以参考本文下方 5.
烤粽子
2021/10/08
5.6K0
转换Cifar10数据集
Cifar10数据集不讲了吧,入门必备,下载地址: https://www.cs.toronto.edu/~kriz/cifar.html 官方提供三种形式的下载:
全栈程序员站长
2022/06/25
3350
转换Cifar10数据集
检查Android是否具有摄像头
通常我们进行摄像头操作,如扫描二维码需要判断是否有后置摄像头(Rear camera),比如Nexus 7 一代就没有后置摄像头,这样在尝试使用的时候,我们需要进行判断进行一些提示或者处理。
技术小黑屋
2018/09/04
1.1K0
转换Cifar10数据集
本文介绍如何将CIFAR-10数据集转换为图片形式并分类存储,方便进行后续的深度学习模型训练。首先介绍了CIFAR-10数据集的基本概念和结构,然后给出了将CIFAR-10数据集转换为图片形式的代码实现。通过这个转换程序,可以方便地处理CIFAR-10数据集,为后续的深度学习模型训练提供了便利。
GavinZhou
2018/01/02
1.7K0
转换Cifar10数据集
用Python玩转Excel | 操作大型Excel文件
有时候我们需要处理大型Excel文件,打开时容易出现卡顿、闪退的情况。程序也不例外,如果让程序直接读取大型工作簿中的数据,读取程序本身的运行也会变得缓慢、“卡顿”。
TalkPython
2021/09/16
2.1K0
在PyTorch中构建高效的自定义数据集
PyTorch 最近已经出现在我的圈子里,尽管对Keras和TensorFlow感到满意,但我还是不得不尝试一下。令人惊讶的是,我发现它非常令人耳目一新,非常讨人喜欢,尤其是PyTorch 提供了一个Pythonic API、一个更为固执己见的编程模式和一组很好的内置实用程序函数。我特别喜欢的一项功能是能够轻松地创建一个自定义的Dataset对象,然后可以与内置的DataLoader一起在训练模型时提供数据。
磐创AI
2020/07/09
3.6K0
在PyTorch中构建高效的自定义数据集

相似问题

(MacBook M1):引发ImportError(“无法找到zbar共享库”) ImportError:无法找到zbar共享库

124

Heroku ImportError:找不到zbar共享库

110

导入pyzbar.pyzbar -无法找到zbar共享库

37

我在解释器>>> ImportError中使用Python3.8时遇到这个错误:找不到zbar共享库

123

无法找到oozie共享库

12
添加站长 进交流群

领取专属 10元无门槛券

AI混元助手 在线答疑

扫码加入开发者社群
关注 腾讯云开发者公众号

洞察 腾讯核心技术

剖析业界实践案例

扫码关注腾讯云开发者公众号
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
查看详情【社区公告】 技术创作特训营有奖征文