首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    淘宝应对11的技术架构分析

    11”最热门的话题是TB ,最近正好和阿里的一个朋友聊淘宝的技术架构,发现很多有意思的地方,分享一下他们的解析资料:   淘宝海量数据产品技术架构   数据产品的一个最大特点是数据的非实时写入,正因为如此...图1 淘宝海量数据产品技术架构   按照数据的流向来划分,我们把淘宝数据产品的技术架构分为五层(如图1所示),分别是数据源、计算层、存储层、查询层和产品层。...位于架构顶端的是我们的数据来源层,这里有淘宝主站的用户、店铺、商品和交易等数据库,还有用户的浏览、搜索等行为日志等。这一系列的数据数据产品最原始的生命力所在。   ...其方式如把一张大数据表按一定的方式拆分到不同的数据库服务器上。   海量数据从集中式走向分布式,可能涉及跨多个IDC容灾备份特性。   【3】阿里巴巴的数据对不同地域数据的处理方法。   ...而Otter就是跨IDC的数据同步,把数据能及时反映到不同的AA站。   数据同步可能会有冲突,暂时是以那个站点数据为优先,比如说A机房的站点的数据是优先的,不管怎么样,它就覆盖到B的。

    2.6K20

    数据揭秘“11”成长史

    1111日,本来也就是文艺单身狗们发点牢骚,抒抒情的日子,可如今却变成了电商最惨烈的战场,这场起源于2009年的“品牌商的5折活动”,现如今已经成了一个“疯狂吸金”的强大商标,这一部11的成长史,每一年都给我们一组新的惊人数字...,博古才能通今,通观这些历年的双十一大数据,看看我们除了总结过去之外,还能不能预测一下未来。...2013年,11“光棍节”支付宝交易额达350.19亿元。2014年达到571.12亿元。 ?...淘宝和天猫各自销售额 年份 淘宝(亿元) 天猫(亿元) 2011 18.4 33.6 2012 59 132 2013 未公布 未公布 2014 未公布 未公布 2009年到2011年这三年基本是阿里11...小结: 以上就是历年11的一些大数据,这些数据其实不仅仅是阿里的一个成长,也代表着其他一些变化,比如说:天猫的销售额占总体销售额越来越高,移动端收入占比越来越高,单店销售收入冠军从生活服饰类变成了手机

    4K10

    数据告诉你:面对11,线下商机何在

    实体商业在11的大背景下,还有没有可以挖掘的商机? 11为实体商业带来了大量的销售机会。...芝麻科技联合阿里巴巴大数据平台、意略明市场营销咨询带来了实体商业(以服装与化妆品为代表)的线下客流分析和消费者大数据画像报告。...研究数据涉及北京、武汉、深圳重点商圈的男装、女装、化妆品店在“11”前一个周末(11月7日、11月8日)的客流及客群画像与“11”前三周的对比。由芝麻科技的客流分析系统有数提供研究所需数据。...11不是实体商业的黑色周,相反,无论是客流数据,还是客群画像,都证明了旺盛的购物意愿会为实体商业带来大量销售机会。...与其自怨自艾,实体商业不如赶紧修炼内功,好好统计、分析品牌与门店的各项数据,让数据说话,从数据中寻找商机。 文章内容由大数据文摘志愿者Cissy投稿,感谢她对大数据文摘的付出。

    6.9K60

    2018天猫11各项数据发布

    数据11当天,小米新零售全渠道支付金额创下52.51亿元新纪录。   11已有10年时间,每年的冠军商家是谁?主力消费者、惊喜品类和创新业务是……?看下图~点击看大图 ?...张勇分享11体会:顺着马老师昨天在视频里表达的,作为11十年的经历者,我也想对大家表达一声感谢。...张勇:11是24小时的shopping day,不仅是购物,还是分享快乐和购物的乐趣,这是11所做到的。...张勇:今天的11,不仅是消费力量的体现,也是大的商业力量的体现。通过大数据,云计算平台,赋能商家,这也是我们“让天下没有难做的生意”愿景。 张勇:11期间,国际品牌成交量超40%。...蚂蚁金服“11”期间数据:生物技术让数亿人的支付时长缩短至1秒,今年11生物支付占比达到60.3%。

    2.9K10

    首次揭秘1112背后的云数据库技术!| Q推荐

    是什么样的数据库撑起了 2021 年的 11 12 的稳定进行?...《数据 Cool 谈》第三期,阿里巴巴大淘宝技术部 12 队长朱成、阿里巴巴业务平台 11 队长徐培德、阿里巴巴数据 11 队长陈锦赋与 InfoQ 主编王一鹏,一同揭秘了 11 12 背后的数据库技术...在 11 12,这种方式的弊端会被进一步放大。数据显示,在 11 秒杀系统中,秒杀峰值交易数据每秒超过 50 万笔,是一个非常典型的电商秒杀场景。...2019 年 7 月,分析数据库 ADB 3.0(AnalyticDB for MySQL 3.0) 发布,高度兼容 MySQL 协议以及 SQL:2003 语法标准,支持对海量数据进行即时的多维分析透视和业务探索...“那这背后对于一个新的数据库产品类型的要求,实际上整个业界大家都是在探索阶段。” 写在最后 11 12 背后的数据库技术支持远不止于此。

    31.8K50

    4-网站日志分析案例-日志数据统计分析

    文章目录 4-网站日志分析案例-日志数据统计分析 一、环境准备与数据导入 1.开启hadoop 2.导入数据 二、借助Hive进行统计 1.1 准备工作:建立分区表 1.2 使用HQL统计关键指标 总结...4-网站日志分析案例-日志数据统计分析 一、环境准备与数据导入 1.开启hadoop 如果在lsn等虚拟环境中开启需要先执行格式化 hadoop namenode -format 启动Hadoop start-dfs.sh...start-yarn.sh 查看是否启动 jps 2.导入数据数据上传到hadoop集群所在节点 创建hdfs目录 hadoop fs -mkdir -p /sx/cleandlog 将数据上传到...30 ; 使用Sqoop导入到MySQL以及可视化展示部分不再介绍,详细可参考 https://www.cnblogs.com/edisonchou/p/4464349.html 总结 本文为网站日志分析案例的第...4部分,基于MR清洗后的数据导入HIVE中,然后进行统计分析

    60630

    Flume+Kafka剑合璧玩转大数据平台日志采集

    数据平台每天会产生大量的日志,处理这些日志需要特定的日志系统。...一般而言,这些系统需要具有以下特征: 构建应用系统和分析系统的桥梁,并将它们之间的关联解耦 支持近实时的在线分析系统和类似于Hadoop之类的离线分析系统 具有高可扩展性。...即:当数据量增加时,可以通过增加节点进行水平扩展 为此建议将日志采集分析系统分为如下几个模块: ? 数据采集模块:负责从各节点上实时采集数据,建议选用Flume-NG来实现。...数据接入模块:由于采集数据的速度和数据处理的速度不一定同步,因此添加一个消息中间件来作为缓冲,建议选用Kafka来实现。 流式计算模块:对采集到的数据进行实时分析,建议选用Storm来实现。...数据输出模块:对分析后的结果持久化,可以使用HDFS、MySQL等。 日志采集选型 大数据平台每天会产生大量的日志,处理这些日志需要特定的日志系统。

    1.8K30

    天猫11数据过于完美?我们用python来看看

    11结束了,大家已经无手可剁 。 天猫官方公布了今年的11成交额为2684亿元,成功刷新了自己创下的商业纪录。按理说大家已经习惯了逐年增长,没想到 由于过于完美,引发网友提出质疑。...一些人提出了相反意见:如大V@阑夕表示天猫11数据是精确地控制了交易额,从而形成了理想的曲线。 而天猫相关负责人回应称,符合趋势就假?造谣要负法律责任。...先将天猫2009年-2018年的双十一历年销售额历史数据导入到一张表里。 ? 点击插入一张散点图。 ? ? 左键点击一下任意一个散点数据,出现散点数据选择状态。...停一停, 作为一个经常使用python进行数据分析的公众号,怎么能能少了Python呢? 利用Python进行拟合并预测 我们在python中可以利用numpy求解多项式以及多项式拟合。...利用三次多项式预测的数据与公布的结果确实很相近。 我们继续搞事情。 将今年2019年的2684亿导入,预测一下后面三年: ? 按照网上的阴谋论,后面几年的数据应该如此。

    1.6K10

    10 年稳定支撑 11 ,国产数据库之光 OceanBase

    这场阿里专为开发者打造的数据库交流学习的机会,怎么能少了我呢?于是西红柿也趁周末时间去”补课“了,一到现场可谓满满都是”压迫感“!没想到大家周末都这么有激情呀(见图一,千人会场座无虚席)。...OceanBase CTO 杨传辉在大会现场说,“OceanBase 将持续降低开发者使用门槛,全面提升 OceanBase 的易用性,打造真正对开发者友好的数据库,建设开放的技术生态,让国产数据库走向田间地头...简单来说,就是牛,非常牛, 11 知道吧?...OceanBase 已连续 10 年稳定支撑 11,创新推出“三地五中心”城市级容灾新标准,在被誉为“数据库世界杯”的 TPC-C 和 TPC-H 测试上都刷新了世界纪录。

    3.2K50

    天猫11数据过于完美?我们用python来看看

    11结束了,大家已经无手可剁 。 天猫官方公布了今年的11成交额为2684亿元,成功刷新了自己创下的商业纪录。按理说大家已经习惯了逐年增长,没想到 由于过于完美,引发网友提出质疑。 ▼ ?...一些人提出了相反意见:如大V@阑夕表示天猫11数据是精确地控制了交易额,从而形成了理想的曲线。 而天猫相关负责人回应称,符合趋势就假?造谣要负法律责任。...停一停, 作为一个经常使用python进行数据分析的公众号,怎么能能少了Python呢? 利用Python进行拟合并预测 我们在python中可以利用numpy求解多项式以及多项式拟合。...只写一些其中跟我们相关的数据知识就够了。 网络大众对此事的看法到底如何? 不妨看下腾讯科技发起的一个投票。 ? 大众的看法就像这个投票。 作者:朱小五,互联网公司数据分析师。...热衷于Python爬虫,数据分析,可视化,个人公众号《凹凸玩数据》,有趣的不像个技术号~

    1.6K20

    日志易:金融支付行业日志数据分析案例解读

    日志作为数据的载体,蕴含着丰富的信息,传统的日志分析方式低效而固化,无法应对数据体量大、格式不统一、增长速度快的现状,在交易出现异常及失败时,更难以满足实时处理、快速响应的需求。...本文讲述某支付公司采用日志易后,通过日志数据实现业务深度分析及风险控制的实践经验。...为了更好发挥移动支付的便捷,支付公司对时效性,可靠性的要求很高,而这才是使用日志易大数据分析平台的深层次原因,日志易帮支付公司解决了最根本的行业需求,在可靠性方面展现了产品的价值。...该公司原有的解决方案存在一定的局限性,比如:手动工作耗时量大、实时性差、人为造成失误、分析维度不能灵活变动及决策滞后等等。 支付公司有时会根据业务需要,对数据进行收集、清理,包括日志数据的清理等。...日志易作为国内首家海量日志分析企业,一直致力于开发一款配置方便、功能强大的日志管理工具,以高品质的产品为金融行业用户信息化建设搭建高可靠平台,共同面对数字浪潮中更多的未知与挑战,实现支付企业对日志分析管理产品高效

    2.8K20

    11试水大数据 搜狗浏览器延续创新之路

    人们惊讶地发现,互联网应用一旦拥抱“大数据”理念,大多能够在原有功能的基础上,藉由海量数据分析而获得性能提升,甚至产生崭新的使用体验。...实测体验显示,打假助手的大数据支撑起了两大核心功能: 首先,搜狗浏览器打假助手针对淘宝、天猫分散的卖家数据进行整合,并通过大数据的抓取,将最全方位的商家信息展示在用户面前。...其次,以搜狗搜索和淘宝搜索的相关数据为核心,搜狗浏览器打假助手还利用大数据分析,为挖掘出与商品真伪辨识相关的重要新闻、消息、经验攻略等网络信息,帮助用户判别可能存在的假货风险。...有分析认为,随着互联网服务的日益主动化、智能化,大数据所提供的海量信息支持下的精确“洞察发现力”显得尤为重要,甚至有能力决定服务推送的精确性和友好程度等关键体验。...见驱动中国网:11试水大数据 搜狗浏览器延续创新之路

    1.4K50

    数据平台网站日志分析系统

    1:大数据平台网站日志分析系统,项目技术架构图: 2:大数据平台网站日志分析系统,流程图解析,整体流程如下:   ETL即hive查询的sql;   但是,由于本案例的前提是处理海量数据,因而,流程中各环节所使用的技术则跟传统...BI完全不同:     1) 数据采集:定制开发采集程序,或使用开源框架FLUME     2) 数据预处理:定制开发mapreduce程序运行于hadoop集群     3) 数据仓库技术:基于hadoop...之上的Hive     4) 数据导出:基于hadoop的sqoop数据导入导出工具     5) 数据可视化:定制开发web程序或使用kettle等产品     6) 整个过程的流程调度:hadoop...生态圈中的oozie工具或其他类似开源产品 3:在一个完整的大数据处理系统中,除了hdfs+mapreduce+hive组成分析系统的核心之外,还需要数据采集、结果数据导出、任务调度等不可或缺的辅助系统...,而这些辅助工具在hadoop生态体系中都有便捷的开源框架,如图所示:  4:采集网站的点击流数据分析项目流程图分析: 5:流式计算一般架构图: 待续......

    2.6K72

    分析Oracle数据日志文件(1)

    分析Oracle数据日志文件(1) 一、如何分析即LogMiner解释 从目前来看,分析Oracle日志的唯一方法就是使用Oracle公司提供的LogMiner来进行, Oracle数据库的所有更改都记录在日志中...通过对日志分析我们可以实现下面的目的: 1、查明数据库的逻辑更改; 2、侦察并更正用户的误操作; 3、执行事后审计; 4、执行变化分析。...不仅如此,日志中记录的信息还包括:数据库的更改历史、更改类型(INSERT、UPDATE、DELETE、DDL等)、更改对应的SCN号、以及执行这些操作的用户信息等,LogMiner在分析日志时,将重构等价的...3、v$logmnr_logs,当前用于分析日志列表。 4、v$logmnr_contents,日志分析结果。...2、提取和使用数据字典的选项:现在数据字典不仅可以提取到一个外部文件中,还可以直接提取到重做日志流中,它在日志流中提供了操作当时的数据字典快照,这样就可以实现离线分析

    3K50
    领券