Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >结合LLMs与TPPs:通过文本事件描述和时间嵌入提升事件序列建模能力 !

结合LLMs与TPPs:通过文本事件描述和时间嵌入提升事件序列建模能力 !

作者头像
AIGC 先锋科技
发布于 2024-11-04 05:54:35
发布于 2024-11-04 05:54:35
2730
举报
文章被收录于专栏:AIGC 先锋科技AIGC 先锋科技

时空点过程(TPPs)广泛应用于诸如社交网络、交通系统和电子商务等领域的事件时序和发生的建模。在本文中,作者提出了TPP-LLM,这是一个将大型语言模型(LLMs)与TPPs相结合的新颖框架,旨在捕捉事件序列的语义和时序方面。 与传统方法依赖的事件类型表示不同,TPP-LLM直接利用事件类型的文本描述,使模型能够捕获文本中丰富的语义信息。 尽管LLM在理解事件语义方面表现出色,但在捕捉时序模式方面则稍显不足。为了解决这个问题,TPP-LLM引入了时序嵌入,并采用了参数高效的微调(PEFT)方法,以有效地学习时序动力学,而无需进行广泛的再训练。 这种方法提高了预测准确性和计算效率。在多个真实世界数据集上的实验结果表明,TPP-LLM在序列建模和事件预测方面超过了最先进的 Baseline ,突显了将LLM与TPPs相结合的优势。

1 Introduction

时间点过程(Temporal point processes, TPPs)(Shchur等,2021年)是建模事件随时间发生的有力的工具,广泛应用于社交网络、城市动态学、交通、自然灾害和电子商务等领域。预测未来事件类型和时间的挑战,导致了越来越复杂的模型的发展。传统的TPP模型通常依赖于手工制作的特征或关于时间依赖性的特定假设,这限制了它们在实际数据集中捕获复杂事件模式的能力。最近的技术进步,如神经TPP,利用深度学习的表示能力,克服了其中一些限制,但许多仍需要从头开始进行广泛的特定任务训练。

随着强大的大语言模型(LLMs)如 GPT-4 和Llama-3 的出现,使用LLMs来理解和预测事件序列,通过捕捉丰富的语义和上下文信息,已经出现了新的机会。受到它们在基于文本的任务(Zhao等,2023)和时间序列预测成功的影响,作者提出了一种新颖的框架TPP-LLM1(图1),该框架将LLMs与TPPs相结合,用于同时模拟事件序列的时序和语义方面。通过利用预训练的LLMs,TPP-LLM可以直接利用事件类型的文本描述,超越了依赖分类表示的传统方法。为了确保模型捕获时间动态,作者在此同时引入了时间嵌入与这些事件描述。为了有效地将LLMs适应于TPP建模,作者采用了低秩适应(LoRA),这是一种参数高效的微调(PEFT)方法,允许作者调整一小部分LLM参数,在降低计算成本的同时保持高性能。通过在真实世界数据集上的广泛实验,作者证明了TPP-LLM在序列建模和下一事件预测方面始终优于最先进的 Baseline 。

本文的主要贡献如下:

(1)作者提出了一种新颖的方法,将LLMs与TPPs相结合,通过利用文本事件描述和时间嵌入来提高事件序列建模。

(2)作者证明了PEFT在TPP建模方面的有效性,允许TPP-LLM在不从头开始进行完整模型再训练的情况下,适应预训练的LLMs。

(3)作者在多个真实世界数据集上进行了广泛实验,结果显示TPP-LLM相较于现有的神经TPP模型取得了优越的性能。

在接下来的部分,作者将讨论相关工作,详细描述作者的方法,呈现实验结果,并总结研究未来的方向。

2 Related Work

神经时间点过程近年来,神经时间点过程(TPPs)取得了重要进展,引入了许多利用深度学习技术来捕获复杂时间依赖性和事件交互的模型。许多这些模型使用循环神经网络(RNNs)或自注意力机制来根据事件历史学习事件强度。例如,RMTPP(Du等人,2016)和NHP 使用RNNs学习时间影响,而较新的方法如SAHP 和THP 则利用自注意力来捕捉长期依赖性。其他模型,如基于神经ODEs 、注意力机制、扩散过程、元学习和Mamba模型(Gao等人,2024),为连续时间中的离散事件提供了灵活且高保真的建模。这些方法通过模拟复杂交互和动态事件关系,显著提高了TPPs的性能。

近年来,已有研究将大型语言模型(LLMs)整合到事件序列预测任务中(Jin等人,2023b)。石等人提出LAMP,该框架利用LLMs进行归因推理,以提高事件序列预测。薛等人(2023b)引入了PromptTPP,该方法将连续学习集成到神经时间点过程中,以实现对 Stream 事件序列的适应性和高效学习。

Song等人(2024年)提出了LaTee模型,该模型利用了一种摊销期望最大化的框架,其中逻辑树作为潜在变量,并使用可学习的GFlowNet生成逻辑树样本,以实现更有效的event reasoning。

3 Preliminaries

在本节中,作者将介绍关于时间点过程及其扩展使用神经网络建模复杂事件序列所必需的背景知识。

Temporal Point Processes

时间点过程(TPPs)(Hawkes, 1971; Laub et al., 2015) 是一类用于模拟连续时间上离散事件发生的随机过程。带有 Token 的 TPP 通过将每个事件与发生时间和类型( Token )相关联,扩展了这一框架,使其在需要同时理解事件类型及其发生时间的关键领域具有高度适用性。

在显著的TPP(Traditional Planning Problem)中,对于一个观察窗口内的多个事件序列,可以表示为:, 其中表示第个事件的时间,表示来自离散集合中的相应事件类型。目标是基于前一个事件的历史,预测下一个事件的开始时间和类型概率。

TPP中的关键功能是条件强度函数 ,它定义了在时间和历史条件下,类型的事件的瞬时发生率。

正式定义如下:

表示截至时间之前的事件历史,是表示在时间之前发生的事件数的计数过程。这个强度函数提供了在历史的条件下,在时间内预期发生的事件的数量。联合概率密度表示在时间具有类型的下一个事件发生的可能性,在历史的条件下。它表示为:,其中积分表示在最后的事件和当前时间之间没有发生任何事件,捕捉到事件的时间和类型依赖关系。

为了评估一个 Token 时间序列潜在模型(TPP)对观测数据的拟合度,通常使用对数似然函数。在 Token TPP下观察到一个事件序列的对数似然性可以表示为:

首先,我将原文中的英文翻译为简体中文:

在观测到的过程中,第一个项求和,第二个项在时间上积分并考虑所有可能的事件类型k,以反映在观测之间没有事件发生的可能性。

请注意,翻译后的内容已经忠实于原文,同时保持了学术论文的专业性和格式。

Neural Temporal Point Processes

近年来TPP的进步引入了基于神经的网络模型,这些模型利用深度学习的表示能力来捕获复杂的事件序列。这些模型通常使用神经网络来参数化条件强度函数,从而使他们可以直接从数据中学习时间依赖性和事件类型分布。

在神经时间平行的过程中,对于每个事件,通过基于事件时间和事件类型的嵌入层计算一个嵌入向量。

然后,将当前事件的嵌入向量和先前的隐藏状态相结合,更新隐藏状态:,其中是一个神经网络,通常实现为循环神经网络(RNN)(Hochreiter,1997)或更先进的注意力机制(Vaswani等人,2017)。更新后的隐藏状态用于从条件概率分布中采样下一个事件时间和事件类型:。

不同的神经时间平行的模型使用各种架构来定义状态更新函数。早期的方法使用RNN来捕捉事件之间的时间依赖性,而更近期的模型用注意力机制替换了循环结构,允许进行更好的长程交互。这些基于神经的方法增强了时间平行的灵活性,从复杂的数据集中以数据驱动的方式学习事件依赖性。

4 Methodology

在本节中,作者介绍了一种名为TPP-LLM的框架,该框架利用大型语言模型(LLM)来模拟时间点过程(TPP)。TPP-LLM如图1所示,它将预训练的LLM集成起来,以捕捉事件类型的语义丰富性,并使用时间嵌入来处理事件序列的时间动态。

Event and Prompt Embeddings

TPP-LLM 模拟事件的序列 , 其中每个事件 包括一个时间 和相应的事件类型 。与传统的 TPP 模型不同,TPP-LLM 直接使用预训练的 LLM 处理事件类型的文本描述,而无需使用离散的事件类型。这使得模型可以从事件文本中捕获更丰富的语义信息,同时学习时间依赖性。

事件类型 表示为一系列 Token (tokens)。令 为事件类型 的 Token 序列,其中 是 Token 事件类型的长度。每个 Token 通过预训练的LLM的嵌入层 (其中 是词汇量, 是嵌入维度)映射到实数向量 。除了事件类型表示外,TPP-LLM 还包含一个时间嵌入来捕捉时间动力学。每个事件时间 使用嵌入层 映射到一个时间嵌入 :,其中 可以是线性层或位置编码。在本研究中,作者使用时间位置编码:

其他编码方法(张等,2020;高和戴,2024)也可以应用。

为了模拟事件类型及其时间的联合动力学,作者将事件类型表示 与时间嵌入 相结合。对于每个事件 ,其 ConCat 表示为: 或 ,具体取决于事件类型和时间顺序。

除了特定事件的嵌入之外,作者还将一个 Prompt 作为一个 Token 序列,这个序列通过LLM的嵌入层被转换为嵌入:. Prompt 嵌入,以及拼接的事件类型和时间嵌入,形成了一个统一的嵌入序列:, 其中表示 Prompt 嵌入,表示一个事件的事件类型和时间嵌入。

History Vectors and Intensity Function

整个序列经过LLM后,可以得到每个 Token 的上下文隐藏状态:。处理后,作者提取每个事件最后一个嵌入向量的隐藏状态。例如,事件的隐藏状态。选择的隐藏状态表示事件历史直到时间(包含):。这些历史向量随后用于建模TPPs。

在作者的模型中,强度函数通过历史向量参数化,该向量编码了从初始时间到时间的事件历史。为了计算在时间和之间的强度函数,作者对隐藏状态应用线性变换。对于事件类型,强度函数(Zuo等人,2020;高和戴,2024)被建模为:

λk(t|HT) = λ(t,k|HT) = fk(αk(t - ti) + ωkTi+bk), (4) 其中,fk = log(1 + exp(x)) 是软plus函数,αk∈R,ωk∈R^H,bk∈R 是可学习的参数。软plus激活确保强度函数非负。

Event Prediction

对于每个事件,来自LLM输出的历史向量编码了事件历史,其中既包括事件类型,也包括从时间到当前时间的动态信息。遵循之前的研究(Zuo等人,2020;高和戴,2024),作者利用这个隐式表示,通过单独的层来预测下一个事件类型和时间。

为了预测事件类型,作者对隐状态应用线性层和softmax激活,将其映射到可能的事件类型概率分布:,其中和是线性层的权重和偏置,是事件类型数量,是隐状态维度。预测的事件类型是具有最大概率的事件类型:。同样地,为了预测下一个事件时间,作者对隐状态应用另一个线性层,得到一个表示下一个时间的标量值:,其中和是这个层的权重和偏置。

Fine-Tuning

为了高效地将预训练的LLM适应到TPP任务,作者采用了低秩自适应(LoRA)(胡等人,2021年)和参数高效的微调(PEFT)(刘等人,2022年)方法。作者不是微调LLM的所有参数,而是引入了低秩矩阵到LLM权重。具体而言,作者修改了一个目标模块的权重矩阵:,其中是原始权重,和是可学习的低秩矩阵。仅通过微调这些低秩矩阵,作者可以显著减少可训练参数的数量,从而在不降低性能的情况下提高适应性。除了LoRA之外,其他PEFT方法(刘等人,2022年;张等人,2023年)也可以应用于进一步优化微调过程。

为了同时调整LLM和额外的 Head 层,作者定义了一个包含观测事件对数似然度、事件类型预测损失和事件时间预测损失的联合损失函数。基于条件强度函数的方程2进行了调整:

在蒙特卡罗或数值积分方法下,非事件积分的计算是可行的(Zuo等人,2020)。事件类型损失的定义是真实和预测事件类型的交叉熵:,其中是 GT 的one-hot编码。事件时间损失的定义是真实和预测事件时间的均方误差:。

训练目标定义为所有序列的负对数似然度,以及事件类型和时间损失的总和:

β类型和β时间是事件类型和时间损失的系数。

5 Experiments

在本节中,作者提出了作者提出的TPP-LLM模型的实验评估。作者详细介绍了数据集、使用的 Prompt 、基准模型、实验设置、结果和消融分析。

Datasets

作者在五个真实世界的数据集上进行了实验:Stack Overflow,Chicago Crime,NYC Taxi Trip,U.S. Earthquake和Amazon Review。它们在表1中的统计数据如下。这些数据集涵盖了各种应用,并在之前的TPP研究中得到了广泛使用,因此它们非常适合评估作者的模型的性能。然而,由于目前可用的版本缺少TPP-LLM所需的事件类型文本,作者对数据进行了预处理,包括这些关键的文本描述。这些多样化的数据集使作者能够评估模型在不同域间的泛化能力,处理长度不同的序列,事件类型和时间分辨率。更详细的信息请参见附录A。

Prompt Design

作者设计了 Prompt ,为模型提供结构化的指导,帮助其有效地理解和处理任务及事件序列。 Prompt 中包括关键的细节信息,如事件类型的具体细节,以便模型能够专注于需要处理的关键部分进行准确预测。 Prompt 的一般结构如下: "{Sequence Description} {Event Description} {Task Description}" 其中任务描述针对预测任务进行定制。当事件类型在嵌入序列中出现在时间之前时,任务被描述为: "根据这个序列,预测下一个事件类型和对应的时间。" 另一种情况是,当事件时间首先出现时,任务变为: "根据这个序列,预测下一个事件时间和对应的事件类型。" 作者在实验中使用的数据集的具体序列和事件描述,列在附录C中。

Baselines and Evaluation Metrics

作者将作者的模型TPP-LLM与几个最先进的(SOTA) Baseline 进行比较,以评估其在不同任务上的性能。 Baseline 包括神经哈kes过程(NHP)(Mei和Eisner,2017),自注意力哈kes过程(SAHP)(张等,2020),变换哈kes过程(THP)(左等,2020),以及注意力的神经哈kes过程(AttNHP)(杨等,2022)。这些模型代表了神经TPP建模的前沿方法。 Baseline 的详细描述见附录B。

为了评估模型性能,作者使用了以下评估指标:对数似然值衡量模型如何拟合观察到的序列 ,计算公式为 5,使用强度函数。

准确率 用于评估事件类型预测的准确性,衡量正确预测的事件类型的比例:准确率 ,其中 是真实的事件类型, 是预测的事件类型, 是指示函数。

均方根误差(RMSE) 用于衡量预测事件时间误差。它计算如下:,其中 是真实的事件时间, 是预测的事件时间。

Experimental Setup

作者使用两个基础模型进行TPP-LLM实验:TinyLlama-1.1B-Chat-v1.0(张等人,2024a)和Gemma-2-2B-IT,两者都被量化到4位精度(Dettmers等人,2024),以提高GPU内存使用效率。为了捕捉时间动态,作者使用时间位置编码(Zuo等人,2020),首先处理事件类型嵌入,然后处理每个事件的时间嵌入。

对对数似然中的非事件积分项,作者使用蒙特卡罗积分(Zuo等人,2020)处理,每个时间间隔使用20个样本,在各模型中保持一致。

在微调中,作者采用LoRA(Hu等人,2021),通过调整注意力模块的权重矩阵,带有dropout但无偏置。Adam优化器(Kingma,2014)用于优化LoRA层和预测层。在EasyTPP框架(Xue等人,2023a)中实现的 Baseline 被使用,其超参数进行了调整以进行公平比较。实验结果在五个带有早期停止的运行中平均,附加的超参数请参见附录D。

在 Baseline 中,作者使用单个NVIDIA A10或A100 GPU,而在TPP-LLM中使用单个H100 GPU。

Experiment Results

作者在五个真实世界数据集上评估了TPP-LLM与基准之间的性能。其中包含两个TPP-LLM模型:TPP-Llama(TinyLlama-1.1B-Chat-v1.0)和TPP-Gemma(Gemma-2-2B-IT)。

对数似然性能。在对数似然性(表2)方面,TPP-LLM模型(TPP-Llama和TPP-Gemma)在大多数数据集上表现出竞争力的性能。TPP-Llama在Stack Overflow上表现最佳,而AttNHP在芝加哥犯罪、纽约出租车行程和亚马逊评论等数据集上超越了所有模型。

然而,TPP-LLM模型在大多数数据集上仍然表现强劲,除了美国地震数据集,在那里SAHP获得最高分。这些结果突显了TPP-LLM有效模拟复杂事件序列的能力,尤其是在LLM捕获事件语义方面受益匪浅。尽管在某些数据集上表现不如其他模型,但TPP-LLM模型总体上仍然具有很高的竞争力。

事件类型预测准确率。对于下一事件类型预测准确率(见表3和图2),TPP-LLM在所有数据集上都优于或等于 Baseline 性能。TPP-Llama在Stack Overflow和Amazon Review上达到最高准确率,而TPP-Gemma在NYC Taxi Trip和U.S. Earthquake上表现出色。

两种变体在其他 Baseline 中取得了显著的改进,特别是在处理像Stack Overflow和Amazon Review这样的数据集时,LLM可以利用丰富的event-type语义来提高预测准确率。这突显了TPP-LLM将事件文本信息集成到预测过程中的能力,相比传统TPP模型具有明显的优势。

事件时间预测RMSE。在评估下一个事件时间预测(表3和图3)时,TPP-LLM再次展现出强大的性能。TPP-Gemma在Stack Overflow,NYC Taxi Trip和Amazon Review上的RMSE最低,而TPP-Llama在Chicago Crime上的表现最佳。

两种变体在很大程度上超过了 Baseline ,特别是在Stack Overflow,Chicago Crime和Amazon Review等时间模式较少的数据集上。这表明TPP-LLM中的基于LLM的时间嵌入有效捕捉了时间动态,从而导致更准确的事件时间预测。

总体而言,TPP-LLM在所有数据集上都表现出强大的性能和一致性。包括事件文本处理和理解,LLM的引入使得模型能够利用更丰富的上下文信息,从而提高事件类型预测的准确性。

此外,时间嵌入的集成有助于捕捉复杂的时间依赖关系,这在事件时间预测的模型强大RMSE性能中得到体现。结果证实,TPP-LLM是一种有效和适应性强的模型,适用于各种TPP任务,在实际场景中实现领先性能。

Few-Shot Learning

在仅使用训练数据的2%的少量实验中,TPP-LLM模型(TPP-Llama和TPP-Gemma)在各个数据集上表现出色。在对数似然率(见表4)方面,TPP-Llama在Stack Overflow和Amazon Review上表现优异,而TPP-Gemma在NYC Taxi Trip上占据主导地位。AttNHP在Chicago Crime和U.S. Earthquake上表现最好,TPP-Llama在其余数据集上保持竞争力。

在下一事件类型准确性(见表5)方面,TPP-Gemma在Stack Overflow、NYC Taxi Trip和Amazon Review上占据主导地位,TPP-Llama在U.S. Earthquake上位居首位。与NHP和SAHP等 Baseline 相比,TPP-LLM模型在少量数据场景下具有显著优势,有效利用预训练知识。

这些发现突显了TPP-LLM在少量数据场景下的强大适应性,有效地利用了预训练知识。

Ablation Studies

为了理解TPP-LLM中不同组件的贡献,作者进行了一系列的消融研究。通过系统性地移除或更改模型中的关键部分,作者分析每个元素如何影响整体性能,并确定哪些配置能够获得最佳结果。

5.7.1 Foundation Models

表格6中的性能比较显示了不同LLM对TPP-LLM性能的影响。TinyLlama-1.1B-Chat-v1.0和TinyLlama-1.1B-Intermediate在对数似然度和精确度得分上相似,但Chat在Stack Overflow和U.S. Earthquake的下一个事件类型预测上略胜一筹。Gemma-2-2B-IT在NYC Taxi Trip和U.S. Earthquake的事件时间预测上实现了最佳RMSE,突显了其在建模时间动态方面的优势。总体而言,TinyLlama和Gemma表现出色,各自在不同的指标上脱颖而出。各模型的一致性能强调了TPP-LLM的稳健性。

5.7.2 Temporal Embeddings

如图7所示,嵌入类型和顺序的选择会影响模型性能。位置编码在大多数指标上通常优于线性嵌入。当事件时间嵌入首先处理时,位置编码实现了最佳的事件类型预测准确性和有竞争力的RMSE值。

线性嵌入也表现良好,当事件时间首先出现时,其对美国地震的log-likelihood最佳。结果表明,在处理类型之前处理事件时间可以提高事件类型预测,而将时间放在最后可以提高时间预测准确性。这些发现突出了模型设计中嵌入顺序的重要性。

5.7.3 Prompt Settings

表8显示,使用结构化 Prompt (用“Y”表示)通常可以提高Stack Overflow上TinyLlama模型对对数似然分数,尽管省略 Prompt (用“N”表示)在事件类型预测的准确率上略有提高,尤其是在美国地震上。

RMSE结果参差不齐, Prompt 在Stack Overflow上提供较小优势,而在美国地震上没有优势。虽然 Prompt 可以带来适度的对数似然收益,但它们对准确率和RMSE的影响不一致。然而,添加 Prompt 可以提高模型的灵活性,特别是对于多任务场景。

5.7.4 Fine-Tuning Settings

表9和图4说明了不同LoRA排名配置对性能的影响。在仅训练 Head 层的情况下,模型在对数似然率(log-likelihood)和准确率(accuracy)上出现了显著的下降,这突显了需要调整预训练的LLM(语言模型)。

较高的LoRA排名通常可以提高结果,其中32位排名在美国地震数据集上实现了最高的准确率和对数似然率,而较低的排名在对数似然率和事件时间预测方面表现良好。使用LoRA进行微调可以持续提高性能,较高的排名对于更复杂的任务更有利,而较低的排名在计算成本较低的情况下可以提供具有竞争力的结果。

6 Conclusion

在本文中,作者提出了TPP-LLM,这是一个利用大型语言模型(LLMs)预训练知识来建模时间点过程(TPP)的新颖框架。通过将LLMs与时间嵌入相结合,作者的方法有效地捕获了复杂事件序列的事件语义和时间动态。

通过在真实世界数据集上的广泛实验,作者证明了TPP-LLM在序列建模和下一事件预测方面超过了最先进的 Baseline 。

此外,作者的消融研究揭示了基础模型、时间嵌入、 Prompt 设计和微调策略对整体性能的贡献。TPP-LLM在多种数据集和任务上的鲁棒性突显了其在TPP建模方面的更广泛应用潜力。

未来的工作可以探索其他微调技术和嵌入策略,并将此方法扩展到多任务设置。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2024-11-01,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 AIGC 先锋科技 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
北京互联网大厂办公楼巡礼:腾讯、阿里
后厂村,聚集600余家国内外知名IT企业总部和全球研发中心;面积2.6平方公里;每平方公里产值高达969.1亿元;从业软件工程师7.79万人,总产值2519.6亿元;
Flowlet
2022/12/28
8.3K0
北京互联网大厂办公楼巡礼:腾讯、阿里
谷歌砸出10亿美元,要为湾区困难群众,建2万套经适房
而且!与以往在纽约购置办公园区、在全美各地建造数据中心不同,这个房地产计划,并非“自住房”或员工福利房,而是一个睦邻友好的公益行为:
量子位
2019/06/20
3830
谷歌砸出10亿美元,要为湾区困难群众,建2万套经适房
深夜十点,北京各大互联网企业的下班高峰才刚开始?
“师傅,您在哪个门?”下楼前,马科(化名)用手机预约了一辆网约车,当他走出公司总部大门时发现,门前已云集了大量网约车。
哲洛不闹
2018/09/14
7430
深夜十点,北京各大互联网企业的下班高峰才刚开始?
腾讯总部大厦「贴膜」了!因为它们
几个月前,腾讯员工yulan加入了由员工自发组建的防鸟撞项目组,包括她在内的几十位志愿者在北京、上海、深圳等的腾讯办公大厦进行为期一个月的鸟撞调研。
小腾资讯君
2023/10/16
4080
“小米们”的逃离
在中国互联网圈,有一个广为流传的段子:如果哪天全国的互联网都瘫痪了,那一定是后厂村大堵车了。恰巧,不久前镁客网受邀去北京参加新品发布会,地点就在后厂村。
镁客网
2018/12/17
6750
“小米们”的逃离
腾讯前海新总部,厘米级「图纸」首次公开
别小瞧这个厘米级项目,它们代表了前海总部建设里的无障碍「小心思」。为的是让每一位访客都能在园区各处畅行无阻,享受全龄友好的无障碍服务体验。
小腾资讯君
2023/12/05
2500
一组珍贵老照片,看看那些顶级公司创业初期的屌丝样!
这些老照片记录了“联想”、“腾讯”、“华为”……这些今天为人们所熟知的企业巨头最初的办公场所。也许现在你正如昨日的他们一样,在创业路上披荆斩棘,但看着他们今日的阳光万丈,是不是印证了那句话“梦想是要有的,万一实现了呢”。
曾响铃
2018/08/20
5210
一组珍贵老照片,看看那些顶级公司创业初期的屌丝样!
走进腾讯华东地区总部 上海腾讯参访学习,预约上海腾讯
腾讯公司成立于1998年,是中国最早也是目前中国市场上最大的互联网即时通信软件开发商,同时也是中国最大的互联网公司之一。放眼整个中国乃至全球,腾讯都是一家成功的互联网企业,它代表中国企业在世界互联网版图中竖起了一面高高的旗帜。
泽沃商务考察Even
2021/08/09
3.3K0
中国台湾深圳青少年参观腾讯总部
1月25日上午,来自台湾的5位青少年与10位深圳本地的青少年齐聚深圳,共同探访了腾讯总部大厦。本次活动系深圳少年警讯组织,旨在进一步促进两岸三地交流互通,让两岸青少年共同感受国家科技发展先进成果。
腾讯智慧教育
2019/03/20
2.7K0
中国台湾深圳青少年参观腾讯总部
小米斥资5.31亿元买地,将国际总部落户深圳
10月28日,小米集团旗下深圳小米信息技术有限公司以5.31亿元的价格拿下深圳市南山区后海中心区T107-0092地块,小米将在此建设小米国际总部。
镁客网
2020/11/06
6450
小米斥资5.31亿元买地,将国际总部落户深圳
局外人观各大厂牌
我们列出了想要去公司的目录,然后思索如何寻找相应的人脉去帮助我们实现了解该公司的目的。
星辉
2019/02/20
5740
局外人观各大厂牌
重磅|腾讯打造虚实集成自动驾驶实践,重塑未来城市出行新体验
数字技术正在重构汽车、交通乃至城市,不断催生新事物的涌现。近年来,自动驾驶在我国发展迅速,单车智能与车路协同的结合成为适应我国的共识路线;虽受限于技术、法规等条件,高级别自动驾驶尚未能在开放城市道路运行,但集合L4级别的自动驾驶、5G远控、数字孪生等技术的“车路云一体化”自动驾驶实践已经陆续在智能网联示范区和智慧园区落地。
腾讯数字孪生
2023/09/20
4810
重磅|腾讯打造虚实集成自动驾驶实践,重塑未来城市出行新体验
腾讯以全真互联技术打造自动驾驶闭环实践,加速自动驾驶全面应用
随着电动化、智能化深度融合的时代来临,借助“双智协同”的重大战略机遇与我国新能源汽车产业蓬勃发展的良好基础,智能网联汽车进入技术快速演进、产业加速布局、政企双向发力的关键阶段。
腾讯自动驾驶
2023/11/13
3330
腾讯以全真互联技术打造自动驾驶闭环实践,加速自动驾驶全面应用
互联网巨头的碳中和计划
我国已承诺减少二氧化碳排放,争取2060年前实现碳中和。2020年12月,我国将“做好碳达峰、碳中和工作”纳入2021年的重点任务之一。
郭好奇同学
2021/01/25
9200
想来腾讯滨海总部?你只需要这个小程序!
腾讯临境产品团队联合行政接待团队打造的集游览参观、VR同屏带看、线上接待、图文视频观看于一体的新型沉浸式体验小程序【云上滨海】,现已正式发布上线。展厅线上预约参观接待欢迎联系腾讯云商务~快来预约一场云上参观吧! 前不久,我们一篇介绍鹅厂总部员工上班不湿脚的文章,引起不少朋友对腾讯总部滨海大厦的兴趣。 这一次,腾讯云通过VR和3D建模技术,直接把滨海大厦的公共开放区域搬上了云端。这也是大厦内部第一次对外界开放参观。 在微信上搜索进入“云上滨海”小程序,剩下的360度随便逛。 起点是大厦广场,你可
腾讯云音视频
2020/09/11
3.8K0
重庆招聘| 加入鹅厂,牛气UP
加入鹅厂 牛气UP! 魔幻2020即将过去 2021向我们招手~ 鹅厂带着年末的新鲜岗位 期待2021不一样的你! 岗位信息 网络信息处理岗 积极维护腾讯产品的信息内容安全 按照规定的标准和流程处理不良信息 工作地点:腾讯西南总部大厦 (重庆市渝北区云杉南路涉外商务区4栋) 岗位要求 1.大专及以上学历,有一年以上工作经验; 2.充满正能量,较强学习理解力,关注时事新闻; 3.适应轮班轮休工作安排。 工作时间 排班,每月休6-7天(含通宵班) 网申通道 薪酬福利 6.5k-9K/月 五险一金&商业
腾讯举报中心
2021/01/05
2.2K0
早报:北京暂停虚拟地址工商注册 联合办公企业将受冲击
1、北京暂停虚拟地址工商注册 联合办公企业将受冲击 北京的一些创业型企业和联合办公企业,正因为一些政策变化而受到影响。近日,有媒体报道称北京市朝阳区、丰台区、海淀区工商行政管理分局已经暂停受理共享办公空间、孵化器等虚拟地址工商注册登记。界面新闻记者致电优客工场工作人员,对方表示,海淀区、丰台区、朝阳区工商局的确已经发文,要求暂停虚拟地址工商注册,此前已经通过审核的则不受影响。其他区暂未公布相关政策,但预计其他区工商部门也会陆续跟进该政策。北京市某区工商局工作人员表示,该区已经暂停虚拟地址工商注册,企业进行
用户1335017
2018/03/09
1.9K0
早报:北京暂停虚拟地址工商注册 联合办公企业将受冲击
腾讯和字节待遇_字节和腾讯哪个值得去
大家好,我是鱼皮,最近这段时间,应该是正值大三的小伙伴最忙碌的时候,不少同学都在准备秋季校园招聘。
全栈程序员站长
2022/11/08
2.3K0
腾讯和字节待遇_字节和腾讯哪个值得去
如何构建智能空间的方法与应用
导读 7月13日,来自腾讯用户研究与体验设计部(简称:CDC)的陈晓畅及蔡羿围绕“如何构建智能空间的方法与应用“这一主题,在2017国际体验设计大会中开展了半天的专题工作坊。向参与工作坊的同行业伙伴们介绍了CDC在智能空间设计方向的沉淀和探索。以下为现场内容的整理和报道。 演讲主题:如何构建智能空间的方法与应用 演讲嘉宾:腾讯TEG用户研究与体验设计部 陈晓畅 蔡羿 随着智能时代的来临与城市化建设的发展,建筑中的智能设备与智能化应用越来越普遍。本次工作坊旨在于在短时间内,将腾讯CDC近年来在智慧旅游、
腾讯技术工程官方号
2018/01/30
1.7K0
如何构建智能空间的方法与应用
地球一小时 | 腾讯竟然用这种姿势关灯
今天是地球一小时日 估计大多数人参与关灯一小时的姿势 都是酱婶儿的↓↓↓ 或者酱紫的 What?已经9012年了!!! 为什么你还在用这么古老的关灯方式?! 是时候表演真正的技术了 正确的关灯姿势应该是这样的: (腾讯滨海大厦地球一小时熄灯) 其实,一秒关闭整幢教学楼的灯具,只是腾讯微瓴系统的基础操作。 微瓴还可实现一秒操控空调、电脑、安防等各种智能设备,它让建筑有了“大脑”。 以腾讯滨海大厦为例,腾讯云的开放平台接入大厦内的各类设施设备,让每一个设备都能在智慧化管理平台上不断交互,整个
鹅老师
2020/06/10
2K0
推荐阅读
相关推荐
北京互联网大厂办公楼巡礼:腾讯、阿里
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档