首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

第三章(1.6)tensorflow cross_entropy 四种交叉熵计算函数

:本质上是不用的参数,不用填 labels:一个和logits具有相同的数据类型(type)和尺寸形状(shape)的张量(tensor) shape:[batch_size,num_classes],...再计算它们的交叉熵,但是它对交叉熵的计算方式进行了优化,使得结果不至于溢出 它适用于每个类别相互独立但互不排斥的情况:例如一幅图可以同时包含一条狗和一只大象 2、tf.nn.softmax_cross_entropy_with_logits...[i]必须是一个有效的概率分布,one_hot=True(向量中只有一个值为1,其他值为0) logits:labels和logits具有相同的数据类型(type)和尺寸(shape) shape:[batch_size...=None) 计算具有权重的sigmoid交叉熵sigmoid_cross_entropy_with_logits() _sentinel:本质上是不用的参数,不用填 labels:一个和logits具有相同的数据类型...(type)和尺寸形状(shape)的张量(tensor) shape:[batch_size,num_classes],单样本是[num_classes] logits:一个数据类型(type)是float32

1.5K50
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    tf.nn

    注意:对于这个操作,给定标签的概率被认为是排他的。也就是说,不允许使用软类,标签向量必须为每一行logits(每一个minibatch条目)的真正类提供一个特定的索引。...logits必须具有float16、float32或float64的dtype,标签必须具有int32或int64的dtype。注意,为了避免混淆,只需要将命名参数传递给这个函数。...labels:形状张量[d_0, d_1,…], d_{r-1}](其中r为标签和结果的秩)和dtype int32或int64。标签中的每个条目必须是[0,num_classes]中的索引。...这些活化能被解释为非标准化的对数概率。name:操作的名称(可选)。返回值:一个与标签形状相同,与logits类型相同的张量,具有softmax交叉熵。...可能产生的异常:ValueError: If logits are scalars (need to have rank >= 1) or if the rank of the labels is not

    1.6K10

    TF图层指南:构建卷积神经网络

    要指定输出张量应该与输入张量具有相同的宽度和高度值,我们padding=same在这里设置,它指示TensorFlow向输出张量的边缘添加0个值,以保持宽度和高度28....我们的输出张力conv2d()具有与输入相同的宽度和高度尺寸的形状 ,但现在有32个通道保持每个滤镜的输出。...我们的max_pooling2d()(pool1)产生的输出张量具有以下形状 :2x2过滤器将宽度和高度降低了50%。...conv2 具有与(由于)相同的宽度和高度的形状,并且应用64个滤波器的64个通道。...每个例子都有7(pool2宽)* 7(pool2高)* 64(pool2通道)功能,所以我们希望features维度的值为7 * 7 * 64(总共3136)。输出张量pool2_flat具有形状 。

    2.4K50

    Transformers 4.37 中文文档(六十九)

    返回的 logits 不一定与作为输入传递的pixel_values具有相同的大小。这是为了避免进行两次插值并在用户需要将 logits 调整为原始图像大小时丢失一些质量。...返回的 logits 不一定与作为输入传递的pixel_values具有相同的大小。这是为了避免进行两次插值并在用户需要将 logits 调整为原始图像大小时丢失一些质量。...logits(形状为(batch_size, config.num_labels, logits_height, logits_width)的tf.Tensor)- 每个像素的分类分数。...返回的 logits 不一定与作为输入传递的pixel_values具有相同的大小。这是为了避免进行两次插值并在用户需要将 logits 调整为原始图像大小时丢失一些质量。...返回的 logits 不一定与作为输入传递的`pixel_values`具有相同的大小。

    20810

    Transformers 4.37 中文文档(九十二)

    使用 OWLv2 与 OWL-ViT 相同,但使用新的、更新的图像处理器(Owlv2ImageProcessor)。...返回 image_features(形状为(batch_size, output_dim)的torch.FloatTensor 通过将投影层应用于 Owlv2VisionModel 的汇聚输出获得的图像嵌入...必须向模型提供输入(可以是文本、图像、音频等),模型将使用这些输入与潜在变量进行交叉注意力。Perceiver 编码器的输出是相同形状的张量。...感知器编码器的多模态预处理。 对每个模态进行预处理,然后使用可训练的位置嵌入进行填充,以具有相同数量的通道。...logits(形状为(batch_size, config.num_labels)的torch.FloatTensor) — 分类(如果config.num_labels==1则为回归)分数(SoftMax

    34110

    TensorFlow 高效编程

    我们定义参数函数为g(x,w)= w0 x ^ 2 + w1 x + w2,它是输入x和潜在参数w的函数,我们的目标是找到潜在参数,使得g(x, w)≈f(x)。...二、理解静态和动态形状 在 TensorFlow 中,tensor有一个在图构建过程中就被决定的静态形状属性, 这个静态形状可以是未规定的,比如,我们可以定一个具有形状[None, 128]大小的tensor...正常情况下,当你想要进行一些操作如加法,乘法时,你需要确保操作数的形状是相匹配的,如:你不能将一个具有形状[3, 2]的张量和一个具有[3,4]形状的张量相加。...但是,这里有一个特殊情况,那就是当你的其中一个操作数是一个某个维度为一的张量的时候,TF 会隐式地填充它的单一维度方向,以确保和另一个操作数的形状相匹配。...小提示:如果你没有显式地定义一个新的计算图,TF 将会自动地为你构建一个默认的计算图。你可以使用tf.get_default_graph()去获得一个计算图的句柄,然后,你就可以查看这个计算图了。

    1.6K10

    Transformers 4.37 中文文档(九十四)

    对于推断,只需要向模型提供input_ids、attention_mask和token_type_ids(可以使用 TapasTokenizer 获得)即可获得 logits。...queries (str 或 List[str]) — 与要编码的表格相关的问题或问题批次。请注意,在批处理的情况下,所有问题必须引用相同的表格。...logits_agg (torch.Tensor 或 tf.Tensor,形状为 (batch_size, num_aggregation_labels),可选) — 包含聚合 logits 的张量。...Tapas 模型具有用于表格问答任务的单元选择头和可选的聚合头(用于计算 logits 和可选的 logits_aggregation 的隐藏状态输出上的线性层),例如用于 SQA、WTQ 或 WikiSQL...logits (tf.Tensor,形状为 (batch_size, config.num_labels)) — 分类(或者如果config.num_labels==1则为回归)得分(SoftMax 之前

    24710

    Transformers 4.37 中文文档(七十)

    logits(形状为(batch_size, config.num_labels)的torch.FloatTensor) — 分类(如果 config.num_labels==1 则为回归)分数(SoftMax...logits(形状为 (batch_size, config.num_labels, logits_height, logits_width) 的 torch.FloatTensor)— 每个像素的分类分数...返回的 logits 不一定与作为输入传递的 pixel_values 具有相同的大小。这是为了避免进行两次插值并在用户需要将 logits 调整为原始图像大小时丢失一些质量。...logits(形状为(batch_size, config.num_labels)的torch.FloatTensor)— 分类(如果config.num_labels==1则为回归)得分(SoftMax...logits(形状为(batch_size, config.num_labels)的jnp.ndarray)—分类(如果config.num_labels==1则为回归)得分(SoftMax 之前)。

    17910

    Transformers 4.37 中文文档(六十四)

    在长距离竞技场(LRA)基准测试中,用于评估长序列性能,我们的方法实现了与 softmax 自注意力一致的结果,但具有可观的加速和内存节省,并且通常优于其他高效的自注意力方法。...YOSO 模型在顶部具有用于提取问答任务(如 SQuAD)的跨度分类头(在隐藏状态输出顶部的线性层上计算span start logits和span end logits)。...由于 BEiT 模型期望每个图像具有相同的大小(分辨率),可以使用 BeitImageProcessor 来调整(或重新缩放)和规范化图像以供模型使用。...logits(形状为(batch_size, config.num_labels, logits_height, logits_width)的torch.FloatTensor)- 每个像素的分类分数。...返回的 logits 不一定与作为输入传递的pixel_values具有相同的大小。这是为了避免进行两次插值并在用户需要将 logits 调整为原始图像大小时丢失一些质量。

    15610

    Transformers 4.37 中文文档(四十)

    rope_scaling (Dict, 可选) — 包含 RoPE 嵌入的缩放配置的字典。当前支持两种缩放策略:线性和动态。它们的缩放因子必须是大于 1 的浮点数。...rope_scaling(Dict,可选)— 包含 RoPE 嵌入的缩放配置的字典。目前支持两种缩放策略:线性和动态。它们的缩放因子必须是大于 1 的浮点数。...logits (torch.FloatTensor,形状为(batch_size, config.num_labels)) — 分类(如果config.num_labels==1则为回归)得分(SoftMax...loss(形状为(1,)的tf.Tensor,可选,当提供labels时返回)— 总跨度提取损失是起始和结束位置的交叉熵之和。...logits (tf.Tensor,形状为(batch_size, config.num_labels)) — 分类(如果config.num_labels==1则为回归)分数(SoftMax 之前)。

    54910

    Transformers 4.37 中文文档(五十四)

    此方法类似于常规call方法,但具有以下区别: 处理额外的候选项轴。(批次大小,候选项数,文本) 始终将序列填充到max_length。...返回 BatchEncoding 编码的文本或文本对。 编码一批文本或文本对。此方法类似于常规的call方法,但具有以下区别: 处理额外的 num_candidate 轴。...(ns1, ns2),其乘积必须等于config.max_embedding_size,在训练期间必须等于input_ids的序列长度。...本地自注意力 局部自注意力本质上是一个“普通”的自注意力层,具有键、查询和值投影,但被分块处理,以便在每个长度为config.local_chunk_length的块中,查询嵌入向量只关注其块中的键嵌入向量以及...RemBERT 模型在顶部具有一个用于提取问答任务的跨度分类头(在隐藏状态输出的线性层上计算span start logits和span end logits)。

    20710

    Transformers 4.37 中文文档(二十九)

    DeBERTa 模型在顶部具有用于提取式问答任务(如 SQuAD)的跨度分类头(在隐藏状态输出的线性层上计算跨度起始 logits和跨度结束 logits)。...logits(形状为(batch_size, config.num_labels)的tf.Tensor)— 分类(如果config.num_labels==1则为回归)得分(SoftMax 之前)。...与 BERT 相同但更小。通过对预训练的 BERT 模型进行蒸馏训练,意味着它已经被训练以预测与较大模型相同的概率。...实际目标是以下组合: 找到与教师模型相同的概率 正确预测掩码标记(但没有下一个句子的目标) 学生和教师模型的隐藏状态之间的余弦相似度 资源 Hugging Face 官方和社区(表示...logits(形状为(batch_size, config.num_labels)的jnp.ndarray) — 分类(如果config.num_labels==1则为回归)分数(SoftMax 之前)

    40010

    Transformers 4.37 中文文档(七十一)

    返回的 logits 不一定与传入的pixel_values具有相同的大小。这是为了避免进行两次插值并在用户需要将 logits 调整为原始图像大小时丢失一些质量。...logits(形状为(batch_size, config.num_labels)的tf.Tensor)— 分类(如果config.num_labels==1则为回归)得分(SoftMax 之前)。...logits (tf.Tensor,形状为 (batch_size, config.num_labels, logits_height, logits_width)) — 每个像素的分类分数。...返回的对数不一定与作为输入传递的 pixel_values 具有相同的大小。这是为了避免进行两次插值并在用户需要将对数调整为原始图像大小时丢失一些质量。...尽管已经提出了混合方法来结合卷积和自注意力的优势,以获得更好的速度-准确度权衡,但自注意力中昂贵的矩阵乘法运算仍然是一个瓶颈。

    39910

    Transformers 4.37 中文文档(五十八)

    乘积QKTQK^{T}QKT 然后具有形状seq_len x seq_len,我们可以将其与VVV 进行矩阵乘积,得到与其他相同形状的输出OOO。...它们基本上是相同的,只是一个还具有 QASS 层的预训练权重(tau/splinter-base-qass 和 tau/splinter-large-qass),另一个没有(tau/splinter-base...如果为 None,则批处理中每个序列中的第一个问题标记将是唯一一个计算start_logits和end_logits的标记,它们的形状将为(batch_size, sequence_length)。...如果给定,start_logits 和 end_logits 将具有形状(batch_size, num_questions, sequence_length)。...如果为 None,则批处理中每个序列中的第一个问题标记将是唯一一个计算 start_logits 和 end_logits 的标记,并且它们将具有形状(batch_size, sequence_length

    14210
    领券