首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

#size

Transformers 4.37 中文文档(九十七)

ApacheCN_飞龙

X-CLIP 模型是由 Bolin Ni、Houwen Peng、Minghao Chen、Songyang Zhang、Gaofeng Meng、Jianlo...

6410

Transformers 4.37 中文文档(九十六)

ApacheCN_飞龙

VipLlava 模型是由 Mu Cai、Haotian Liu、Siva Karthik Mustikovela、Gregory P. Meyer、Yunin...

6410

Transformers 4.37 中文文档(九十三)

ApacheCN_飞龙

Pix2Struct 模型是由 Kenton Lee, Mandar Joshi, Iulia Turc, Hexiang Hu, Fangyu Liu, Ju...

5610

Transformers 4.37 中文文档(九十一)

ApacheCN_飞龙

MGP-STR 模型由 Peng Wang、Cheng Da 和 Cong Yao 在多粒度预测用于场景文本识别中提出。MGP-STR 是一个概念上简单但强大的...

12610

Transformers 4.37 中文文档(九十)

ApacheCN_飞龙

LiLT 模型在Jiapeng Wang, Lianwen Jin, Kai Ding 撰写的《LiLT: A Simple yet Effective Lan...

7010

Transformers 4.37 中文文档(八十七)

ApacheCN_飞龙

GroupViT 模型是由 Jiarui Xu、Shalini De Mello、Sifei Liu、Wonmin Byeon、Thomas Breuel、Ja...

7010

Transformers 4.37 中文文档(八十六)

ApacheCN_飞龙

DePlot 是由 Fangyu Liu, Julian Martin Eisenschlos, Francesco Piccinno, Syrine Kric...

9610

Transformers 4.37 中文文档(八十四)

ApacheCN_飞龙

中文 CLIP 模型是由 An Yang、Junshu Pan、Junyang Lin、Rui Men、Yichang Zhang、Jingren Zhou、C...

8610

Transformers 4.37 中文文档(八十二)

ApacheCN_飞龙

XLS-R 模型由 Arun Babu、Changhan Wang、Andros Tjandra、Kushal Lakhotia、Qiantong Xu、Nam...

7810

Transformers 4.37 中文文档(八十一)

ApacheCN_飞龙

Whisper 模型由 Alec Radford、Jong Wook Kim、Tao Xu、Greg Brockman、Christine McLeavey、I...

12010

Transformers 4.37 中文文档(七十三)

ApacheCN_飞龙

Vision Transformer(ViT)模型是由 Alexey Dosovitskiy、Lucas Beyer、Alexander Kolesnikov、...

6410

Transformers 4.37 中文文档(七十二)

ApacheCN_飞龙

Swin2SR 模型是由 Marcos V. Conde、Ui-Jin Choi、Maxime Burchi、Radu Timofte 在《Swin2SR:用于...

12010

Transformers 4.37 中文文档(六十九)

ApacheCN_飞龙

这是一个最近推出的模型,因此 API 尚未经过广泛测试。可能会有一些错误或轻微的破坏性更改,需要在未来修复。如果发现异常,请提交Github Issue。

6110

Transformers 4.37 中文文档(六十八)

ApacheCN_飞龙

一个长度为batch_size的列表,其中每个项是形状为(高度,宽度)的语义分割地图,对应于 target_sizes 条目(如果指定了target_sizes...

6010

Transformers 4.37 中文文档(六十七)

ApacheCN_飞龙

DiNAT 是由 Ali Hassani 和 Humphrey Shi 在扩张邻域注意力变换器中提出的。

4010

Transformers 4.37 中文文档(六十六)

ApacheCN_飞龙

n_state (torch.FloatTensor,形状为(batch_size, sequence_length, hidden_size)`,option...

11110

Transformers 4.37 中文文档(六十五)

ApacheCN_飞龙

条件 DETR 模型是由孟德普、陈晓康、范泽佳、曾刚、李厚强、袁宇辉、孙磊、王京东在用于快速训练收敛的条件 DETR中提出的。条件 DETR 提出了一种用于快速...

8610

Transformers 4.37 中文文档(六十四)

ApacheCN_飞龙

YOSO 模型提出于You Only Sample (Almost) Once: Linear Cost Self-Attention Via Bernoull...

8410

Transformers 4.37 中文文档(六十三)

ApacheCN_飞龙

XLM-RoBERTa-XL 模型是由 Naman Goyal、Jingfei Du、Myle Ott、Giri Anantharaman、Alexis Con...

11210

Transformers 4.37 中文文档(六十二)

ApacheCN_飞龙

**免责声明:**如果您看到异常情况,请提交GitHub 问题并指定@patrickvonplaten

11110
领券