前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >除了B站,还有A,C,D,E,F,G,H,I,J,K,L,M,N,O,P站

除了B站,还有A,C,D,E,F,G,H,I,J,K,L,M,N,O,P站

作者头像
Lvshen
发布于 2022-05-05 08:50:43
发布于 2022-05-05 08:50:43
11.4K0
举报

现在B站越来火。在B站上我们可以学习,看动漫,看短视频,看直播。当然你也可以自己做up主,发表视频。最近连小米创始人雷军也入驻B站了。然而,除了B站,还有A站,C站,D站,E站...。下面我们来看看这些有趣的网站。

A站

AcFun弹幕视频网

“网址:https://www.acfun.cn/

可以说是大陆第一家做弹幕视频的网站,也是中国二次元的发源地。拥有高质量的互动弹幕。大概网站内容丰富,涉及到动漫,娱乐,生活,音乐,游戏,科技,影视等等。现今已被快手收购。

B站

哔哩哔哩

“网址:https://www.bilibili.com/

非常全面的视频网站,而且可以创作分享自己的视频。类似国外的YouTuBe。视频内容涉及到方方面面。我记忆最深的就是B站2019年跨年晚会,这应该是第一个吃螃蟹的互联网公司了。邀请了众多明星参加,举办的很成功。

目前有很多明星都加入了B站,成为了up主。

如大佬雷布斯

还有超级努力的王者荣耀职业选手,QGFly。超强上单,我玩花木兰就是用为他入坑的。

个人认为B站的发展会越来越好。

C站

吐槽弹幕网

“网址:https://www.tucao.one/

C站的争议比较多,有人认为是名为『tucao』的弹幕网站,有人把CCTV简称为C站,而有的人认为某不可言明的草XXX是C站......。这里我介绍的是吐槽弹幕视屏网站。网站其宗旨是为广大动画、游戏爱好者提供一个欢乐有爱的弹屏吐槽平台。视频来源大多数视频都是来源于日本电视台的深夜动画,NICONICO动画,Youtube,或者是来源于bilibili,acfun等视频分享网站。

D站

嘀哩嘀哩

“网址:目前已经被封

上图纪念下曾经未封时的类似B站,提供免费的动漫,因版权问题,目前已经被封。

E站

E-Hentai

“https://e-hentai.org/news.php

E站全名E-hentai,是一个非营利性质的网络图片分享平台,目前里站可直接访问,但其表站需推倒墙娘才能进入。登陆用户可以上传动漫同人志、画册扫图、Cosplay资源等内容。网站的内容大多数是工口向的同人本。

F站

FAKKU

“网址:https://store.fakku.net/

FAKKU,动漫资源网站,包括各种美化工具等衍生产品。

G站

Gelbooru

“网址:https://gelbooru.com/

动漫图片搜索网站

H站

哈哩哈哩

“网址:https://www.halitv.com/

halihali,哈哩哈哩,也是一个关于二次元的综合视频站,总体来说和b站,A站等等类似,不过H站的分区做的还是不错的,简洁明了,让人一眼就能找到自己要去的分区。

I站

爱弹幕

“网址:https://idanmu.im/

全称“爱弹幕”,是一家弹幕视频分享网站,主要分享动漫资讯、番剧、漫画小说、游戏等资源。

J站

叽哩叽哩

“网址:https://www.jiligame.com/

感觉这个网站是搭在国外的服务器,打开速度很慢。同样这个网站也是做ACG内容分享。

K站

konachan

“网站:https://konachan.net/post

动漫壁纸网站。

L站

Lalilali

“网站:http://www.lalilali.com/

L站专注于最新电影的分享,最新大片免费下载,电影在线观看。

目前这个网站好像是无法访问了。

M站

猫耳FM

“网址:https://www.missevan.com/

M站(猫耳FM)是第一家弹幕音图站,同时也是中国声优基地,在这里可以听电台、音乐、翻唱、小说和广播剧,用二次元声音连接三次元。

N站

NICONICO动画

“网址:https://www.nicovideo.jp/

Niconico动画 (日文:ニコニコ动画)是NIWANGO公司2006年所提供的线上影片分享网站,常被简称为Niconico、N站或Nico等。与YouTube等影片共享网站相似,但Niconico动画提供观赏者可在影片上留言的功能,而留言会以弹幕的形式出现在影片上。

O站

Orzice

“网址:www.orzice.com

Orzice_冰尘网简称"O站",一个综合性的二次元ACGN爱好者社区,动漫美图,cosplay,漫展活动,300英雄等ACGN资源应有尽有。

P站

pixiv

“网址:https://www.pixiv.net/

一个原创插画网站。质量很高。网站需要FQ。

其实从D站开始,后面的网站就已经算是小众网站了,不过内容还是挺有趣的

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2020-08-10,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 Lvshen的技术小屋 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
使用Transformer 模型进行时间序列预测的Pytorch代码示例
时间序列预测是一个经久不衰的主题,受自然语言处理领域的成功启发,transformer模型也在时间序列预测有了很大的发展。本文可以作为学习使用Transformer 模型的时间序列预测的一个起点。
deephub
2024/01/29
1.3K1
使用Transformer 模型进行时间序列预测的Pytorch代码示例
【YOLOv8】YOLOv8改进系列(8)----替换主干网络之Swin Transformer
论文介绍了一种新的视觉Transformer模型——Swin Transformer,它旨在成为计算机视觉领域的通用骨干网络。Swin Transformer通过其独特的层次化结构和移位窗口(Shifted Windows)机制,解决了传统Transformer在视觉任务中的计算复杂度问题,并在图像分类、目标检测和语义分割等多个任务中取得了优异的性能。
HABuo
2025/03/19
2450
【YOLOv8】YOLOv8改进系列(8)----替换主干网络之Swin Transformer
图像恢复SwinIR: Image Restoration Using Swin Transformer
在图像超分辨率、图像去噪、压缩等图像修复(Image restoration)任务中,卷积神经网络目前仍然是主流。但是卷积神经网络有以下两个缺点:
JOYCE_Leo16
2024/03/19
1.2K0
图像恢复SwinIR: Image Restoration Using Swin Transformer
解析 Token to Token Vision Transformer
Vision Transformer!的提出让我们看到了Transformer模型在图像方向的潜力,但其有一些缺点,如需要超大型数据集(JFT)预训练,才能达到现在CNN的精度。本文分析了ViT的一些不合理之处:
BBuf
2021/03/11
7.7K0
带掩码的自编码器MAE详解和Pytorch代码实现
监督学习是训练机器学习模型的传统方法,它在训练时每一个观察到的数据都需要有标注好的标签。如果我们有一种训练机器学习模型的方法不需要收集标签,会怎么样?如果我们从收集的相同数据中提取标签呢?这种类型的学
deephub
2021/12/15
3.7K0
带掩码的自编码器MAE详解和Pytorch代码实现
深度学习应用篇-计算机视觉-图像分类3:ResNeXt、Res2Net、Swin Transformer、Vision Transformer等模型结构、实现、
相较于VGG的19层和GoogLeNet的22层,ResNet可以提供18、34、50、101、152甚至更多层的网络,同时获得更好的精度。但是为什么要使用更深层次的网络呢?同时,如果只是网络层数的堆叠,那么为什么前人没有获得ResNet一样的成功呢?
汀丶人工智能
2023/06/08
1.9K0
深度学习应用篇-计算机视觉-图像分类3:ResNeXt、Res2Net、Swin Transformer、Vision Transformer等模型结构、实现、
STF-顶会图像压缩方法
随着视觉应用的日益增多,图像压缩已经成为图像处理领域的一个重要研究课题。传统的图像压缩方法,如JPEG、JPEG2000等,主要依赖于手工设计的规则,虽然这些方法在一定程度上解决了图像存储和传输的问题,但在处理复杂纹理和细节方面存在局限性。近年来,基于卷积神经网络(CNN)的学习型图像压缩方法展示了优越的率失真性能。然而,CNN在捕捉局部冗余和非重复纹理方面仍存在不足,这限制了图像重建质量的进一步提升。
Srlua
2024/12/20
1320
STF-顶会图像压缩方法
【YOLOv8】YOLOv8改进系列(1)----替换主干网络之EfficientViT(CVPR2023)
EfficientViT:作者是来自香港中文大学和微软研究院的研究团队。论文的主要内容是提出了一种新型的高效视觉变换器(Vision Transformer,简称ViT)模型,这种模型旨在解决传统ViT在计算成本高、不适合实时应用的问题。
HABuo
2025/02/20
3270
【YOLOv8】YOLOv8改进系列(1)----替换主干网络之EfficientViT(CVPR2023)
mmdetection之DETR注释详解
本文记录 mmdetection 对 DETR 训练的流程,包括标签获取,transformer encoder&decoder,前向训练,以及各步骤中 tensor 的形状,仅供复习用处。mmdetection 版本为 2.11.0。
棒棒鸡不棒
2022/09/02
1.9K1
ChatGLM2 源码解析:`ChatGLMModel`
ApacheCN_飞龙
2023/10/13
5420
ChatGLM2 源码解析:`ChatGLMModel`
preprint版本 | 何凯明大神新作MAE | CVPR2022最佳论文候选
本文证明了蒙面自动编码器(MAE)是一种可扩展的计算机视觉自监督学习器。我们的MAE方法很简单:我们屏蔽输入图像的随机补丁并重建丢失的像素。
机器学习炼丹术
2021/12/06
1.3K0
preprint版本 | 何凯明大神新作MAE | CVPR2022最佳论文候选
Transformers 4.37 中文文档(九十三)
Pix2Struct 模型是由 Kenton Lee, Mandar Joshi, Iulia Turc, Hexiang Hu, Fangyu Liu, Julian Eisenschlos, Urvashi Khandelwal, Peter Shaw, Ming-Wei Chang, Kristina Toutanova 在《Pix2Struct: Screenshot Parsing as Pretraining for Visual Language Understanding》中提出的。
ApacheCN_飞龙
2024/06/26
3310
Transformers 4.37 中文文档(九十三)
解密Prompt系列8. 无需训练让LLM支持超长输入:知识库 & Unlimiformer & PCW & NBCE
这一章我们聊聊有哪些方案可以不用微调直接让大模型支持超长文本输入,注意这里主要针对无限输入场景。之前在BERT系列中我们就介绍过稀疏注意力和片段递归的一些长文本建模方案长文本建模 BigBird & Longformer & Reformer & Performer,不过以上方案无一例外都需要在训练阶段引入。针对当前大模型微调成本高的问题,更多研究放到如何在模型外部支持长文本输入。先讨论下为啥当前的大模型会在推理时存在输入长度的限制,主要有以下几点原因
风雨中的小七
2023/06/12
6K0
解密Prompt系列8. 无需训练让LLM支持超长输入:知识库 & Unlimiformer & PCW & NBCE
【图像分类】Vision Transformer理论解读+实践测试
Vision Transformer是2021年谷歌在ICLR上提出的算法,算法原理并不复杂,但是其价值是开创性的。它首次将NLP领域火热的Transformer模型架构移植到了CV领域,打破了这两个领域壁垒,并取得不错的成效。
zstar
2022/09/20
2.9K0
【图像分类】Vision Transformer理论解读+实践测试
Transformers 4.37 中文文档(七十七)
SeamlessM4T-v2 模型是由 Meta AI 的 Seamless Communication 团队在Seamless: Multilingual Expressive and Streaming Speech Translation中提出的。
ApacheCN_飞龙
2024/06/26
2980
MoA-Transformer | Swin-Transformer应该如何更好地引入全局信息?
基于Transformer的体系结构在自然语言处理(NLP)领域取得了巨大的成功。受Transformer在语言领域的巨大成功的启发,Vision Transformer被提出,并在ImageNet数据集上取得了优秀的性能。Vision Transformer就像NLP中的word token一样,将图像分割成patches并输入Transformer之中,并通过Transformer的几个multi-head self-attention层来建立远程依赖关系。
集智书童公众号
2022/02/11
9660
MoA-Transformer | Swin-Transformer应该如何更好地引入全局信息?
FAST-VQA(论文复现)
现实世界视频分辨率的提高对于深度视频质量评估(VQA)在效率与准确性之间提出了一个难题。一方面,保持原始分辨率将导致不可接受的计算成本。另一方面,现有的实践方法,如图像缩放和裁剪,会因为细节和内容的丢失而改变原始视频的质量,因此对质量评估是有害的。通过对人类视觉系统中的时空冗余以及视觉编码理论的研究,我们观察到,一个邻域周围的质量信息通常是相似的,这促使我们研究一种有效的、对质量敏感的邻域表征方案用于VQA。在这项工作中,我们提出了一种统一的方案,即时空网格小立方体采样(St-GMS),以获得一种新型样本,我们称之为片段。首先将全分辨率视频按照预设的时空网格划分为小型立方体,然后对齐时间上的质量代表进行采样,以组成用于VQA的片段。此外,我们设计了一个专门为片段量身定制的网络架构,即片段注意力网络(FANet)。利用片段和FANet,所提出的效率端到端的FAST-VQA和FasterVQA在所有VQA基准测试上的性能显著优于现有方法,同时仅需要1/1612的FLOPs,相较于当前最先进技术大幅降低。
Srlua
2024/11/30
1610
FAST-VQA(论文复现)
ChatGLM3 源码解析(一)
ApacheCN_飞龙
2024/03/05
5800
alphaFold2 | 模型细节之特征提取(三)
文章链接: https://www.ncbi.nlm.nih.gov/pmc/articles/PMC8371605/
机器学习炼丹术
2022/11/22
1.1K0
alphaFold2 | 模型细节之特征提取(三)
Transformers 4.37 中文文档(七十八)
Speech2Text2 模型与 Wav2Vec2 一起用于大规模自监督和半监督学习的语音翻译中提出的语音翻译模型,作者为 Changhan Wang,Anne Wu,Juan Pino,Alexei Baevski,Michael Auli,Alexis Conneau。
ApacheCN_飞龙
2024/06/26
2320
推荐阅读
相关推荐
使用Transformer 模型进行时间序列预测的Pytorch代码示例
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档