本文尝试使用最新的BCN改进YoloV8,在我自己的数据集上实现了涨点。
归一化技术已被广泛应用于深度学习领域,因为它们能够提高学习率并减少对初始化的依赖。然而,流行的归一化技术的有效性通常仅限于特定领域。与标准的批量归一化(Batch Normalization,BN)和层归一化(Layer Normalization,LN)不同,其中BN沿(N,H,W)维度计算均值和方差,而LN沿(C,H,W)维度计算均值和方差(N、C、H和W分别是批量、通道、空间高度和宽度维度),本文提出了一种名为批量通道归一化(Batch Channel Normalization,BCN)的新型归一化技术。为了利用通道和批次的依赖性,并基于特定数据集或任务自适应地结合BN和LN的优点,BCN分别沿(N,H,W)和(C,H,W)轴对输入进行归一化,然后根据自适应参数组合归一化的输出。作为基本块,BCN可以轻松集成到计算机视觉领域的各种现有模型中。实验结果表明,所提出的技术可以无缝应用于各种版本的CNN或Vision Transformer架构。代码可在https://github.com/AfifaKhaled/BatchChannel-Normalization上公开获取。
完整链接:
https://jingjing.blog.csdn.net/article/details/135585684?spm=1001.2014.3001.5502
YOLOv8l summary (fused): 268 layers, 43631280 parameters, 0 gradients, 165.0 GFLOPs
Class Images Instances Box(P R mAP50 mAP50-95): 100%|██████████| 29/29 [
all 230 1412 0.922 0.957 0.986 0.737
c17 230 131 0.973 0.992 0.995 0.825
c5 230 68 0.945 1 0.995 0.836
helicopter 230 43 0.96 0.907 0.951 0.607
c130 230 85 0.984 1 0.995 0.655
f16 230 57 0.955 0.965 0.985 0.669
b2 230 2 0.704 1 0.995 0.722
other 230 86 0.903 0.942 0.963 0.534
b52 230 70 0.96 0.971 0.978 0.831
kc10 230 62 0.999 0.984 0.99 0.847
command 230 40 0.97 1 0.995 0.811
f15 230 123 0.891 1 0.992 0.701
kc135 230 91 0.971 0.989 0.986 0.712
a10 230 27 1 0.555 0.899 0.456
b1 230 20 0.972 1 0.995 0.793
aew 230 25 0.945 1 0.99 0.784
f22 230 17 0.913 1 0.995 0.725
p3 230 105 0.99 1 0.995 0.801
p8 230 1 0.637 1 0.995 0.597
f35 230 32 0.939 0.938 0.978 0.574
f18 230 125 0.985 0.992 0.987 0.817
v22 230 41 0.983 1 0.995 0.69
su-27 230 31 0.925 1 0.995 0.859
il-38 230 27 0.972 1 0.995 0.811
tu-134 230 1 0.663 1 0.995 0.895
su-33 230 2 1 0.611 0.995 0.796
an-70 230 2 0.766 1 0.995 0.73
tu-22 230 98 0.984 1 0.995 0.831
YOLOv8l summary: 518 layers, 43754544 parameters, 0 gradients, 165.5 GFLOPs
Class Images Instances Box(P R mAP50 mAP50-95): 100%|██████████| 15/15 [00:02<00:00, 6.53it/s]
all 230 1412 0.968 0.961 0.99 0.752
c17 230 131 0.979 0.992 0.995 0.817
c5 230 68 0.969 0.93 0.992 0.84
helicopter 230 43 0.976 0.977 0.979 0.595
c130 230 85 0.999 0.976 0.988 0.65
f16 230 57 1 0.925 0.991 0.673
b2 230 2 0.919 1 0.995 0.723
other 230 86 0.968 0.919 0.978 0.547
b52 230 70 0.981 0.971 0.98 0.836
kc10 230 62 1 0.972 0.988 0.826
command 230 40 0.994 1 0.995 0.844
f15 230 123 0.984 0.976 0.993 0.702
kc135 230 91 0.987 0.989 0.991 0.704
a10 230 27 1 0.478 0.936 0.456
b1 230 20 1 0.975 0.995 0.764
aew 230 25 0.952 1 0.995 0.797
f22 230 17 0.888 1 0.995 0.735
p3 230 105 1 0.97 0.995 0.804
p8 230 1 0.869 1 0.995 0.796
f35 230 32 0.989 0.906 0.987 0.534
f18 230 125 0.977 0.984 0.992 0.829
v22 230 41 0.995 1 0.995 0.738
su-27 230 31 0.986 1 0.995 0.856
il-38 230 27 0.99 1 0.995 0.871
tu-134 230 1 0.841 1 0.995 0.895
su-33 230 2 0.981 1 0.995 0.796
an-70 230 2 0.904 1 0.995 0.852
tu-22 230 98 0.998 1 0.995 0.823