在阿里达摩院 ICLR2022 发表的论文《GiraffeDet: A Heavy-Neck Paradigm for Object Detection》中,他们提出了GiraffeDet,它具有极轻量级计算量的backbone和大计算量的neck,使得网络更关注于高分辨率特征图中空间信息和低分辨率特征图中语义信息的信息交互。同时在2022年11月底他们开源的DAMO YOLO中,再一次用到了GFPN的思想,他们基于queen-fusion的GFPN,加入了高效聚合网络(ELAN)和重参数化的思想,构成了一个新的Neck网络RepGFPN,乘着火热,本篇将在YOLOv6 Pro框架中,在YOLOV6的neck结构中改入RepGFPN,同样改进也可以在YOLOv5中实现。

惯例,介绍下YOLOv6 Pro框架!

 · YOLOv6 Pro 基于官方 YOLOv6 的整体架构,使用 YOLOv5 的网络构建方式构建一个 YOLOv6 网络,包括 backboneneckeffidehead 结构。
· 可以在 yaml 文件中任意修改或添加模块,并且每个修改的文件都是独立可运行的,目的是为了助力科研。
· 后续会基于 yolov5 和 yoloair 中的模块加入更多的网络结构改进。
· 预训练权重已经从官方权重转换,确保可以匹配。

· 预先发布了p6模型(非官方)

· 已经加入了一些其他改进模块,如RepGFPN,FocalTransformer,RepGhost,CoAtNet等

我们使用的 yoloair 和 YOLOv6 pro 框架在 IEEE UV 2022 "Vision Meets Alage" 目标检测竞赛中取得第一名!

项目链接:GitHub - yang-0201/YOLOv6_pro: Make it easier for yolov6 to change the network structure

感兴趣的小伙伴们可以点点Star和Fork,有问题可以及时反馈,项目初期,会对一些功能意见会进行采纳和开发,也欢迎志同道合的朋友来提PR,共同维护和开发项目,项目后续会持续更新和完善,敬请关注!

进入正题!

DAMO YOLO:论文地址 https://arxiv.org/pdf/2211.15444.pdf

这是整个DAMO YOLO的网络结构图,包括基于神经结构搜索NAS技术得到的MAE-NAS主干网络,RepGFPN和一个ZeroHead结构,我们今天主要关注的是RepGFPN结构,可以发现主要的模块是Fusion Block结构。

作者认为GFPN有效的主要原因之一是因为它可以充分交换高级语义信息和低级空间信息。在GFPN中,多尺度特征在前一层和当前层的层次特征中都被融合。更重要的是,log2(n)跳过层连接提供了更有效的信息传输,可以扩展到更深层次的网络。

同样,当他们在现代yolo系列模型上用GFPN直接替换原先的Neck结构后,可以获得了更高的精度。(后续可以尝试GFPN的替换)但是他们发现的问题在于基于GFPN的模型的延迟远远高于基于改进的panet的模型,所以精度的提升或许有些得不偿失。总结以下几个原因:

1. 不同尺度的特征图具有相同的通道维度;

2. queen-fusion的不能满足实时检测模型的要求;

3. 基于卷积的跨尺度特征融合效率低下;

基于GFPN,我们提出了一种新颖的高效——RepGFPN满足实时目标检测的设计,综合考虑这些原因,作者的思想有以下几点:

1. 由于不同尺度特征图的flop差异较大,在计算成本有限的约束下,很难控制每个尺度特征图共享的相同的通道数。

因此,在作者的的neck特征融合中,采用了不同通道维度的不同尺度特征图的设置。作者比较了相同和不同通道的性能以及neck深度和宽度的权衡,如下表

我们可以看到,通过灵活地控制不同尺度上的信道数量,我们可以获得比在所有尺度上共享相同通道数更高的精度。当深度等于3,宽度等于(96、192、384)时,可以获得最佳的性能。

2) GFPN通过queen-fusion增强了特征交互,但它也带来了大量额外的上采样和降采样操作。

作者比较了这些上采样和下采样操作的性能,结果如表所示

我们可以看到,额外的上采样操作导致延迟增加了0.6 ms,而精度的提高只有0.3mAP,远低于额外的下采样操作带来的性能提升。因此,在实时检测的约束下,我们去掉了queen-fusion中额外的上采样操作。

3. 在特征融合块中,我们首先用CSPNet替换原始的基于3x3卷积的特征融合,获得4.2 mAP增益。之后,我们通过结合重参数化机制和高效层聚合网络(ELAN)的连接来升级CSPNet。由于不带来额外巨大的计算负担,我们实现了更高的精度。比较的结果列于表中

经过论文中的介绍,相信大家已经对 RepGFPN的思想有所了解,下面来看看代码!

我参考DAMO YOLO 的源码在YOLOv6 Pro的框架中加入了RepGFPN结构,包括RepGFPN-T,RepGFPN-M,RepGFPN-S,分别加在了YOLOv6l和YOLOv6t中作为示例

先看yolov6l+RepGFPN-M结构的yaml文件:

depth_multiple: 1.0  # model depth multiple
width_multiple: 1.0  # layer channel multiple
backbone:# [from, number, module, args][[-1, 1, ConvWrapper, [64, 3, 2]],  # 0-P1/2[-1, 1, ConvWrapper, [128, 3, 2]],  # 1-P2/4[-1, 1, BepC3, [128, 6, "ConvWrapper"]],[-1, 1, ConvWrapper, [256, 3, 2]],  # 3-P3/8[-1, 1, BepC3, [256, 12, "ConvWrapper"]],[-1, 1, ConvWrapper, [512, 3, 2]],  # 5-P4/16[-1, 1, BepC3, [512, 18, "ConvWrapper"]],[-1, 1, ConvWrapper, [1024, 3, 2]],  # 7-P5/32[-1, 1, BepC3, [1024, 6, "ConvWrapper"]],[-1, 1, SPPF, [1024, 5]]]  # 9
neck:[[ 6, 1,ConvBNAct,[ 256, 3, 2, silu ] ],[ [ -1, 9 ], 1, Concat, [ 1 ] ], # 768[ -1, 1, RepGFPN, [ 512, 1.5, 1.0, silu ] ],  #  8[ -1, 1, nn.Upsample, [ None, 2, 'nearest' ] ],[ 4, 1,ConvBNAct,[ 128, 3, 2, silu ] ],[ [ -1, 6, 13 ], 1, Concat, [ 1 ] ], # 896[ -1, 1, RepGFPN, [ 256, 1.5, 1.0, silu ] ], # merge_4 12[ -1, 1, nn.Upsample, [ None, 2, 'nearest' ] ],[ [ -1, 4 ], 1, Concat, [ 1 ] ], # 384[ -1, 1, RepGFPN, [ 128, 1.5, 1.0, silu ] ], # 512+256  merge_5  15  out[ -1, 1,ConvBNAct,[ 128, 3, 2, silu ] ],[ [ -1, 16 ], 1, Concat, [ 1 ] ], # 384[ -1, 1, RepGFPN, [ 256, 1.5, 1.0, silu ] ], # 512+256  merge_7  18  out[ 16, 1,ConvBNAct,[ 256, 3, 2, silu ] ],[ -2, 1,ConvBNAct,[ 256, 3, 2, silu ] ],[ [ -1, 12, -2 ], 1, Concat, [ 1 ] ], # 1024[ -1, 1, RepGFPN, [ 512, 1.5, 1.0, silu ] ], # 512+512+1024 merge_6 22  out]effidehead:[[19, 1,Head_out , [128, 16]],[22, 1, Head_out, [256, 16]],[26, 1, Head_out, [512, 16]],[[27, 28, 29], 1, Out, []]]

对比下原图

其中各种颜色的模块就是ConvBNAct,是一个简单的卷积加标准化加relu/silu激活函数的模块。

Fusion Block就是主要的融合模块,对应yaml文件中的RepGFPN

输入为两个或者三个层,经过concat之后,分别用1x1卷积降通道,下方就是模仿ELAN的特征聚合模块,由N个Rep 3x3卷积和3x3卷积组成,不同层同时输出,再通过concat得到最终的输出。

输入RepGFPN的参数含义为[输出通道,深度系数,中间层通道的缩放因子,使用的激活函数类型],为了保持重Neck,轻Head的思想,我去掉了6的解耦头,换为了Head_out 做一个简单输出

yolov6t+RepGFPN-T结构的yaml文件:

depth_multiple: 0.33  # model depth multiple
width_multiple: 0.375  # layer channel multiple
backbone:# [from, number, module, args][[-1, 1, RepVGGBlock, [64, 3, 2]],  # 0-P1/2[-1, 1, RepVGGBlock, [128, 3, 2]],  # 1-P2/4[-1, 6, RepBlock, [128]],[-1, 1, RepVGGBlock, [256, 3, 2]],  # 3-P3/8[-1, 12, RepBlock, [256]],[-1, 1, RepVGGBlock, [512, 3, 2]],  # 5-P4/16[-1, 18, RepBlock, [512]],[-1, 1, RepVGGBlock, [1024, 3, 2]],  # 7-P5/32[-1, 6, RepBlock, [1024]],[-1, 1, SimSPPF, [1024, 5]]]  # 9
neck:[[ 6, 1,ConvBNAct,[ 192, 3, 2 ] ],[ [ -1, 9 ], 1, Concat, [ 1 ] ], # 576[ -1, 1, RepGFPN, [ 384, 1.0, 1.0 ] ],  #  8[ -1, 1, nn.Upsample, [ None, 2, 'nearest' ] ],[ 4, 1,ConvBNAct,[ 96, 3, 2 ] ],[ [ -1, 6, 13 ], 1, Concat, [ 1 ] ], # 672[ -1, 1, RepGFPN, [ 192, 1.0, 1.0 ] ], # merge_4 12[ -1, 1, nn.Upsample, [ None, 2, 'nearest' ] ],[ [ -1, 4 ], 1, Concat, [ 1 ] ], # 288[ -1, 1, RepGFPN, [ 64, 1.0, 1.0 ] ], #  merge_5  15  out[ -1, 1,ConvBNAct,[ 64, 3, 2 ] ],[ [ -1, 16 ], 1, Concat, [ 1 ] ], # 256[ -1, 1, RepGFPN, [ 128, 1.0, 1.0 ] ], #   merge_7  18  out[ 16, 1,ConvBNAct,[ 192, 3, 2 ] ],[ -2, 1,ConvBNAct,[ 128, 3, 2 ] ],[ [ -1, 12, -2 ], 1, Concat, [ 1 ] ], # 704[ -1, 1, RepGFPN, [ 256, 1.0, 1.0 ] ], #  merge_6 22  out]effidehead:[[19, 1,Head_out , [170, 0]],  ##170 * 0.375 = 64[22, 1, Head_out, [341, 0]],   ##341 * 0.375 = 128[26, 1, Head_out, [682, 0]],   ##682 * 0.375 = 256[[27, 28, 29], 1, Out, []]]

需要加入的代码为,在common.py中加入,或者自己新建一个RepGFPN.py文件,再在common.py中导入模块名称,

from yolov6.layers.damo_yolo import ConvBNAct,RepGFPN
import numpy as np
import torch
import torch.nn as nnclass RepGFPN(nn.Module):def __init__(self,in_channels,out_channels,depth=1.0,hidden_ratio = 1.0,act = 'relu',block_name='BasicBlock_3x3_Reverse',spp = False):super(RepGFPN, self).__init__()self.merge_3 = CSPStage(block_name,in_channels,hidden_ratio,out_channels,round(3 * depth),act=act)def forward(self,x):x = self.merge_3(x)return  x
class CSPStage(nn.Module):def __init__(self,block_fn,ch_in,ch_hidden_ratio,ch_out,n,act='swish',spp=False):super(CSPStage, self).__init__()split_ratio = 2ch_first = int(ch_out // split_ratio)ch_mid = int(ch_out - ch_first)self.conv1 = ConvBNAct(ch_in, ch_first, 1, act=act)self.conv2 = ConvBNAct(ch_in, ch_mid, 1, act=act)self.convs = nn.Sequential()next_ch_in = ch_midfor i in range(n):if block_fn == 'BasicBlock_3x3_Reverse':self.convs.add_module(str(i),BasicBlock_3x3_Reverse(next_ch_in,ch_hidden_ratio,ch_mid,act=act,shortcut=True))else:raise NotImplementedErrorif i == (n - 1) // 2 and spp:self.convs.add_module('spp', SPP(ch_mid * 4, ch_mid, 1, [5, 9, 13], act=act))next_ch_in = ch_midself.conv3 = ConvBNAct(ch_mid * n + ch_first, ch_out, 1, act=act)def forward(self, x):y1 = self.conv1(x)y2 = self.conv2(x)mid_out = [y1]for conv in self.convs:y2 = conv(y2)mid_out.append(y2)y = torch.cat(mid_out, axis=1)y = self.conv3(y)return y
class ConvBNAct(nn.Module):"""A Conv2d -> Batchnorm -> silu/leaky relu block"""def __init__(self,in_channels,out_channels,ksize,stride=1,act='relu',groups=1,bias=False,norm='bn',reparam=False,):super().__init__()# same paddingpad = (ksize - 1) // 2self.conv = nn.Conv2d(in_channels,out_channels,kernel_size=ksize,stride=stride,padding=pad,groups=groups,bias=bias,)if norm is not None:self.bn = get_norm(norm, out_channels, inplace=True)if act is not None:self.act = get_activation(act, inplace=True)self.with_norm = norm is not Noneself.with_act = act is not Nonedef forward(self, x):x = self.conv(x)if self.with_norm:x = self.bn(x)if self.with_act:x = self.act(x)return xdef fuseforward(self, x):return self.act(self.conv(x))
class BasicBlock_3x3_Reverse(nn.Module):def __init__(self,ch_in,ch_hidden_ratio,ch_out,act='relu',shortcut=True):super(BasicBlock_3x3_Reverse, self).__init__()assert ch_in == ch_outch_hidden = int(ch_in * ch_hidden_ratio)self.conv1 = ConvBNAct(ch_hidden, ch_out, 3, stride=1, act=act)self.conv2 = RepConv(ch_in, ch_hidden, 3, stride=1, act=act)self.shortcut = shortcutdef forward(self, x):y = self.conv2(x)y = self.conv1(y)if self.shortcut:return x + yelse:return y
def get_norm(name, out_channels, inplace=True):if name == 'bn':module = nn.BatchNorm2d(out_channels)else:raise NotImplementedErrorreturn module
class SPP(nn.Module):def __init__(self,ch_in,ch_out,k,pool_size,act='swish',):super(SPP, self).__init__()self.pool = []for i, size in enumerate(pool_size):pool = nn.MaxPool2d(kernel_size=size,stride=1,padding=size // 2,ceil_mode=False)self.add_module('pool{}'.format(i), pool)self.pool.append(pool)self.conv = ConvBNAct(ch_in, ch_out, k, act=act)def forward(self, x):outs = [x]for pool in self.pool:outs.append(pool(x))y = torch.cat(outs, axis=1)y = self.conv(y)return y
import torch.nn.functional as F
class Swish(nn.Module):def __init__(self, inplace=True):super(Swish, self).__init__()self.inplace = inplacedef forward(self, x):if self.inplace:x.mul_(F.sigmoid(x))return xelse:return x * F.sigmoid(x)
class RepConv(nn.Module):'''RepConv is a basic rep-style block, including training and deploy statusCode is based on https://github.com/DingXiaoH/RepVGG/blob/main/repvgg.py'''def __init__(self,in_channels,out_channels,kernel_size=3,stride=1,padding=1,dilation=1,groups=1,padding_mode='zeros',deploy=False,act='relu',norm=None):super(RepConv, self).__init__()self.deploy = deployself.groups = groupsself.in_channels = in_channelsself.out_channels = out_channelsassert kernel_size == 3assert padding == 1padding_11 = padding - kernel_size // 2if isinstance(act, str):self.nonlinearity = get_activation(act)else:self.nonlinearity = actif deploy:self.rbr_reparam = nn.Conv2d(in_channels=in_channels,out_channels=out_channels,kernel_size=kernel_size,stride=stride,padding=padding,dilation=dilation,groups=groups,bias=True,padding_mode=padding_mode)else:self.rbr_identity = Noneself.rbr_dense = conv_bn(in_channels=in_channels,out_channels=out_channels,kernel_size=kernel_size,stride=stride,padding=padding,groups=groups)self.rbr_1x1 = conv_bn(in_channels=in_channels,out_channels=out_channels,kernel_size=1,stride=stride,padding=padding_11,groups=groups)def forward(self, inputs):'''Forward process'''if hasattr(self, 'rbr_reparam'):return self.nonlinearity(self.rbr_reparam(inputs))if self.rbr_identity is None:id_out = 0else:id_out = self.rbr_identity(inputs)return self.nonlinearity(self.rbr_dense(inputs) + self.rbr_1x1(inputs) + id_out)def get_equivalent_kernel_bias(self):kernel3x3, bias3x3 = self._fuse_bn_tensor(self.rbr_dense)kernel1x1, bias1x1 = self._fuse_bn_tensor(self.rbr_1x1)kernelid, biasid = self._fuse_bn_tensor(self.rbr_identity)return kernel3x3 + self._pad_1x1_to_3x3_tensor(kernel1x1) + kernelid, bias3x3 + bias1x1 + biasiddef _pad_1x1_to_3x3_tensor(self, kernel1x1):if kernel1x1 is None:return 0else:return torch.nn.functional.pad(kernel1x1, [1, 1, 1, 1])def _fuse_bn_tensor(self, branch):if branch is None:return 0, 0if isinstance(branch, nn.Sequential):kernel = branch.conv.weightrunning_mean = branch.bn.running_meanrunning_var = branch.bn.running_vargamma = branch.bn.weightbeta = branch.bn.biaseps = branch.bn.epselse:assert isinstance(branch, nn.BatchNorm2d)if not hasattr(self, 'id_tensor'):input_dim = self.in_channels // self.groupskernel_value = np.zeros((self.in_channels, input_dim, 3, 3),dtype=np.float32)for i in range(self.in_channels):kernel_value[i, i % input_dim, 1, 1] = 1self.id_tensor = torch.from_numpy(kernel_value).to(branch.weight.device)kernel = self.id_tensorrunning_mean = branch.running_meanrunning_var = branch.running_vargamma = branch.weightbeta = branch.biaseps = branch.epsstd = (running_var + eps).sqrt()t = (gamma / std).reshape(-1, 1, 1, 1)return kernel * t, beta - running_mean * gamma / stddef switch_to_deploy(self):if hasattr(self, 'rbr_reparam'):returnkernel, bias = self.get_equivalent_kernel_bias()self.rbr_reparam = nn.Conv2d(in_channels=self.rbr_dense.conv.in_channels,out_channels=self.rbr_dense.conv.out_channels,kernel_size=self.rbr_dense.conv.kernel_size,stride=self.rbr_dense.conv.stride,padding=self.rbr_dense.conv.padding,dilation=self.rbr_dense.conv.dilation,groups=self.rbr_dense.conv.groups,bias=True)self.rbr_reparam.weight.data = kernelself.rbr_reparam.bias.data = biasfor para in self.parameters():para.detach_()self.__delattr__('rbr_dense')self.__delattr__('rbr_1x1')if hasattr(self, 'rbr_identity'):self.__delattr__('rbr_identity')if hasattr(self, 'id_tensor'):self.__delattr__('id_tensor')self.deploy = True
def get_activation(name='silu', inplace=True):if name is None:return nn.Identity()if isinstance(name, str):if name == 'silu':module = nn.SiLU(inplace=inplace)elif name == 'relu':module = nn.ReLU(inplace=inplace)elif name == 'lrelu':module = nn.LeakyReLU(0.1, inplace=inplace)elif name == 'swish':module = Swish(inplace=inplace)elif name == 'hardsigmoid':module = nn.Hardsigmoid(inplace=inplace)elif name == 'identity':module = nn.Identity()else:raise AttributeError('Unsupported act type: {}'.format(name))return moduleelif isinstance(name, nn.Module):return nameelse:raise AttributeError('Unsupported act type: {}'.format(name))
def conv_bn(in_channels, out_channels, kernel_size, stride, padding, groups=1):'''Basic cell for rep-style block, including conv and bn'''result = nn.Sequential()result.add_module('conv',nn.Conv2d(in_channels=in_channels,out_channels=out_channels,kernel_size=kernel_size,stride=stride,padding=padding,groups=groups,bias=False))result.add_module('bn', nn.BatchNorm2d(num_features=out_channels))return result

在yolo.py 中加入

elif m in [RepGFPN, ConvBnAct]:c1 = ch[f]c2 = args[0]args = [c1, c2, *args[1:]]

大功告成!

YOLOv6 Pro | YOLOv6网络魔改 (1) ——RepGFPN融合高效聚合网络(ELAN)和重参数化的目标检测Neck(来自DAMO-YOLO)相关推荐

  1. Oracle魔改linux,【更新】一键网络重装系统 - 魔改版(适用于Linux / Windows)

    本帖最后由 MeowLove 于 2020-9-21 15:34 编辑 简介 这还要介绍??懒得写了. 魔改版本及开源地址 最新版本:3.1.0(2020/09/15) 官方发布:https://ww ...

  2. CapsLock魔改大法——变废为宝实现高效编辑

    前言 CapsLock,也就是键盘左边中间那个大写锁定.平时很少会用到,跟shift功能重复不谈,更多的时候还会带来各种额外的麻烦. 一直以来的都是一个非常碍事讨厌的存在.就是这么一个垃圾键,偏偏却占 ...

  3. SOTA!目标检测开源框架YOLOv6 3.0版本来啦

    近日,美团视觉智能部发布了 YOLOv6 3.0 版本,再一次将目标检测的综合性能推向新高.YOLOv6-L6 检测精度和速度超越 YOLOv7-E6E,取得当前实时目标检测榜单 SOTA.本文主要介 ...

  4. 比Tiny YOLOv3小8倍,性能提升11个点,4MB的网络也能做目标检测

    在本文中,来自滑铁卢大学与 Darwin AI 的研究者提出了名为 YOLO Nano 的网络,他们通过人与机器协同设计模型架构大大提升了性能.YOLO Nano 大小只有 4.0MB 左右,比 Ti ...

  5. 计算机视觉算法——目标检测网络总结

    计算机视觉算法--目标检测网络总结 计算机视觉算法--目标检测网络总结 1. RCNN系列 1.1 RCNN 1.1.1 关键知识点--网络结构及特点 1.1.2 关键知识点--RCNN存在的问题 1 ...

  6. 基于并行附加特征提取网络的SSD地面小目标检测模型

    人工智能技术与咨询 来源:<电子学报> ,作者李宝奇等 摘 要: 针对SSD原始附加特征提取网络(Original Additional Feature Extraction Networ ...

  7. 目标检测网络(RCNN系列,SSD,Yolo系列)

    Table of Contents 深度学习相关的目标检测方法也可以大致分为两派 发展历程 基于区域提名的R-CNN家族对比总括 R-CNN(2014) SPP-Net Fast R-CNN(2015 ...

  8. retinanet 部署_RetinaNet: Focal loss在目标检测网络中的应用

    介绍 RetinaNet是2018年Facebook AI团队在目标检测领域新的贡献.它的重要作者名单中Ross Girshick与Kaiming He赫然在列.来自Microsoft的Sun Jia ...

  9. 别魔改网络了,Google研究员:模型精度不高,是因为你的Resize方法不够好

    作者丨小马 编辑丨极市平台 本文原创首发于极市平台公众号,转载请获得授权并标明出处. [写在前面] 尽管近年来卷积神经网络很大地促进了计算机视觉的发展,但一个重要方面很少被关注:图像大小对被训练的任务 ...

最新文章

  1. 分布式系统咋做同步?虐死人!
  2. webpack+vue实践
  3. 算法--------------整数反转
  4. aspose java_Aspose.Cells for Java
  5. python世界第一语言_Java 跌落神坛!Python 正式登顶世界第一编程语言
  6. 循环遍历多层json_面试官:JSON.stringify() 实现深拷贝有什么问题
  7. Linux fwrite 什么时候刷新,linux的fwrite()使用方法,当前时间写入文本的程序
  8. spring心得6--自动装配知识点讲解及案例分析
  9. React之props批量传递
  10. oracle能查dml记录么,如何查询DML操作的详细记录
  11. django 视图-----视图函数
  12. PPT无法直接在页面上播放插入的MP4视频
  13. ROS学习笔记二:探索ROS文件系统
  14. 后缀数组(bzoj 1031: [JSOI2007]字符加密Cipher)
  15. 企业 IT 架构转型之道 阿里巴巴中台战略思想与架构实战
  16. STM32H7+LAN8720A之ETH与LWIP配置问题(End)
  17. 工业机器人的臂部配置形式_工业机器人臂部设计注意事项
  18. win7nodejs压缩包配置环境变量
  19. 华为系统云服务器地址,华为系统云服务器地址
  20. uni-app提交表单成功之后跳转首页

热门文章

  1. 声音克隆,精致细腻,人工智能AI打造国师“一镜到底”鬼畜视频,基于PaddleSpeech(Python3.10)
  2. mysql定义大字段longtxt_mysql中text,longtext,mediumtext等字段类型的意思,以及区别
  3. android 静态链接libc,静态链接任何库会导致libc无法链接
  4. YOLOv5核心基础知识讲解
  5. 洛谷P1101 单词方阵 (C语言 + 详细注释 + 五妙)
  6. 【翻译】可重复可复现的机器学习在生产中的12个要素
  7. hp36A/88A注意点
  8. 安装Git和注册GitHub账号
  9. python自定义模块导入失败_python导入自定义模块失败怎么解决
  10. Kotlin基础语法(上)