Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >Nature Reviews Neuroscience:迈向一个有生物学注解的大脑连接体

Nature Reviews Neuroscience:迈向一个有生物学注解的大脑连接体

原创
作者头像
悦影科技
发布于 2023-12-08 02:28:37
发布于 2023-12-08 02:28:37
2680
举报

大脑是一个交错的神经回路网络。在现代连接组学中,大脑连接通常被编码为节点和边的网络,抽象出局部神经元群的丰富生物细节。然而,网络节点的生物学注释——如基因表达、细胞结构、神经递质受体或内在动力学——可以很容易地测量并覆盖在网络模型上。在这里,我们回顾了如何将连接体表示为注释网络并进行分析。带注释的连接体使我们能够重新定义网络的结构特征,并将大脑区域的连接模式与其潜在的生物学联系起来。新出现的研究表明,带注释的连接体有助于建立更真实的大脑网络形成、神经动力学和疾病传播模型。最后,注释可用于推断全新的区域间关系,并构建补充现有连接体表示的新型网络。总之,生物学注释的连接体提供了一种令人信服的方法来研究与局部生物学特征相一致的神经连接。

1. 简介

成像和追踪技术的进步产生了越来越详细的神经系统接图。这些被称为连接体的接线图编码了神经元素之间的连接模式。在过去的15年中,主要的范式是将连接体表示为,其中节点表示单个神经元或神经元群,边表示解剖投射或功能相互作用。

图模型已经成为网络神经科学的通用语言,有助于量化大脑网络的架构特征。其中包括区域特定的连接概况,功能相似的区域形成空间连续社区的趋势,以及促进信号整合的一小部分不成比例的良好连接的枢纽节点。这些特征已经在多个空间尺度和重建技术以及多种模式生物中被观察到,包括无脊椎动物、鸟类、啮齿动物、猫科动物和灵长类动物。这些无所不在的结构特征表明了大脑连接体的保守和普遍的连接原则。

然而,连接体通常被表示和分析为具有相同节点的图,抽象掉了可能驱动宏观结构-功能耦合的重要微观结构特征(包括细胞结构、神经递质受体谱和层流分化)。神经元群之间的宏观连接如何与它们的微观特征相关?伴随而来的成像技术和数据科学的进步,使我们能够生成和获取跨多种模式的高分辨率大脑地图。通过将这些生物注释图叠加到连接体上,我们可以在神经科学中生成一种新的数据对象:注释连接体

在这里,我们回顾了注释连接组学的新兴领域。我们认为,丰富了生物学特征的连接组表征为量化和阐明大脑网络组织开辟了根本的新途径。我们回顾了新的发现,以及经典的和新兴的理论,如何局部注释与神经连接。然后,我们探讨了方法和概念上的进步,包括适应注释网络的网络理论测量,将注释纳入网络形成、网络功能和疾病传播的动态模型,以及解开注释与大脑网络拓扑和几何之间的关系。最后,我们概述了如何使用生物注释重建全新的连接模式类。在整个过程中,我们专注于一个单一的主题:通过联合考虑连接体结构和生物学注释,可以解决关于大脑组织的哪些新问题?

2. 拥抱区域异质性

连接组学的传统工作流程是将大脑分割成一组离散的区域,并关注它们的连接模式。多个子领域松散地串联出现,重点是使用网络理论方法量化建筑特征,使用连接模式识别个体,将连接模式与认知和行为联系起来,分离疾病的连接标记,绘制跨系统发育和个体发生的连接模式。所有这些方法都隐含着大脑区域是相同的想法,因为这些方法都没有明确考虑到节点生物学的差异

然而,使用各种组织学、成像和记录技术的标准方案,如微阵列和单细胞测序、显微镜、放射自显影、磁共振成像(MRI)、脑电图(EEG)和脑磁图(MEG)以及正电子发射断层扫描(PET),可以很容易地生成高分辨率的大脑地图。这些图谱描绘了多种结构和功能属性的空间分布,包括基因转录、神经递质受体和转运体、细胞密度、细胞类型和形态、层流分化、髓鞘形成、灰质形态、进化和发育扩张、代谢、内在电磁动力学和血流动力学。网络节点也可以使用元分析特征进行注释,例如在特定任务期间激活的倾向或疾病脆弱性。在网络神经科学中,节点也传统地根据它们与更大的离散类(例如,内在网络或皮质类型)的隶属关系进行注释。最后,我们注意到网络边可以类似地用生物元数据进行注释(框1)。这些地图越来越多地通过开放访问的存储库和工具箱共享,协同努力标准化坐标系统和工作流程。

我们如何使用这些数据集来构建一个带注释的连接体?一旦有了生物图谱,对连接体进行注释就很简单了。生物地图中的顶点或体素值根据用于重建连接体的相同图谱被细分为分区(图1)。最常见的方法是取平均值,但也可以采用其他方法,如中位数第一主成分。如果注释没有在表面上密集采样,例如基因转录的微阵列探针或皮质电图中的颅内电极,则有必要确保离散样本与适当的分区相匹配。理想情况下,在注释中,分区边界应与空间变化对齐,以优化分区内均匀性和分区间分化。通过用生物注释给网络节点“上色”,我们现在有了丰富的大脑表征,这为发现打开了根本性的新机会。

图1 构造一个带注释的连接体。

3. 注释和神经连接

一旦生物特征图被分割并用于注释大脑网络,很自然地要问两个大脑区域的注释与它们之间的连接是如何相关的。许多研究已经探索了大脑区域是否表现出同质性混合:连接的区域比不连接的区域更相似。这种简单的布线原理似乎在广泛的属性中普遍存在,包括基因表达,细胞结构(例如,层状分化,神经元密度和形态,皮质内髓鞘),健康和临床人群的形态测定,神经递质受体和局部神经动力学。总的来说,这些结果可能反映了在发育过程中引导轴突形成的分子和基因组梯度的影响,从而导致具有相似属性的神经群体之间的连通性。在实践中,同质性混合可以很容易地使用网络理论的分类统计来量化:连接节点对之间注释值的相关性(图2a)。尽管同质性主要用于评估枢纽节点相互连接的趋势(度同质性),但这一概念更为普遍,可用于量化任何生物注释的同质性。

注释和连接性之间的关系通常被概念化为同质混合。一个未被充分探索的方向是考虑异质混合,即具有不同类别或类型注释的区域是否倾向于连。例如,富集于特定细胞类型的群体是否更倾向于与富集于不同细胞类型的神经群体相联系,或者表达特定神经递质受体的群体是否与表达不同神经递质受体的群体相联系?事实上,皮质层之间的连接是高度结构化的,具有特定层流和细胞结构特征的大脑区域之间的连接模式是不均匀的。同样,慢效和速效神经递质系统之间的相互作用在时间尺度上协调功能,从觉醒到目标导向行为。然而,受体类型之间的连接介导的混合尚不完全清楚。定量研究生物注释之间的异质性混合是理解细胞结构、化学结构和皮质-皮质连接之间复杂相互作用的一个令人兴奋的新前沿。

一个突出的例子是神经线路如何证明同质和异质混合来自非人类灵长类动物的神经解剖束追踪研究。这些研究检查了神经投射源和目标皮层区域的细胞结构,从而形成了一种称为结构模型的神经布线理论。有趣的是,他们观察到异质性混合,即从低分化到高分化区域的反馈连接起源于深层(V层和VI层),主要终止于上层(I层)。同样,从高分化区域到低分化区域的前馈连接起源于上层III层,终止于中间层(深层III层至上层V层)。这些研究还观察到同源性混合,即具有相似层流分化的区域通过起源于和终止于皮层所有层的神经投射连接起来。换句话说,神经投射模式取决于连接是亲同还是异质(从层流结构的角度来看)。生物学注释的连接体使这些理论扩展到整个人类大脑,以及层压以外的特征成为可能。

4. 注释和网络架构

除了连接和注释之间的统计关联之外,我们接下来将注意力转向在连接组学中被广泛研究的网络特征。标志性特征,如节点形成专门模块或社区的趋势,高度互联的中心的存在,以及支持集成的通信途径,可以从生物注释的角度重新定义。在这里,我们考虑如何通过结合有关生物属性的信息来丰富图论中的概念。

传统上,中枢被定义为与大脑其他部分不成比例地良好连接的大脑区域(图2b)。它们被认为在功能上很重要,并且在十多年来一直受到该领域的关注。中枢显示出特有的活动模式,以缓慢波动和高度自相关为主,这与具有许多输入的区域在更长的时间尺度和跨感官模式上整合信息的概念一致。这些神经群的生物学特征是什么,使它们适合整合和传播信号?在微观尺度上,中枢区域由具有更大树突树和更多树突棘的神经元组成,可能是为了增强整合能力。这反映在它们的转录组谱上:中枢区域显示出与树突和突触发育相关的基因转录较多。中枢也表现出更多分化的层流组织和更大的第三层神经元,这被认为支持远距离皮质-皮质通讯。这种复杂结构的能量消耗有充分的文献记载:中枢往往具有更高的代谢活性,代谢相关基因的转录更高,脑血流量更高,葡萄糖代谢更高,有氧糖酵解更高。也许正因为如此,中枢节点也更容易受到特定神经系统疾病的影响,表现出更大的皮质异常,更多的错误折叠蛋白积累,以及更多的疾病特异性风险基因表达

连接体的另一个被充分研究的特征是社区结构:区域形成强烈相互联系的社区(或“模块”)的趋势,支持专门的处理 (图2c)。模块通常是根据连接性来定义的,但是从大脑注释的角度来看,它们可以很容易地重新想象。一种方法是使用已建立的模块(例如,内在静息状态网络)并叠加注释映射,以询问特定模块(例如,视觉网络)是否为微架构特性进行了丰富。这些分析的目标是确定支持每个模块的功能特征的微体系结构特性。例如,内在网络往往具有不同的转录和代谢特征。这些差异体现在细胞结构上,例如,单峰网络比多峰网络有更多的皮质内髓磷脂,这可能提供了以更快的速度和保真度传输信号的能力。另一种方法是直接使用生物注释和连接模式来指导社区的检测。传统的社区检测方法可以扩展到既具有密集连通性又具有相似生物组成的节点群。据我们所知,这个方向在网络神经科学中探索较少,但在网络科学和统计物理学中已经存在原则性方法,包括注释随机块模型和多层社区检测。

我们通过考虑连接体的其他具有生物学意义的建筑特征来结束本节,这些特征可以通过生物学注释来丰富,包括通信途径、基序、团和腔。人们经常研究网络通信的度量,以推断节点中心性、区域间关系和大脑网络处理信息的全球能力。这些方法通常涉及跟踪信号传播的连接节点序列。信号是如何通过神经回路的?它们在途中会遇到哪些类型的神经元群(图2)?通过使用生物学属性注释通信路径中的节点序列,可以推断不同的神经元群体交换信号的方式。以类似的方式,网络基图——小的2节点、3节点或n节点子图,构成了网络的构建模块——可以被潜在地注释,以了解特定的环路配置是否与特定的微结构特征相一致(图2e)。例如,许多研究报告称,相互连接的节点链在跨物种、规模和重建技术的大脑网络中被过度代表,可能作为功能整合和循环处理的基础。高阶结构,如团和空腔,也被认为反映了神经回路参与并行与串行信息处理的能力。未来研究的一个突出问题是,这些高阶网络特征的形成和排列是否受到其底层微尺度结构的指导。

图2 注释连接体的架构特征

5. 注释增强的大脑模型

到目前为止,我们主要关注大脑网络的静态注释以及网络组织与注释的比较。但注释也可以用来为大脑网络形成、交流和疾病传播提供更动态的模型。正如我们在下面概述的那样,这些研究中的一个一致的线索是,在区域节点上赋予生物异质性可以产生更真实的大脑结构和功能模型。

系统神经科学的一个关键问题是结构连通性(神经元群之间的白质投射)与功能连通性(神经活动的共同波动)之间的关系。早期的研究集中在统计和动态模型上,将两者联系起来,但他们通常假设结构-功能耦合在整个大脑中是一致的。然而,最近的报告一致发现,结构-功能耦合是区域异质性的单峰皮质的耦合较强,而跨峰皮质的耦合较弱。同样,允许区域动态在皮层间变化的生物物理模型显示出相同的单峰-跨峰动态参数梯度,这代表了兴奋-抑制比和皮层下输入的区域差异。总的来说,这些结果开启了一种可能性,即考虑区域异质性可以帮助我们建立更好的大脑功能模型。

事实上,最近的几项研究表明,结合结构连通性和局部生物注释的模型可以更准确地预测功能动态,包括富含皮质内髓磷脂、神经递质受体和基因表达的模型(图3a)。作为一个实际的例子,demirtau和他的同事利用皮质内髓鞘图谱丰富了生物物理神经场模型。他们拟合了两类模型:一种是同质模型,其中所有节点参数都相同;另一种是异质模型,其中不同节点可能具有不同的局部微环路特征(兴奋-抑制强度和反复兴奋强度),这些特征根据皮质髓鞘图进行缩放。作者发现,异质模型更好地预测静息状态血氧水平依赖(BOLD)功能连接和MEG估计的功率谱密度,证明了注释信息动态模型的实用性。

一个平行的文献已经出现,其中生物注释被用来指导网络形成的生成模型(图3b)。在这些模型中,目标是根据简单的规则(如成本最小化(在空间近端区域之间放置连接)或一些拓扑特征的优化,如聚类或度分布),通过放置节点和/或边来概括连接组的架构和发展。这些模型可用于研究系统发育或个体发育的解剖变化序列,允许人们测试关于网络形成和实现如何随时间相互作用的理论。早期的实证研究表明,连接的存在可以通过相关基因表达或细胞类型来预测。下一步自然是建立正式的生成模型,其中除了空间(成本最小化)和拓扑规则外,边放置还受生物规则的支配。例如,最近的一份报告探讨了一组生成模型,其中连接的位置也由基因表达、皮质内髓鞘或层状分化的相似性决定。然而,仍存在许多注释,如代谢、化学结构或细胞类型,它们在网络形成中的作用尚未得到直接研究。此外,生成模型通常体现同质混合规则,在这种规则中,具有相似注释的大脑区域之间更有可能放置边。同样的方法也可以很容易地实现来测试异质混合规则的贡献。

正如生物特征塑造了网络的形成和功能动态的出现一样,它们也赋予了局部的病理脆弱性。因此,注释丰富的连接体在疾病建模中有大量的应用。越来越多的证据表明,多种综合征,特别是神经退行性疾病,是由错误折叠蛋白的跨突触传播和聚集引起的。虽然不同综合征的特异性蛋白不同(阿尔茨海默病的tau,帕金森病的α-突触核蛋白,额颞叶痴呆的TDP-43),但其扩散原理是相同的。因此,病理学的传播通常被建模为白质连接体上的引导扩散过程(图3c)。一种常见的策略是利用与疾病特异性蛋白质相关的基因转录的区域差异来扩大硅中蛋白质的合成和清除。例如,在帕金森病或其他突触核蛋白病的模型中,α-突触核蛋白的合成和清除是通过疾病相关基因(SNCA和GBA)的表达来衡量的,与在整个大脑中合成和清除是一致的同质模型相比,α-突触核蛋白的合成和清除可以更好地预测萎缩模式。进一步采用这种方法,疾病传播的单独动态模型可以建立在连接体上,这些连接体带有与特定综合征的特定亚群相关的风险基因的表达注释,例如额颞叶痴呆的遗传变异。更一般地说,生物学注释可能有助于模拟局部脆弱性,并解释许多其他脑疾病或障碍的空间模式,这些疾病或障碍不一定涉及错误折叠的蛋白质,但可能涉及不同的网络介导机制,如传播兴奋毒性或异常信号或营养因子的传播。

图3 注释增强的大脑模型

6. 几何,拓扑和注释

我们如何测试生物注释是否与网络特征相关?主要的挑战是从空间邻近性的背景效应中消除注释和连通性之间的关系。在基因组梯度的引导下,轴突生长和突触形成的渐进过程导致了一系列重叠的神经回路。因此,物理上靠近的区域有更高的相互连接的倾向,这些连接的强度可能更大。同时,靠近的区域也更倾向于共享相似的生物特征,如基因转录、细胞类型和内在的电生理节律。换句话说,空间接近性同时影响注释和连通性。因此,考虑空间自相关的推理过程对于理清连接、注释和几何之间的关系是必要的。

幸运的是,这一直是一个活跃的研究主题,并且已经开发了多种方法来随机化注释的空间布局或布线拓扑,同时控制空间自相关。对于几乎任何类型的分析,例如关联生物注释和网络特征,空间零模型允许我们构建统计参数的分布(例如,随机注释和网络特征之间的相关系数),该分布体现了零假设,即注释和连通性之间的任何观察到的关系都是由于空间自相关的被动影响。随机化注释地图的一组流行方法是非参数的“自旋测试”,它将注释投射到球体上,应用随机的角度旋转,并将注释值带回皮质表面。另一种方法是参数化模型,它估计注释图的特定统计特征,如变异函数,并生成与这些特征近似匹配的随机注释图。虽然基于自旋的空值只能应用于皮质表面,但参数化空值更通用,可以应用于皮质体积,以及皮质外结构,如皮层下或小脑。相反,随机化连接的方法通常建立在传统的边随机化算法的基础上,这样,当且仅当交换结果近似地保持边长度分布时,边被随机交换。总的来说,空间零模型测试了生物注释和网络特征之间是否存在超越空间接近效应的关系。

我们通过强调空间接近的影响不应被视为混淆,而应被视为这个空间嵌入式系统的自然和基本特征来结束本节。事实上,网络神经科学中的许多分析过程都明确地考虑了几何。例如,大脑网络形成的最先进的生成模型包括一个几何术语,该术语促进了空间上近距离群之间的连接位置。同样,在交流或疾病传播的动态模型中,传播因子(信号或错误折叠的蛋白质)被赋予了由解剖连接长度决定的速度。另外,没有明确考虑几何的分析可以很容易地重新表述,以便这样做。例如,可以根据排列的注释图来评估亲同性和亲异性,以基准衡量这些原则在空间邻近性影响之上和之外的扩展程度。

7. 注释相似度网络

虽然连接体被认为是大脑中所有网络元素和连接的集合,但还有另一种大脑连接的观点,其定义不是基于结构连接:注释相似性。在这种情况下,网络边不是物理的,而是代表了大脑区域之间关于一些注释(例如,皮质厚度,BOLD信号和基因转录)跨一些自变量(例如,参与者,时间和基因)的统计关联。换句话说,不是使用微结构或分子特征来注释大脑区域,而是使用局部注释来构建一种全新类型的网络(图4)。注释相似性通常表示为脑区域×脑区域矩阵,其中的元素是选择的相似度的统计度量。

每个版本的注释相似度都为大脑区域之间的关系提供了一个新的视角,同时保留了一套普遍存在的组织原则。也许注释相似网络的最早表现形式是代谢连通性,它是通过将参与者之间的区域葡萄糖代谢相关联得出的。这种类型的注释相似性——即,一个网络,告诉我们大脑区域是如何在个体之间就特定表型进行耦合的——也被应用于皮质厚度(解剖协方差),并且可以扩展到任何测量个体的测量(图4a)。第二种,可能也是最常见的,注释相似性的概念化是“功能连接”,即神经活动的注释如何随时间同步。该定义最常应用于功能性MRI (fMRI)的BOLD信号,但也可应用于其他时间过程,如氟脱氧葡萄糖- pet (FDG-PET)的葡萄糖代谢和EEG和MEG的电磁神经活动(图4b)。最后,出现了第三种注释相似性形式,即在每个大脑区域收集注释的多个测量值,并且这些区域指纹是相关的(图4c)。这些注释相似性网络已经为基因(相关基因表达),受体(神经递质受体相似性)和细胞类型(层流相似性)等表型构建,并告诉我们区域如何共享相似的生物构建块。有趣的是,无论注释或数据类型如何,注释相似性都随着距离的增加而降低,对于结构连接的区域来说,注释相似性更大,并且在半球之间是对称的,这表明大脑中存在共同的组织原则。

图4 注释相似度网络

有了注释相似网络,我们可以提出新的问题,关于大脑回路是如何从局部属性的汇合中产生的。例如,大脑的富人俱乐部——被认为支持信号整合的紧密相连的大脑区域——最初只是从结构连接的角度来看的。最近的研究发现,具有相似基因表达和受体密度谱的大脑区域之间存在结构丰富的俱乐部联系。通过在局部生物相似性信息的基础上定义边,注释相似性网络揭示了宏观尺度建筑特征的生物学机制。同样,使用上述图论方法(参见“注释和网络架构”),我们可以询问注释相似网络是否呈现出在更标准的结构或fmri衍生的功能连接体中没有发现的新架构特征。事实上,fdg - pet衍生的功能连接揭示了额顶叶区域的神经同步中枢:从经典结构和fmri衍生的功能连接体的角度来看,这些区域传统上不被认为是中枢。此外,形态相似性的网络结构(一个注释相似性网络,其中注释是由mri衍生的白质和灰质测量结果)已被证明随着认知表现的个体差异而变化。

最终,每个注释相似度网络只是区域间关系的一个单一视角。从共享的分子机制到动力学再到功能,这些注释相似网络反映了大脑的集成、多尺度性质。这些注释相似网络如何相互作用,以及如何与大脑的结构骨干相互作用,仍然是未来研究的一个令人兴奋的方向。事实上,随着新数据集的出现,各种注释相似度网络正在迅速被引入。这为生成新的集成网络奠定了基础,这些网络可以通过将多个注释相似网络组合成单个融合网络,也可以通过连接多尺度注释在每个节点上创建单个综合注释指纹。因此,我们设想注释连接组学的未来涉及区域间关系的整体,多尺度视角。

8. 总结

本综述总结了一个单一的、一致的、完全不令人惊讶的原则:包含有关潜在生物学的信息可以帮助我们建立更现实的连接组表征。注释为标志性架构特性(如中枢和模块)的角色增加了深度和意义。注释实际上促进了大脑网络形成、神经动力学和疾病传播的所有模型。最后,注释可以用来恢复新的区域间关系,补充现有的结构和功能网络。

我们怀着极大的惊奇考虑成像和追踪技术的现代进步将如何塑造下一代连接组学。展望未来,我们设想结合其他生物学上有意义的注释,这些注释可以可靠地测量,但在连接组学中很少被采用。这些数据包括血管系统的数据(特别是神经血管耦合的测量),空间综合基因转录和使用单细胞RNA测序(与微阵列相反)估计的细胞类型反卷积,使用放射自显像估计的受体密度,突触类型,酶和更具体的病理标记(例如,tau成像)或炎症(例如,小胶质细胞激活)。为了补充人类的注释丰富的连接组分析,在动物模型中进行的实验-我们可以获得额外的技术和更广泛的测量方法-将产生更完整的注释集,例如synaptomes, metabolomes和病理学的直接测定。更广泛地说,虽然许多研究只关注单个注释,但现在是时候进行更全面的研究,同时关注单个分析框架中整个类甚至多个类的注释。最后,现代精确成像和深度表型工作将增强我们构建个性化注释连接体的能力。

总之,生物学注释为大脑连接体增加了一个新的维度。由此产生的数学对象——带注释的连接组——开启了一种全新的思考全球连接和局部特征交织的方式。数据集、分析和理论都已就位,将开启网络神经科学令人兴奋的新篇章。

参考文献:Towards a biologically annotated brain connectome.

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
卷积神经网络 第三周作业:Residual+Networks+-+v1
Welcome to the second assignment of this week! You will learn how to build very deep convolutional networks, using Residual Networks (ResNets). In theory, very deep networks can represent very complex functions; but in practice, they are hard to train. Residual Networks, introduced by He et al., allow you to train much deeper networks than were previously practically feasible.
Steve Wang
2019/05/28
1.2K0
卷积神经网络 第三周作业:Residual+Networks+-+v1
Build Residual Networks
我们将使用残差网络建立一个很深的卷积神经网络,理论上而言越深的网络可以表示更加复杂的函数,但是训练也更加困难。Residual Networks可以让我们训练更深的网络。
小飞侠xp
2018/08/29
1.1K0
ResNet50及其Keras实现
你或许看过这篇访问量过12万的博客ResNet解析,但该博客的第一小节ResNet和吴恩达的叙述完全不同,因此博主对这篇博文持怀疑态度,你可以在这篇博文最下面找到提出该网络的论文链接,这篇博文可以作为研读这篇论文的基础。
Steve Wang
2019/05/28
6.5K0
ResNet50及其Keras实现
04.卷积神经网络 W2.深度卷积网络:实例探究(作业:Keras教程+ResNets残差网络)
Keras 是更高级的框架,对普通模型来说很友好,但是要实现更复杂的模型需要 TensorFlow 等低级的框架
Michael阿明
2021/02/19
7730
ResNet34_keras dropout
其中在网络搭建的过程中分为4个stage,蓝色箭头是在Unet中要进行合并的层。注意:前向的运算encoder过程一共经过了5次降采样,包括刚开始的 7 ∗ 7 7*7 7∗7卷积 stride,所以decoder过程要有5次上采样的过程,但是跨层连接(encoder 与 decoder之间)只有4次,如下图所示,以输入图像大小224×224为例:
全栈程序员站长
2022/11/08
9840
ResNet34_keras dropout
keras TensorFlow_tensorflow 安装
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
全栈程序员站长
2022/11/10
8450
【从零开始学Mask RCNN】三,Mask RCNN网络架构解析及TensorFlow和Keras的交互
上一节把握了一下Mask RCNN项目的整体逻辑,这一节主要从TensorFlow和Keras的交互以及Mask RCNN的网络结构入手来分析一下。
BBuf
2020/07/02
1.7K0
Mask-RCNN详解
Understanding Region of Interest — (RoI Align and RoI Warp)
h3110_w0r1d
2025/02/04
1430
Maskrcnn中resnet50改为resnet34「建议收藏」
找到很多关于maskrcnn具体用法的代码,但是全是基于resnet50/101的,因需要训练的数据集并不复杂,resnet50的结构有点冗余,于是就把maskrcnn的backbone从resnet50改为resnet34结构。 找到model文件,将resnet50(侵删)部分代码做一定的修改,就可以得到resnet34的相关代码 下面是相关代码:
全栈程序员站长
2022/11/08
4880
卷积神经网络学习路线(十)| 里程碑式创新的ResNet
开篇的这张图代表ILSVRC历年的Top-5错误率,我会按照以上经典网络出现的时间顺序对他们进行介绍,同时穿插一些其他的经典CNN网络。
BBuf
2020/02/12
1.1K0
卷积神经网络学习路线(十)| 里程碑式创新的ResNet
用Keras Tensorflow 2.0实现YOLO V1
本文尝试使用Tensorflow 2.0复现论文<You Only Look Once: Unified, Real-Time Object Detection>的效果。
YoungTimes
2022/04/28
1.3K0
用Keras Tensorflow 2.0实现YOLO V1
ResNet18和ResNet50的keras实现
发布者:全栈程序员栈长,转载请注明出处:https://javaforall.cn/141343.html原文链接:https://javaforall.cn
全栈程序员站长
2022/08/24
6870
TensorFlow v2.x使用说明[2]-模型构建
版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
锦小年
2019/10/22
4940
TensorFlow v2.x使用说明[2]-模型构建
【连载19】GoogLeNet Inception V4/ResNet V1/V2-3.9
这三种结构在《Inception-v4, Inception-ResNet and the Impact of Residual Connections on Learning》一文中提出,论文的亮点
lujohn3li
2020/03/11
6430
《PaddlePaddle从入门到炼丹》九——迁移学习
在深度学习训练中,例如图像识别训练,每次从零开始训练都要消耗大量的时间和资源。而且当数据集比较少时,模型也难以拟合的情况。基于这种情况下,就出现了迁移学习,通过使用已经训练好的模型来初始化即将训练的网络,可以加快模型的收敛速度,而且还能提高模型的准确率。这个用于初始化训练网络的模型是使用大型数据集训练得到的一个模型,而且模型已经完全收敛。最好训练的模型和预训练的模型是同一个网络,这样可以最大限度地初始化全部层。
夜雨飘零
2020/05/01
1.3K0
你必须要知道CNN模型:ResNet
作者:叶 虎 编辑:张 欢 PART 01 ResNet简介 引言 深度残差网络(Deep residual network, ResNet)的提出是CNN图像史上的一件里程碑事件,让我们先看一下
机器学习算法工程师
2018/03/06
2.1K0
你必须要知道CNN模型:ResNet
一文总览CNN网络架构演进:从LeNet到DenseNet
卷积神经网络可谓是现在深度学习领域中大红大紫的网络框架,尤其在计算机视觉领域更是一枝独秀。CNN从90年代的LeNet开始,21世纪初沉寂了10年,直到12年AlexNet开始又再焕发第二春,从ZF Net到VGG,GoogLeNet再到ResNet和最近的DenseNet,网络越来越深,架构越来越复杂,解决反向传播时梯度消失的方法也越来越巧妙。新年有假期,就好好总结一波CNN的各种经典架构吧,领略一下CNN的发展历程中各路大神之间的智慧碰撞之美。
小草AI
2019/05/29
8730
keras+resnet34实现车牌识别
参考:https://github.com/Haveoneriver/License-Plate-Recognition-Items
全栈程序员站长
2022/11/10
4930
深度残差网络(ResNet)论文学习(附代码实现)
本文结合50层深度残差网络的实现学习何博士的大作-Deep Residual Learning for Image Recognition。理论上,深层网络结构包含了浅层网络结构所有可能的解空间,但是实际网络训练中,随着网络深度的增加,网络的准确度出现饱和,甚至下降的现象,这个现象可以在下图直观看出来:56层的网络比20层网络效果还要差。但是这种退化并不是因为过拟合导致的,因为56层的神经网络的训练误差同样高。
YoungTimes
2022/04/28
7470
深度残差网络(ResNet)论文学习(附代码实现)
经典神经网络 | ResNet 论文解析及代码实现
论文题目:Deep Residual Learning for Image Recognition
墨明棋妙27
2022/09/23
7450
相关推荐
卷积神经网络 第三周作业:Residual+Networks+-+v1
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档