LOADING

加载过慢请开启缓存 浏览器默认开启

DFSgwb

My World

我的技术分享

Salient Object Detection via Dynamic Scale Routing

SOD 2023/4/11

现有的SOD模型的编码器可以通过提取多尺度特征,并通过各种微妙的解码器组合特征,但是这个特征通常是固定的,实际上,在不同场景中配合使用不同的内核大小是更可取的,因此本文提出了一种动态的金字塔卷积模型,动态选择最适合的内核大小,其次提出了一种自适应双向解码器以最好适应基于DPConv的编码器。最重要的的亮点是它能够在特征尺度及其动态集合之间进行路由,使推理过程具有尺度感知能力

阅读全文

Zoom In and Out:A Mixed-scale Triplet Network for Camouflaged Object Detection

COD 2023/4/11

最近提出的伪装目标检测(COD)试图分割视觉上融入周围环境的目标,这在现实场景中是极其复杂和困难的。除了伪装对象与其背景之间具有很高的内在相似性外,这些对象通常在尺度上具有多样性,外观模糊,甚至被严重遮挡。为了解决这些问题,我们提出了一种混合比例的三重网络ZoomNet,它模仿人类在观察模糊图像时的行为,即放大和缩小。具体而言,我们的ZoomNet采用缩放策略,通过设计的尺度积分单元和分层混合尺度单元学习区分性混合尺度语义,充分挖掘候选对象和背景环境之间的细微线索。此外,考虑到来自不可区分纹理的不确定性和模糊性,我们构造了一个简单而有效的正则化约束,即不确定性感知损失,以促进模型在候选区域准确地生成具有更高置信度的预测。我们提出的高度任务友好的模型在四个公共数据集上始终优于现有的23种最先进的方法。此外,与最新的前沿模型相比,该模型在SOD任务上的优异性能也验证了该模型的有效性和通用性。

阅读全文

像素级光场显著性检测

SOD 2023/4/11

在一个统一的框架中识别干净的标签且有效的整合光场线索之间的关系。将学习描述为光场内特征融合流和场景间相关流的联合优化,以生成预测,首先引入一个像素遗忘引导融合模块,以相互增强光场特征,并利用迭代过程中的像素一致性来识别噪声像素,再引入跨场景噪声惩罚损失,以更好地反映训练数据的潜在结构,并使学习对噪声保持不变。

阅读全文

基于深度质量的特征操作实现高效的RGBD显著目标检测

SOD 2023/4/11

基于RGBD显著目标检测模型在减少模型参数时,模型精度通常会下降,且受到深度质量的影响。本文设计了一种基于深度质量的特征操作(DQFM):利用低级RGB和深度特征的对齐,以及深度流的整体关注来明确控制和增强跨模态融合。这是一个轻量化模型。高质量的深度图通常具有一些与相应RGB图像对齐的边界

阅读全文

Multi-Scale High-Resolution Vision Transformer for Semantic Segmentation

默认分类 2023/4/11

VITs主要是为生成低分辨率表示的图像分类任务而设计的,这使得VITs的语义分割等密集预测任务具有挑战性,本文提出的HRVIT,通过高分辨率多分枝架构与ViT集成来增强ViT以学习语义丰富和空间精确的多尺度表示,通过各种分支块协同优化技术平衡HRVIT的模型行恩那个和效率

阅读全文

Multi-Scale High-Resolution Vision Transformer for Semantic Segmentation

默认分类 2023/4/11

由于采样深度和感受野大小之间的矛盾,大多数根据低分辨输入设计的SOD模型在高分辨率图像中表现不佳,本文提出一种金字塔嫁接网络。使用transformer和CNN主干分别从不同分辨率的图像中提取特征,然后将特征从transformer分支嫁接到CNN分支,与此同时提出一种基于注意的分叉模型嫁接模块,使CNN分支能够在解码过程中,在不同信源特征的引导下,更全面地组合破碎的细节信息,此外还设计了一个注意引导丢失来明确监督交叉嫁接模块生成注意矩阵,以帮助网络更好地与来自不同模型的注意进行交互。

阅读全文

Liunx常用命令

Liunx 2022/10/7

记录一部分基础的文件Linux指令

阅读全文

腾讯云智实习面试

面试 2022/7/7

腾讯云智实习面试

阅读全文

深度学习面试(一)

U-Net的业务场景,DenseUNet和ResNet

阅读全文

深度学习面试(二)

XGBoost和GBDT的不同

阅读全文
1 ... 6 7 8 9
avatar
GWB

我的技术分享
有缘你就来

本文作者:GWB
当前时间:2023-11-09 11:11:53
版权声明:本文由gwb原创,本博客所有文章除特别声明外,均采用 CC BY-NC-ND 4.0 国际许可协议。
转载请注明出处!