模型:

facebook/detr-resnet-50-panoptic

英文

DETR(端到端目标检测)模型(带有ResNet-50骨干网络)

DETR(Detection Transformer)模型在COCO 2017 panoptic(118k个标注图像)上进行了端到端训练。它是由Carion等人在 End-to-End Object Detection with Transformers 中提出的,并在 this repository 中首次发布。

免责声明:发布DETR的团队没有为此模型编写模型卡片,因此本模型卡片由Hugging Face团队编写。

模型描述

DETR模型是一个具有卷积骨干网络的编码器-解码器Transformer模型。在解码器输出的顶部添加了两个头部,用于执行目标检测:一个用于类别标签的线性层,以及一个用于边界框的MLP(多层感知器)。该模型使用所谓的目标查询来检测图像中的目标。每个目标查询在图像中寻找特定的对象。对于COCO,目标查询的数量设置为100。

该模型使用“二部分匹配损失”进行训练:将每个N = 100个目标查询的预测类别+边界框与地面真值注释进行比较,并填充到相同长度N(因此,如果一张图像只包含4个对象,则96个注释将只具有“无对象”作为类别和“无边界框”作为边界框)。匈牙利匹配算法用于在N个查询和N个注释之间创建最优的一对一映射。接下来,使用标准的交叉熵(用于类别)和L1损失与广义IoU损失的线性组合(用于边界框)来优化模型的参数。

DETR可以通过在解码器的顶部添加一个掩码头来自然地扩展到执行全景分割。

拟合使用和限制

您可以使用原始模型进行全景分割。查看 model hub 以查找所有可用的DETR模型。

如何使用

下面是如何使用该模型:

import io
import requests
from PIL import Image
import torch
import numpy

from transformers import DetrFeatureExtractor, DetrForSegmentation
from transformers.models.detr.feature_extraction_detr import rgb_to_id

url = "http://images.cocodataset.org/val2017/000000039769.jpg"
image = Image.open(requests.get(url, stream=True).raw)

feature_extractor = DetrFeatureExtractor.from_pretrained("facebook/detr-resnet-50-panoptic")
model = DetrForSegmentation.from_pretrained("facebook/detr-resnet-50-panoptic")

# prepare image for the model
inputs = feature_extractor(images=image, return_tensors="pt")

# forward pass
outputs = model(**inputs)

# use the `post_process_panoptic` method of `DetrFeatureExtractor` to convert to COCO format
processed_sizes = torch.as_tensor(inputs["pixel_values"].shape[-2:]).unsqueeze(0)
result = feature_extractor.post_process_panoptic(outputs, processed_sizes)[0]

# the segmentation is stored in a special-format png
panoptic_seg = Image.open(io.BytesIO(result["png_string"]))
panoptic_seg = numpy.array(panoptic_seg, dtype=numpy.uint8)
# retrieve the ids corresponding to each mask
panoptic_seg_id = rgb_to_id(panoptic_seg)

目前,特征提取器和模型都支持PyTorch。

训练数据

DETR模型是在 COCO 2017 panoptic 上进行训练的,该数据集包含118k/5k张用于训练/验证的标注图像。

训练过程

预处理

在训练/验证期间,图像的预处理的确切细节可以在 here 中找到。

图像被调整大小/缩放,以便最短边至少为800像素,最大边最多为1333像素,并使用ImageNet的平均值(0.485, 0.456, 0.406)和标准差(0.229, 0.224, 0.225)在RGB通道上进行规范化。

训练

该模型在16个V100 GPU上进行了300个epochs的训练。这需要3天,每个GPU处理4张图像(因此总批量大小为64)。

评估结果

该模型在COCO 2017验证集上取得了以下结果:边界框平均精确度(box AP)为38.8,分割平均精确度(segmentation AP)为31.1,全景质量(panoptic quality,PQ)为43.4。

有关评估结果的更多详细信息,请参阅原始论文的表5。

BibTeX条目和引文信息

@article{DBLP:journals/corr/abs-2005-12872,
  author    = {Nicolas Carion and
               Francisco Massa and
               Gabriel Synnaeve and
               Nicolas Usunier and
               Alexander Kirillov and
               Sergey Zagoruyko},
  title     = {End-to-End Object Detection with Transformers},
  journal   = {CoRR},
  volume    = {abs/2005.12872},
  year      = {2020},
  url       = {https://arxiv.org/abs/2005.12872},
  archivePrefix = {arXiv},
  eprint    = {2005.12872},
  timestamp = {Thu, 28 May 2020 17:38:09 +0200},
  biburl    = {https://dblp.org/rec/journals/corr/abs-2005-12872.bib},
  bibsource = {dblp computer science bibliography, https://dblp.org}
}