模型:

facebook/detr-resnet-50-dc5-panoptic

英文

DETR(端到端目标检测)模型,使用ResNet-50骨干网络(扩张的C5阶段)

DETR(Detection Transformer)模型在COCO 2017 panoptic(118k个带注释的图像)数据集上进行了端到端的训练。该模型在Carion等人的论文 End-to-End Object Detection with Transformers 中首次提出,并于 this repository 首次发布。

免责声明:发布DETR的团队没有为此模型编写模型卡,因此此模型卡是由Hugging Face团队编写的。

模型描述

DETR模型是一个编码器-解码器变换器,具有卷积骨干网络。在解码器输出的顶部添加了两个头,用于执行目标检测:一个线性层用于类别标签,一个MLP(多层感知机)用于边界框。模型使用所谓的对象查询来检测图像中的对象。每个对象查询在图像中寻找特定的对象。对于COCO数据集,对象查询的数量设置为100。

该模型使用“二分图匹配损失”进行训练:将每个N = 100个对象查询的预测类别+边界框与地面实况标注进行比较,并填充到相同长度N(例如,如果图像只包含4个对象,则96个注释将具有“无对象”作为类别和“无边界框”作为边界框)。使用匈牙利匹配算法在每个N个查询和N个注释之间创建最佳一对一映射。然后,使用标准的交叉熵(用于类别)和L1损失和广义IoU损失的线性组合(用于边界框)来优化模型的参数。

DETR可以通过在解码器输出的顶部添加一个掩模头来自然扩展为进行全景分割。

预期用途和限制

您可以将原始模型用于全景分割。查看 model hub 以查找所有可用的DETR模型。

如何使用

以下是如何使用此模型的方法:

from transformers import DetrFeatureExtractor, DetrForSegmentation
from PIL import Image
import requests

url = 'http://images.cocodataset.org/val2017/000000039769.jpg'
image = Image.open(requests.get(url, stream=True).raw)

feature_extractor = DetrFeatureExtractor.from_pretrained('facebook/detr-resnet-50-dc5-panoptic')
model = DetrForSegmentation.from_pretrained('facebook/detr-resnet-50-dc5-panoptic')

inputs = feature_extractor(images=image, return_tensors="pt")
outputs = model(**inputs)
# model predicts COCO classes, bounding boxes, and masks
logits = outputs.logits
bboxes = outputs.pred_boxes
masks = outputs.pred_masks

目前,特征提取器和模型都支持PyTorch。

训练数据

DETR模型在 COCO 2017 panoptic 上进行训练,该数据集包含118k/5k个用于训练/验证的带注释图像。

训练过程

预处理

关于训练/验证期间图像的预处理的详细信息可以在 here 中找到。

图像被调整大小/缩放,使得最短边至少为800个像素,最大边至多为1333个像素,并且在RGB通道上使用ImageNet的均值(0.485, 0.456, 0.406)和标准差(0.229, 0.224, 0.225)进行标准化。

训练

该模型在16个V100 GPU上进行了300个epochs的训练。每个GPU每批处理4个图像(因此总批处理大小为64)。

评估结果

该模型在COCO 2017验证集上实现了以下结果:盒子AP(平均精确度)为40.2,分割AP(平均精确度)为31.9,PQ(全景质量)为44.6。

关于评估结果的更多详细信息,请参考原始论文的表5。

BibTeX条目和引用信息

@article{DBLP:journals/corr/abs-2005-12872,
  author    = {Nicolas Carion and
               Francisco Massa and
               Gabriel Synnaeve and
               Nicolas Usunier and
               Alexander Kirillov and
               Sergey Zagoruyko},
  title     = {End-to-End Object Detection with Transformers},
  journal   = {CoRR},
  volume    = {abs/2005.12872},
  year      = {2020},
  url       = {https://arxiv.org/abs/2005.12872},
  archivePrefix = {arXiv},
  eprint    = {2005.12872},
  timestamp = {Thu, 28 May 2020 17:38:09 +0200},
  biburl    = {https://dblp.org/rec/journals/corr/abs-2005-12872.bib},
  bibsource = {dblp computer science bibliography, https://dblp.org}
}