模型:

hustvl/yolos-tiny

英文

YOLOS(微型)模型

YOLOS模型在COCO 2017对象检测(118k个注释图像)上进行了微调。它是由方等人在 You Only Look at One Sequence: Rethinking Transformer in Vision through Object Detection 论文中介绍的,并于 this repository 首次发布。

免责声明:发布YOLOS模型的团队没有为该模型撰写模型卡片,因此该模型卡片由Hugging Face团队撰写。

模型描述

YOLOS是使用DETR损失进行训练的Vision Transformer(ViT)。尽管它很简单,但基本尺寸的YOLOS模型能够在COCO 2017验证集上实现42 AP(与DETR和更复杂的框架如Faster R-CNN相似)。

该模型使用“二分图匹配损失”进行训练:将每个N个对象查询的预测类别+边界框与地面实况注释进行比较,将其填充到相同的长度N(因此如果图像仅包含4个对象,96个注释将只有“无对象”类别和“无边界框”的边界框)。使用匈牙利匹配算法在N个查询和N个注释之间创建最佳一对一映射。接下来,使用标准交叉熵(用于类别)和L1损失与广义IoU损失的线性组合(用于边界框)来优化模型的参数。

预期用途和限制

您可以使用原始模型进行目标检测。请参阅 model hub 以查找所有可用的YOLOS模型。

如何使用

以下是如何使用此模型的方法:

from transformers import YolosImageProcessor, YolosForObjectDetection
from PIL import Image
import torch
import requests

url = "http://images.cocodataset.org/val2017/000000039769.jpg"
image = Image.open(requests.get(url, stream=True).raw)

model = YolosForObjectDetection.from_pretrained('hustvl/yolos-tiny')
image_processor = YolosImageProcessor.from_pretrained("hustvl/yolos-tiny")

inputs = image_processor(images=image, return_tensors="pt")
outputs = model(**inputs)

# model predicts bounding boxes and corresponding COCO classes
logits = outputs.logits
bboxes = outputs.pred_boxes


# print results
target_sizes = torch.tensor([image.size[::-1]])
results = image_processor.post_process_object_detection(outputs, threshold=0.9, target_sizes=target_sizes)[0]
for score, label, box in zip(results["scores"], results["labels"], results["boxes"]):
    box = [round(i, 2) for i in box.tolist()]
    print(
        f"Detected {model.config.id2label[label.item()]} with confidence "
        f"{round(score.item(), 3)} at location {box}"
    )

目前,特征提取器和模型均支持PyTorch。

训练数据

YOLOS模型在 ImageNet-1k 上进行了预训练,并在 COCO 2017 object detection 上进行了微调,其中包含了118k/5k张用于训练/验证的标注图像。

训练

该模型在ImageNet-1k上预训练了300个epochs,并在COCO上微调了300个epochs。

评估结果

该模型在COCO 2017验证集上实现了28.7的AP(平均精度)。有关评估结果的更多细节,请参考原始论文。

BibTeX条目和引用信息

@article{DBLP:journals/corr/abs-2106-00666,
  author    = {Yuxin Fang and
               Bencheng Liao and
               Xinggang Wang and
               Jiemin Fang and
               Jiyang Qi and
               Rui Wu and
               Jianwei Niu and
               Wenyu Liu},
  title     = {You Only Look at One Sequence: Rethinking Transformer in Vision through
               Object Detection},
  journal   = {CoRR},
  volume    = {abs/2106.00666},
  year      = {2021},
  url       = {https://arxiv.org/abs/2106.00666},
  eprinttype = {arXiv},
  eprint    = {2106.00666},
  timestamp = {Fri, 29 Apr 2022 19:49:16 +0200},
  biburl    = {https://dblp.org/rec/journals/corr/abs-2106-00666.bib},
  bibsource = {dblp computer science bibliography, https://dblp.org}
}