Shortcuts

准备 Composition-1k 数据集

介绍

@inproceedings{xu2017deep,
  title={Deep image matting},
  author={Xu, Ning and Price, Brian and Cohen, Scott and Huang, Thomas},
  booktitle={Proceedings of the IEEE conference on computer vision and pattern recognition},
  pages={2970--2979},
  year={2017}
}

Adobe Composition-1k 数据集由前景图像及其相应的 alpha 图像组成。要获得完整的数据集,需要将前景与来自 COCO 数据集和 Pascal VOC 数据集的选定背景进行合成。

获取和提取

请按照 论文作者 的说明获取 Composition-1k (comp1k) 数据集。

合成完整数据集

Adobe composition-1k 数据集仅包含 alphafg(以及测试集中的 trimap)。在训练或评估之前,需要将 fg 与 COCO 数据(训练)或 VOC 数据(测试)合并。使用以下脚本执行图像合成并生成用于训练或测试的注释文件:

# 在 MMagic 的根文件夹下运行脚本
python tools/dataset_converters/matting/comp1k/preprocess_comp1k_dataset.py data/adobe_composition-1k data/coco data/VOCdevkit --composite

生成的数据分别存储在 “adobe_composition-1k/Training_set” 和 “adobe_composition-1k/Test_set” 下。如果你只想合成测试数据(因为合成训练数据很耗时),你可以通过删除 --composite 选项来跳过合成训练集:

# 跳过合成训练集
python tools/dataset_converters/matting/comp1k/preprocess_comp1k_dataset.py data/adobe_composition-1k data/coco data/VOCdevkit

如果您只想预处理测试数据,即对于 FBA,您可以通过添加 --skip-train 选项来跳过训练集:

# 跳过预处理训练集
python tools/dataset_converters/matting/comp1k/preprocess_comp1k_dataset.py data/adobe_composition-1k data/coco data/VOCdevkit --skip-train

目前,GCAFBA 支持在线合成训练数据。但是你可以修改其他模型的数据管道来执行在线合成,而不是加载合成图像(我们在数据管道中称之为“合并”)。

检查 DIM 的目录结构

最终的文件夹结构应如下所示:

mmagic
├── mmagic
├── tools
├── configs
├── data
│   ├── adobe_composition-1k
│   │   ├── Test_set
│   │   │   ├── Adobe-licensed images
│   │   │   │   ├── alpha
│   │   │   │   ├── fg
│   │   │   │   ├── trimaps
│   │   │   ├── merged  (generated by tools/dataset_converters/matting/comp1k/preprocess_comp1k_dataset.py)
│   │   │   ├── bg      (generated by tools/dataset_converters/matting/comp1k/preprocess_comp1k_dataset.py)
│   │   ├── Training_set
│   │   │   ├── Adobe-licensed images
│   │   │   │   ├── alpha
│   │   │   │   ├── fg
│   │   │   ├── Other
│   │   │   │   ├── alpha
│   │   │   │   ├── fg
│   │   │   ├── merged  (generated by tools/dataset_converters/matting/comp1k/preprocess_comp1k_dataset.py)
│   │   │   ├── bg      (generated by tools/dataset_converters/matting/comp1k/preprocess_comp1k_dataset.py)
│   │   ├── test_list.json     (generated by tools/dataset_converters/matting/comp1k/preprocess_comp1k_dataset.py)
│   │   ├── training_list.json (generated by tools/dataset_converters/matting/comp1k/preprocess_comp1k_dataset.py)
│   ├── coco
│   │   ├── train2014   (or train2017)
│   ├── VOCdevkit
│   │   ├── VOC2012

为 FBA 准备数据集

FBA采用 Learning-base Sampling for Natural Image Matting 中提出的动态数据集增强。此外,为了减少增强过程中的伪影,它使用前景的扩展版本作为前景。我们提供脚本来估计前景。

准备测试集:

# 跳过预处理训练集,因为它在训练期间在线合成
python tools/dataset_converters/matting/comp1k/preprocess_comp1k_dataset.py data/adobe_composition-1k data/coco data/VOCdevkit --skip-train

扩展训练集的前景:

python tools/dataset_converters/matting/comp1k/extend_fg.py data/adobe_composition-1k

检查 DIM 的目录结构

最终的文件夹结构应如下所示:

mmagic
├── mmagic
├── tools
├── configs
├── data
│   ├── adobe_composition-1k
│   │   ├── Test_set
│   │   │   ├── Adobe-licensed images
│   │   │   │   ├── alpha
│   │   │   │   ├── fg
│   │   │   │   ├── trimaps
│   │   │   ├── merged  (generated by tools/data/matting/comp1k/preprocess_comp1k_dataset.py)
│   │   │   ├── bg      (generated by tools/data/matting/comp1k/preprocess_comp1k_dataset.py)
│   │   ├── Training_set
│   │   │   ├── Adobe-licensed images
│   │   │   │   ├── alpha
│   │   │   │   ├── fg
│   │   │   │   ├── fg_extended (generated by tools/data/matting/comp1k/extend_fg.py)
│   │   │   ├── Other
│   │   │   │   ├── alpha
│   │   │   │   ├── fg
│   │   │   │   ├── fg_extended (generated by tools/data/matting/comp1k/extend_fg.py)
│   │   ├── test_list.json         (generated by tools/data/matting/comp1k/preprocess_comp1k_dataset.py)
│   │   ├── training_list_fba.json (generated by tools/data/matting/comp1k/extend_fg.py)
│   ├── coco
│   │   ├── train2014   (or train2017)
│   ├── VOCdevkit
│   │   ├── VOC2012
Read the Docs v: latest
Versions
latest
stable
0.x
Downloads
pdf
epub
On Read the Docs
Project Home
Builds

Free document hosting provided by Read the Docs.