MSMO自动摘要数据集使用说明和申请表

Table of Contents

1 引言

随着多媒体信息的激增,多模态自动摘要已然成为一个研究热点。但是现有的多模态自动摘要系统的输出大部分都局限于单模态,譬如文本或者图片,而我们认为多模态输出是十分重要的。所以我们提出了一个新任务,该任务在给定一个文档以及一个图片集作为输入的情况下输出一个图文并茂的摘要,我们将其命名为多模态输入多模态输出型自动摘要(Multimodal Summarization with Multimodal Output, MSMO)。

1.1 数据集概述

目前还没有一个大规模的MSMO的基准数据集。我们按照Hermann等人的做法从每日邮报网站爬取并构建了一批数据集。我们使用每日邮报网站中提供的人工撰写的亮点(highlight)作为文本参考摘要。为了得到图文并茂的参考摘要,我们聘请了十名研究生从文章中为每个文本参考摘要选取相关的图片。为了降低不同标注者的主观差异性,我们允许标注者最多选取三幅相关的图片。如果标注者认为没有相关的图片,他们可以标注为NULL。每篇文章都由至少两个学生标注,当两名学生的标注不同时,第三个人选择并决定最终的标注结果。我们只在测试集上进行了标注。

更多细节请查阅我们EMNLP2018的文章

2 版权声明

本数据集版权属于本文作者所有。本数据集仅用于科研用途,禁止复制、传播、发布或出版。如果您对我们的数据集感兴趣,请参照下列格式填写并发送到junnan.zhu@nlpr.ia.ac.cn或haoran.li@nlpr.ia.ac.cn。我们将会给您提供下载链接。如果您有任何疑问,请立即与我们联系。

3 申请表

姓名:___________________

单位:___________________

地址:___________________

邮箱:___________________

日期:___________________

□ 我已阅读并同意以上条款

签名:___________________

4 参考文献

[1] Karl Moritz Hermann, Tomas Kocisky, Edward Grefenstette, Lasse Espeholt, Will Kay, Mustafa Suleyman, and Phil Blunsom. 2015. Teaching machines to read and comprehend. In Proceedings of Neural Information Processing Systems (NIPS), pages 1693–1701.


如果认为我们的工作对你们有帮助,请引用我们的文章。

@InProceedings{Zhu:2018:EMNLP2018,
  author    = {Zhu, Junnan  and  Li, Haoran  and  Liu, Tianshang  and Zhou, Yu and Zhang, Jiajun  and  Zong, Chengqing},
  title     = {MSMO: Multimodal Summarization with Multimodal Output},
  booktitle = {Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing},
  year      = {2018},
  pages     = {4154--4164},
}

Author: Junnan Zhu

Created: 2018-11-09 Fri 10:19

Validate