コンテンツにスキップ

英文维基 | 中文维基 | 日文维基 | 草榴社区

視覚と自然言語の融合研究

出典: フリー百科事典『ウィキペディア(Wikipedia)』
VQAの問題の例。

視覚と自然言語の融合研究[注釈 1]英語: Vision and Language[注釈 2])とは、コンピュータビジョン自然言語処理を融合した研究分野である[12][5]。画像や動画からのキャプション生成[14]、画像や動画を対象とした質問応答(VQA)[15]などのタスクが含まれる。

1960年代からヒューマン・ロボット・コラボレーション英語版の分野を中心に初期の研究が始められており[16][17]、1990年代ごろから画像検索[18]、2000年代から画像キャプション生成[19]の研究も始められた。2010年代に深層学習の適用によってコンピュータビジョン自然言語処理が大きく発展したことに伴い、融合研究も発展を遂げている[16][20]。多くの研究が行われている一方で、データセットバイアスなどの研究課題も残されている[21][22]

背景

[編集]

視覚と自然言語の融合研究は、コンピュータビジョン自然言語処理を融合した研究分野である[12][5]。2つの分野は独立して研究されてきたが、視覚と自然言語を組み合わせることにより、ヒューマンコンピュータインタラクション[23][20]視覚障害者の支援[23][20][24]ヒューマン・ロボット・コラボレーション英語版[20][24]自動運転[23]、ナビゲーション[23]、画像検索[20]といった分野への応用が期待されることもあり、融合研究が注目されるようになった[25][20]

コンピュータビジョン

[編集]

コンピュータビジョンは、コンピュータ画像動画の内容を理解させる分野である[26][27][28]。主なタスクとしては画像分類[29]物体検出[30][29]などが含まれる。敵対的生成ネットワーク(GAN)などによる画像生成が含まれる場合もある[31][32]

自然言語処理

[編集]

自然言語処理は、人間が使用する言語(自然言語)をコンピュータに処理させる分野である[33][34]。主なタスクとしては情報検索[35][36]質問応答[33][36]機械翻訳[33][37]などが含まれる。

主な研究分野

[編集]

視覚と自然言語の融合研究として以下のような分野が研究されている[38][18][1][4]

自然言語処理のタスクの拡張

[編集]
画像キャプション生成のデータセットの例。
画像・動画の説明生成
画像や動画に対する説明を生成するタスクである[38][注釈 3]。この融合分野の代表的なタスクとされる[39]画像キャプション生成も含まれる[40]
画像キャプション生成の研究は2000年代から行われており[19]検索エンジンソーシャルメディアなどで画像の説明を生成するために利用されている[41]
画像・動画への質問応答(Visual Question Answering、VQA)
自然言語処理における質問応答は、人間の質問に対して回答するタスクである[42]。質問応答では、質問に回答するにあたって必要な情報を得るために、なんらかの文書を参照する場合もある[43]。質問応答が自然言語のみを使用するのに対して、VQAは質問応答タスクを拡張した、画像や動画に関する質問に答えるタスクである[38]
未知の物体にも対応するようなVQAは2014年に研究が始められた[44]
画像検索(Image Retrieval)
多数の画像の中から、画像を検索するタスクである[45]。キーワードや文章などの自然言語をクエリとして使用するタスク、画像をクエリとして類似している画像を検索するタスク、手書きの絵をクエリとするタスクなどが研究されている[46][47]
従来は画像に人間がつけたキャプションなどを利用して検索を行っていたが、1990年代から画像に含まれる視覚情報も用いて検索を行う研究が行われるようになった[48][45]検索エンジンでも使用されている[49][50]
Visual Dialogの説明。「それは何色ですか」(What color is it?)という質問に対して、対話の履歴から犬の色を聞かれていることを理解する必要がある。
画像・動画に関する対話(Visual Dialog)
画像や動画に含まれる情報に対して、自然言語を用いて対話を行うタスクである[38]。例えば、人間が対話システムに画像の内容に関する複数の質問を問いかけるという対話において、対話システムは過去の対話内容も考慮して回答する必要がある[51]
Visual Dialogは2017年に提案されて研究が始まった[52]
画像の参照表現(Visual Referring Expression)の理解・生成
参照表現(Referring Expression)とは「左の三つの玉のうちの一番右の玉」のように複数の物体の中から特定の物体を識別するための言語表現である[53]。視覚との融合分野では、自然言語で与えられた参照表現に対応する物体を画像中で示したり、画像中の物体に対応する参照表現を生成するタスクが研究されている[54]
参照表現生成の研究は自然言語処理の分野で1970年代から行われているが[55]、2010年代まで画像などに含まれる視覚情報を直接使うような手法はほとんど研究されていなかった[56][57]。深層学習を用いた画像の参照表現の理解と生成の最初の研究は2016年に発表され[58]、画像から直接の参照表現の理解・生成を行う研究が始まった[57]
画像の含意関係認識(Visual Entailment)
自然言語処理において、含意関係認識という「ある文章が正しければもう一方の文章も正しいと言えるか」を判別するタスクがある[38]。例えば「川端康成は「雪国」などの作品でノーベル文学賞を受賞した」という文章が正しいときは「川端康成は「雪国」の作者である」も正しいという関係を判別することが求められる[59]。視覚との融合分野では、画像に示された状況が正しいときに与えられた文章が正しいと言えるかを判別するタスクが提案されている[38]
2018年にVisual Entailmentのタスクを提案する研究が発表された[60]
マルチモーダル機械翻訳
機械翻訳タスクを拡張して、元の言語の文章に加えて、文章に対応した画像や動画が与えられた状況で翻訳を行うというタスクである[38]
2016年にタスクが提案された[61]

コンピュータビジョンのタスクの拡張

[編集]
Visual ReasoningのデータセットであるCLEVR[62]の画像の例。質問の例として「小さい円柱は金属製の物体より多いですか?」などが想定される(回答は「いいえ」)[63]
文章に対する画像生成
与えられた文章に対応した画像を生成するタスクである[38][注釈 4]
敵対的生成ネットワーク(GAN)の登場に伴い、2016年に文章から画像を生成する最初の研究が発表された[65]
Visual Reasoning
画像分類や物体検出を拡張したタスクであり[38]、画像や動画に含まれる視覚情報を理解するタスクである[66]。一例として、画像に含まれる複数の物体同士の関係性などを理解するタスクなどが含まれる[67][68]。Visual Reasoningは視覚情報に対する質問に回答するための過程として定義されることもある[69]。すなわち、VQAやVisual Dialogのモデルは(明示的に設計されていなくても)Visual Reasoningを行なっていることになる[69]。Visual Reasoningの手法を評価するために、VQAを用いることも一般的である[68]
初期の研究は1960年代から行われている[67]

自然言語処理とコンピュータビジョンのタスクの拡張

[編集]
視覚と言語を用いたナビゲーションの例。
視覚と言語を用いたナビゲーション
ナビゲーションはロボットなどに対して目的地までの道順を案内するタスクであり[70]、視覚情報もしくは自然言語のみでのナビゲーションが研究されてきた[38]。これらを拡張して、視覚と自然言語の両方の情報を使用するタスクが融合分野として研究されている[38]
視覚と自然言語の両方の情報を用いるナビゲーションとしては、最初のデータセットが2017年に発表されている[71]

歴史

[編集]

黎明期(1960年代以降)

[編集]

1968年から始められたSHRDLUというプロジェクトが、視覚と自然言語の融合における最初期の研究のひとつとされている[16][17]SHRDLUは人間が自然言語で指示をすることで、コンピュータ内の仮想空間の積み木を操作できるコンピュータプログラムである[17]。これ以降の視覚と自然言語の融合研究では、ロボットを自然言語による対話で操作するという分野が多く研究されてきた[16]

深層学習以前(1990年代〜2000年代)

[編集]

画像検索も視覚と自然言語の融合研究における最初期のタスクのひとつである[18]。従来は画像に人間がつけたキャプションを利用していたが、1990年代から画像の視覚情報も用いて検索を行う研究が行われるようになった[45][72]

画像キャプション生成は2000年代ごろから研究が行われており、主にテンプレートを用いた手法が提案されていた[19]。テンプレートを用いて文章を生成するためにSIFT英語版HOG英語版などの局所画像特徴量[73]に対してサポートベクターマシン(SVM)などの分類器を適用するなどの手法が提案された[74][75]

深層学習の適用(2010年代以降)

[編集]

2010年代の深層学習の適用によって、画像と自然言語処理の融合分野も大きな発展を遂げた[16][20]。VQA(2014年)[注釈 5]、マルチモーダル機械翻訳(2016年)[61]、Visual Dialog(2017年)[52]、視覚と言語を用いたナビゲーション(2017年)[71]といったタスクの研究も2010年代に始まった。

深層学習が適用されるようになってからは、主に畳み込みニューラルネットワーク(CNN)を用いて画像や動画の特徴量を、回帰型ニューラルネットワーク(RNN)を用いて自然言語の特徴量を抽出して、2種類の特徴量を統合する手法が研究されてきた[76]。2019年からはTransformer[77][78]という共通のモデルを用いる手法が研究されている[79][80]


手法

[編集]
画像キャプション生成の例。画像の特徴量を得るためにCNNを利用し、文章を生成するためにRNNを用いている。

視覚情報と自然言語情報の統合(2018年ごろまでの主流)

[編集]

視覚と自然言語の融合研究の手法について、視覚情報や自然言語の特徴量を得る機構などには共通点が多く[81]、2018年ごろまで[80]の多くの手法は、(1)視覚情報処理、(2)自然言語処理、(3)二つの情報の統合を行う3個のサブシステムを持っていた[76]

視覚情報処理には、かつてはSIFTなどの局所画像特徴量が用いられていたが[74][73]、深層学習が適用され始めてからは主にCNNが使用されてきた[76]。2017年まではCNNが出力する特徴量をそのまま利用するモデルが多かったが、バウンディングボックスやグラフ構造を中間表現として利用する研究も行われるようになった[76]

自然言語処理には単語ベクトルが使われることが多かったが[38]、深層学習が適用され始めてからは主にRNNで得られる文章全体の特徴量が使用されてきた[76]

これらの手法によって得られた画像や動画と自然言語の情報を統合するための手法は、タスクごとに様々なものが利用されている[76]。CNNやRNNから得られた特徴量ベクトルを統合する最も単純な方法は、二つのベクトルを連結したりアダマール積をとることである[76]。より高度な手法として、注意機構(Attention)という手法を適用して、画像や自然言語からそれぞれのクエリに対して重要な情報を自動的に選択して利用することが提案されている[76]

統合的な事前学習(2019年以降)

[編集]

事前学習とは、機械学習のモデルを大規模なデータセットで学習することで、さまざまなタスクに用いることができる特徴量を抽出できるモデルを学習する手法である[82]。大規模なデータセットで事前学習を行ったのちに、比較的小規模のデータセットを用いて個別のタスクにチューニングを行うことで、高い性能を持つモデルを学習できることが知られている[82]。コンピュータビジョンにおいてはCNNImageNetなどの大規模なデーセットで事前学習することは広く行われてきたが[82]RNNを用いた自然言語処理で事前学習を行うことは少なかった[83][注釈 6]。2017年に発表された自然言語処理の新しいモデルであるTransformer[77]に対して事前学習を行う手法が2018年に提案され[84]、自然言語処理においても文章全体について事前学習を行う研究が行われるようになった(BERTなど)[85]。2018年には動画にTransformerを適用する研究が提案され、2020年には画像にTransformerを適用する研究も始められた(Vision Transformer英語版[86]

視覚と自然言語の融合研究においても、2019年からTransformerを用いて画像・動画と自然言語の事前学習を同時に行う研究が行われている[80]

主なタスクの研究・評価手法

[編集]

視覚と自然言語の融合研究のタスクには共通点があるが[81][76]、タスクごとに異なる手法が研究されている[87]。ここでは主なタスクの手法と評価手法を紹介する。

画像・動画の説明生成

[編集]
画像キャプション生成の手法
研究が始められた2000年代ごろには主にテンプレートを用いた手法が提案されていた[19]。テンプレートを用いて文章を生成するためにSIFT英語版HOG英語版などの局所画像特徴量[73]に対してSVMなどの分類器を適用するなどの手法が提案された[74][75]
深層学習を用いた手法が発展した2010年代には、CNNRNNを用いる方法が一般的になった[75]。さまざまなモデルが提案されているが、単純かつ一般的に使用されている手法としては教師あり学習を用いたエンコーダ・デコーダモデルがある[88]。これは、CNNを用いて画像特徴量を抽出して、画像特徴量をRNNに入力してキャプションを生成するという手法である[89]。2019年には画像と自然言語の両方にTransformerを使用する手法も提案されている[90]
評価手法
主に使用されているのは、生成された説明とデータセットに含まれる説明の類似度による評価である[91][92]BLEU英語版ROUGEMETEOR英語版といった機械翻訳などの自然言語処理タスクで使用されている評価基準が使われている[91][92]

画像・動画への質問応答(VQA)

[編集]
VQAの手法の例[93]。画像に注意機構(Attention)を適用している。
手法
2014年に研究が始められた当初の手法は、あらかじめ定義された形式の回答に限定されたものだったが、2015年には回答の形式を限定しないような質問にも対応できるモデルが提案された[94]。2015年に提案されたモデルのひとつは、CNNで抽出された画像の特徴量ベクトルと質問文章の単語ベクトルの両方をエンコーダのRNNLSTM)に入力することで特徴量を統合し、デコーダのRNNで回答を生成する手法である[95]。同時期には、特徴量の統合の方法を変更したり、注意機構(Attention)の適用や、データベースを利用する方法など、様々な手法が提案されている[95]。2019年には自然言語処理にTransformerを使用するモデルや[96]、Transformerを用いて画像と自然言語の特徴量を統合的に事前学習する手法が提案されている[97]
評価手法
VQAの回答は画像キャプションなどよりは短いことが多いため、単純な評価手法が使用されることが多いが、高度な評価手法も研究されている[98]。単純な手法のひとつは、生成された回答とデータセットに含まれる回答が厳密に一致しているかを評価することである[99]。高度な手法としては、回答の意味の類似度を評価する手法が研究されている[99]

画像検索(Image Retrieval)

[編集]
適合率(Precision)と再現率(Recall)英語版の説明。
手法
さまざまな種類のクエリに対する画像検索が研究されているが[46][47]、文章か画像をクエリとする研究が多く研究されている[100]
文章をクエリとする検索について、2019年でもウェブ検索では人間がつけたキャプションなどの自然言語の情報を利用しているとされている[100]。キャプションがない画像も検索するために、画像キャプション生成などを用いて[41]自動的にアノテーションを行う手法を適用することが研究されている[101]
人間がつけたキャプションなどを利用しない方法として、1990年代から画像をクエリとして類似する画像を検索する研究が行なわれている[101][102]。画像をクエリとした画像検索は、画像から特徴量を抽出して類似度を評価することで行なわれる[103]。初期の研究として質感などを特徴量として使用する方法が研究されてきたが、それだけでは画像が表す意味の類似性を比較することができないことが課題だった[102]。そのため、深層学習が適用される以前から、画像全体の意味も表すような特徴量も併用する試みが研究されてきた[102]。深層学習を使用した方法も数多く提案されており、CNNを利用して画像検索に有用な特徴量を抽出する研究が行なわれている[104]
評価手法
画像検索には情報検索の評価手法が用いられる[105]。評価手法として様々なものがあり、想定される適用先などによって使い分けることが求められる[106]。広く用いられているのは適合率(Precision)と再現率(Recall)英語版、およびF値である[106]。ここで、検索結果の上位k個の画像を「検出された」と判定するとする[106]。また、評価の際には、検出されるべき正解の画像(複数の場合もある)が分かっているとする[106]。下式のように、適合率(P)は検出された画像の中で、正解の画像(tp)の割合で表される(fpは誤って検出された画像の数)[106]。再現率(R)は検出されるべき正解の画像の中で、実際に検出された画像(tp)の割合で表される(fnは正解の画像だが、検出されなかった画像の数)[106]
F値は適合率と再現率の調和平均で求められる[106]

文章に対する画像生成

[編集]
手法
2016年からGANを応用した手法が提案されていたが、文章で条件付けしない通常の画像生成と比較すると、生成される画像の質が低かった[65]。画像の質を高めるために複数のGANを使用したり、文章全体の意味を画像に反映するために注意機構(Attention)を使用する研究が提案された[65]
評価手法
GANなどのコンピュータビジョンにおける画像生成タスクで使用される評価指標が使われている[107]。Inception Scoreという指標を用いて画像の質や多様性を評価できるが、Inception Scoreでは文章に対応した画像を生成できているかを評価することができないので、R-Precisionという指標も併用される[108]

データセット

[編集]

大規模なデータセットを用いて学習することは、深層学習モデルの汎化性能を高める重要な要素のひとつである[109]。視覚と自然言語の融合研究においても大規模なデータセットは重要な役割を果たしており、モデルの学習と評価に不可欠な存在である[16]。写真の共有サイトであるFlickrなどから提供される画像データとクラウドソーシングによるアノテーションによって、大規模なデータセットを作ることが可能になった[16]。このような既存の画像を収集するだけではなく、データセットのために作成されることもある[71]

さまざまなデータセットが提案されているが、データセットのサイズ(含まれる画像や文章の数)、画像の質や多様性、文章の長さ、文章に含まれる単語や構文の多様性、アノテーションの豊富さなどの異なる性質を持っており[110]、それぞれのデータセットに利点と欠点がある[16]

本節では主なデータセットを紹介する[注釈 7]

画像・動画の説明生成

[編集]

データセットには画像と説明文が含まれるが、データセットによってデータの数や質、収集方法などが異なる[112]

キャプション付き画像データセット

[編集]
名称 発表年 画像の枚数 各画像のキャプション数 特徴 出典
SBU Captioned Photo Dataset 2011 1,000,000 1 Flickrから集められた写真で、ユーザがつけたキャプションを利用している。 [113]
Flickr 30K Images 2014 31,014 5 Flickrから集められた写真に対して、クラウドソーシングでキャプションを付けている。 [114]
Microsoft COCO Dataset 2014 123,287 5 Flickrから集められた写真に対して、クラウドソーシングでキャプションを付けている。広く利用されているデータセット[115] [116]

説明付き動画データセット

[編集]
名称 発表年 動画の数 動画の合計時間 文章の数 特徴 出典
Microsoft Research Video Description Corpus 2011 1,970 5.3時間 70,028 YouTubeの動画に、クラウドソーシングで説明をつけている。複数言語の説明がつけられている。 [117]

画像への質問応答

[編集]

異なる特徴を持ったさまざまなデータセットが提案されている。実世界の画像を用いたデータセットが良く使われているが[118]、画像認識の能力ではなく意味を理解できているかの評価に注目するために、クリップアートで作成された絵を用いたデータセットも提案されている[119]。初期のデータセットは画像中の情報を理解できれば質問に答えられるものであったが、2015年に発表されたKB-VQAというデータセットなどは、画像中の情報だけでは質問に正しく回答することはできず、外部データベースの知識を用いることが求められる[119]。2017年に発表されたVisual Genomeというデータセットでは、画像のシーングラフ(物体をノード、物体同士の関係(位置関係など)をエッジとするグラフ[120])が与えられている[121]

名称 発表年 画像の枚数 質問の数 回答の数 説明 出典
Visual Question Answering Dataset (v1.0) 2015 204,721 + 50,000 614,163 + 150,000 6,141,630 + 1,500,000 MS COCOの画像(204,721枚)とクリップアートで作成された絵(50,000枚)に対して、クラウドソーシングで質問と回答がつけられている。 [122]

課題

[編集]

データセットバイアス

[編集]

データセットバイアスとは、機械学習モデルの学習に使用したときに誤った結論を導く可能性がある、データセットの偏りのことである[123]。例えば、画像データセットを用いて「自動車」を認識する機械学習モデルを学習するときに、ImageNetというデータセットでは「自動車」というラベルにスポーツカーを多く含むため、自家用車の検出性能が低くなってしまうという問題が起こることがある[124]。逆に、学習データとテストデータは多くの場合は同じ条件で集められているため、学習データを記憶するだけでテストデータにも対応できてしまい、実際の性能よりも高く評価されてしまうという問題が起こることもある[21]

データセットバイアスはコンピュータビジョンや自然言語処理のそれぞれの分野でも問題となるが、両方の分野を対象とする融合研究ではより深刻な影響を受けるとされている[21][125]。一例として、VQAのデータセットにおいて、質問に対する回答に偏りがあると画像を使わなくても一定の精度を達成できてしまうことが知られている[21][126]。例えばデータセットに「画像中に〜がありますか」という形式の質問が複数あり、答えとして「はい」が多いという偏りがあるとする[21]。機械学習モデルは画像の内容を確認して答えることが期待されるが、自然言語の質問だけを見て「画像中に〜がありますか」という形式の質問には常に「はい」と答えるように学習をされてしまうことが起こり得る[21][126]

解決方法としてデータセットからバイアスを取り除く方法が研究されているが、大規模なデータセットにおいてあらゆる要素のバイアスを取り除くことは不可能に近く、未解決の問題とされている[21]

評価の難しさ

[編集]

評価手法はコンピュータビジョンと自然言語処理の各分野においても課題のひとつであるが、融合研究においてはさらに大きな問題となっているとされている[22]。特に自然言語生成に関係するタスクにおける評価は難しいとされる[22][127][128]。例えば画像キャプション生成において「男性が木の横を歩いている」と「男が木のそばを散歩している」という二つの文章はほとんど同じ意味を表しているが、自動的に類似度の評価を行うことは難しい[22]。また、VQAにおいて「」という答えが正解とされている問題に対して、「」という答えが正しいのかどうかを自動的に評価することは難しい[22]

評価手法を改善する研究は行われているが、未解決の問題となっている[22]

脚注

[編集]

注釈

[編集]
  1. ^ 日本語での表記は複数存在し、「視覚と自然言語の融合研究」[1]、「視覚と言語の融合研究」[2][3]、「画像と自然言語処理の融合研究」[4]、「CVとNLPの融合研究」[5]などの他に"Vision and Language"と英語のままで呼ばれることもある[6][7]
  2. ^ "Vision and Language"[8][9][10]の他に"Language and Vision"[11]など表記に揺らぎはある。
  3. ^ 自然言語処理分野において、与えられた文章の次の文章を生成する「条件付き言語生成」は広く研究されているが、これを拡張した、与えられた画像や動画に対して「条件付き言語生成」をするというタスクとして捉えることもできる[38]
  4. ^ コンピュータビジョンで画像に対する画像の生成(白黒写真からカラー写真の生成など[64])などが研究されているが、これを自然言語との融合分野に拡張したタスクとして捉えることもできる[38]
  5. ^ 未知の物体なども対象とした(open-world)手法として初めて提案されたのがMalinowski et al. (2014)[10]である[44]
  6. ^ 自然言語処理分野においては、単語ベクトルを事前学習することは広く研究されてきた[83]
  7. ^ サーベイ論文[111][9]で挙げられているデータセットを中心に取り上げる。

出典

[編集]
  1. ^ a b c d 牛久祥孝. “【記事更新】私のブックマーク「視覚と自然言語の融合研究(Integrating Vision and Language)」 – 人工知能学会 (The Japanese Society for Artificial Intelligence)”. 人工知能学会. 2022年3月24日閲覧。
  2. ^ NL研・CVIM研・PRMU研の合同研究会:第248回自然言語処理研究会 発表募集”. 情報処理学会 自然言語処理研究会 (NL) (2021年2月9日). 2022年3月24日閲覧。
  3. ^ 【第48回AIセミナー】「マルチモーダル情報の統合理解の最前線」”. 人工知能研究センター. 2022年3月24日閲覧。
  4. ^ a b c AI白書2017:IPA 独立行政法人 情報処理推進機構”. 情報処理推進機構. p. 42. 2022年3月24日閲覧。
  5. ^ a b c 一般社団法人情報処理学会. “第247回NL研究発表会-情報処理学会”. www.ipsj.or.jp. 2022年3月24日閲覧。
  6. ^ 井尻, 善久; 牛久, 祥孝; 片岡, 裕雄; 藤吉, 弘亘, eds. (2021). コンピュータビジョン最前線 Winter 2021. 共立出版. p. 78.
  7. ^ 品川, 政太朗「Vision and Languageと分野を取り巻く深層学習手法の紹介」『研究報告コンピュータビジョンとイメージメディア(CVIM)』2021-CVIM-226第15号、2021年5月13日、1–1頁、ISSN 2188-8701 
  8. ^ Workshop on Vision and Language - ACL Anthology”. ACL Anthology. ACL. 2022年3月24日閲覧。
  9. ^ a b Mogadala, Kalimuthu & Klakow 2021.
  10. ^ a b c Antol, Stanislaw; Agrawal, Aishwarya; Lu, Jiasen; Mitchell, Margaret; Batra, Dhruv; Lawrence Zitnick, C.; Parikh, Devi (2015). “VQA: Visual Question Answering”. Proceedings of the IEEE International Conference on Computer Vision (ICCV): 2425–2433. https://www.cv-foundation.org/openaccess/content_iccv_2015/html/Antol_VQA_Visual_Question_ICCV_2015_paper.html. 
  11. ^ CVPR 2015 Language and Vision Workshop | The Center for Brains, Minds & Machines”. Center for Brain, Minds & Machines. 2022年3月24日閲覧。
  12. ^ a b Mogadala, Kalimuthu & Klakow 2021, p. 1183.
  13. ^ a b Ferraro 2015, p. 210.
  14. ^ [1][4][13]
  15. ^ [1][10][13]
  16. ^ a b c d e f g h Ferraro 2015, p. 207.
  17. ^ a b c Terry Winograd. “SHRDLU”. 2022年3月24日閲覧。
  18. ^ a b c Kafle 2019, 2.1. Tasks in V&L Research.
  19. ^ a b c d Wang 2021, p. 2.
  20. ^ a b c d e f g Kafle 2019, 1. Introduction.
  21. ^ a b c d e f g Kafle 2019, 3.1. Dataset Bias.
  22. ^ a b c d e f Kafle 2019, 3.2. Evaluation Metrics.
  23. ^ a b c d Mogadala, Kalimuthu & Klakow 2021, p. 1184.
  24. ^ a b Fern, Sonia. “The intersection of vision and language” (英語). phys.org. 2022年4月9日閲覧。
  25. ^ Mogadala, Kalimuthu & Klakow 2021, pp. 1183–1184.
  26. ^ Sonka 2008, p. 1.
  27. ^ Huang, T (1996) (英語). Computer Vision: Evolution And Promise. doi:10.5170/CERN-1996-008.21. http://cds.cern.ch/record/400313. 
  28. ^ コンピューター ビジョンとは | Microsoft Azure”. Microsoft. 2022年4月8日閲覧。
  29. ^ a b Mogadala, Kalimuthu & Klakow 2021, p. 1185.
  30. ^ Sonka 2008, p. 385.
  31. ^ Cao, Yang-Jie; Jia, Li-Li; Chen, Yong-Xia; Lin, Nan; Yang, Cong; Zhang, Bo; Liu, Zhi; Li, Xue-Xiang et al. (2019). “Recent Advances of Generative Adversarial Networks in Computer Vision”. IEEE Access 7: 14985–15006. doi:10.1109/ACCESS.2018.2886814. ISSN 2169-3536. https://ieeexplore.ieee.org/document/8576508/. 
  32. ^ Wang, Zhengwei; She, Qi; Ward, Tomás E. (2022-03-31). “Generative Adversarial Networks in Computer Vision: A Survey and Taxonomy” (英語). ACM Computing Surveys 54 (2): 1–38. doi:10.1145/3439723. ISSN 0360-0300. https://dl.acm.org/doi/10.1145/3439723. 
  33. ^ a b c Jurafsky 2009, p. 1.
  34. ^ Eisenstein 2019, p. 1.
  35. ^ Jurafsky 2009, p. 737.
  36. ^ a b Eisenstein 2019, p. 424.
  37. ^ Eisenstein 2019, p. 431.
  38. ^ a b c d e f g h i j k l m n Mogadala, Kalimuthu & Klakow 2021, p. 1187.
  39. ^ Baltrušaitis 2019, p. 424.
  40. ^ Mogadala, Kalimuthu & Klakow 2021, p. 1190.
  41. ^ a b Hossain 2019, p. 1.
  42. ^ Jurafsky 2009, p. 779.
  43. ^ Jurafsky 2009, p. 780.
  44. ^ a b Wu 2017, p. 3.
  45. ^ a b c Mezaris, V.; Kompatsiaris, I.; Strintzis, M.G. (2003-09). “An ontology approach to object-based image retrieval”. Proceedings 2003 International Conference on Image Processing (Cat. No.03CH37429) 2: II–511. doi:10.1109/ICIP.2003.1246729. https://ieeexplore.ieee.org/document/1246729. 
  46. ^ a b Datta 2008, pp. 11–12.
  47. ^ a b Latif 2019, p. 3.
  48. ^ Datta 2008, p. 4.
  49. ^ Kaput, Mike. “AI in Search Engines: Everything You Need to Know” (英語). Marketing AI Institute. 2022年4月9日閲覧。
  50. ^ Google Search By Image: Use A Snapshot As Your Search Query” (英語). TechCrunch. 2022年4月9日閲覧。
  51. ^ Mogadala, Kalimuthu & Klakow 2021, p. 1246.
  52. ^ a b Das, Abhishek; Kottur, Satwik; Gupta, Khushi; Singh, Avi; Yadav, Deshraj; Moura, Jose M. F.; Parikh, Devi; Batra, Dhruv (2017). Visual Dialog. pp. 326–335. https://openaccess.thecvf.com/content_cvpr_2017/html/Das_Visual_Dialog_CVPR_2017_paper.html. 
  53. ^ 船越, 孝太郎、渡辺, 聖、栗山, 直子、徳永, 健伸「知覚的群化に基づく参照表現の生成」『自然言語処理』第13巻第2号、2006年、79–97頁、doi:10.5715/jnlp.13.2_79 
  54. ^ Mogadala, Kalimuthu & Klakow 2021, p. 1216.
  55. ^ Kazemzadeh, Sahar; Ordonez, Vicente; Matten, Mark; Berg, Tamara (2014-10). “ReferItGame: Referring to Objects in Photographs of Natural Scenes”. Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing (EMNLP) (Doha, Qatar: Association for Computational Linguistics): 787–798. doi:10.3115/v1/D14-1086. https://aclanthology.org/D14-1086. 
  56. ^ Krahmer 2012, p. 207.
  57. ^ a b Mao, Junhua; Huang, Jonathan; Toshev, Alexander; Camburu, Oana; Yuille, Alan; Murphy, Kevin (2016-06). “Generation and Comprehension of Unambiguous Object Descriptions”. 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR) (Las Vegas, NV, USA: IEEE): 11–20. doi:10.1109/CVPR.2016.9. ISBN 978-1-4673-8851-1. http://ieeexplore.ieee.org/document/7780378/. 
  58. ^ Qiao 2021, p. 4427.
  59. ^ 寺中, 元希; 斎藤, 博昭 (2015). “含意関係認識におけるベクトル空間モデルの適用”. 自然言語処理学会 21: 924. 
  60. ^ Mogadala, Kalimuthu & Klakow 2021, p. 1241.
  61. ^ a b Specia, Lucia; Frank, Stella; Sima'an, Khalil; Elliott, Desmond (2016-08). “A Shared Task on Multimodal Machine Translation and Crosslingual Image Description”. Proceedings of the First Conference on Machine Translation: Volume 2, Shared Task Papers (Berlin, Germany: Association for Computational Linguistics): 543–553. doi:10.18653/v1/W16-2346. https://aclanthology.org/W16-2346. 
  62. ^ CLEVR: A Diagnostic Dataset for Compositional Language and Elementary Visual Reasoning”. cs.stanford.edu. 2022年3月25日閲覧。
  63. ^ CLEVR Dataset Generation, Meta Research, (2022-03-16), https://github.com/facebookresearch/clevr-dataset-gen 2022年3月25日閲覧。 
  64. ^ Isola, Phillip; Zhu, Jun-Yan; Zhou, Tinghui; Efros, Alexei A. (2017-07). “Image-to-Image Translation with Conditional Adversarial Networks”. 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR): 5967–5976. doi:10.1109/CVPR.2017.632. https://ieeexplore.ieee.org/document/8100115. 
  65. ^ a b c Mogadala, Kalimuthu & Klakow 2021, p. 1258.
  66. ^ Mogadala, Kalimuthu & Klakow 2021, p. 1232.
  67. ^ a b Bakhtin, Anton; van der Maaten, Laurens; Johnson, Justin; Gustafson, Laura; Girshick, Ross (2019). “PHYRE: A New Benchmark for Physical Reasoning”. Advances in Neural Information Processing Systems (Curran Associates, Inc.) 32. https://proceedings.neurips.cc/paper/2019/hash/4191ef5f6c1576762869ac49281130c9-Abstract.html. 
  68. ^ a b Johnson, Justin; Hariharan, Bharath; Van Der Maaten, Laurens; Hoffman, Judy; Fei-Fei, Li; Zitnick, C. Lawrence; Girshick, Ross (2017-10). “Inferring and Executing Programs for Visual Reasoning”. 2017 IEEE International Conference on Computer Vision (ICCV): 3008–3017. doi:10.1109/ICCV.2017.325. https://ieeexplore.ieee.org/document/8237587. 
  69. ^ a b He 2021, p. 2.
  70. ^ Zieliński, P.; Markowska-Kaczmar, U. (2021-10-01). “3D robotic navigation using a vision-based deep reinforcement learning model” (英語). Applied Soft Computing 110: 107602. doi:10.1016/j.asoc.2021.107602. ISSN 1568-4946. https://www.sciencedirect.com/science/article/pii/S1568494621005238. 
  71. ^ a b c Anderson, Peter; Wu, Qi; Teney, Damien; Bruce, Jake; Johnson, Mark; Sunderhauf, Niko; Reid, Ian; Gould, Stephen et al. (2018-06). “Vision-and-Language Navigation: Interpreting Visually-Grounded Navigation Instructions in Real Environments”. 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition (Salt Lake City, UT: IEEE): 3674–3683. doi:10.1109/CVPR.2018.00387. ISBN 978-1-5386-6420-9. https://ieeexplore.ieee.org/document/8578485/. 
  72. ^ Datta 2008, p. 5.
  73. ^ a b c 庄野逸 (2013). “局所画像特徴量 ~ SIFT, HOG を題材に~”. 映像情報メディア学会誌 67 (3): 256~258. https://www.ite.or.jp/contents/keywords/FILE-20160413114344.pdf. 
  74. ^ a b c Farhadi, Ali; Hejrati, Mohsen; Sadeghi, Mohammad Amin; Young, Peter; Rashtchian, Cyrus; Hockenmaier, Julia; Forsyth, David (2010). Daniilidis, Kostas; Maragos, Petros; Paragios, Nikos. eds. “Every Picture Tells a Story: Generating Sentences from Images” (英語). Computer Vision – ECCV 2010 (Berlin, Heidelberg: Springer): 15–29. doi:10.1007/978-3-642-15561-1_2. ISBN 978-3-642-15561-1. https://link.springer.com/chapter/10.1007/978-3-642-15561-1_2. 
  75. ^ a b c Hossain 2019, p. 2.
  76. ^ a b c d e f g h i Kafle 2019, 2.2. V&L Algorithms.
  77. ^ a b Vaswani, Ashish; Shazeer, Noam; Parmar, Niki; Uszkoreit, Jakob; Jones, Llion; Gomez, Aidan N; Kaiser, Łukasz; Polosukhin, Illia (2017). “Attention is All you Need”. Advances in Neural Information Processing Systems (Curran Associates, Inc.) 30. https://papers.nips.cc/paper/2017/hash/3f5ee243547dee91fbd053c1c4a845aa-Abstract.html. 
  78. ^ Parmar, Niki; Vaswani, Ashish; Uszkoreit, Jakob; Kaiser, Lukasz; Shazeer, Noam; Ku, Alexander; Tran, Dustin (2018-07-03). “Image Transformer” (英語). International Conference on Machine Learning (PMLR): 4055–4064. https://proceedings.mlr.press/v80/parmar18a.html. 
  79. ^ Mogadala, Kalimuthu & Klakow 2021, p. 1270.
  80. ^ a b c Uppal 2022, p. 161.
  81. ^ a b Mogadala, Kalimuthu & Klakow 2021, p. 1189.
  82. ^ a b c He, Kaiming; Girshick, Ross; Dollar, Piotr (2019-10). “Rethinking ImageNet Pre-Training”. 2019 IEEE/CVF International Conference on Computer Vision (ICCV) (Seoul, Korea (South): IEEE): 4917–4926. doi:10.1109/ICCV.2019.00502. ISBN 978-1-7281-4803-8. https://ieeexplore.ieee.org/document/9010930/. 
  83. ^ a b Qiu 2020, p. 1872.
  84. ^ Devlin, Jacob; Chang, Ming-Wei; Lee, Kenton; Toutanova, Kristina (2019). “BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding” (英語). Proceedings of the 2019 Conference of the North (Minneapolis, Minnesota: Association for Computational Linguistics): 4171–4186. doi:10.18653/v1/N19-1423. http://aclweb.org/anthology/N19-1423. 
  85. ^ Qiu 2020, p. 1873.
  86. ^ Han 2022, p. 1.
  87. ^ Uppal 2022, p. 149.
  88. ^ Hossain 2019, pp. 4, 11.
  89. ^ Hossain 2019, pp. 11.
  90. ^ Uppal 2022, p. 153.
  91. ^ a b Mogadala, Kalimuthu & Klakow 2021, p. 1198.
  92. ^ a b Sharma 2020, p. 327.
  93. ^ Zhang, Jianing; Wu, Zhaochang; Zhang, Huajie; Chen, Yunfang (2020-10-01). “Visual Question Answering Based on Question Attention Model”. Journal of Physics: Conference Series 1624 (2): 022022. doi:10.1088/1742-6596/1624/2/022022. ISSN 1742-6588. https://iopscience.iop.org/article/10.1088/1742-6596/1624/2/022022. 
  94. ^ Qi 2017, p. 22.
  95. ^ a b Qi 2017, p. 23.
  96. ^ Uppal 2022, p. 155.
  97. ^ Zhou, Luowei; Palangi, Hamid; Zhang, Lei; Hu, Houdong; Corso, Jason; Gao, Jianfeng (2020-04-03). “Unified Vision-Language Pre-Training for Image Captioning and VQA”. Proceedings of the AAAI Conference on Artificial Intelligence 34 (07): 13041–13049. doi:10.1609/aaai.v34i07.7005. ISSN 2374-3468. https://aaai.org/ojs/index.php/AAAI/article/view/7005. 
  98. ^ Wu 2017, p. 22.
  99. ^ a b Wu 2017, p. 30.
  100. ^ a b Latif 2019, p. 1.
  101. ^ a b Latif 2019, p. 2.
  102. ^ a b c Kapoor 2021, p. 29562.
  103. ^ Kapoor 2021, p. 29561.
  104. ^ Kapoor 2021, pp. 29563–29571.
  105. ^ Datta 2008, p. 52.
  106. ^ a b c d e f g Latif 2019, p. 17.
  107. ^ Mogadala, Kalimuthu & Klakow 2021, p. 1261.
  108. ^ Li, Bowen; Qi, Xiaojuan; Lukasiewicz, Thomas; Torr, Philip (2019). “Controllable Text-to-Image Generation”. Advances in Neural Information Processing Systems (Curran Associates, Inc.) 32. https://papers.nips.cc/paper/2019/hash/1d72310edc006dadf2190caad5802983-Abstract.html. 
  109. ^ Goodfellow 2016, p. 19.
  110. ^ Ferraro 2015, p. 208.
  111. ^ Ferraro 2015.
  112. ^ Mogadala, Kalimuthu & Klakow 2021, p. 1193.
  113. ^ Im2Text: Describing Images Using 1 Million Captioned Photographs”. Vicente Ordonez. 2022年3月25日閲覧。
  114. ^ Young, Peter; Lai, Alice; Hodosh, Micah; Hockenmaier, Julia (2014). “From image descriptions to visual denotations: New similarity metrics for semantic inference over event descriptions”. Transactions of the Association for Computational Linguistics 2: 67–78. doi:10.1162/tacl_a_00166. https://aclanthology.org/Q14-1006. 
  115. ^ Mogadala, Kalimuthu & Klakow 2021, p. 1195.
  116. ^ Lin, Tsung-Yi; Maire, Michael; Belongie, Serge; Hays, James; Perona, Pietro; Ramanan, Deva; Dollár, Piotr; Zitnick, C. Lawrence (2014). Fleet, David; Pajdla, Tomas; Schiele, Bernt et al.. eds. “Microsoft COCO: Common Objects in Context” (英語). Computer Vision – ECCV 2014 (Cham: Springer International Publishing): 740–755. doi:10.1007/978-3-319-10602-1_48. ISBN 978-3-319-10602-1. https://link.springer.com/chapter/10.1007/978-3-319-10602-1_48. 
  117. ^ Chen, David; Dolan, William (2011-06). “Collecting Highly Parallel Data for Paraphrase Evaluation”. Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies (Portland, Oregon, USA: Association for Computational Linguistics): 190–200. https://aclanthology.org/P11-1020. 
  118. ^ Wu 2017, p. 28.
  119. ^ a b Wu 2017, p. 33.
  120. ^ He 2021, p. 5.
  121. ^ Wu 2017, p. 34.
  122. ^ Visual Question Answering” (英語). Visual Question Answering. 2022年3月25日閲覧。
  123. ^ Tommasi, Tatiana; Patricia, Novi; Caputo, Barbara; Tuytelaars, Tinne (2017), “A Deeper Look at Dataset Bias”, in Csurka, Gabriela (英語), Domain Adaptation in Computer Vision Applications, Springer International Publishing, p. 39, doi:10.1007/978-3-319-58347-1_2, ISBN 978-3-319-58347-1, https://doi.org/10.1007/978-3-319-58347-1_2 
  124. ^ Torralba, Antonio; Efros, Alexei A. (2011-06). “Unbiased look at dataset bias”. CVPR 2011: 1521–1528. doi:10.1109/CVPR.2011.5995347. https://ieeexplore.ieee.org/document/5995347. 
  125. ^ Margaret Mitchell. “Bias in the Vision and Language of Artificial Intelligence”. 2022年4月8日閲覧。
  126. ^ a b Antol, Stanislaw; Agrawal, Aishwarya; Lu, Jiasen; Mitchell, Margaret; Batra, Dhruv; Zitnick, C. Lawrence; Parikh, Devi (2015-12). “VQA: Visual Question Answering”. 2015 IEEE International Conference on Computer Vision (ICCV) (Santiago, Chile: IEEE): 2425–2433. doi:10.1109/ICCV.2015.279. ISBN 978-1-4673-8391-2. http://ieeexplore.ieee.org/document/7410636/. 
  127. ^ Iqbal 2020, p. 12.
  128. ^ Novikova, Jekaterina; Dušek, Ondřej; Cercas Curry, Amanda; Rieser, Verena (2017). “Why We Need New Evaluation Metrics for NLG” (英語). Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing (Copenhagen, Denmark: Association for Computational Linguistics): 2241–2252. doi:10.18653/v1/D17-1238. http://aclweb.org/anthology/D17-1238. 

参考文献

[編集]

書籍

[編集]

サーベイ論文(視覚と自然言語の融合研究について)

[編集]

分野全体について

[編集]

それぞれのタスクについて

[編集]

サーベイ論文(コンピュータビジョンおよび自然言語処理について)

[編集]