動画生成AI
表示
(Text-to-Videoモデルから転送)
この記事はカテゴライズされていないか、不十分です。 |
動画生成AI(どうがせいせいエーアイ)とは、ユーザーの入力した情報に従って動画を生成することができる人工知能である。
動画の生成は文字列によるプロンプトの他、画像や動画の入力によっても行うことができる。
歴史
[編集]2022年9月、MetaがMake A Videoを発表[1]。Text-to-Video modelであり、テキストプロンプトによって動画生成を行うことができる。
2022年9月、匿名の開発者がPhenakiを公開[2]。
2022年10月、GoogleがImagen Videoを発表[3]。MetaのMake A Video同様、自然言語の指示によって動画を生成可能。
2023年2月8日、Stable Diffusionを共同開発したベンチャー企業ランウェイ(Runway)が、Gen1を発表[4][5]。Gen1はテキストプロンプトによる生成の他に、画像や動画の入力による動画生成や、既存の動画を範囲指定してテキストによる編集を行うこともできる[6][7]。
同年6月、ランウェイ(Runway)はGoogleとクラウドコンピューティング契約を行い、2000万ドル相当のクラウド利用クレジットの無償提供を受ける[8]。
2024年2月、ChatGPTやDALL-Eの開発を行うOpenAIがSoraを発表[9]。完成度の高さが話題となる。
2024年3月、韓国のDeep Brain AIがText-to-Video modelのビデオソリューションを発売し、AI Studiosに搭載した[10]。
問題点
[編集]この節の加筆が望まれています。 |
脚注
[編集]- ^ “Metaが動画生成AI「Make A Video」発表、空飛ぶスーパードッグや自画像を描くテディベアの動画を公開 - GIGAZINE”. gigazine.net (2022年9月30日). 2024年3月8日閲覧。
- ^ “テキストを基にする動画生成AI「Phenaki」を匿名の研究者が公開、宇宙飛行士が踊ったりテディベアが泳いだりするサンプル動画も - GIGAZINE”. gigazine.net (2022年9月30日). 2024年3月8日閲覧。
- ^ “Googleが動画生成AI「Imagen Video」を発表 - GIGAZINE”. gigazine.net (2022年10月6日). 2024年3月8日閲覧。
- ^ “生成AIが新章突入、Stable Diffusion共同開発元が動画版を発表”. MITテクノロジーレビュー. 2024年3月8日閲覧。
- ^ LABO編集部, TABI. “動画を生成できるAI「Gen-1」発表!”. TABI LABO. 2024年3月8日閲覧。
- ^ ASCII. “画像やプロンプトから動画を生成するAI「Gen-1」、Stable Diffusionの共同開発元が発表”. 週刊アスキー. 2024年3月8日閲覧。
- ^ “Gen-1 by Runway” (英語). Runway. 2024年3月8日閲覧。
- ^ Langley, Rosalie Chan,Ellen Thomas,Stephanie Palazzolo,Hugh (2023年6月2日). “グーグルが動画生成AI「Runway」に2000万ドル相当「クラウド利用クレジット」を無償提供する深い理由”. TECH INSIDER. 2024年3月8日閲覧。
- ^ “OpenAIの動画生成AI「Sora」は何がすごい?技術的側面を解説”. 株式会社LIG(リグ)|DX支援・システム開発・Web制作 (2024年3月5日). 2024年3月8日閲覧。
- ^ “キーワード入力だけでテーマに沿った映像生成…韓国AI企業が実用化”. www.afpbb.com (2024年3月7日). 2024年3月8日閲覧。