「生成的人工知能」の版間の差分
m →ハルシネーション (幻覚): 商標修正 |
m Cewbot: ウィキ文法修正 104: Unbalanced quotes in ref name |
||
53行目: | 53行目: | ||
人工知能の用語の[[幻覚 (人工知能)|ハルシネーション(hallucination。幻覚)]]とは、AIの訓練に用いたどの学習データとも整合しない回答をAIが堂々としてしまうという問題である。人間の[[幻覚]]に[[比喩|喩えて]]「幻覚」と呼ばれているが、[[作話]](confabulation)という表現のほうを好む研究者もいる。 |
人工知能の用語の[[幻覚 (人工知能)|ハルシネーション(hallucination。幻覚)]]とは、AIの訓練に用いたどの学習データとも整合しない回答をAIが堂々としてしまうという問題である。人間の[[幻覚]]に[[比喩|喩えて]]「幻覚」と呼ばれているが、[[作話]](confabulation)という表現のほうを好む研究者もいる。 |
||
アメリカでは2023年、ニューヨーク州の弁護士が審理中の民事訴訟の資料作成にOpen AIの生成AI「ChatGPT」を利用し、ChatGPTのハルシネーション(幻覚)を信じてしまった結果、<u>存在しない判例</u>を "[[引用]]" してしまったことが問題となっている<ref name="Nikkei_hallucination>[https://www.nikkei.com/article/DGXZQOGN30E450Q3A530C2000000/ 日経新聞「ChatGPTで資料作成、実在しない判例引用 米国の弁護士」]</ref>。弁護士がニューヨーク州連邦裁判所に提出した資料の中で引用された" [[判例]] "が実際には見つからなかったため、裁判官が確認したところ、その弁護士が資料作成にChatGPTを使っていたことが発覚した<ref name="Nikkei_hallucination />。弁護士は資料の中で、"デルタ航空やユナイテッド航空などが関連している"とする本当は実在しない " 判例 " の " 引用 " を6件行っていた<ref name="Nikkei_hallucination />。 |
アメリカでは2023年、ニューヨーク州の弁護士が審理中の民事訴訟の資料作成にOpen AIの生成AI「ChatGPT」を利用し、ChatGPTのハルシネーション(幻覚)を信じてしまった結果、<u>存在しない判例</u>を "[[引用]]" してしまったことが問題となっている<ref name="Nikkei_hallucination">[https://www.nikkei.com/article/DGXZQOGN30E450Q3A530C2000000/ 日経新聞「ChatGPTで資料作成、実在しない判例引用 米国の弁護士」]</ref>。弁護士がニューヨーク州連邦裁判所に提出した資料の中で引用された" [[判例]] "が実際には見つからなかったため、裁判官が確認したところ、その弁護士が資料作成にChatGPTを使っていたことが発覚した<ref name="Nikkei_hallucination" />。弁護士は資料の中で、"デルタ航空やユナイテッド航空などが関連している"とする本当は実在しない " 判例 " の " 引用 " を6件行っていた<ref name="Nikkei_hallucination" />。 |
||
== 脚注 == |
== 脚注 == |
2023年8月11日 (金) 01:16時点における版
生成的人工知能(せいせいてきじんこうちのう、英: generative artificial intelligence)または生成AIは、プロンプトに応答してテキスト、画像、または他のメディアを生成することができる人工知能システムの一種である[5][6]。生成AIモデルは、入力された訓練データの規則性や構造を学習し、同様の特性を持つ新しいデータを生成する[7][8]。ジェネレーティブAI、ジェネラティブAIともよばれる。
著名な生成AIシステムとして、OpenAIがGPT-3やGPT-4の大規模言語モデル[9]を使用して構築したチャットボットのChatGPT(および別形のBing Chat)や、GoogleがLaMDA基盤モデルに構築したチャットボットBardがある[10]。その他の生成AIモデルとして、Stable DiffusionやDALL-Eなどの人工知能アートシステムがあげられる[11]。
生成AIは、アート、執筆、ソフトウェア開発、ヘルスケア、金融、ゲーム、マーケティング、ファッションなど、幅広い業界で応用できる可能性がある[12][13]。生成AIへの投資は2020年代初頭に急増し、Microsoft、Google、Baiduなどの大企業だけでなく、多数の中小企業も生成AIモデルを開発している[5][14][15]。しかし、人をだましたり操作したりするフェイクニュースやディープフェイクの作成など、生成AIの悪用の可能性も懸念されている[16]。
歴史
機械学習の分野では、その誕生以来、データをモデル化し予測することを目的として、統計的モデルを使用してきた。2000年代後半、ディープラーニング(深層学習)の登場により、画像や動画処理、テキスト分析、音声認識などのタスクで進化と研究が進んできた。しかし、ほとんどのディープニューラルネットワークは識別的モデルとして、画像認識 (en:英語版) のような分類タスクを実行していた。
2014年、変分オートエンコーダや敵対的生成ネットワークなどの進歩により、画像のような複雑なデータの生成的モデルを学習し、生成することができる実用的なディープニューラルネットワークが登場した。
2017年、Transformerネットワークはより大規模な生成的モデルの実現を可能にし、2018年に最初の生成的事前学習トランスフォーマー(GPT)が開発された[17]。2019年、GPT-2がこれに続き、基盤モデルとして教師なし学習を多くの異なるタスクに汎化する能力を実証した[18]。
これ以降の応用面における進化については次節のモダリティを参照のこと。
モダリティ
生成AIシステムは、教師なしまたは自己教師ありの機械学習を、データセットに適用することにより構築される。生成AIシステムの能力は、訓練に使用するデータセットのモダリティや種類によって異なる。
生成AIは、ユニモーダルシステムとマルチモーダルシステムに大分でき、ユニモーダルは1種類の入力(例:テキスト)しか受け入れないのに対し、マルチモーダルは複数種類の入力(例:テキストと画像)を受け入れることができる[19]。たとえば、OpenAIのGPT-4はテキストと画像の両方の入力を受け入れる[20]。
- テキスト
- 単語や単語トークンで訓練された生成AIシステムには、GPT-3、LaMDA、LLaMA、BLOOM、GPT-4などがある(大規模言語モデルを参照)。これらは自然言語処理、機械翻訳、自然言語生成が可能であり、他のタスクの基盤モデルとして使用することができる[21]。データセットとして、BookCorpus、Wikipediaなどがある(テキストコーパスの一覧を参照)。
- コンピュータープログラム
- 自然言語のテキストに加えて、プログラミング言語のテキストを大規模な言語モデルに訓練することで、新しいコンピュータプログラムのソースコードを生成することができる[22]。たとえば、OpenAI Codexがある。
- 画像
- 説明文付きの画像セットで訓練された生成AIシステムには、Imagen、DALL-E、Midjourney、Stable Diffusionなどがある(人工知能アート、生成的アート、合成メディア参照)。これらは、テキストからの画像生成やニューラルスタイル変換によく使われる[23]。データセットにはLAION-5Bなどがある(コンピュータビジョンにおけるデータセット参照)。
- 分子
- 生成AIシステムは、アミノ酸の配列や、DNAやタンパク質を表すSMILESなどの分子表現で訓練することができる。AlphaFoldのようなこれらのシステムは、タンパク質の構造予測や創薬に利用されている[24]。データセットには、さまざまな生物学的データセットが含まれる。
- 音楽
- MusicLMのような生成AIシステムは、レコード音楽のオーディオ波形とテキスト注釈をともに訓練することで、たとえば「歪んだギターリフに乗った落ち着きのあるバイオリンのメロディ」といったテキスト記述に基づいて、新しい音楽サンプルを生成することができる[25]。
- 動画
- 注釈付き動画で訓練された生成AIは、時間的に一貫性のあるビデオクリップを生成することができる。システムの例として、RunwayMLのGen1や[26]、Meta PlatformsのMake-A-Videoがあげられる[27]。
- ロボット制御
- ロボットシステムの動きを学習させた生成AIは、モーションプランニングのために新しい軌道を生成することができる。たとえば、Google ResearchのUniPiは、「青いボウルを取る」や「黄色のスポンジで皿を拭く」といったプロンプトを使用して、ロボットアームの動きを制御する[28]。
課題
著作権侵害の問題
生成AIには訓練データが必要になるが、訓練に使用された著作物を巡り、著作権やデータ倫理上の問題が指摘されている。生成AIの普及に伴い、出版社やクリエイターを中心として、AIの訓練データに彼らの著作物が使われることへの懸念が広がっており、AI企業への訴訟が多数発生している。欧州連合で検討中の生成AI規制法案では、AIシステム構築時に使用する著作物についての情報の表示が義務づけられる見込みである。[29][30]。
アメリカサンフランシスコ在住のアーティスト、カーラ・オルティスは2023年1月、仲間のアーティスト2人とともに画像生成AI「Stable Diffusion」を運営する英スタビリティーAI社やMidjourney社などを相手取り、著作権侵害で集団訴訟を起こした[31]。原告側は訴状で「生成AI企業がAIの訓練に使う許可を(我々から)得ずに勝手に使い、原告の作品を複製した」と主張している[31]。被告のスタビリティーAI社の側は日本の新聞社の取材に対し「係争中なのでコメントしない」と回答しつつも、実際には「次のバージョンの訓練データから、アーティストが希望すればその作品をAIの訓練データから除外できる「オプトアウト」の対応を進めている」とコメントした[31]。
フェイク情報の作成に利用される可能性
生成AIは、詐欺や思考誘導や世論操作を行う目的で、捏造した顔画像や映像、フェイク音声、フェイク文章などを作成し流通させるために悪用される可能性がある。すでに日本国内においてもStable Diffusionを使って捏造された災害画像が拡散した事例もあり、AIを悪用した詐欺や詐称、名誉毀損は現実の脅威となっている。このため国内外でディープフェイク対策のための研究が進められている[32]。
ハルシネーション (幻覚)
人工知能の用語のハルシネーション(hallucination。幻覚)とは、AIの訓練に用いたどの学習データとも整合しない回答をAIが堂々としてしまうという問題である。人間の幻覚に喩えて「幻覚」と呼ばれているが、作話(confabulation)という表現のほうを好む研究者もいる。
アメリカでは2023年、ニューヨーク州の弁護士が審理中の民事訴訟の資料作成にOpen AIの生成AI「ChatGPT」を利用し、ChatGPTのハルシネーション(幻覚)を信じてしまった結果、存在しない判例を "引用" してしまったことが問題となっている[33]。弁護士がニューヨーク州連邦裁判所に提出した資料の中で引用された" 判例 "が実際には見つからなかったため、裁判官が確認したところ、その弁護士が資料作成にChatGPTを使っていたことが発覚した[33]。弁護士は資料の中で、"デルタ航空やユナイテッド航空などが関連している"とする本当は実在しない " 判例 " の " 引用 " を6件行っていた[33]。
脚注
- ^ “生成系AI(ChatGPT, BingAI, Bard, Midjourney, Stable Diffusion等)について”. utelecon. 2023年7月1日閲覧。
- ^ “生成AI(Generative AI)のビジネスへの影響|Deloitte AI Institute|Deloitte”. デロイト・メンバーファーム. 2023年7月1日閲覧。
- ^ “Nature読者のChatGPT利用法 | Nature ダイジェスト | Nature Portfolio”. www.natureasia.com. 2023年7月1日閲覧。
- ^ “生成AIモデル:ビジネスにおけるリスクおよび潜在的なリターン - KPMGジャパン”. KPMG (2023年5月30日). 2023年7月1日閲覧。
- ^ a b “Anthropic Said to Be Closing In on $300 Million in New A.I. Funding”. en:The New York Times (2023年1月27日). 2023年3月14日閲覧。
- ^ Lanxon, Nate; Bass, Dina; Davalos, Jackie (March 10, 2023). “A Cheat Sheet to AI Buzzwords and Their Meanings”. Bloomberg News March 14, 2023閲覧。
- ^ Pasick, Adam (2023年3月27日). “Artificial Intelligence Glossary: Neural Networks and Other Terms Explained” (英語). The New York Times. ISSN 0362-4331 2023年4月22日閲覧。
- ^ “Generative models”. OpenAI (2016年6月16日). 2023年5月20日閲覧。
- ^ Metz, Cade. "OpenAI Unveils GPT-4, Months After ChatGPT Stunned Silicon Valley." The New York Times, March 14, 2023, https://www.nytimes.com/2023/03/14/technology/openai-gpt4-chatgpt.html
- ^ Thoppilan, Romal; De Freitas, Daniel; Hall, Jamie; Shazeer, Noam; Kulshreshtha, Apoorv; Cheng, Heng-Tze; Jin, Alicia; Bos, Taylor; Baker, Leslie; Du, Yu; Li, YaGuang; Lee, Hongrae; Zheng, Huaixiu Steven; Ghafouri, Amin; Menegali, Marcelo; Huang, Yanping; Krikun, Maxim; Lepikhin, Dmitry; Qin, James; Chen, Dehao; Xu, Yuanzhong; Chen, Zhifeng; Roberts, Adam; Bosma, Maarten; Zhao, Vincent; Zhou, Yanqi; Chang, Chung-Ching; Krivokon, Igor; Rusch, Will; Pickett, Marc; Srinivasan, Pranesh; Man, Laichee; Meier-Hellstern, Kathleen; Ringel Morris, Meredith; Doshi, Tulsee; Delos Santos, Renelito; Duke, Toju; Soraker, Johnny; Zevenbergen, Ben; Prabhakaran, Vinodkumar; Diaz, Mark; Hutchinson, Ben; Olson, Kristen; Molina, Alejandra; Hoffman-John, Erin; Lee, Josh; Aroyo, Lora; Rajakumar, Ravi; Butryna, Alena; Lamm, Matthew; Kuzmina, Viktoriya; Fenton, Joe; Cohen; Aaron; Bernstein, Rachel; Kurzweil, Ray; Aguera-Arcas, Blaise; Cui, Claire; Croak, Marian; Chi, Ed; Le, Quoc (20 January 2022). "LaMDA: Language Models for Dialog Applications". arXiv:2201.08239 [cs.CL]。
- ^ Roose, Kevin (2022年10月21日). “A Coming-Out Party for Generative A.I., Silicon Valley's New Craze”. The New York Times. 2023年3月14日閲覧。
- ^ “Don't fear an AI-induced jobs apocalypse just yet”. The Economist (2023年3月6日). 2023年3月14日閲覧。
- ^ “Generative AI: Unlocking the future of fashion”. 2023年3月14日閲覧。
- ^ “The race of the AI labs heats up”. The Economist (2023年1月30日). 2023年3月14日閲覧。
- ^ “Google Cloud brings generative AI to developers, businesses, and governments” (2023年3月14日). 2023年3月15日閲覧。
- ^ Justin Hendrix (May 16, 2023). “Transcript: Senate Judiciary Subcommittee Hearing on Oversight of AI”. techpolicy.press. May 19, 2023閲覧。
- ^ “finetune-transformer-lm”. GitHub. 2023年5月19日閲覧。
- ^ Radford, Alec; Wu, Jeffrey; Child, Rewon; Luan, David; Amodei, Dario; Sutskever, Ilya; others (2019). “Language models are unsupervised multitask learners”. OpenAI blog 1 (8): 9.
- ^ https://www.marktechpost.com/2023/03/21/a-history-of-generative-ai-from-gan-to-gpt-4/
- ^ https://www.marktechpost.com/2023/03/21/a-history-of-generative-ai-from-gan-to-gpt-4/
- ^ Bommasani, R; Hudson, DA; Adeli, E; Altman, R; Arora, S; von Arx, S; Bernstein, MS; Bohg, J; Bosselut, A; Brunskill, E; Brynjolfsson, E (16 August 2021). "On the opportunities and risks of foundation models". arXiv:2108.07258 [cs.LG]。
- ^ Chen, Ming; Tworek, Jakub; Jun, Hongyu; Yuan, Qinyuan; Pinto, Hanyu Philippe De Oliveira; Kaplan, Jerry; Edwards, Haley; Burda, Yannick; Joseph, Nicholas; Brockman, Greg; Ray, Alvin (6 July 2021). "Evaluating Large Language Models Trained on Code". arXiv:2107.03374 [cs.LG]。
- ^ Ramesh, Aditya; Pavlov, Mikhail; Goh, Gabriel; Gray, Scott; Voss, Chelsea; Radford, Alec; Chen, Mark; Sutskever, Ilya (2021). "Zero-shot text-to-image generation". International Conference on Machine Learning. PMLR. pp. 8821–8831.
- ^ Heaven, Will Douglas (2023年2月15日). “AI is dreaming up drugs that no one has ever seen. Now we've got to see if they work”. MIT Technology Review. Massachusetts Institute of Technology. 2023年3月15日閲覧。
- ^ Agostinelli, Andrea; Denk, Timo I.; Borsos, Zalán; Engel, Jesse; Verzetti, Mauro; Caillon, Antoine; Huang, Qingqing; Jansen, Aren; Roberts, Adam; Tagliasacchi, Marco; Sharifi, Matt; Zeghidour, Neil; Frank, Christian (26 January 2023). "MusicLM: Generating Music From Text". arXiv:2301.11325 [cs.SD]。
- ^ Metz, Cade (April 4, 2023). “Instant Videos Could Represent the Next Leap in A.I. Technology” (英語). The New York Times. 2023年4月30日閲覧。
- ^ Queenie Wong (Sep 29, 2022). “Facebook Parent Meta's AI Tool Can Create Artsy Videos From Text”. cnet.com. Apr 4, 2023閲覧。
- ^ Sherry Yang, Yilun Du (2023年4月12日). “UniPi: Learning universal policies via text-guided video generation”. Google Research, Brain Team. Google AI Blog. 2023年5月24日閲覧。
- ^ “「チャットGPT」にEUが要求:情報源を開示せよ”. The Wall Street Journal. 2023年4月28日閲覧。
- ^ "Artists are alarmed by AI — and they're fighting back". The Washington Post (英語). 2023年2月18日閲覧。
- ^ a b c 朝日新聞デジタル『アーティストの作品でAI訓練 「無断で複製された」米国で集団提訴』
- ^ 越前巧、馬場口登、笹原和俊「インフォデミック時代におけるフェイクメディア克服の最前線」『人工知能』人工知能学界 2023年3月号 pp.189 - 196
- ^ a b c 日経新聞「ChatGPTで資料作成、実在しない判例引用 米国の弁護士」
関連項目
- 計算論的創造性
- コンピュータを使用して創造性をモデル化、シミュレート、または複製することを目指した学際的な試み
- 人工的創造
- 人間の想像力を人工的にシミュレーションすること
- 人工知能アート
- 人工知能プログラムによって制作されたアートワーク、特に画像や楽曲
- 音楽と人工知能
- 国際コンピュータ音楽会議におけるさまざまな課題(音楽の作曲、演奏、理論、デジタル音響処理におけるAIの応用など)
- 敵対的生成ネットワーク
- 生成AIに対応する機械学習の枠組みの一つで、2つのニューラルネットワークが互いに競い合う
- Generative pre-trained transformer (GPT)
- transformerアーキテクチャに基づく人工ニューラルネットワークの一種
- 大規模言語モデル
- 多数のパラメータを持つニューラルネットワークで構成される言語モデル
- 無限の猿定理、中国語の部屋