コンテンツにスキップ

英文维基 | 中文维基 | 日文维基 | 草榴社区

「生成的人工知能」の版間の差分

出典: フリー百科事典『ウィキペディア(Wikipedia)』
削除された内容 追加された内容
Cewbot (会話 | 投稿記録)
m Cewbot: ウィキ文法修正 104: Unbalanced quotes in ref name
53行目: 53行目:
人工知能の用語の[[幻覚 (人工知能)|ハルシネーション(hallucination。幻覚)]]とは、AIの訓練に用いたどの学習データとも整合しない回答をAIが堂々としてしまうという問題である。人間の[[幻覚]]に[[比喩|喩えて]]「幻覚」と呼ばれているが、[[作話]](confabulation)という表現のほうを好む研究者もいる。
人工知能の用語の[[幻覚 (人工知能)|ハルシネーション(hallucination。幻覚)]]とは、AIの訓練に用いたどの学習データとも整合しない回答をAIが堂々としてしまうという問題である。人間の[[幻覚]]に[[比喩|喩えて]]「幻覚」と呼ばれているが、[[作話]](confabulation)という表現のほうを好む研究者もいる。


アメリカでは2023年、ニューヨーク州の弁護士が審理中の民事訴訟の資料作成にOpen AIの生成AI「ChatGPT」を利用し、ChatGPTのハルシネーション(幻覚)を信じてしまった結果、<u>存在しない判例</u>を "[[引用]]" してしまったことが問題となっている<ref name="Nikkei_hallucination>[https://www.nikkei.com/article/DGXZQOGN30E450Q3A530C2000000/ 日経新聞「ChatGPTで資料作成、実在しない判例引用 米国の弁護士」]</ref>。弁護士がニューヨーク州連邦裁判所に提出した資料の中で引用された" [[判例]] "が実際には見つからなかったため、裁判官が確認したところ、その弁護士が資料作成にChatGPTを使っていたことが発覚した<ref name="Nikkei_hallucination />。弁護士は資料の中で、"デルタ航空やユナイテッド航空などが関連している"とする本当は実在しない " 判例 " の " 引用 " を6件行っていた<ref name="Nikkei_hallucination />。
アメリカでは2023年、ニューヨーク州の弁護士が審理中の民事訴訟の資料作成にOpen AIの生成AI「ChatGPT」を利用し、ChatGPTのハルシネーション(幻覚)を信じてしまった結果、<u>存在しない判例</u>を "[[引用]]" してしまったことが問題となっている<ref name="Nikkei_hallucination">[https://www.nikkei.com/article/DGXZQOGN30E450Q3A530C2000000/ 日経新聞「ChatGPTで資料作成、実在しない判例引用 米国の弁護士」]</ref>。弁護士がニューヨーク州連邦裁判所に提出した資料の中で引用された" [[判例]] "が実際には見つからなかったため、裁判官が確認したところ、その弁護士が資料作成にChatGPTを使っていたことが発覚した<ref name="Nikkei_hallucination" />。弁護士は資料の中で、"デルタ航空やユナイテッド航空などが関連している"とする本当は実在しない " 判例 " の " 引用 " を6件行っていた<ref name="Nikkei_hallucination" />。


== 脚注 ==
== 脚注 ==

2023年8月11日 (金) 01:16時点における版

生成的人工知能(せいせいてきじんこうちのう、: generative artificial intelligence)または生成AIは、プロンプトに応答してテキスト、画像、または他のメディアを生成することができる人工知能システムの一種である[5][6]。生成AIモデルは、入力された訓練データの規則性や構造を学習し、同様の特性を持つ新しいデータを生成する[7][8]ジェネレーティブAIジェネラティブAIともよばれる。

著名な生成AIシステムとして、OpenAIGPT-3GPT-4大規模言語モデル[9]を使用して構築したチャットボットChatGPT(および別形のBing Chat)や、GoogleLaMDA基盤モデルに構築したチャットボットBardがある[10]。その他の生成AIモデルとして、Stable DiffusionDALL-Eなどの人工知能アートシステムがあげられる[11]

生成AIは、アート、執筆、ソフトウェア開発、ヘルスケア、金融、ゲーム、マーケティング、ファッションなど、幅広い業界で応用できる可能性がある[12][13]。生成AIへの投資は2020年代初頭に急増し、Microsoft、Google、Baiduなどの大企業だけでなく、多数の中小企業も生成AIモデルを開発している[5][14][15]。しかし、人をだましたり操作したりするフェイクニュースディープフェイクの作成など、生成AIの悪用の可能性も懸念されている[16]

歴史

機械学習の分野では、その誕生以来、データをモデル化し予測することを目的として、統計的モデルを使用してきた。2000年代後半、ディープラーニング(深層学習)の登場により、画像や動画処理、テキスト分析、音声認識などのタスクで進化と研究が進んできた。しかし、ほとんどのディープニューラルネットワークは識別的モデルとして、画像認識 (en:英語版のような分類タスクを実行していた。

2014年、変分オートエンコーダ敵対的生成ネットワークなどの進歩により、画像のような複雑なデータの生成的モデルを学習し、生成することができる実用的なディープニューラルネットワークが登場した。

2017年、Transformerネットワークはより大規模な生成的モデルの実現を可能にし、2018年に最初の生成的事前学習トランスフォーマー(GPT)が開発された[17]。2019年、GPT-2がこれに続き、基盤モデルとして教師なし学習を多くの異なるタスクに汎化する能力を実証した[18]

これ以降の応用面における進化については次節のモダリティを参照のこと。

モダリティ

A detailed oil painting of figures in a futuristic opera scene
スペース・オペラ・シアター(Théâtre d'Opéra Spatial)、Midjourneyによって作成された画像

生成AIシステムは、教師なしまたは自己教師あり機械学習を、データセットに適用することにより構築される。生成AIシステムの能力は、訓練に使用するデータセットのモダリティ種類英語版によって異なる。

生成AIは、ユニモーダルシステムとマルチモーダルシステム英語版に大分でき、ユニモーダルは1種類の入力(例:テキスト)しか受け入れないのに対し、マルチモーダルは複数種類の入力(例:テキストと画像)を受け入れることができる[19]。たとえば、OpenAIのGPT-4はテキストと画像の両方の入力を受け入れる[20]

課題

著作権侵害の問題

生成AIには訓練データが必要になるが、訓練に使用された著作物を巡り、著作権やデータ倫理上の問題が指摘されている。生成AIの普及に伴い、出版社クリエイターを中心として、AIの訓練データに彼らの著作物が使われることへの懸念が広がっており、AI企業への訴訟が多数発生している。欧州連合で検討中の生成AI規制法案では、AIシステム構築時に使用する著作物についての情報の表示が義務づけられる見込みである。[29][30]

アメリカサンフランシスコ在住のアーティスト、カーラ・オルティスは2023年1月、仲間のアーティスト2人とともに画像生成AI「Stable Diffusion」を運営する英スタビリティーAI社やMidjourney社などを相手取り、著作権侵害で集団訴訟を起こした[31]原告側は訴状で「生成AI企業がAIの訓練に使う許可を(我々から)得ずに勝手に使い、原告の作品を複製した」と主張している[31]被告のスタビリティーAI社の側は日本の新聞社の取材に対し「係争中なのでコメントしない」と回答しつつも、実際には「次のバージョンの訓練データから、アーティストが希望すればその作品をAIの訓練データから除外できる「オプトアウト」の対応を進めている」とコメントした[31]

フェイク情報の作成に利用される可能性

生成AIは、詐欺や思考誘導や世論操作を行う目的で、捏造した顔画像や映像、フェイク音声、フェイク文章などを作成し流通させるために悪用される可能性がある。すでに日本国内においてもStable Diffusionを使って捏造された災害画像が拡散した事例もあり、AIを悪用した詐欺や詐称、名誉毀損は現実の脅威となっている。このため国内外でディープフェイク対策のための研究が進められている[32]

ハルシネーション (幻覚)

人工知能の用語のハルシネーション(hallucination。幻覚)とは、AIの訓練に用いたどの学習データとも整合しない回答をAIが堂々としてしまうという問題である。人間の幻覚喩えて「幻覚」と呼ばれているが、作話(confabulation)という表現のほうを好む研究者もいる。

アメリカでは2023年、ニューヨーク州の弁護士が審理中の民事訴訟の資料作成にOpen AIの生成AI「ChatGPT」を利用し、ChatGPTのハルシネーション(幻覚)を信じてしまった結果、存在しない判例を "引用" してしまったことが問題となっている[33]。弁護士がニューヨーク州連邦裁判所に提出した資料の中で引用された" 判例 "が実際には見つからなかったため、裁判官が確認したところ、その弁護士が資料作成にChatGPTを使っていたことが発覚した[33]。弁護士は資料の中で、"デルタ航空やユナイテッド航空などが関連している"とする本当は実在しない " 判例 " の " 引用 " を6件行っていた[33]

脚注

  1. ^ 生成系AI(ChatGPT, BingAI, Bard, Midjourney, Stable Diffusion等)について”. utelecon. 2023年7月1日閲覧。
  2. ^ 生成AI(Generative AI)のビジネスへの影響|Deloitte AI Institute|Deloitte”. デロイト・メンバーファーム. 2023年7月1日閲覧。
  3. ^ Nature読者のChatGPT利用法 | Nature ダイジェスト | Nature Portfolio”. www.natureasia.com. 2023年7月1日閲覧。
  4. ^ 生成AIモデル:ビジネスにおけるリスクおよび潜在的なリターン - KPMGジャパン”. KPMG (2023年5月30日). 2023年7月1日閲覧。
  5. ^ a b Anthropic Said to Be Closing In on $300 Million in New A.I. Funding”. en:The New York Times (2023年1月27日). 2023年3月14日閲覧。
  6. ^ Lanxon, Nate; Bass, Dina; Davalos, Jackie (March 10, 2023). “A Cheat Sheet to AI Buzzwords and Their Meanings”. Bloomberg News. https://news.bloomberglaw.com/tech-and-telecom-law/a-cheat-sheet-to-ai-buzzwords-and-their-meanings-quicktake March 14, 2023閲覧。 
  7. ^ Pasick, Adam (2023年3月27日). “Artificial Intelligence Glossary: Neural Networks and Other Terms Explained” (英語). The New York Times. ISSN 0362-4331. https://www.nytimes.com/article/ai-artificial-intelligence-glossary.html 2023年4月22日閲覧。 
  8. ^ Generative models”. OpenAI (2016年6月16日). 2023年5月20日閲覧。
  9. ^ Metz, Cade. "OpenAI Unveils GPT-4, Months After ChatGPT Stunned Silicon Valley." The New York Times, March 14, 2023, https://www.nytimes.com/2023/03/14/technology/openai-gpt4-chatgpt.html
  10. ^ Thoppilan, Romal; De Freitas, Daniel; Hall, Jamie; Shazeer, Noam; Kulshreshtha, Apoorv; Cheng, Heng-Tze; Jin, Alicia; Bos, Taylor; Baker, Leslie; Du, Yu; Li, YaGuang; Lee, Hongrae; Zheng, Huaixiu Steven; Ghafouri, Amin; Menegali, Marcelo; Huang, Yanping; Krikun, Maxim; Lepikhin, Dmitry; Qin, James; Chen, Dehao; Xu, Yuanzhong; Chen, Zhifeng; Roberts, Adam; Bosma, Maarten; Zhao, Vincent; Zhou, Yanqi; Chang, Chung-Ching; Krivokon, Igor; Rusch, Will; Pickett, Marc; Srinivasan, Pranesh; Man, Laichee; Meier-Hellstern, Kathleen; Ringel Morris, Meredith; Doshi, Tulsee; Delos Santos, Renelito; Duke, Toju; Soraker, Johnny; Zevenbergen, Ben; Prabhakaran, Vinodkumar; Diaz, Mark; Hutchinson, Ben; Olson, Kristen; Molina, Alejandra; Hoffman-John, Erin; Lee, Josh; Aroyo, Lora; Rajakumar, Ravi; Butryna, Alena; Lamm, Matthew; Kuzmina, Viktoriya; Fenton, Joe; Cohen; Aaron; Bernstein, Rachel; Kurzweil, Ray; Aguera-Arcas, Blaise; Cui, Claire; Croak, Marian; Chi, Ed; Le, Quoc (20 January 2022). "LaMDA: Language Models for Dialog Applications". arXiv:2201.08239 [cs.CL]。
  11. ^ Roose, Kevin (2022年10月21日). “A Coming-Out Party for Generative A.I., Silicon Valley's New Craze”. The New York Times. 2023年3月14日閲覧。
  12. ^ Don't fear an AI-induced jobs apocalypse just yet”. The Economist (2023年3月6日). 2023年3月14日閲覧。
  13. ^ Generative AI: Unlocking the future of fashion”. 2023年3月14日閲覧。
  14. ^ The race of the AI labs heats up”. The Economist (2023年1月30日). 2023年3月14日閲覧。
  15. ^ Google Cloud brings generative AI to developers, businesses, and governments” (2023年3月14日). 2023年3月15日閲覧。
  16. ^ Justin Hendrix (May 16, 2023). “Transcript: Senate Judiciary Subcommittee Hearing on Oversight of AI”. techpolicy.press. May 19, 2023閲覧。
  17. ^ finetune-transformer-lm”. GitHub. 2023年5月19日閲覧。
  18. ^ Radford, Alec; Wu, Jeffrey; Child, Rewon; Luan, David; Amodei, Dario; Sutskever, Ilya; others (2019). “Language models are unsupervised multitask learners”. OpenAI blog 1 (8): 9. 
  19. ^ https://www.marktechpost.com/2023/03/21/a-history-of-generative-ai-from-gan-to-gpt-4/
  20. ^ https://www.marktechpost.com/2023/03/21/a-history-of-generative-ai-from-gan-to-gpt-4/
  21. ^ Bommasani, R; Hudson, DA; Adeli, E; Altman, R; Arora, S; von Arx, S; Bernstein, MS; Bohg, J; Bosselut, A; Brunskill, E; Brynjolfsson, E (16 August 2021). "On the opportunities and risks of foundation models". arXiv:2108.07258 [cs.LG]。
  22. ^ Chen, Ming; Tworek, Jakub; Jun, Hongyu; Yuan, Qinyuan; Pinto, Hanyu Philippe De Oliveira; Kaplan, Jerry; Edwards, Haley; Burda, Yannick; Joseph, Nicholas; Brockman, Greg; Ray, Alvin (6 July 2021). "Evaluating Large Language Models Trained on Code". arXiv:2107.03374 [cs.LG]。
  23. ^ Ramesh, Aditya; Pavlov, Mikhail; Goh, Gabriel; Gray, Scott; Voss, Chelsea; Radford, Alec; Chen, Mark; Sutskever, Ilya (2021). "Zero-shot text-to-image generation". International Conference on Machine Learning. PMLR. pp. 8821–8831.
  24. ^ Heaven, Will Douglas (2023年2月15日). “AI is dreaming up drugs that no one has ever seen. Now we've got to see if they work”. MIT Technology Review. Massachusetts Institute of Technology. 2023年3月15日閲覧。
  25. ^ Agostinelli, Andrea; Denk, Timo I.; Borsos, Zalán; Engel, Jesse; Verzetti, Mauro; Caillon, Antoine; Huang, Qingqing; Jansen, Aren; Roberts, Adam; Tagliasacchi, Marco; Sharifi, Matt; Zeghidour, Neil; Frank, Christian (26 January 2023). "MusicLM: Generating Music From Text". arXiv:2301.11325 [cs.SD]。
  26. ^ Metz, Cade (April 4, 2023). “Instant Videos Could Represent the Next Leap in A.I. Technology” (英語). The New York Times. 2023年4月30日閲覧。
  27. ^ Queenie Wong (Sep 29, 2022). “Facebook Parent Meta's AI Tool Can Create Artsy Videos From Text”. cnet.com. Apr 4, 2023閲覧。
  28. ^ Sherry Yang, Yilun Du (2023年4月12日). “UniPi: Learning universal policies via text-guided video generation”. Google Research, Brain Team. Google AI Blog. 2023年5月24日閲覧。
  29. ^ 「チャットGPT」にEUが要求:情報源を開示せよ”. The Wall Street Journal. 2023年4月28日閲覧。
  30. ^ "Artists are alarmed by AI — and they're fighting back". The Washington Post (英語). 2023年2月18日閲覧
  31. ^ a b c 朝日新聞デジタル『アーティストの作品でAI訓練 「無断で複製された」米国で集団提訴』
  32. ^ 越前巧、馬場口登、笹原和俊「インフォデミック時代におけるフェイクメディア克服の最前線」『人工知能』人工知能学界 2023年3月号 pp.189 - 196
  33. ^ a b c 日経新聞「ChatGPTで資料作成、実在しない判例引用 米国の弁護士」

関連項目