《この記事は約 23 分で読めます(1分で600字計算)》
HON.jpが9月2日にオンラインで開催したオープンカンファレンス「HON-CF2023(ホンカンファ2023)」の規制セッション「生成AIと著作権」の様子をレポートします。登壇者は、福井健策氏(骨董通り法律事務所 代表 弁護士)、橋本大也氏(デジタルハリウッド 大学教授)、小林啓倫氏(ITジャーナリスト) 。当日の司会とレポートの執筆は鷹野凌(HON.jp理事長)です。
【目次】
生成AIと著作権
ここ最近、生成AIについて話題にならない日がない。生成AIに出力された表現が、人間の生み出した作品と見分けるのが難しいレベルに達し、しかも、短時間で大量に発生するようになった。クリエイターやパブリッシャーにとって生成AIは、考えずにはいられない、避けて通ることのできない大きな問題になっていると言えるだろう。
そんな中、文化庁が6月に開催したセミナー「AIと著作権」は、理解を深める上で非常によいセミナーであった1 令和5年度著作権セミナー「AIと著作権」の講演映像及び講演資料を公開しました。〈文化庁(2023年6月22日)〉
https://www.bunka.go.jp/seisaku/chosakuken/93903601.html。とくに第2部で整理されていた論点はわかりやすい。生成AIの問題を考えるうえでは、大きく分けて「開発(学習)」と「利用(生成)」の2段階がある。そして「利用」の段階には、「類似と依拠」「権利の有無」の2つの論点がある。
そこで本セッションは、この3つの論点に関連する出来事を紹介しつつ、登壇者の見解を伺う形で進められた。
開発(学習)段階の無断利用について
まず「開発(学習)」の段階について。これはすなわち、AIの学習に利用されるデータセットが、多くの場合、著作者に無断で利用されている問題だ。アメリカにはフェアユース規定があるが、それでも「著作物を無断で学習用データセットに利用された」という訴訟が相次いでいる2 OpenAIなど生成AI企業への訴訟がアメリカで相次ぐ〈読売新聞(2023年7月11日)〉
https://www.yomiuri.co.jp/economy/20230711-OYT1T50204/。
ただし、日本の著作権法にはすでに「機械学習パラダイス」と呼ばれるほどAI学習にとって有利な権利制限規定(第30条の4)があり、原則、AIの学習段階では無断で利用しても良いことになっている3 著作権法の一部を改正する法律(平成30年法律第30号)について〈文化庁〉
https://www.bunka.go.jp/seisaku/chosakuken/hokaisei/h30_hokaisei/。それでも生成AIがこれだけ話題になると、強い反発も出ているのが現状だ。
どういう場合が権利者の利益を不当に害するのか?
この規定について福井氏は「日本ではAI学習が野放し」といった意見もあるが、「著作権者の利益を不当に害することとなる場合」を除くという但し書きがある点を「相当バランス感としては正しい」と評価している。
その上で、「どういう場合が権利者の利益を不当に害するのか?」をファクトベースで議論し共通理解を得ることが重要ではないか? と指摘した。たとえば、海賊版のデータをAIに学習させることは、権利者の利益を不当に害しているのではないか? という視点は充分あり得るというのだ。
たとえば、OpenAIの大規模言語モデル「GPT-3」の論文4 Brown, Tom B.; Mann, Benjamin; Ryder, Nick; Subbiah, Melanie; Kaplan, Jared; Dhariwal, Prafulla; Neelakantan, Arvind; Shyam, Pranav et al. (Dec 2020). Larochelle, H.; Ranzato, M.; Hadsell, R. et al.. eds.“Language Models are Few-Shot Learners”
https://arxiv.org/pdf/2005.14165.pdfに記された学習用データセット「Books2」は、その内容や入手元が不明だ。作家らがOpenAIを訴えた事例5 作家らがOpenAIとMetaを提訴–著作権侵害で〈CNET Japan(2023年7月11日)〉
https://japan.cnet.com/article/35206362/では、これはファイル共有ソフトのトレントシステムから入手した「シャドーライブラリー」(つまり海賊版)の書籍ではないか? と疑われている。
「Books2」は、約29万4000タイトルと推定される膨大なデータだ。それほど多くの本のデータが、事前に許諾されたものであるはずがない、というわけだ。海賊版データをAIに学習させたのが事実であれば、確かにそれは日本でも「権利者の利益を不当に害している」とされてもおかしくないだろう。
海賊版そのものがすでに問題
橋本氏は、自身の著作物は「どんどん学習いただいて構わない派」だが、「明らかに侵害されたと考えたならば、そこで訴える」というスタンスでもある。つまりたとえば、20年前に書いたもう売れていない本の内容は共有知になっても構わないが、出版したばかりの新刊の内容がそのままAIから出力されるようであれば権利侵害、というわけだ。
また、AIが海賊版のデータを学習している場合は、海賊版そのものがすでに問題なのだと指摘した。これはつまり、AIによる学習段階よりさらに前、データを入手する時点で瑕疵が発生している可能性がある、というわけだ。
たとえば、画像生成AI「NovelAI Diffusion」の公式アカウントが、海外のイラストサイト「Danbooru」のデータをトレーニングに用いたと発言した事例が挙げられるだろう。批判が飛び火した「Danbooru」は「われわれはNovelAIと関係ない」という声明を出した6 「われわれはNovelAIと関係ない」──海外のイラストサイト「Danbooru」が日本語で声明〈ITmedia NEWS(2022年10月05日)〉
https://www.itmedia.co.jp/news/articles/2210/05/news133.html
【お詫びと訂正】本セッションの中で司会の鷹野は、この画像生成AIのことを誤って「にじジャーニー」と発言してしまいましたが、正しくは「Novel AI」です。お詫びして訂正します。が、そもそもの問題は「Danbooru」には無断転載が疑われるイラストも多い、というところになる。
なお、日本では、海賊版と知りながら行うダウンロードは、私的使用目的であっても違法だ。以前は録音・録画だけが対象だったが、2021年1月に施行された改正著作権法によって対象はすべての著作物に拡大されている7 令和3年1月1日施行 侵害コンテンツのダウンロード違法化について〈文化庁〉
https://www.bunka.go.jp/seisaku/chosakuken/hokaisei/92735201.html。
誰の画風を学習したのか明示して欲しい
小林氏は、自身の文章については、独自のスタイルを持っているわけでもないので、AIに学習されても問題ないし、収益として還元されることもないだろうというスタンスだ。文学の領域とは異なり、最新の情報を紹介するような文章では「文体」の特徴にあまり重きが置かれない、というところもあるだろう。
ところが、小林氏の妻は画家として活動しており、個展も開くようなクリエイターだ。だからもし妻の作品をAIが学習し、画風を真似た出力が流通され、妻になにも還元されない状態になったら、嫌な気持ちになるだろうという。この印象の差異は、恐らく、文章とイラストという表現手法の違いも大きいだろう。
小林氏はたとえば、生成AIの出力画像に誰の画風を学習したのか明示してもらえれば、オリジナルを見てみようという形の還元も生まれるのでは、と指摘する。つまりこれは、学習用データセットの中身が公開されていない「透明性」問題に帰結するだろう。
なお、日本新聞協会や世界ニュース発行者協会(WAN-IFRA)など世界の報道・メディア26団体は、本セッションのすぐ後、9月6日に「世界AI原則」を発表している8 世界AI原則(Global Principles on Artificial Intelligence・仮訳)〈日本新聞協会(2023年9月6日)〉
https://www.pressnet.or.jp/news/headline/230906_15146.html。その中で主張されている「透明性」が、まさにこれだ。
つまり、AIの開発者に対し、学習用データセットに含まれるコンテンツの詳細な記録を保存し、権利者が必要な範囲で参照できるようにすることを義務付ける規制を求めているのだ。
むしろAIを共同開発すべきでは
また、日本新聞協会は8月17日に、日本写真著作権協会・日本書籍出版協会・日本雑誌協会とともに「生成AIに関する共同声明」を発表していている9 生成AIに関する共同声明〈日本新聞協会(2023年8月17日)〉
https://www.pressnet.or.jp/statement/copyright/230817_15114.html。そこでは「(2018年の著作権法改正)当時、生成AIのような高度なAIの負の影響が十分に想定されていたわけではありませんでした」と主張されている。
このことについて登壇者に尋ねてみたところ、三者とも、生成AIをシャットアウトするのではなく、むしろ権利者側が新しい技術を取り込み、AIが正の影響を与えるようなポジションを取るべきではないか、という意見であった。
つまり、たとえば新聞社は、過去記事データベースという素晴らしいリソースを持っている。これを自ら提供し、AIを共同開発することにより収益分配を受けるような方向性のほうが得策ではないか、ということだ。
これに関連して小林氏からは、AP通信がOpenAIと技術提携して学習用データセットに過去記事を提供する事例10 米AP通信、OpenAIに過去記事提供 報道に活用模索〈日本経済新聞〉
https://www.nikkei.com/article/DGXZQOGN1402Z0U3A710C2000000/、あるいは、ブルームバーグが自ら開発した金融機関向けの大規模言語モデル「BloombergGPT」の事例11 米Bloomberg、金融特化の大規模言語モデル「BloombergGPT」発表 「Appleの時価総額を教えて」などに回答:Innovative Tech〈ITmedia NEWS〉
https://www.itmedia.co.jp/news/articles/2304/07/news064.htmlが紹介された。
他にもたとえば、Adobeは生成AI「Firefly」の学習用データセットに、ストックフォトサービス「Adobe Stock」の画像を許諾を得た上で利用している。そして「Firefly」の収益は、「Adobe Stock」の貢献者に分配される仕組みだ12 Adobe Stock Contributor 向けの Firefly に関する FAQ〈Adobe(2023年9月30日)〉
https://helpx.adobe.com/jp/stock/contributor/help/firefly-faq-for-adobe-stock-contributors.html。Shutterstockも、同様の収益分配スキームを発表している13 Shutterstockデータライセンスと寄稿者ファンド〈Shutterstock Contributor Support and FAQs(2023年6月16日)〉
https://support.submit.shutterstock.com/s/article/Shutterstock-Data-Licensing-and-the-Contributor-Fund?language=ja。
日本でも、ストックフォトサービスのアマナイメージズが、日本画像生成AIコンソーシアム(JIGAC:Japan Image Generative AI Consortium)を設立14 画像生成AIの学習環境整備へ コンソーシアム設立〈日本経済新聞(2023年6月20日)〉
https://www.nikkei.com/article/DGXZQOUC204R70Q3A620C2000000/。本セッション登壇者の福井氏も、メンバーに加わっている。そこでは権利者還元の実証もやろう、という話が進んでいるそうだ。
2018年改正より前に論点や影響予測は出揃っていた
ちなみに福井氏は、2015年から2017年にかけてAIに関する法的課題を議論するための委員会に2つ加わっていたが15 次世代知財システム検討委員会報告書 ~デジタル・ネットワーク化に対応する 次世代知財システム構築に向けて~(2016年4月)
https://www.kantei.go.jp/jp/singi/titeki2/tyousakai/kensho_hyoka_kikaku/2016/jisedai_tizai/hokokusho.pdf
新たな情報財検討委員会報告書 ~データ・人工知能(AI)の利活用促進による産業競争力強化の基盤となる知財システムの構築に向けて~(2017年3月)
https://www.kantei.go.jp/jp/singi/titeki2/tyousakai/kensho_hyoka_kikaku/2017/johozai/houkokusho.pdf、当時すでに「少なくとも著作権に関する論点と負の影響予測は、現在言われてることはおおむね出揃っていた」そうだ。
たとえば、知的財産戦略本部から2016年4月に発表された次世代知財システム検討委員会の報告書「3.1 人工知能によって生み出される創作物と知財制度」には、以下のような記述がある。これは「生成AIのような高度なAIの負の影響」が当時からすでに課題として認識されていたことを意味しているだろう。
人工知能による自律的な創作(以下、「AI創作物」という)が現実のものとなっていくにつれて、「情報量の爆発的な増大」という形で、人間による創作活動を前提としている現在の知財制度や関連する事業活動に影響を及ぼしていくと考えられる。人工知能は、人間よりはるかに多くの情報を生成し続けることが可能と考えられるからである。
その後、2018年に施行された著作権法の改正に向けた文化審議会の議論には、福井氏は呼ばれていない。しかし、今回「生成AIに関する共同声明」を発表した4団体のうち3団体は、委員を送り込んでいたはずだという16 文化審議会著作権分科会報告書(2017年4月)の委員名簿には、第14期から第17期まで毎年、日本新聞協会、日本写真著作権協会、日本書籍出版協会の方の名前があることが確認できる。そののち新設された著作権法第30条の4関連は、第1章「新たな時代のニーズに的確に対応した権利制限規定の在り方等」にまとめられている。
https://www.bunka.go.jp/seisaku/bunkashingikai/chosakuken/pdf/h2904_shingi_hokokusho.pdf。つまり、自分たちが加わって行った著作権法改正ではないかと指摘。「当時『想定していなかった』と言うのであれば、多分、我々の議論は見ていてくださらなかったんだろうなとは思います」と、残念そうに語った。
生成画像は二次的著作物か?
また、日本写真家協会は8月23日に「生成AI画像についてその考え方の提言」という声明を発表している17 生成AI画像についてその考え方の提言〈公益社団法人日本写真家協会(2023年8月23日)〉
https://www.jps.gr.jp/about-generated-ai-images/。そこでは、生成AI画像は既存の著作物を元にした「二次的著作物」であり、「出典の明記」と「利用者の明示」の義務付けも検討する必要があると主張されている。
福井氏は、この「生成AI画像が二次的著作物である」という主張は、「現在の著作権の考え方からすると正しくない」と指摘した。作風や画風などはアイデアであり「少なくとも著作権の制限する対象ではないというのが、100年以上続いてる世界の共通ルール」であると。ただし、「出典の明記」と「利用者の明示」については、「AIの生成物については広く義務付けようというルールの考え方はあり得る」ともした。
橋本氏は、テクノロジーの進化によって「文体や作風が事実的に特徴量で測れるようになってきた」ことを紹介。その「特徴量」による近似性に基づく判定が法律に織り込むことができれば、文体や作風といった問題はクリアになるのでは、と提案する。
たとえば「要約」の技術は、昔は文章を切って貼って短くする「抽出型」だった。ところが最近は「抽象型」といって、多少言葉が入れ替わっていても、同じようなことを言っていたら「同じ」と数学的に図れるようになってきたという。大規模言語モデル(LLM:Large Language Model)はまさにそれをやっているのだ、と。
なお、10月16日に開催された文化審議会著作権分科会法制度小委員会18 文化審議会著作権分科会法制度小委員会(第3回)〈文化庁(2023年10月16日)〉
https://www.bunka.go.jp/seisaku/bunkashingikai/chosakuken/hoseido/r05_03/では、国立研究開発法人情報通信研究機構の鳥澤健太郎氏による「大規模言語モデルと著作権に関する一考察」で、「編集距離」(レーベンシュタイン距離)による類似性の評価手法が紹介されていた。これは橋本氏の言う「特徴量」の測定と似た話だろう。
利用(生成)段階のリスクについて
セッション後半の話題は、生成AIを利用(生成)する段階のリスクについて。まず、カンファレンス初日の基調講演「AI時代の作家の在り方」で、SF作家・藤井太洋氏が「ChatGPTの出力を小説の原稿に使わない」よう気をつけていると語ったことを紹介した19 生成AIの急激な進化やSNSの変容とクリエイターやパブリッシャーはどのように向き合えばよいか?【HON-CF2023レポート】〈HON.jp News Blog(2023年9月13日)〉
https://hon.jp/news/1.0/0/45029。
これは、ウェブに公開された誰かのフレーズが学習され、偶然出てきてしまう可能性を排除できないからだという。仮に法律的には問題なかったとしても、「パクリ」だとレッテルを貼られ作家生命が終わってしまうようなリスクは犯せない、というわけだ。
また、画像生成AI「Stable Diffusion」が、学習元データとほぼ同じ画像を生成する場合があることを実証した研究報告があることを紹介20 画像生成AIが「トレパク」していた? 学習画像と“ほぼ同じ”生成画像を複数特定 米Googleなどが調査:Innovative Tech〈ITmedia NEWS(2023年2月8日)〉
https://www.itmedia.co.jp/news/articles/2302/08/news055.html。確率は低いが、ゼロではない。つまり、生成AIを利用する立場で考えると、知らないうちに誰かの著作権を侵害してる可能性があるリスクが存在するわけだ。
通常、著作権法では、仮に「類似」していたとしても、元の作品に「依拠」していなければ権利侵害にはならない。しかし、生成AIの場合、元の作品が学習用データセットに含まれていたら「依拠」とみなすべきではないか? という意見もある。このことについて登壇者に見解を伺った。
生成AIを利用するときに懸念されること
小林氏は、まさにそれが、企業ユーザーとして生成AIを利用しようとしたときの懸念事項の一つだと指摘する。テキストであればまだ「フレーズを検索してみる」といった確認手段があるが、画像検索の精度はまだそれほど高くないため、類似性の高い出力を見過してしまうかもしれないというのだ。また、仮にそれが法的には問題なかったとしても、生成AIを利用することへの世の中の嫌悪感などもあり、炎上してしまうリスクも企業としては考えなければならないと指摘した。
橋本氏はデジタルハリウッド大学の教授として、クリエイターが生成AIの出力を直接用いるのを避けるのは「オリジナリティで勝負をする職業だから、似たようなものばかりだったら売れない」のも理由だと指摘。特徴量で類似性が測れるツールを用いることで、リスクを自覚して回避できるようになるかもしれないと語った。
福井氏は、AIの学習用データセットに含まれている作品とそっくりな作品が出力された場合は、学習との因果関係があるわけだから、依拠性は認められるべきだろうという意見だ。そのうえで、「類似性のあり方は時代とともに変わっていけば良い」とする。
また、生成AIの出力が偶然一致してしまうリスクについては、「ほかの分野でもある話なので、保険とか企業リスクの取り方の問題」だと指摘。「本当の意味でのリスクをとってこその保険会社でしょ」と檄を飛ばした。
なお、Adobeは生成AI「Firefly」エンタープライズ版を発表する際、知財トラブルが発生した場合は補償すると発表している21 生成画像で知財トラブルあればアドビが補償 画像生成AI「Adobe Firefly」にエンタープライズ版〈ITmedia NEWS(2023年6月9日)〉
https://www.itmedia.co.jp/news/articles/2306/09/news182.html。次いで、Microsoft22 Microsoft、自社の生成AI素材による訴訟リスクに対応〈Impress Watch(2023年9月8日)〉
https://www.watch.impress.co.jp/docs/news/1529810.html、Google23 Googleが生成AI著作権リスクの補償を表明、MicrosoftやAdobeに次ぐ動き〈日経クロステック(2023年10月13日)〉
https://xtech.nikkei.com/atcl/nxt/news/18/16098/も同様の取り組みを発表している。「生成AI利用時のリスク軽減」というニーズに、プラットフォーム企業が自ら応えていこうとしていることになるだろう。
肖像権(パブリシティ権)の侵害リスク
著作権以外では、画像生成AIでは肖像権の問題が出る可能性もある。集英社「週刊プレイボーイ」編集部は、生成AIの出力画像によるグラビア写真集『生まれたて。』を発売したが、実在モデルとの類似性の指摘などもあり、すぐさま販売を終了した24 集英社、“AIグラビア”の販売終了 「生成AIの課題について検討足りなかった」 Twitterも削除〈ITmedia NEWS(2023年6月7日)〉
https://www.itmedia.co.jp/news/articles/2306/07/news150.html。
この事件について小林氏は、法律的に悪いのか、それとも倫理的に悪いのかが、ちょっとまだ突き詰められてないと正直に語った。橋本氏は関連して、自らの写真を追加学習した「LoRA」を配布や販売する方々も出てきている事例を紹介25 元AV女優・上原亜衣さん、自身のAIグラビア写真集発売 Kindleの絵画ランキングで1位に〈ITmedia NEWS(2023年6月28日)〉など
https://www.itmedia.co.jp/news/articles/2306/28/news133.html。そういうことを「許す強者はすごい強くなるかも」と指摘した。
福井氏は、自身が集英社の顧問弁護士で、この件にはタッチしていないことを明かした上で、肖像権のなかでもパブリシティ権と言われる権利について一般論として「見た人があの人だなと思って引きつけられるほど 著名な方に似ているかどうかがポイント」だと説明した。
人間の「そっくりさん」が裁判になった事例もあるが、本人ではないことが明示されていれば知名度の無断利用度合いは下がるという考え方がなされてきたが、生成AIの場合はどうなるか、難しい問題だとした。
どのレベルから自分の著作物だと認められるか?
また、クリエイターが生成AIを「使っていない」ことの証明も難しいものがある。たとえば、「スレイヤーズ」などのイラストレーター・あらいずみるい氏が、同人誌の表紙を生成AIに描かせたのでは? という疑惑をかけられ、自分で描いたことを証明するためレイヤー構成を動画で開示する事件があった26 「スレイヤーズ」のあらいずみさん、“AI疑惑”を掛けられイラストのレイヤー構成を公開 「ちゃんと描いてるんよー」〈ITmedia NEWS(2023年8月15日)〉
https://www.itmedia.co.jp/news/articles/2308/15/news116.html。それでもなお納得しない人も少なからず存在していたのも事実だ。
では、どのレベルから「生成AIを使った」ことになるのか。アイデア出しの壁打ち相手に使った場合、構成案だけ出力させた場合、自分の書いた本文から見出し案だけ生成させた場合など、文章で言えば「文責」はどこから発生するのだろうか?
福井氏は、これは目的によってレベル感が変わる話だろうと述べた。生成AIを利用すること自体への拒否感のような社会反応のレベル、自身の著作物として認められるかどうかのレベル、出力結果が著作権侵害だったときに責任を免れるかどうかのレベル。それに応じて考えていく必要があるだろう、と。
関連して、1980年代にソニーのビデオデッキがアメリカで著作権侵害の裁判を起こされ、最高裁まで争った結果、5対4の評決で辛うじて勝利した事例を紹介。もし敗訴していたら、いまの社会はまったく違ったものになった可能性があると指摘した。
なお、その当時、蛇蝎のように嫌われていたビデオは、それから10年経たないうちにハリウッドの収入のうち、ビデオ販売による収入が劇場収入の2倍に達したのだという。新しい技術、新しいメディアが、あっという間に新しいビジネスとして育ち、巨大な収入を生み出すようになったわけだ。生成AIも、それと同じようなインパクトがあるかもしれない、と福井氏は語った。
このソニーの話をうけ、小林氏は「テクノロジーの普及によって機械失業(技術的失業)が起きるかもしれないときに、それに真正面から反対するのは、自分たちの権利を守るという意味ではロジカルな行動」だけど、「一旦世に出た技術は止まらない」とも指摘。「新しい社会、新しい技術に基づいた、新しいビジネスのあり方へ早く移行できるように議論していくほうが建設的」だと語った。
橋本氏は、生成AIの出力が著作物として認められるかどうかについて、たとえばAI絵師と呼ばれる方々は大量に出力させた中から選んでいる過程で、創造性は発揮されているだろうという意見だ。また、生成AIを使った作家の生産性が、使わない作家の生産性を、はるかに上回って行くであろうと予測。「勝ち組は生産性」だと語った。
ハルシネーションこそ可能性
最後に、司会である私自身の経験として、演習授業で学生に提出させた原稿が「ChatGPT」の出力で、100%実在しない店舗の案内だった実例を紹介した。生成AIがウソをつく、いわゆる「ハルシネーション(幻覚)」の問題だ。生成AIを使う上では、原稿整理や校正・校閲といった編集の能力が問われるようになる実感がある。
橋本氏は、「ハルシネーションこそ可能性」だという。事例として、タンパク質言語モデルを紹介27 タンパク質を語る言語〈日経サイエンス(2023年10月号)〉
https://www.nikkei-science.com/202310_062.html。20種類のアミノ酸は事実上の文字列なので、言語モデルが研究に使われているそうだ。そこで貴重なのが、ハルシネーションにあたるものだという。現実には存在しないが存在し得るものに、新しい機能や構造が発見されるそうだ。
つまりハルシネーションは、悪いものとか質が低いものと考えられがちだが、そこを追求していくと、普通の人間では考えられないものができてくる。とくに創作の世界では、可能性に満ちていると語った。
福井氏は、法的なアドバイスや生命・身体に関わるような出力が誤情報だった場合は命取りになる可能性も確かにあると同意しつつ、「AIのサポートだけではどうにも完結しきれない部分を人間がやる、触発されて人間もまた進化しうる」「新しいスキルや新しいゴールが求められるようになる」と展望を示した。
小林氏は、テーブルトークRPGのD&Dで「ChatGPT」にゲームマスターをやらせた事例を紹介28 対話型AI「ChatGPT」を使ってTRPGをプレイする方法〈GIGAZINE(2023年2月7日)〉
https://gigazine.net/news/20230207-chatgpt-play-trpg/
「GPT-4」を進行役にしてテーブルトークRPG「ダンジョンズ&ドラゴンズ」をプレイしたらこうなる〈GIGAZINE(2023年3月31日)〉
https://gigazine.net/news/20230331-chatgpt4-played-dnd/。人間のゲームマスターは、プレイヤーが想定外の行動をしようとしたとき、即興でシナリオや設定を用意する必要がある。「ChatGPT」にゲームマスターをやらせると、そういう予期せぬ行動、予期せぬトラブルで、ハルシネーションがうまく働くのだそうだ。
逆に、企業の中で利用する場合について。ユーザーからの問い合わせに対しファクトに基づいて回答を返すようなところに、あらかじめ膨大なルールを学習させた生成AIを実際に使ってみると、どうしても細かな間違いが出てしまうという。
ただ、こういうユースケースは非常に可能性のある部分なので、聞き方を変える、学習段階で与えるデータの構造を気にするなど、各社、さまざまな工夫をしているそうだ。そういった試行錯誤を早い段階から行って、克服できる道を見つけたところが勝者になっていくであろう、と述べた。