Vol.62:チャットGPTは学術コミュニケーションに役立つか?
昨年11月に公開されて以降、チャットGPTは大きな話題になり、ユーザーは思いつく限りの方法でその機能と制約を試しています。公開から数か月が経ちましたが、話題が収まる気配はなく、この新しいAIツールが一過性のもので終わることはなさそうです。
このAIツールは複雑な指示にも対応し、人が書いたようなテキストを生成することができます。平凡な作業から複雑なタスクまで、その目的を問わず(誠実なものでも悪意に基づくものでも)、幅広い用途が見込まれています。このことは、学術コミュニケーションに大きな影響を与える可能性がきわめて高いことを意味します。なぜなら、学問の進歩は、書き言葉で共有される知識に依存しているからです。
今回は、Christopher Leonard(カクタス・コミュニケーションズ戦略&イノベーション部門ディレクター)に、今回の新ツールが研究や学術出版でどのように使われることになるか、また、それによる影響としてどのようなことが考えられるかを聞いています。
Q. まずは読者の皆様に自己紹介をお願いします。
過去25年間、出版、テクノロジー、製品開発の分野でさまざまな役割を担ってきました。その経験から、NLP(神経言語プログラミング)、AI、機械学習、量子コンピューティング、ブロックチェーンは間違いなく次世代の産業と社会の原動力になると考えています。心配なのは、それらが不適切に使われることです。そうした懸念から、これらの技術の実装に関わる倫理的側面と環境コストに関心を持っています。
Q. AIを活用したツールは以前からあり、学術コミュニケーションの分野でも注目されてきました。しかし、チャットGPTほど熱狂や懸念や議論を巻き起こしたものはありません。今回は何が違ったのでしょうか?
チャットGPTを際立たせているのはおそらく、使い勝手の良さと、予想を上回る有意義な結果を迅速に出力できる能力でしょう。こちらの指示や質問がこなれていくと、教育からコピーライティングまで、多くのことを変える可能性があることが分かってきます。しかもそれは遠い未来のことではなく、今ここで起こっていることなのです。未来がやってきたというこの感覚が、皆がこぞってチャットGPTを話題にする状況を生んでいるのでしょう。
Q. チャットGPTは研究に役に立つと思いますか? たとえば、情報の照合、作成、統合といったタスクを補助できますか? このツールを使うときに研究者は何に注意する必要があるでしょうか。
このツールが役に立つのは、新規の研究プロジェクトを提案するときや、何かに行き詰まっているときに新たな方法を模索するときだと思います。ただし、示された案を実行に移す前にはその健全性をチェックし、人間の知性でフィルタリングする必要があるでしょう。
米メタの「Galactica/ギャラクティカ(訳者註:2022年11月公開の、学術データに基づく大規模言語モデル。発表から2日で公開中止となった。)」で分かったのは、生成技術は物々しい発言をするけれども、中身はないということです。「事実」は確率的な単語の並びにすぎず、引用は完全にでっち上げである可能性があるのです。学術データ全般を基に訓練された大規模言語モデルには、取り組むべき課題が山積しています。とくに重要なのは、過去の学術的成果の多くは、間違っていることが証明されてきたという事実です。この点については、生成テキストよりもナレッジグラフの方が期待できるでしょう。
Q. チャットGPTは学術出版社にとってどのように役立ちますか? たとえば、著者とのより効果的なコミュニケーションを図ったり、取り扱いたい研究領域について検討するのに役立つでしょうか。
チャットGPTがもっとも能力を発揮するのは、「8歳児に分かるように説明して」といった要望に応える場面です。専門家以外のより多くの人に研究への関心を持ってもらい、学術研究の世界に参加してもらいたいのであれば、さまざまなレベルの要約を用意することは有益な方法です。この方法は出版社でも著者でも取り入れられると思いますが、著者は、出力されたものを再チェックし、微調整した上でソーシャルメディアで宣伝できるという点で有利かもしれません。
出版社なら、チャットGPTを使って、論文タイトルを短縮する、著者が書いたアブストラクトをブラッシュアップ(または短縮)する、といった使い道が考えられます。チャットGPTをトレーニングすれば、キーワードを多用しながらより読みやすいアブストラクトに書き直すことも可能かもしれません。これは、抄録索引データベースでの可視性向上にも役立つでしょう。
潜在的に大きなメリットがありそうなのは、単純な使い方ではあるものの、査読者候補宛の個別の依頼メールを作成することです。この方法なら、より効果的に訴えかける文章が作成でき、ほかでもないその人に査読を依頼したい理由を明快に述べることができるでしょう。
Q. 学術コミュニケーションにおける高度なAIツールの悪用(偽画像の生成等)は、すでに問題となっています。チャットGPTについても、コンテンツの盗用や論文の偽造を容易にすることが懸念されていますが、このようなツールの悪用を、どうすれば防止または検出できるでしょうか。
ナンセンスな論文や偽画像を生成する「論文工場」という既存の問題はさらに悪化することになるでしょう。単純な剽窃検知を回避するためにテキストを言い換える機能もあるので、一連の問題は、対処する前に悪化するかもしれません。
この問題については、オープンサイエンスのベストプラクティスに基づく次のような対処法があると考えています。
- 査読を「オープン」にし、誰が論文をレビューして何を述べたかが分かるようにする。レビューと論文が一緒に公開されれば、ナンセンスな論文を公開することは難しくなる。
- 出版論文に付随するデータを、原稿と一緒にダウンロードして確認できるようにする。実験論文に付随データがなければ、危険のサインとみなす。データが「編集」されていれば、実験の再現過程でそれが明らかになる。
Q. チャットGPT のようなツールは、学術コミュニケーションに長期的にどのような影響を与えるでしょうか。
すでに述べたように、メリットもありますが、生成テキストに関する倫理的事項については、この一年を通して学んでいかなければならないでしょう。ほとんどのテキストは、既存の出版物から生成もしくは模倣されるものですが、生成されたテキストは、どの程度が著作権の下にあって、どのような影響を持つのでしょうか。つまり、識別不能な入力による派生物の著作権を、誰が保持するのでしょうか? 剽窃についても同様です。既存の作品を簡単に書き換えることができるとしたら、誰がそれに気づけるでしょうか?
もしかしたら、将来のある時点で、学術コミュニケーションの単位は論文ではなくなるかもしれません。私たちは、ストーリーのないデータセットを信頼するようになるかもしれません。テキストや画像を簡単に作成できるようになった今、真の価値は研究者によるデータの解釈ではなく、データそれ自体にあるのかもしれません。
また、より影響範囲の広い現実的な問題として、学生を評価する際に、ライティングの課題に依存し過ぎない方法を再考する必要があるでしょう。教育に対する脅威とも見なされるこの新ツールは、教育と試験の形を変える機会にもなるかもしれません。