科学の一分野だった人工知能(AI)研究だが、AI自身が科学を加速させるようになってきた。自ら仮説を立て、研究も行う「AI科学者」への期待も膨らむ。一方でAIは良くも悪くも、科学研究の姿を大きく変えうる。

 2月に東京大であった科学研究のあり方や研究不正について議論する研究会では、東京大の松尾豊教授が科学論文の「査読」に、将来的にAIを使える可能性を紹介した。

 査読は、学術論文を掲載する前に、独立した専門家が、内容や学術的な意義をチェックする仕組みだ。査読者は先行研究と比べ、どこに新規性があるのか、論理的な矛盾はないか、適切な方法で適切なデータを集めているか、などを見てコメントし、著者に書き換えや追加実験を求める。科学の質を保つために不可欠な手続きだ。ただ、科学者の善意に頼るところもあり、時間がかかる査読への忌避感や、専門分野が細分化する中で、査読者の確保が課題になっている。

 米スタンフォード大などがGPT4に査読させた場合と人間の査読者の場合で差があるかを調べた論文によると、査読を受けた人の半数以上がGPT4の査読について「役立つ」「非常に役立つ」と回答し、8割が「少なくとも一部の人間の査読者からのコメントより有益だった」と答えたという。

 「研究者にとっては朗報。人間の研究者とAIの役割分担が進むだろう」と松尾さん。

 一方で、同じ研究会では、生成AIによって画像やデータの修正が簡単になったことで、捏造(ねつぞう)などの不正が起こりやすくなることへの懸念も相次いだ。

 研究会を主催した「公正研究推進協会」は今月、研究者向けにAI利用の注意点をまとめたオンライン教材を整備した。意図せず研究不正の疑義が生じる恐れもあり、検証ができるよう、AIの回答などの記録を残しておくことを推奨している。

 教材をまとめた信州大の樋笠知恵(ひかさちえ)助教(研究倫理)は「生成AIを使うとしても、研究者は最終的に、自分の研究について頭で理解し、きちんと世の中に説明できないといけない。研究のプロセスをどこまでならAIに任せてよいのか、学術界で議論していく必要がある」と話す。

 国際的な研究コミュニティーでも議論が始まっている。

 今月21日、全米科学アカデミー紀要(PNAS)に研究者らによる生成AI時代の研究公正の指針案が発表された(https://doi.org/10.1073/pnas.2407886121)。

 AIの革命的な進歩が「科学自体の変革の瞬間を迎えた」と期待を示す一方で、研究の透明性や結果の再現性、著者の責任など、科学のあり方に新しい困難を生むことになる、と指摘。

 指針案では、研究者は使用したAIツールやアルゴリズム(計算手法)を開示し、AIが導き出した答えでも研究者が結論に責任をもつことなどを推奨している。

 欧州委員会も3月、生成AIを研究で使う際の指針を発表した(https://research-and-innovation.ec.europa.eu/news/all-research-and-innovation-news/guidelines-responsible-use-generative-ai-research-developed-european-research-area-forum-2024-03-20_en)。

 生成AIを捏造などに使わないことや、漏洩(ろうえい)の恐れがある場合は、査読や研究申請書の評価など、他の研究者や研究機関の情報を取り扱う際に生成AIに入力しないよう指摘。研究機関に対しても、漏洩リスクをさけるためAIやAIを使える環境を自ら整備、管理することを推奨している。(瀬川茂子、藤波優、竹野内崇宏)

鄭重声明:本文の著作権は原作者に帰属します。記事の転載は情報の伝達のみを目的としており、投資の助言を構成するものではありません。もし侵害行為があれば、すぐにご連絡ください。修正または削除いたします。ありがとうございます。