ZACKY's Laboratory 山崎 進 研究室 Page Topへ

AIと研究倫理

生成AIが急速に進化し,その特性がだんだん明らかになってきました.AIを研究に取り入れるとしたら,研究倫理上,どのような問題が生じるか,捏造・改竄・盗用のそれぞれの観点で考察してみました.

捏造とAI

たとえばAIで実際には行っていない実験データを捏造することは極めて重大な研究倫理違反です.

また現行の生成AIはハルシネーション(幻覚)を起こす特性があるので,AIを用いて論述させる場合にハルシネーションによる捏造が生じないかを常に見張る必要があります.

改竄とAI

たとえば実験で得られた写真等をAIを用いて加工することは,改竄に当たる可能性が極めて高いです.たとえ,写り込んでしまった不要なものを削除するというような使い方であっても,慎んだ方が賢明だと考えられます.

盗用とAI

市場で公開されているAIの学習データが必ずしも明らかになっていないので,公知の情報だけでなく,第三者の著作物や秘密情報が学習データに混入している可能性があります.したがって,前述のハルシネーションの問題が仮になかったとしても,AIの論述の出典を確認し,公知の情報に基づいているのか,そうでないのかを認識する必要があると考えます.公知の情報に基づいている場合には,もちろん出典を明記する必要があります.また,もしAIが公知の情報にない,オリジナリティのある主張をしていた場合に,それを公表したり,それに基づいて論述したりすることは,もしかすると控えた方が賢明かもしれません.

注意点

AIは,現行法では人でも法人でもないので,責任能力がないことになっています.したがって,たとえ100%AIが生成したとしても,論文に関する責任は著者に生じるものと考えられます.「AIが勝手に書いたことなので」という言い逃れはできません.

<< 山崎進研究室紹介2025