« オルツ粉飾事件で(ほとんど)話題にならない監査役の責任論 | トップページ | 監査役員の話題ふたつ(オルツと大盛工業) »

2025年10月 9日 (木)

AIの「ハルシネーション(幻覚)」はおそろしい・・・

10月7日の日経電子版記事「デロイト、AIを使用した報告書に誤り オーストラリア政府に返金」では、「コンサル大手デロイトが人工知能(AI)を使用して作成した報告書に複数の誤りが発覚し、顧客のオーストラリア政府に代金の一部を返金した」ことが報じられています。報告書を見た地元大学の研究者が誤りを指摘したそうで、存在しない学術文献3件が参照されたことになっていたり、裁判所の判決文からの引用として文章が捏造(ねつぞう)されたりしていた、とのこと。地元メディアは、デロイトは企業のAI活用やそのリスクについて助言する立場でもあるから「恥ずかしい」失態と揶揄しているそうです。

私も仕事上で生成AIはよく使いますが、まさにダイナマイトや包丁と同じですね。正しく使えば重宝しますが、使い方を間違えると信用を失う事態になります。正しく使おうとしても忙しすぎて安易に活用してしまう場合も要注意です。上記記事中でも、AIが架空の事例をでっちあげたり、データを誤って解釈したりすることを「ハルシネーション(幻覚)」と紹介していますが、私はこの「ハルシネ―ション」は、嘘をついてでも私の期待に応えようとする「AIの(悲しい)習性」だと考えています。

先日も、ある論文を作成するにあたって、判例なども交えて格調高い論文風にして、とAIに要望したところ「おお!」と思えるような関連判決が3つほど登場し、しかもそれぞれの判例には「判例タイムス●●号、●●頁」と引用文献まで掲載されているのです。喜び勇んで確認したところ、そのような判例はどこにもなく、AIが私を喜ばそうと勝手に創作した判例だったのです。これぞまさに「ハルシネ―ション」であり、私に嫌われたくないので、一生懸命に努力してそれなりの文章を仕上げたのでしょうね。しかしなぜ架空の裁判例など紹介したりするのが不思議です。

しかしフォレンジクス調査に活用すると、おそろしいほど効率的に仕事がはかどります。私は使ったことはありませんが、会計不正の疑いや予兆のような事象を特定することにも有用性が高そうな気がしますね。たぶん汎用品よりも、自社のリスク事案をデータベースとして創作すれば効果的かと思いますが、そうなるとやはり自社の人的資源次第ということになりますでしょうか。

|

« オルツ粉飾事件で(ほとんど)話題にならない監査役の責任論 | トップページ | 監査役員の話題ふたつ(オルツと大盛工業) »

コメント

コメントを書く



(ウェブ上には掲載しません)


コメントは記事投稿者が公開するまで表示されません。



« オルツ粉飾事件で(ほとんど)話題にならない監査役の責任論 | トップページ | 監査役員の話題ふたつ(オルツと大盛工業) »