3月14日、OpenAIから大規模言語モデルGPTの最新バージョンであるGPT-4が公表され、すぐにChatGPT有料版でも利用できるようになりました。 GPT-4は、その抜きん出た性能で一躍話題になる一方で、まるで事実であるかのような嘘をつくというハルシネーション(AIの幻覚)の欠点は、まだ克服されていません。 今回は、このGPT-4のハルシネーションについて、これまでよりも深く調べてみました。 1.ハルシネーションが起こる理由AIのハルシネーションとは、AIが生成する情報や文章が実際の事実や知識とは異なる架空の内容になってしまうことを言います。 文章生成AIがハルシネーションを引き起こすのは、学習した知識やデータに基づいてAIが情報を生成する過程で、いくつかの理由により、現実とは異なる結果を生み出してしまうことがあるためです。 主に以下の理由により、AIのハルシネーションが発生します。