2026.04.24
過去数年、人工知能(AI)による画像生成は劇的に進化し、現実の画像・映像と区別することが非常に難しくなりつつある。生成画像を悪用するケースも頻発し、これまで画像・映像が保証していた信頼性・証拠性が脅かされている(ディープフェイク問題)。
アメリカIcahn School of Medicine at Mount SinaiのTordjmanらは、放射線科医およびマルチモーダルLLM(大規模言語モデル)が、GPT-4o(OpenAI)によって生成されたX線画像と実際のX線画像を弁別可能か検証する、3段階の後向診断研究を実施した。
研究のフェーズ1では、目的を知らされていない6ヵ国17名の放射線科医が、複数の解剖学的部位でのX線画像154枚(うち半分がGPT-4oによる生成)について画像品質の評価と診断を行った。フェーズ2では、目的を知らされた放射線科医、およびGPT-4o、GPT-5(OpenAI)、Gemini 2.5 Pro(Google)、Llama 4 Maverick(Meta)の4つのLLMが、生成された画像かどうかを判別した。フェーズ3では、胸部X線画像を生成するためにトレーニングされた拡散モデル、RoentGenが生成した胸部X線画像について同じ検証を行った。
この記事は会員限定記事です。
新規会員登録・コンテンツの閲覧は無料です
会員の方はこちら
会員ではない方はこちら

2026.04.24
2026.04.24
2026.04.24
2026.04.24
2026.04.10