メニュー閉じる

2026.04.24

X線画像のディープフェイクはプロでも見分けられない

  1. AI(人工知能)
  2. ChatGPT
  3. 大規模言語モデル(LLM)
  4. 生成AI

背景

過去数年、人工知能(AI)による画像生成は劇的に進化し、現実の画像・映像と区別することが非常に難しくなりつつある。生成画像を悪用するケースも頻発し、これまで画像・映像が保証していた信頼性・証拠性が脅かされている(ディープフェイク問題)。
アメリカIcahn School of Medicine at Mount SinaiのTordjmanらは、放射線科医およびマルチモーダルLLM(大規模言語モデル)が、GPT-4o(OpenAI)によって生成されたX線画像と実際のX線画像を弁別可能か検証する、3段階の後向診断研究を実施した。
研究のフェーズ1では、目的を知らされていない6ヵ国17名の放射線科医が、複数の解剖学的部位でのX線画像154枚(うち半分がGPT-4oによる生成)について画像品質の評価と診断を行った。フェーズ2では、目的を知らされた放射線科医、およびGPT-4o、GPT-5(OpenAI)、Gemini 2.5 Pro(Google)、Llama 4 Maverick(Meta)の4つのLLMが、生成された画像かどうかを判別した。フェーズ3では、胸部X線画像を生成するためにトレーニングされた拡散モデル、RoentGenが生成した胸部X線画像について同じ検証を行った。

この記事は会員限定記事です。

新規会員登録・コンテンツの閲覧は無料です

  • 会員の方はこちら

  • 会員ではない方はこちら

TOP

「映像情報Medical」サイトへのアクセスありがとうございます。

本サイトは、国内の医療関係者(医師、技師、看護師等)を対象に、
様々な情報を提供させていただくことを目的としております。

新規会員登録・コンテンツの閲覧は無料です

一般の方や、国外の医療関係者に対する情報提供を目的としたものではないことをご了承ください。

あなたは医療関係者ですか?

映像情報Medicalのご利用にあたってをご確認の上、対象の職種をクリックしてください。
 
医療関係者でない場合は、会社概要ページへお進みください。