[2-J-3-01] パニック障害の架空症例を用いた対話型AI ChatGPTの精神科領域における臨床的有用性の検討
Generative AI, Conversational AI, Psychiatry, Natural Language Processing, ChatGPT
近年、OpenAI社の開発した対話型AI ChatGPTが急速に普及の兆しを見せている。ChatGPTは、インターネット上の広範な情報に対し自然言語処理を用いて作られた大規模言語モデルによって、ユーザーのテキスト入力に対し自然な文章を生成し回答を返す。精神科の臨床においては、医療者と患者の対話が診療の中心となる。今後、精神疾患を持つ患者を含むメンタルヘルスの問題を抱える人々が精神科医療機関を受診する前に、ChatGPTなどの対話型AIを自発的に利用する可能性がある。その際、ユーザーが、精神療法的な回答、精神科医療機関への受診を推奨する回答、リスクアセスメント情報などを獲得することが予想され、その回答が精神医療的意義を持つ可能性がある。本研究は探索的研究として、ChatGPTのGPT-4モデルを用いて実際の患者の訴えを想定した入力を行い、その回答を検証した。なお、架空症例としてパニック障害の症例を定義し用いた。結果、パニック障害の可能性の示唆、運動やストレスマネジメントなど対処法の示唆、支持的な言辞、必要な支援施設また支援者の示唆、精神科医療機関受診推奨の示唆とその根拠、初診時にユーザーと医師で交わされるべき対話の具体例、必要な検査の示唆、リスクの示唆、が得られた。また、禁忌的な回答は得られなかった。それらは、本邦のガイドライン及びDSM-Vに矛盾しておらず適切であった。想定した診断を適切に示唆し、対処法を提示し、専門医療機関への連携を促し、リスクアセスメントが得られた。精神科の臨床における価値は見込めると考えられる。単一の架空症例のみの検証である点、再現性が担保できない点、教師データの信頼性の点、対話型AI一般における検証ではない点が限界として挙げられる。今後、それらの限界を踏まえ、実際の患者における検証、さらに実際の臨床現場における適用を踏まえた議論の展開が期待される。