Japan Association for Medical Informatics

[2-B-4] 生成AI: 健康医療への実装とELSI

*Takeshi Imai1, Takanori Yamashita2, Mayu Kaya3, Daisaku Shibata4, Satoshi Kodera5, Isao Takaesu6, Joji Shishido7 (1. Graduate School of Medicine, The University of Tokyo, 2. Kyushu University Hospital, 3. NEC Corporation, 4. NEC Corporation., 5. The University of Tokyo Hospital, 6. Mitsui Bussan Secure Directions, Inc, 7. Graduate Schools for Law and Politics, Faculty of Law, The University of Tokyo)

Generative AI, Large language model, Large multimodal model, ELSI

近年大きく発展を遂げた深層学習技術の中で、Decoder部分を擁し、いわゆる生成能力を有するAI機構は広く生成AIと呼ばれる。2017年Attention機構を導入したTransformerの出現を契機に、大規模言語モデル (Large Language Model: LLM)、またさらにテキストデータに留まらず、数値などの構造化データや画像・波形データなど多様な形式のデータを取り扱う大規模マルチモーダルモデル (Large Multi-modal Model: LMM)など大きく発展を遂げており、各種診断診療支援や、診療業務効率化、標準化医療情報の流通支援をはじめ医療における多様な利活用の期待が高まっている。世界的な開発競争が進む一方で、倫理的・法的・社会的課題ELSI(Ethical, Legal and Social Issues)も開発者と利用者の双方にとって極めて重要であり、現状の正確な理解と多様なステークホルダーを交えた議論の醸成が急がれる局面となっている。
このような背景のもと、本セッションでは、まず、医療側の視点から開発が進められている国内生成AIの健康医療への実装の現状について1) SIP生成AIプロジェクトにおけるLLM開発と保健医療行政支援に向けた取り組み、2) 生成AIによる医療文書作成支援のベンダーによる取り組み、並びに病院内における実証、3) 循環器内科におけるマルチモーダルモデルの開発応用の取り組み について5名の演者から紹介頂く。次に、ELSIを語る上でも欠かせない技術的側面からの理解として、LLMの情報漏洩リスクと対応について解説頂く。最後にこれらを踏まえた上で、法的・倫理的側面、並びに社会ガバナンスの在り方の観点から医療における生成AIの取り扱いの現状と今後の方向性について提言を頂いた後、パネルディスカッション形式にて総合討論を行う。