OpenAIのChatGPT(chat generative pretrained transformer)は、人工知能(AI)を搭載したチャットボットであり、史上最も急速に成長しているインターネットアプリケーションとなっています。GPTなどの大規模言語モデルを含む生成AIは、人間が生成したものに類似したテキストを生成し、人間の思考を模倣しているように見えます。研修医や臨床医はすでにこの技術を利用しており、医学教育は二の足を踏んでいる余裕はありません。医学教育分野は今、AIの影響に真剣に取り組まなければなりません。
AIが医療に与える影響については、AIが情報を捏造して事実であるかのように提示する可能性(いわゆる「錯覚」)、患者のプライバシーへの影響、そしてソースデータにバイアスが組み込まれるリスクなど、正当な懸念が数多く存在します。しかし、私たちは、これらの差し迫った課題にのみ焦点を当てることで、AIが医学教育に及ぼし得るより広範な影響、特にこの技術が将来の研修医や医師の思考構造やケアパターンをどのように形成しうるかという点を見落としてしまうのではないかと懸念しています。
歴史を通して、テクノロジーは医師の思考方法を根底から覆してきました。19世紀の聴診器の発明は、身体検査の改善と完成度をある程度まで高め、その後、診断探偵という自己概念が生まれました。近年では、情報技術が臨床推論のモデルを再構築しました。問題指向型医療記録の発明者であるローレンス・ウィードは次のように述べています。「医師がデータを構築する方法は、私たちの思考方法に影響を与えます。現代の医療費請求構造、品質改善システム、そして現在の電子医療記録(そしてそれらに伴う弊害)はすべて、この記録方法に深く影響を受けています。」
ChatGPTは2022年秋にローンチされ、その後数ヶ月でその潜在能力は、問題解決型医療記録と同等以上の破壊力を持つことを示してきました。ChatGPTは米国医師免許試験と臨床思考試験に合格しており、医師の診断的思考モードに近いものです。高等教育機関は現在、「大学の授業エッセイの終焉」に取り組んでおり、医学部出願時に学生が提出する志望理由書にも近い将来同じことが起こることは間違いありません。大手ヘルスケア企業はテクノロジー企業と協力し、電子医療記録や音声認識ソフトウェアへのAIの統合など、米国のヘルスケアシステム全体にAIを広範かつ迅速に導入しています。医師の業務の一部を代替するように設計されたチャットボットが市場に登場しつつあります。
医学教育を取り巻く状況は明らかに変化しつつあり、すでに変化しています。そのため、医学教育は存亡をかけた選択を迫られています。医学教育者は、医師の研修にAIを積極的に取り入れ、医師たちが医療現場でこの変革をもたらす技術を安全かつ正しく活用できるよう、意識的に準備を整えるべきでしょうか?それとも、業務効率と利益を追求する外部勢力が、両者の収束を左右するのでしょうか?私たちは、コース設計者、医師研修プログラム、医療リーダー、そして認定機関がAIについて考え始めるべきだと強く信じています。
医学部は二重の課題に直面しています。一つは、学生に臨床現場でのAI活用方法を教える必要があること、そしてもう一つは、医学生や教員が学術界にAIを応用していることへの対応です。医学生たちは既に、チャットボットを用いて疾患に関する概念を生成したり、指導のポイントを予測したりすることで、AIを研究に活用しています。教員たちは、AIが授業設計や評価にどのように役立つかを考えています。
医学部のカリキュラムは人間によって設計されるという考え方は、不確実性に直面しています。医学部は、人間が考案していないカリキュラムの内容の質をどのように管理するのでしょうか?学生がAIを用いて課題をこなす場合、医学部はどのように学術水準を維持できるのでしょうか?将来の臨床現場に学生を準備させるため、医学部はAIの活用に関する教育を臨床スキル、診断推論、そして体系的な臨床実習に統合するという困難な取り組みを始める必要があります。第一歩として、教育者は地域の教育専門家に働きかけ、カリキュラムを適応させ、AIをカリキュラムに組み込む方法を開発するよう依頼することができます。改訂されたカリキュラムは厳密な評価を受け、公開されます。このプロセスはすでに始まっています。
大学院医学教育レベルでは、研修医や専門医は、AIが独立した診療に不可欠な要素となる未来に備える必要があります。研修医は、臨床スキルをサポートするためだけでなく、患者が既にAIを使用していることからも、AIを快適に使いこなし、その機能と限界を理解する必要があります。
例えば、ChatGPTは患者が理解しやすい言葉でがん検診の推奨を行うことができますが、100%正確ではありません。AIを用いた患者からの質問は、市販の遺伝子検査製品やオンライン医療相談プラットフォームの普及が外来診療における会話を変えたように、医師と患者の関係を必然的に変化させるでしょう。今日の研修医や専門医は、30年から40年先を見据えており、臨床医学の変化に適応する必要があります。
医学教育者は、レジデントや専門トレーナーがAIに関する「適応型専門知識」を身につけ、将来の変化の波を乗り越えられるよう支援する新たな研修プログラムを設計するべきです。卒後医学教育認定評議会(ACGI)などの統括機関は、AI教育に関する期待事項を研修プログラムの日常的な要件に組み込むことで、カリキュラム基準の基礎を形成し、研修プログラムによる研修方法の変更を促すことができます。最後に、既に臨床現場で活躍している医師は、AIに精通する必要があります。専門学会は、会員が医療分野の新たな状況に対応できるよう準備を整えることができます。
AIが医療現場で果たす役割に関する懸念は、決して軽視できるものではありません。医学における認知的徒弟制度モデルは数千年にわたって続いてきました。医学生が研修初日からAIチャットボットを使い始めるようになったら、このモデルはどのような影響を受けるでしょうか?学習理論は、知識とスキルの向上には努力と意図的な練習が不可欠であることを強調しています。ベッドサイドのチャットボットがあらゆる質問に瞬時に、そして確実に答えてくれるようになったら、医師はどのようにして効果的な生涯学習者になれるのでしょうか?
倫理ガイドラインは医療行為の基盤です。不透明なアルゴリズムを通して倫理的判断をフィルタリングするAIモデルが医療を支援するようになったら、医療はどのようなものになるでしょうか? 200年近くもの間、医師の職業的アイデンティティは、私たちの認知的作業と切り離せないものでした。認知的作業の大部分がAIに委ねられるようになったら、医師が医療行為を行うことはどのような意味を持つのでしょうか? これらの疑問はどれも今すぐには答えられませんが、私たちは問い続ける必要があります。
哲学者ジャック・デリダは「薬」にも「毒」にもなり得る「ファルマコン」という概念を提唱しました。同様に、AI技術は機会と脅威の両面をもたらします。医療の未来が大きな危機に瀕している今、医療教育コミュニティはAIを臨床実践に統合する主導権を握るべきです。特に急速に変化する状況とガイダンス文献の不足を考えると、このプロセスは容易ではありません。しかし、パンドラの箱は開かれてしまったのです。私たちが自らの未来を形作らなければ、強力なテクノロジー企業が喜んでその役割を担ってしまうでしょう。
投稿日時: 2023年8月5日



 
 				
