元
人工知能(AI)は医療において有望なツールとなっている。
大規模言語モデルAIチャットボットであるChatGPTは、臨床支援に期待されている。
そこで、脳卒中患者における機械的血栓除去術の臨床推論ツールとしてのChatGPTの可能性をくわしくしらべてみたそうな。
2022年1月1日から2022年12月31日の間にTulane Medical Centerで機械的血栓除去術を受けた大血管閉塞患者の全例を対象とした。
医療センターの脳卒中データベースから実際の患者シナリオを評価する前に、まず人工的に作成した患者シナリオを用いてChatGPTの能力の内部検証を行った。
機械的血栓除去術を受けるべき患者を評価する際のChatGPTの成績を、脳卒中神経科および神経インターベンションの専門医の判断と比較した。
次のようになった。
・102例の大血管閉塞患者に機械的血栓除去術が施行された。
・ChatGPTは54.3%の症例で血栓除去術を行うか否かの医師の決定と同じだった。
・ChatGPTは8.8%の症例でミスを犯したが、その内容は数学的、論理的、解釈の誤りであった。
・内部検証段階では、ChatGPTは微妙な臨床的推論を提供し、複数のステップを踏む思考を行う能力があることが示されたが、その際の誤りの割合も増加した。
ChatGPTは、機械的血栓除去術を検討する際に患者の基礎疾患を考慮する能力など、臨床推論において有望である。しかし、ChatGPTはエラーも起こしやすいため、現状では唯一の意思決定ツールとして頼るべきでないが、より効率的なワークフローで臨床医を支援する可能性はある、
というおはなし。
感想:
人工知能AIであるChatGPTのバージョン4は、世にでてまだ10ヶ月しか経っていない。
すでにこれまで出会ったどんな医師よりも賢いと感じる。
そのAIに訊いてみた。
私『自動車運転は将来AIが担うようになります。同様に、医療の現場にもAIが積極採用され、日常業務に医師が必要とされることはなくなるはずです。これは人々にとって喜ばしいことですか?』
AI『AIの医療分野への導入が進むことは、多くの点で人々にとって喜ばしい進展となり得ますが、一方で懸念や課題も存在します。以下にその両面を説明します。
効率性と精度の向上: AIは、診断や治療計画の精度を高め、医療サービスの効率を向上させることが期待されます。これにより、医師の負担が軽減され、より多くの患者に高品質な医療を提供できるようになる可能性があります。
アクセスの改善: 遠隔医療やAIによる診断支援ツールの普及により、地理的な障壁を越えて医療サービスを提供できるようになり、特に医療資源が限られている地域の人々に恩恵をもたらすことが期待されます。
新たな治療法の開発: AIは大量のデータを分析し、新たな治療法や薬剤の発見に貢献することができます。
個人の役割の変化: AIによる自動化が進むと、医師の役割や働き方が変化します。AIが単純な作業を担うことで、医師はより複雑な臨床判断や患者とのコミュニケーションに注力する必要が出てくるでしょう。
倫理的・法的問題: 診断や治療の決定にAIを使用することは、倫理的な問題や責任の所在に関する法的な問題を引き起こす可能性があります。
プライバシーとデータセキュリティ: 患者の健康データを扱う際のプライバシー保護とセキュリティは、最優先事項となります。
技術への依存: AIシステムの誤動作やエラーが、重大な医療ミスにつながるリスクもあります。
結論として、AIの医療分野への導入は多くのメリットをもたらす可能性がありますが、それに伴う課題やリスクにも注意深く取り組む必要があります。医師の役割はなくなるというよりは、変化し、新たな形での医療提供が求められるようになるでしょう。』
私『あなたの挙げた懸念や問題点は、生身の医師のほうがはるかに深刻な事態を引き起こしています。医学の専門分野は非常に多岐にわたりすでに個人で把握できる能力を超えています。また、わたしの考えではほとんどの医師は倫理よりも金と名声を優先させます。データ・セキュリティや医療ミスはAI固有の問題ではありません。だからAIが医療を担う未来はただただ喜ばしいとしか思えません。』
AI『おっしゃる通り、AIには医療の質を向上させる可能性があります。特に以下の点が強調されることが多いです。
広範な知識とデータ処理能力: AIは膨大な医学データを迅速に分析し、最新の研究や治療法を活用できます。これにより、特に専門分野が細分化されている医療の現場において、知識のギャップを埋める助けとなり得ます。
一貫性と客観性: AIは、人間の医師に比べて疲労や個人的なバイアスの影響を受けにくいため、より一貫した判断を下すことができます。
診断と治療の改善: AIはパターン認識に優れているため、特に画像診断などの分野で、より正確な診断を支援することが期待されます。
ただし、AIを医療分野に導入する際には、依然として慎重な検討が必要です。医療ミスやデータセキュリティの問題は、AIに固有のものではないかもしれませんが、AIの導入はこれらの問題を新たな形で引き起こす可能性があります。また、AIの意思決定プロセスの透明性や、その判断が倫理的な基準に沿っているかどうかを確認することも重要です。
人間の医師が直面する倫理的な課題や限界を考慮すると、AIの導入は確かに医療の質を高める有望な手段です。しかし、これは人間の医師を完全に置き換えるというよりは、彼らを補完し、支援する形で最も効果的に機能すると考えられます。患者との対話や、医療倫理の複雑な問題に対処するには、依然として人間の医師の役割が重要であり、AIと人間が共同で働くことで、最適な医療提供が可能になるでしょう。』