ヘルスケア領域の求人等をみて、ようやく積み本からの脱出を果たした本書。
※この記事は本書を読んだ際の私の解釈と感想、(および実臨床を経験での愚痴)で、実際の本の表現や文章とは異なる。
概要
現在の医療システムは非常に複雑であり、多くの問題や無駄、それによって引き起こされる不利益がある。AIシステムはそのすべてを同時に解決できる物では無いが、既存の医療システムを改善、あるいは再構築することで医療システムに変革を促すことが可能である。
本書はAIについての学術書ではなく、ヘルスケア領域の中心にAIを据えるための本である。
1章:AIの神話と実現
本書では何度か”AIは医療システムに対する「銀の弾丸」にはなり得ない”という内容が記載されている。
残念ながら浅学な私は名探偵コナンのイメージしかないが、厨二病感があって好きな表現である。
銀の弾丸(ぎんのだんがん、英: silver bullet)とは、銀で作られた弾丸で、しばしば怪奇小説・映画等において、不思議な霊力を持ちそれによって不死身の狼男(作品によってはそれ以外の魔物)でさえ打ち倒せる武器とされている。(https://ja.wikipedia.org/wiki/%E9%8A%80%E3%81%AE%E5%BC%BE%E4%B8%B8)
『銀の弾などない— ソフトウェアエンジニアリングの本質と偶有的事項』(ぎんのたまなどない ソフトウェアエンジニアリングのほんしつとぐうゆうてきじこう、英: No Silver Bullet – essence and accidents of software engineering)とは、フレデリック・ブルックスが1986年に著した、ソフトウェア工学の広く知られた論文である。(https://ja.wikipedia.org/wiki/%E9%8A%80%E3%81%AE%E5%BC%BE%E3%81%AA%E3%81%A9%E3%81%AA%E3%81%84)
例えば、機械学習は実際の診断、治療に一見有用なように思えるが、(医療スタッフの代わりを担うという意味で)実臨床に活かすには極めてハードルが高い。いくら膨大なデータを読み込んだとして、毎年数多の例外症例が学会で発表されている現状に完全に対応できるとは思えない。
何より全国のご高名な先生方の中で、自分の代わりになるロボットを快く受け入れる先生は多くないだろう(これは私の個人的な偏見かもしれないし、自分の病院にはめちゃくちゃ興味を持っている教授もいた)。
AIと機械学習
また、本書ではAIの定義について、”書かれて”はいるが、”明記”はされていない。
AIに関する一貫したコンセンサスはないからだ。強いていうならジョン・マッカーシーの言葉を借りる人が多いのだろうか。
「人工知能(AI:Artificial Intelligence:アーティフィシャル・インテリジェンス)」という言葉は、1956年に米国の計算機科学研究者ジョン・マッカーシーが初めて使った言葉です。最近AIは目覚ましい研究結果を出すようになってきていて、ブームとなっています。
「AI」に関する確立した定義はありませんが、人間の思考プロセスと同じような形で動作するプログラム、あるいは人間が知的と感じる情報(じょうほう)処理(しょり)・技術(ぎじゅつ)といった広い概念で理解されされています。(https://www.soumu.go.jp/hakusho-kids/use/economy/economy_06.html)
AIと機械学習の違いに関しても混同されやすいが、これは「機械学習以外のAI」を考えれば分かりやすい。
通常、AIインフラストラクチャーは、データ・ストレージとデータ処理、コンピューティング・リソース、MLフレームワーク、MLOpsプラットフォームの4つの構成要素に分類されます。(https://www.ibm.com/jp-ja/topics/ai-infrastructure)
と思ったが、アルファベットとカタカナが増えただけだった。
多分データの入力、保存、処理や、ハードウェア(GPUなど)、アプリケーションの作成、検証、監視、そしてこれらを自動化することなどだろう。
本書の図説では「AIスタック」として、かなり分かりやすく書いている(が、著作権の関係で掲載しない)。
AI/機械学習が実臨床で活躍できないワケ
- 解釈ができない
ある患者に対して、
深層学習などのほとんどの機械学習モデルが「この人は98%の確率でがんだ」と言っても、「なんで?」と聞かれた時に説明できない。
人間の医師は「この検査結果がいくつ以上の時はがんの可能性が高いことが知られており、CT検査で腫瘤が認められるから」と一応説明できる。
人間の医師の説明も必ず正しいとは限らず、検査結果の数値は感度、特異度が一定以上のカットオフが決められていることが多いものの、100%ではない。(機械学習の98%とどちらが高いのだろうか)
また、CTの腫瘤はもしかしたら悪性腫瘍ではなく膿瘍かもしれない。
それでもおそらくこの患者はがんなのだろう。そして多くの医療者や患者は、なんの説明もない機械学習のおかげではなく、国家資格の持つ医師が、説明とともに判断したからこの診断を受け入れるのだろう。
- 失敗は許されない
上記の例では「機械学習モデルが98%の確率でがんだ」と言っても2%の可能性でがんでないのなら臨床現場に導入される可能性は低い。別に医者が診断しても100%ではないのにも関わらずだ。
理由は責任誰が取るのとかそういう感じだろうか。もし医療訴訟とかなった時に「AIがこう言ってたんで…」とか言えないもん。まぁ実際臨床現場でも活用しようぜ!みたいな人はあんまりいない(研究は結構活用できると思う)。
あでも、EPS(電気生理学的検査)の時に取得した波形を不整脈時の波形とリンクさせて何%一致、みたいなのはあった。
そういう意味では医師の補助、copilotとしてのAIはこれからどんどん導入されるだろう。EPS中に流れてくる心電図の波形を一瞬のうちに読み取るのは、知識があっても動体視力的な問題がある。(私は知識も動体視力もあやしくてなかなかついていけなかった)。
- AIは医者に取って代われない
「AIすげー!最強!」
そう思っていた時期がありました。そんなあなたにアマラの法則。
AIは基本的に特定のタスクに特化することしかできない。
患者にopen questionをし、その内容からclosed questionを行い、確認すべき理学所見を確認し、
必要な検査を行い、治療計画を経て、経過観察をする。場合によっては特殊な手技を行う。
そんなAIは存在しない。
一方でAIはGPT(General Purpose Technology)で、ヘルスケア領域に変革をもたらすことはできるだろう。
本書ではAIが医師にとって代われるという意見と、代われないという意見を列挙し、
互恵的な関係であるべきという結論と、理由を述べている。
AIはヘルスケアにどう変革をもたらす?
本書ではAIが介入できるヘルスケア領域の問題点(ギャップ)について述べている。
詳しく記載することはないが、いずれも私が不満、不快、悩みに至った経験がある。
特に「技術的進歩の導入の遅さ」というのは本当にどうにかならんものか。
人の命がかかっているから、というのは理解できるが、「人の命がかかっているから企業だけじゃなくて医者も一緒に導入手伝うよ」というムーブにはあんまりならない。
仮に導入できても、あまり目立ちすぎると陰謀論者に利用される未来があるので、医療従事者と世間の不信感と闘いながらAIは進んでいかないといけないのだろう。
- AIは病気を治せるのか
ここでいう「治療」の分野ではおそらくAIは苦手分野だろう。
しかしヘルスケアのプロセスには
- 予防(生活習慣予防など)
- 治療(内服治療、手術など)
- 予後(リハビリとか)
の大きく3つのプロセスがあり、特に予防の分野ではすでに活躍している(スマートウォッチの不整脈検知、AI診断アプリ等)
これは、予防の部分が医療機関よりも世間に比重があるからだ。(予後に関してもAIは介入するべきだと個人的には思う。)
医療機関のその手の発信能力は相当低い。
例えば、こんなアプリがあったりするのだが、存在自体知らない人も多いだろう。
Q助 https://www.fdma.go.jp/mission/enrichment/appropriate/appropriate003.html
一方で、メディアなどでは「#7119(小児は#8000)」といった極めてアナログな方法が宣伝されている。
ちなみにこの電話相談サービス、実際の救急現場で働く医療従事者からは死ぬほど評判が悪い。
責任逃れのためか、受診のハードルが恐ろしく低い。ほぼ全て救急車行きである。
それ自体は感度を上げるという観点でまぁ許されるのだが、
患児の母「#8000で急性脳症かもしれないと言われました!(実際は単純型熱性痙攣)」
というパターンが非常に多い。受診の可否を伝えるべきなのに、なぜか患者の不安を煽ってしまうのだ。
こう言ったタスクは、圧倒的にAIの方が優れていると、個人的には思っている。
- 潜水艦は泳ぐかい?
本書の中で出てきた、David Ferrucci の言葉の引用。
こういう受け答え格好いいよね。
例えばCNN(Convolutional neural network )は人間の網膜から発想を得た技術だけど、
人間の視るという機能と同一かと言われるとそうではないし、人間は見たり、観たりもできる。
繰り返しになるが本書は、「人間対AI」の関係ではなく、互助的な関係であるべきと書いてある。

コメント