本文へスキップ
医学よろず相談
記事一覧

AIコパイロット外来——診察室にAIが同席する未来

世界では月 250 万回、診察室で AI が医師の隣に座り、会話を文字に起こし、要約し、ときに患者の質問に医師より共感的に答えている。一方で、AI 内視鏡を使う医師の素手のスキルが落ちる「deskilling」、AI による医師の監視、コーディングの軍拡競争という影も顕在化した。日本では医師法 17 条が「最終責任は医師」と定め、2026 年 4 月に日本医師会が「何を学ばせ、何を任せず、誰が責任を負うか」を医師職に問う答申を発表した。UCLA 238 医師の RCT、JAMA Network Open のバーンアウト 51.9%→38.8% 改善、Kaiser Permanente の 250 万回使用データ、PMDA・FDA・EU AI Act の規制マップ、EndoBRAIN・Ubie の日本実装まで、外来診療の地殻変動を、医師の本音とエビデンスで読み解きます。

2026-05-1328エビデンス 17
SR/MA ×1RCT ×3Cohort ×5Cross-Sec ×1GL ×7

はじめに——診察室で起きている、静かな革命

「最近、先生が私の話をちゃんと聞いてくれるようになった気がする」。

ある米国の患者が、診察を終えてそうつぶやいた。理由は単純で、医師がカルテに目を落とさなくなったからだ。代わりにポケットのスマートフォンが二人の会話を録音し、AI が同時にカルテの下書きを書いていた——医師はただ、患者の目を見ていればよかった。

これは未来の話ではない。Kaiser Permanente(米国最大の医療システムのひとつ)は 2024 年から 2025 年にかけて、ambient AI scribe(環境型 AI 書記)を 1 年で 250 万回以上利用した [16]。診察記録の作成時間として節約された累計は 15,700 時間を超え、医師たちはその時間を「患者と目を合わせる時間」に使った。

世界中の診察室で、AI が「もうひとりの同席者」として座り始めている。今日はその地殻変動を、医師の本音とエビデンスでお伝えしたい。診察室の中で何が起きていて、何が危うくなっていて、日本ではどう向き合おうとしているのか。


何が起きているのか——世界では月 250 万回、AI が医師の隣に座っている

「AI に書かせる」ではなく「AI が聞いている」——ambient AI scribe とは

これまでの医療 AI は、画像診断 AI のように「医師が AI に判定させる」道具だった。だが 2024 年以降に急速に広まったのは、まったく別の使い方だ。

ambient AI scribe(環境型 AI 書記)と呼ばれるそれは、診察室の音声を常時聞き取り、医師と患者の会話そのものを構造化されたカルテ下書きに変える。医師は会話を終えた後、AI が作った下書きを 1 分ほどで校正してサインする。タイピングがほぼ消える。

米国 Microsoft の Dragon Copilot(旧 Nuance DAX Copilot)は、2024 年時点で 400 を超える医療組織に導入され、Northwestern Medicine では医師の 50% 以上が患者対面で使用、記録時間は 24% 減、夜の "pajama time"(自宅で残務を片付ける時間)は 17% 減ったと報告されている。患者 1 人あたり平均 5 分以上の時間が浮き、医師の 77% が記録品質の改善を実感した。

これを RCT(ランダム化比較試験)で検証したのが UCLA Health の Lukac らだ [1]。238 名の外来医師を Microsoft DAX Copilot 群・Nabla 群・通常ケア群に 1 対 1 対 1 でランダム化したこの世界初の ambient AI scribe ピボタル試験は、Nabla 群で記録時間(time-in-note)の有意な削減を示し、両 AI 群でバーンアウト・タスク負荷・work exhaustion の改善傾向を確認した。

バーンアウト 51.9% から 38.8% へ——Olson 2025 の数字

もうひとつ重要な研究が、2025 年 10 月の JAMA Network Open に掲載された Olson らの 6 医療システム共同研究 [2]。Yale New Haven Health を含む 263 名の外来医師・APP(advanced practice provider)に ambient AI scribe を導入した前後で何が変わったかを測ったところ、結果はこうだった。

  • バーンアウト率:51.9% → 38.8%(調整オッズ比 0.26、95%信頼区間 0.13-0.54、p<0.001)
  • 認知タスク負荷:2.64 ポイント改善
  • 診療時間外の記録作業:0.90 時間短縮
  • 患者集中力:2.05 ポイント改善

「医師の 2 人に 1 人が燃え尽きていた職場が、3 人に 1 人になった」。それも 30 日で。AI スクライブは行政負担を減らし、臨床医により意味のある職務と専門的ウェルビーイングのための時間をもたらした、と著者らは結論した。


Ambient AI Scribe 導入後のバーンアウト率変化(51.9% → 38.8%)と補助指標
図 1: Ambient AI Scribe 導入で 30 日後にバーンアウト率が 51.9% から 38.8% へ(調整オッズ比 0.26、p<0.001)。認知負荷・時間外作業・患者集中力も同時に改善。出典: Olson 2025 JAMA Network Open / 6 医療システム 263 名

ChatGPT が患者の質問に医師より共感的だった衝撃

ambient AI scribe より前に世界を揺らした一本の論文がある。2023 年 6 月、JAMA Internal Medicine に掲載された UCSD の Ayers らの研究だ [4]。

研究チームは、Reddit の医療相談コミュニティ r/AskDocs に投稿された患者の質問 195 件を選び、本物の医師の回答と、ChatGPT に同じ質問を投げて得た回答を、評価者に盲検で比較させた。結果は衝撃的だった。

  • 評価者が好んだ回答:ChatGPT 78.6%、医師 21.4%
  • 「品質が良い」以上と判定された割合:ChatGPT が医師の 約 3.6 倍
  • 「共感的」以上と判定された割合:ChatGPT が医師の 約 9.8 倍

なぜ AI のほうが共感的に見えたのか。答えはおそらく「時間」だ。AI には次の患者がいない。長く、丁寧に、患者の不安に寄り添って書ける。医師は 5 分の外来で次の患者が待っている。

Ayers らはこう述べている。「AI アシスタントが医師の患者メッセージ対応をどう改善できるか、探索が必要だ」。実際にその後 Epic(米国最大の電子カルテ)が GPT-4 を MyChart の患者受信箱に統合し、Stanford Medicine の 162 名の医師による QI 研究では、AI が作る下書きの採用率は 20%、医師のバーンアウト・感情的疲労が有意に減ったと報告された。150 を超える組織で月 100 万件以上の下書きが生成されている。

中国でも 35,418 件の外来受付会話を対象とした RCT が Nature Medicine に掲載され、看護師と LLM の協働モデルが受付業務の質を有意に高めた [6]。診察前の「聞き取り」「整理」「伝達」というインターフェース部分に、AI が静かに入り込み始めている。


AI が外来診療フローに入り込む 5 つの接点(問診トリアージ・ambient scribe・要約紹介状・患者メッセージ返信・医学教育)
図 2: AI は診察前・診察中・診察後・患者メッセージ・医学教育の 5 つの接点で外来診療に静かに入り込んでいる

何が危うくなるのか——AI が「便利すぎる」ことの代償

ここまで読むと、AI コパイロットは医師にも患者にも福音にしか見えない。だがエビデンスは、別の顔も同時に映し出している。

内視鏡医の素手のスキルが落ちた——Budzyń 2025 の警鐘

2025 年 8 月の Lancet Gastroenterology & Hepatology に、医療 AI の議論を一変させた観察研究が掲載された。ポーランドの 4 施設で、AI 内視鏡(大腸ポリープを自動検出する CADe)を導入した前後で、医師の "AI を使わない時" のパフォーマンスがどう変わったかを測った Budzyń らの研究だ [8]。

結果は予想外だった。AI 内視鏡に習熟した医師たちが AI を切ったとき、ポリープの検出率(ADR)が 28.4% → 22.4%(p=0.0089) と有意に低下した。「AI に頼って自分の目で探さなくなった」可能性が示唆された。

これは医学界に大きな衝撃を与えた。AI コパイロットは医師の負担を減らす一方で、長期的に医師の臨床判断力を蝕むかもしれない——deskilling と呼ばれるこの現象は、車のオートマ化でドライバーのマニュアル運転能力が落ちたのと構造的に同じだ。

観察研究のため因果関係は確定していない。だが「AI が無くなった日に、医師は素手で患者を救えるか」という問いは、もう避けて通れない。

AI は嘘をつく——hallucination の医療リスク

LLM の最も厄介な性質は、自信たっぷりに嘘をつくことだ。これを hallucination(幻覚)と呼ぶ。

2025 年 5 月の npj Digital Medicine で、英国の Tortus AI と Guy's and St Thomas NHS Trust のチームが、医療要約 LLM の hallucination を分類するエラー taxonomy と臨床安全評価フレームワークを発表した [9]。彼らは LLM が作る診察要約に「存在しない症状の追加」「指示された薬剤の誤記」「数値の入れ替え」といった臨床的に致命的なエラーが一定頻度で混入することを示し、医療機関での導入には系統的な監査が不可欠だと提言した。

JAMA Network Open に掲載された別の SR では、これまでに発表された 137 件の chatbot 健康助言研究のうち、99.3% が使用した LLM のバージョンを開示しておらず、99.3% がプロンプト設計を記述していない [5]。「AI の医療効果を評価する研究」自体が、再現性のない状態で量産されているのが現状だ。

「定量化された労働者」——AI に監視される医師

NEJM の 2025 年の Perspective が、もうひとつの影に光を当てた。診察中の会話が全部 AI 経由でメタデータ化されれば、保険会社・病院経営・規制当局がそれを使って医師を評価できてしまう。診察にかかった時間、患者への共感度、ガイドラインからの逸脱率——「医師は定量化された労働者になる」という警告だ。

さらに npj Digital Medicine の 2025 年ポリシーブリーフは、ambient AI scribe の普及で診療報酬請求のコーディング強度が上昇し、保険会社が downcoding(請求の減額査定)で対抗する「コーディング軍拡競争」が始まっていると分析した。AI が効率化を生むほど、別のところに歪みが移転する。


AI コパイロットの便益と影の対比表(時間短縮・共感性向上・バーンアウト減少 vs 素手のスキル低下・AI の幻覚・医師の監視)
図 3: AI コパイロットの便益(左)と影(右)。便利さは無料ではなく、別の場所に歪みが移転する

日本の今——医師法 17 条という枕木

ここまで世界の話をしてきた。では日本はどうか。

「最終判断は医師」——2018 年通知の重さ

日本には「医師法第 17 条」がある。「医師でなければ医業をなしてはならない」。シンプルな一文だが、これが医療 AI の議論のすべての出発点になっている。

2018 年 12 月 19 日、厚生労働省は「人工知能を用いた診断、治療等の支援を行うプログラムの利用と医師法第 17 条の規定との関係について」という通知を出した [13]。要点はこうだ。

AI を用いた診断・治療支援プログラムは「医師の判断を支援する補助ツール」と位置付け、最終判断の権限と責任は医師に帰属する。AI が単独で診断・治療判断を下すことは医師法 17 条違反となる。

2026 年現在も、生成 AI も LLM も ambient scribe も、すべてこの通知の延長線上で運用されている。「AI が誤った下書きを書いた」も「AI が患者メッセージで誤った回答を作った」も、最終的に承認した医師の責任になる。

これを「制限」と見るか「枕木」と見るかで、AI 導入の風景はまったく変わる。私は枕木だと思っている。最終責任が医師にあるからこそ、医師は AI を「自分の判断を補強する道具」として使える。逆に責任が曖昧なら、医師は AI を信用できず、患者も AI 出力を信用できない。

日本医師会 2026 年答申——「何を学ばせ、何を任せず、誰が責任を負うか」

2025 年 2 月に発足した日本医師会「AI の臨床利用に関する検討委員会」は、5 回の審議を経て、2026 年 4 月に答申「AI に関する臨床的課題と生命倫理について」 を発表した [14]。生産年齢人口減少下で AI を医療生産性向上の手段として位置付けつつ、医師に次のことを求めている。

医師は AI に「何を学ばせ、何を任せず、誰が責任を負うか」を明確化する必要がある。

このフレーズは、これからの 10 年の医療 AI 議論を貫く軸になると私は感じている。「全部 AI に任せる」でも「全部 AI を拒否する」でもない。任せる範囲を医師職が能動的に決め、その決定の説明責任を引き受ける、という立場だ。

日本の実装はどこまで来ているか——EndoBRAIN と Ubie

具体例で見てみよう。

オリンパスと名古屋大学・国立がん研究センターが共同開発した EndoBRAIN シリーズ は、2018 年 12 月に日本で初めて承認された AI 内視鏡医療機器だ [17]。大腸ポリープを自動で鑑別・検出する CADe/CADx で、2024 年 2 月には EndoBRAIN-EYE が診療報酬加算の対象になり、AI 医療機器として日本で初めて「保険の中で稼ぐ」段階に到達した。日本医学放射線学会の AI ソフト認証は 2026 年 4 月時点で 43 製品にまで広がっている。

外来の問診・トリアージ領域では Ubie 生成 AI が走っている [18]。2024 年 5 月の正式リリース以降、わずか半年で全 47 都道府県・1,800 以上の医療機関に導入され、第 3 回日本サービス大賞で厚生労働大臣賞を受賞した。慶應病院や九州大学病院も導入医療機関に名を連ねる。

ただし正直に言えば、日本ではまだ ambient AI scribe 専業実装の大規模ピボタル試験は行われていない(2026 年 5 月時点)。岡山大学病院の山本らが医学生の問診技術向上を AI 模擬患者で検証した非ランダム化比較研究 [11] が、日本発の数少ない臨床エビデンスだ。世界の RCT を読みつつ、日本独自のデータをこれから積み上げる段階にある。

規制マップ:日本 vs FDA vs EU AI Act

国・地域 規制枠組み 状況
日本 医師法 17 条(1948)+ PMDA SaMD 手引き(2025 改訂) AI 認証ソフト 43 製品。最終責任は医師
米国 FDA AI/ML SaMD Action Plan + Predetermined Change Control Plan 1995-2023 年に 690 件超 の機械学習対応医療機器を承認
EU EU AI Act(2024 年 8 月発効) 医療目的 AI は ほぼ全て「高リスク」分類。全面適用 2027 年 8 月
WHO LMM Ethics & Governance Guidance(2024 年 1 月)[15] 40 以上の勧告、5 領域に分類

日本の AI 医療機器承認数は約 60 件と FDA の 10 分の 1 以下にとどまる。これを「遅れ」と捉えるか「慎重さ」と捉えるかは、議論が分かれる。私は、医師法 17 条という基礎を持つ日本が、世界の試行錯誤を後追いで取り入れることでむしろ「安全な実装」に到達できる側にいると見ている。


日本の AI 医療責任ピラミッド(医師法 17 条・PMDA SaMD・学会ガイドライン・組織モニタリング・個別医師の確認)
図 4: 日本の AI 医療責任ピラミッド。最終責任は医師、その下を PMDA SaMD・学会 GL・組織モニタリングが支える

患者として知っておきたいこと——AI が診察室にいる時、あなたは何を確認するか

ここからは、患者として外来に行ったときに知っておいてほしいことを書く。

「AI が同席する」の同意——確認したい 3 つのこと

ambient AI scribe を使う医療機関は今後増えていく。診察前に「AI が会話を録音して下書きを作ります、よろしいですか」と確認される時代が来る。そのとき確認してほしいのは次の 3 点だ。

  1. 録音データの保存と削除のルール——いつまで保存されるのか、診察後に削除を申し出られるか
  2. AI 出力を医師がチェックする工程の有無——「AI の下書きをそのまま使う」か「医師がカルテとして整える」か
  3. 拒否しても診療に支障がないこと——AI 同席の同意は完全に任意であるはずだ

これは新しい同意ではない。診察室の録音や医学生の同席にすでに似た仕組みがある。AI に拒否権を持つことは、患者の正当な権利だ。

AI が書いた紹介状を読むコツ

紹介状や検査結果説明書を AI が下書きする時代がもう始まっている。読むときのコツが 1 つある。「数字が具体的か」を見ること。

「中等度の脂肪肝です」より「FibroScan 8.5 kPa、軽度から中等度の線維化(F1-F2)が疑われます」のほうが、医師が AI の下書きをきちんと校閲した可能性が高い。逆に抽象的な表現ばかりが並んでいたら、医師がろくに見ずにサインした可能性がある——そのときは遠慮なく「これはどういう意味ですか」と聞いてほしい。

JAMA Network Open に掲載された 43 ヵ国 13,806 人の患者を対象とした多国横断研究 [10] では、患者の 72.9% が「医師主導の意思決定」を選好し、70.2% が「説明可能な AI」を求めた。AI が診療に入ることへの治療成果の正確性への信頼は 41.8% にとどまる。患者は AI を拒否しているわけではない。「医師が責任を持って使う AI」を望んでいる。


科学の現在地:わかっていること、まだわからないこと

わかっていること:

  • ambient AI scribe は医師のバーンアウトを統計的に有意に減らす [2]
  • 患者向け AI チャットボットは時に医師より共感的に応答する [4]
  • 大規模医療システムで月 100 万回規模の AI 利用が日常化している [16]

まだわからないこと:

  • 10 年使い続けたとき、医師の臨床判断力に何が起きるか
  • AI 関与医療事故の法的責任の境界線(日本での確定判例なし)
  • 日本人医師・日本人患者に欧米データがそのまま当てはまるか

これから出る答え:

  • 日本での RCT(複数の大学病院で計画中)
  • EU AI Act の本格適用後の規制実例(2027 年 8 月以降)
  • 長期 deskilling のメカニズム解明

おわりに——AI は医師の代替ではなく、医師の余裕の道具である

世界では今、診察室で月 250 万回、AI が医師の隣に座っている。日本の医師法 17 条は「最終責任は医師」と明確に定めている。これは AI 普及のブレーキではなく、AI を安全に育てる枕木である。

患者として知っておきたいのは、AI は医師の代替ではなく、医師の余裕と共感を取り戻す道具だということ。そして、その余裕を何に使うかは、医師の選択次第である。

私自身、医療 AI コンサルティングの現場で経営層と話していると、「AI を入れれば全部解決する」という幻想と「AI を入れれば医師が要らなくなる」という別の幻想の両方に遭遇する。どちらも違う。AI は医師の良心を増幅する道具であって、置き換える道具ではない。診察室で医師があなたの目をしっかり見ているなら、その背景で AI が裏方として働いている可能性は、これからどんどん高まる。

そして、もしあなたの主治医がまだ AI を使っていなくても、それは「遅れている」のではなく「責任の重さを慎重に検討している」ということでもある。日本医師会の 2026 年答申はこう言った——医師は「何を学ばせ、何を任せず、誰が責任を負うか」を明確化する責任を負う、と [14]。

AI が同席する診察室の物語は、まだ始まったばかりだ。

Article Info
引用エビデンスSR/MA ×1RCT ×3Cohort ×5Cross-Sec ×1GL ×7

医学的レビュー日:2026-05-13

1

Ambient AI Scribes in Clinical Practice: A Randomized Trial臨床現場における ambient AI スクライブ:ランダム化試験

Lukac PJ, Schulman-Marcus J, Watson R, et al. · NEJM AI. 2025

UCLA Health の 238 名外来医師による世界初の ambient AI scribe ピボタル RCT。記録時間と燃え尽き改善を実証詳細

2

Use of Ambient AI Scribes to Reduce Administrative Burden and Professional BurnoutAmbient AI スクライブによる事務負担・職業バーンアウト軽減

Olson KD, Spiegel BMR, Khan A, et al. · JAMA Network Open. 2025

6 医療システム 263 医師でバーンアウト 51.9% → 38.8%、調整 OR 0.26 と統計的有意減を確認詳細

3

Ambient AI Scribes: Physician Burnout and Perspectives on Usability and Documentation BurdenAmbient AI スクライブ:医師バーンアウトと使用感・記録負担の評価

Shah SJ, Crowell T, Jeong Y, et al. · Journal of the American Medical Informatics Association. 2025

Stanford Health Care の 48 名 3 ヶ月 pilot でタスク負荷 -24.4 ポイント・バーンアウト改善を報告詳細

4

Comparing Physician and Artificial Intelligence Chatbot Responses to Patient Questions Posted to a Public Social Media Forum公開SNS フォーラム上の患者質問に対する医師と AI チャットボット回答の比較

Ayers JW, Poliak A, Dredze M, et al. · JAMA Internal Medicine. 2023

r/AskDocs の患者質問 195 件で ChatGPT 回答が医師より好まれた率 78.6%、共感性 9.8 倍の衝撃を起こしたランドマーク詳細

5

Large Language Models for Chatbot Health Advice Studies: A Systematic Review健康助言チャットボットとしての大規模言語モデル:システマティックレビュー

Huo B, Boyle A, Marfo N, et al. · JAMA Network Open. 2025

137 件の LLM chatbot 健康助言研究の SR。99.3% がモデル版数を開示せず、Chatbot Assessment Reporting Tool 開発の根拠詳細

6

Outpatient reception via collaboration between nurses and a large language model: a randomized controlled trial看護師と大規模言語モデルの協働による外来受付:ランダム化比較試験

Wan P, Huang Z, Tang W, et al. · Nature Medicine. 2024

中国 10 施設 35,418 件の外来受付会話で nurse + LLM 協働モデルを評価した大規模 RCT、満足度向上と否定的感情低減詳細

7

Evaluation of AI Summaries on Interdisciplinary Understanding of Ophthalmology NotesAI 要約が他科の眼科カルテ理解度に与える影響

Tailor PD, Dalvin LA, Olsen TW, et al. · JAMA Ophthalmology. 2025

眼科 note に LLM 生成「平易要約」を付加した QI-RCT。多診療科の理解度・明瞭度を改善詳細

8

Endoscopist deskilling risk after exposure to artificial intelligence in colonoscopy大腸内視鏡AI暴露後の内視鏡医脱スキル化リスク

Budzyń K, et al. · The Lancet Gastroenterology & Hepatology. 2025

ポーランド 4 施設の観察研究で AI 内視鏡使用医師の素手 ADR が 28.4% → 22.4% に低下、deskilling リスクを世界初に定量化詳細

9

A framework to assess clinical safety and hallucination rates of LLMs for medical text summarisation医療要約 LLM の臨床安全性とハルシネーション率を評価するフレームワーク

Asgari E, Vaidyam A, Khalil A, et al. · npj Digital Medicine. 2025

医療要約 LLM の hallucination エラー taxonomy と臨床安全評価 framework を提案。導入時の系統的監査を必須とする詳細

10

Multinational Attitudes Toward AI in Health Care and Diagnostics Among Hospital Patients病院患者の多国間 AI 医療への態度調査

Busch F, Hoffmann L, Truhn D, et al. · JAMA Network Open. 2025

43 ヵ国 74 病院 13,806 人の患者横断調査。72.9% が医師主導の意思決定を選好、AI への治療成果信頼は 41.8%詳細

11

Enhancing Medical Interview Skills Through AI-Simulated Patient Interactions: Nonrandomized Controlled TrialAI シミュレート患者対話による問診技術の向上:非ランダム化対照試験

Yamamoto A, Koda M, Ogawa H, et al. · JMIR Medical Education. 2024

岡山大学病院の医学生対象に LLM-simulated patient で問診技術向上を実証した日本発の AI 医療教育エビデンス詳細

12

Autonomous AI systems in the face of liability, regulations and costs自律 AI システムの責任・規制・コストへの直面

Saenz AD, Centi A, Ting D, et al. · npj Digital Medicine. 2023

自律 AI システム導入時の医師責任・規制・コストを 3 軸統合論で整理した perspective詳細

13

人工知能(AI)を用いた診断、治療等の支援を行うプログラムの利用と医師法第17条の規定との関係について医師法第 17 条と AI 診療支援プログラムの関係 (医政医発 1219 第 1 号)

厚生労働省 医政局医事課 · 厚生労働省通知. 2018

AI は補助、最終判断と責任は医師に帰属することを明確化した日本の AI 医療議論の出発点詳細

14

AI に関する臨床的課題と生命倫理について (答申)日本医師会 AI 臨床利用に関する検討委員会 答申 (2026 年 4 月)

公益社団法人 日本医師会 AI の臨床利用に関する検討委員会 · 日本医師会 定例記者会見資料. 2026

医師は AI に「何を学ばせ、何を任せず、誰が責任を負うか」を明確化する責任を負うとした 2026 年 4 月の最新公式スタンス詳細

15

Ethics and governance of artificial intelligence for health: Guidance on large multi-modal modelsWHO 医療 AI 倫理・ガバナンスガイダンス:大規模マルチモーダルモデル

World Health Organization · WHO Publication. 2024

WHO 初の生成 AI 特化ガイダンス。40 以上の勧告、医療応用を 5 領域に分類詳細

16

Ambient Artificial Intelligence Scribes: Learnings after 1 Year and over 2.5 Million UsesAmbient AI スクライブ:1 年間・250 万回超使用後の学び (Kaiser Permanente)

The Permanente Medical Group · NEJM Catalyst. 2025

Kaiser Permanente が ambient AI scribe を 1 年で 250 万回超使用、記録時間 15,700 時間以上節約した世界最大規模の実装データ詳細

17

大腸内視鏡画像 AI 診断システム「EndoBRAIN」の承認について日本初承認の大腸内視鏡 AI 「EndoBRAIN」(AMED プレスリリース 2018-12-10)

国立研究開発法人 日本医療研究開発機構 (AMED) · AMED プレスリリース. 2018

オリンパス・名古屋大学・国立がん研究センターが共同開発、日本初承認の AI 内視鏡医療機器。2024 年 2 月に診療報酬加算対象に詳細

18

Ubie 生成 AI 医療機関向けサービスUbie 生成 AI (日本最大の医療機関向け生成 AI、厚生労働大臣賞受賞)

Ubie 株式会社 · Ubie 公式 サービスページ. 2024

2024 年 5 月正式リリース、半年で全 47 都道府県・1,800 以上の医療機関で導入され、第 3 回日本サービス大賞で厚生労働大臣賞を受賞した日本最大の医療機関向け生成 AI詳細

Share
Dr
監修医師
現役医師が最新のエビデンスに基づき、記事の医学的正確性を監修しています。 本サイトの情報は一般的な医学知識の提供を目的としており、個別の診断・治療を行うものではありません。
資格
家庭医療科専門医
臨床経験
10年以上
専門分野
家庭医療・長寿医療・AI×医療
エビデンスベース査読済み文献定期更新

コメント

この記事について気になった点や、追記してほしい内容があればお聞かせください。
管理人も皆さんから学ばせていただいています。

コメントは承認制です。医学的な個別相談への回答は行っておりません。

免責事項:本サイトの情報は医療行為(診断・処方・治療)を提供するものではありません。健康上の判断は必ず医師にご相談ください。