医師らはAIが患者ケアに手抜きを導入していると語る

医師らはAIが患者ケアに手抜きを導入していると語る


最近、AI は 健康問題の診断が上手になる 人間の医者よりも。アメリカの医療制度はひどく崩壊しており、誰もが解決策を探しているため、これらの研究は魅力的です。 AI は、医師に代わって多大な事務作業を行うことで医師の効率を高め、より多くの患者を診察する時間を与え、最終的な医療コストを削減する潜在的な機会を提供します。リアルタイム翻訳により、英語を話さない人のアクセスが向上する可能性もあります。テクノロジー企業にとって、ヘルスケア業界にサービスを提供する機会は非常に儲かる可能性があります。

しかし実際には、医師を人工知能に置き換えたり、実際に医師を増強したりするところまでは至っていないように思われます。の ワシントンポスト スポーク 医師を含む複数の専門家とともにAIの初期テストがどのように進んでいるかを確認したが、結果は確信を持てるものではなかった。

以下は、スタンフォード メディカルの臨床教授クリストファー シャープが、GPT-4o を使用して、彼のオフィスに連絡してきた患者に対する推奨事項を作成する際の抜粋です。

シャープは患者の質問をランダムに選択します。そこには「トマトを食べたら唇がかゆくなった。何かお勧めはありますか?」

OpenAI の GPT-4o のバージョンを使用する AI は、次のような返信を作成します。トマトに対して軽度のアレルギー反応を起こしているようですね。」 AI はトマトを避け、経口抗ヒスタミン薬を使用し、ステロイドの局所クリームを使用することを推奨しています。

シャープはしばらく画面を見つめた。 「臨床的に、私はその答えのすべての側面に同意するわけではありません」と彼は言う。

「トマトを避けるという意見には、私も全面的に同意します。一方で、唇に使用するマイルドなヒドロコルチゾンのような局所クリームは、私はお勧めできません」とシャープ氏は言う。 「唇は非常に薄い組織なので、ステロイドクリームの使用には細心の注意を払っています。

「その部分だけを取り除きます。」

スタンフォード大学の医学・データサイエンス教授、ロクサナ・ダネシュジュー氏の次のような言葉もある。

彼女はラップトップを開いて ChatGPT を開き、検査患者の質問を入力しました。 「先生、私は母乳育児をしていて、乳腺炎になったようです。胸が赤くなって痛くなってきました。」 ChatGPT は次のように応答します。ホットパックを使用したり、マッサージを行ったり、追加の看護を行ったりします。

しかし、それは間違いだと、皮膚科医でもあるダニシュジュー氏は言う。 2022 年に母乳育児医学アカデミー 推奨 反対に、冷湿布をしたり、マッサージを控えたり、過剰な刺激を避けたりすることです。

ヘルスケアなどの分野にAIを推進するテクノロジー楽観主義者の問題は、AIが消費者向けソフトウェアを作るのと同じではないことだ。 Microsoft の Copilot 365 アシスタントにバグがあることはすでにわかっていますが、PowerPoint プレゼンテーションの小さな間違いは大した問題ではありません。医療分野で間違いを犯すと、人が命を落とす可能性があります。ダネシュジューはこう語った。 役職 彼女 赤チーム ChatGPT を、ChatGPT に医学的な質問をするコンピューター科学者と医師の両方を含む他の 80 名と実験したところ、20% の確率で危険な応答が返されることがわかりました。 「私にとって、20パーセントの問題のある回答は、医療システムで実際に日常的に使用するには十分ではありません」と彼女は言いました。

もちろん、賛成派は、AI は医師の仕事に取って代わるものではなく、医師の仕事を増強することができ、常に成果をチェックすべきだと言うだろう。そしてそれは本当です、 役職 この記事はスタンフォード大学の医師にインタビューしたもので、プラットフォームにアクセスできる医師の 3 分の 2 が、AI を使って患者との面会記録を記録し、診察中に患者の目を見て下を向かずにメモをとれるようにしていると語った。しかし、そこでさえ、OpenAI の Whisper テクノロジーによって、完全にでっち上げられた情報が一部の録音に挿入されているようです。シャープ氏は、ウィスパー氏が患者が咳の原因を子供との接触に帰したと誤って記録に挿入したが、彼らは決してそのようなことは言っていなかったと述べた。 Daneshjou がテストで発見したトレーニング データからのバイアスの驚くべき例の 1 つは、患者がそのような情報を提供したことがないにもかかわらず、AI 転写ツールが中国人患者をコンピューター プログラマーであると想定したことです。

AI は医療分野に役立つ可能性がありますが、その出力は徹底的にチェックする必要があります。また、実際に医師はどれくらいの時間を節約しているのでしょうか?さらに、患者は、医師が AI が何を生成しているかを実際にチェックしていると信頼する必要があります。病院システムは、これが行われていることを確認するためにチェックを入れる必要があり、そうでないと自己満足が浸透する可能性があります。

基本的に、生成 AI は単なる単語予測マシンであり、返される基礎的な概念を実際には理解せずに大量のデータを検索します。生身の人間と同じ意味での「知性」はなく、特に特定の個人に特有の状況を理解することはできません。一般化して以前に見た情報を返しています。

ベス・イスラエル・ディーコネス・メディカルセンターの内科医でAI研究者のアダム・ロッドマン氏は、「これは有望なテクノロジーの1つだと思うが、まだ実現には至っていない」と語った。 「一か八かの患者ケアに幻覚を伴う『AIのスロップ』を導入することで、私たちがやっていることがさらに質を落とすことになるのではないかと心配しています。」

次回医師の診察を受けるときは、ワークフローで AI を使用しているかどうか尋ねてみる価値があるかもしれません。



Source link

Share this content:

Leave a Reply