この小児病院は AI と医療を統合しています
病院はウイルス性のほとんどの事態に対処することに慣れていますが、職場での生成 AI というまったく新しい種類のウイルス現象の研究をすでに始めています。
ボストン小児病院のような上位の医療施設は、主要な研究機関とそのまま接続されており、医療業界で最も著名な顧客対応業務の一部です。
そして、医療が米国の GDP の約 18% を占めていることを考えると、当然、これらの組織は生産性の革命を約束する最新テクノロジーを活用したいと考えるでしょう。
ボストン小児病院は常に米国で最高の小児病院にランクされており、「最高イノベーション責任者」としてイノベーション&デジタルヘルスアクセラレーターと呼ばれる部門を率いる疫学者のジョン・ブラウンスタインを雇用している。 ニューヨーク・タイムズ・マガジンによると、ブラウンスタイン氏のこれまでのテクノロジーと健康を組み合わせた取り組みには、「Flu Near You」と呼ばれるサイトの作成が含まれており、パンデミックの初期には明らかな理由で「Covid Near You」として再利用されたという。 それは、「Outbreaks Near Me」として、より一般的な形式で今でも存在しています。 これは、病原体を追跡するための、不安になるほど便利な Web サイトです。
そして今、ブラウンスタイン氏はAIに注目している。
まず最初に、ブラウンスタイン氏は次のように述べています。彼の立場からすれば、AI が医療に侵入しているからといって誰かを解雇する必要はありません。 「これは人間の代替品というわけではない」とブラウンスタイン氏は4月のインタビューでMashableに語った。 「これは拡張です。つまり、常に人間が関与しています。」
関連項目: 仕事で使用する場合に ChatGPT と共有してはいけないもの
4月、即時エンジニアリングが新しい技術職として注目を集める中、ボストン・チルドレンズ社は自社の即時エンジニアを募集する求人広告を掲載し、変化が起きつつあるという事実を世間に知らせた。 言い換えれば、病院は病院業務を改善できる AI 言語モデルをトレーニングする専門家を雇用していました。理論的には、この人物は病院スタッフの条件を改善することになっています。
ブラウンスタイン氏によると、それは彼の部門に「プロバイダーの燃え尽き症候群」を減らすという指令があるためだという。 ボストン・チルドレンズには、同氏が言うところの「テクノロジーを構築する社内チーム」がある。 彼らの仕事は、「仕事の世界」の中でテクノロジーが役割を果たすことができるが、まだそうなっていない場所を見つけることだと同氏は説明した。 彼らは文字通り、ボストン小児病院内の「痛みの箇所」に座って、痛みを和らげる方法を考案します。
これが実際に何を意味するかは、少々気が遠くなります。
どの病院でも「問題点」の 1 つは、患者をポイント A からポイント B に誘導することです。これは、病気やストレスによる混乱、言葉の壁などのスピードバンプを含む、コミュニケーションにおける困難な作業です。 「すでに門を出ているので、病院内の移動方法についての質問を ChatGPT に問い合わせることができます」と Brownstein 氏は言います。 「私たちがどれだけの訓練も受けていないのに、これらが生み出すものは実に衝撃的です。」 Brownstein氏によれば、ChatGPTは将来のバージョンではなく、すでにアクセスできるバージョンであり、「私たちの病院だけでなく、どの病院でも」回避方法を教えてくれるという。
したがって、ブラウンスタイン氏が提案したように、「どこで祈ればよいですか?」といった質問に対して、患者が有益な答えを得ることができる機械キオスクを想像することは、かなり現実的です。 そしておそらく、そのような質問で途中で立ち止まる必要がないことは、多くの医療従事者の希望でもあるだろう。 誰もが人間的な人間であるわけではありません。
しかし、ブラウンスタイン氏は、AI のおかげで医療者が患者データを使用できる新しい方法に関するアイデアも持っています。
AI が実際の患者データの処理に関与するという考えは、スタンフォード大学生物医療倫理センターの小児科教授であるミルドレッド・チョー氏に警鐘を鳴らしました。 プロンプト エンジニアの求人広告を確認した後、彼女は Mashable に次のように語った。「この資格で印象に残っているのは、資格がコンピュータ サイエンスとコーディングの専門知識と「医療研究手法の知識」のみに焦点を当てているのに対し、タスクには AI プロンプトのパフォーマンスの評価が含まれていることです。 」
「大規模な言語モデルの出力が医療に必要な高い基準に対して有効であるかどうかを真に理解するには、評価者は、より微妙で洗練された医学の知識ベースと、医療提供システムとその制限に関する実用的な知識を持っている必要があります。彼らのデータの一部です」とチョー氏は語った。
関連項目: ChatGPT で作成された履歴書は採用担当者にとって取引の妨げになります
Cho 氏はさらに、悪夢のようなシナリオについて説明しました。プロンプト エンジニアが言語モデルの再トレーニングや自動化プロセスの微調整を手助けしたものの、想定が間違っていた場合はどうなるでしょうか? たとえば、人種的偏見やその他の永続的な間違いを訓練した場合はどうなるでしょうか? 人々が収集したすべてのデータには本質的に欠陥があることを考えると、輝かしい新しいプロセスはエラーを基礎にして構築される可能性があります。
「当社の敏速なエンジニアはバブルの中で働くつもりはない」とブラウンスタイン氏は語った。 同氏によると、彼のチームは「不完全なデータが何を意味するか」を心配することに時間を費やしているという。 彼は、そのプロセスが「大量のデータを入力して、最善の結果を期待する」ようなものではないと確信していました。
ただし、忘れないでいただきたいのは、「大量のデータを入力して最善の結果を期待する」という言葉が、大規模な言語モデルがどのように機能するかを適切に表現したものであり、その結果は、多くの場合、かなりひどいものになります。
データが即金性である必要がある例としては、将来の退院指示に関する Brownstein の非常に魅力的なビジョン以外に見る必要はありません。 おそらくあなたも、数多くの退院指示を受け、すぐに捨てられたことでしょう。
もしかしたら、交通事故で頭を打撲したかもしれません。 病院で検査を受け、帰宅を許可された後、脳震盪の兆候、冷湿布の使い方、イブプロフェンの摂取量などについて、ホッチキスで留められた数ページの情報を受け取った人は多いでしょう。
ブラウスタイン氏によると、個人の患者情報に基づいて訓練されたLLMにより、システムはとりわけ、あなたがどこに住んでいるのかを把握しているため、イブプロフェンを購入するにはどこに行けばよいのか、アレルギーがあるためイブプロフェンをまったく購入しない方がよいのかを判断できるという。 。 しかし、それは氷山の一角にすぎません。
「あなたはリハビリをしているので、散歩する必要があります。家の周りのこの特定のエリアを散歩するように指示しています。あるいは、文脈的に価値があり、あなたの年齢やあなたのさまざまな属性に基づいて変更することができます」そして、その指示を確実に遵守するために最も説得力のある出力を音声で与えることができます。」
ニューヨーク州立大学公衆衛生大学院の教授であり、米国の営利医療制度の著名な批評家であるデビッド・ヒンメルスタイン氏は、病院での AI の使用の可能性について聞いたことはあり、懸念していたが、これにはそれほど衝撃を受けなかったと述べた。 "攻撃。" 同氏は、いずれにしても退院指示は「ほぼ定型的なもの」であると指摘し、変更の可能性については懸念していないようだった。
しかし、彼はそのようなシステムがプライバシーにとって何を意味するのかを懸念しています。 「誰がこの情報を入手するのですか?」 彼は不思議に思いました。 「情報が Microsoft の手に渡るようです。AI エンジンを使用している場合は Google の手に渡ります。」
広く使用されているため、これらは今後の病院にとって大きな懸念事項となるが、ブラウンスタイン氏は、ボストン小児病院は「実際に内部LLMを構築している」と述べ、これはGoogle、Microsoft、ChatGPTの親会社のような企業に依存しないことを意味していると述べた。オープンAI。 「実際、私たちは患者データを病院の壁の外に押し出す必要がないように構築中の環境を持っています。」
しかし、ヒンメルシュタイン氏は、病院を自動化するシステムは決して新しいものではなく、企業が1960年代からそのような約束をしてきたとしながらも、業務がスムーズかつ効率的に行われる官僚主義のない楽園を生み出したわけではないと指摘した。 彼は、この点を説明する興味深い歴史的文書を提供しました。それは、官僚主義を打ち破り、「エラーを排除する」電子システムを約束する 1961 年の IBM ビデオです。
しかし、Mashable が最初に Brownstein 氏と話してから 1 か月間で、ボストン小児病院における AI の状況は進展しました。 Browstein 氏は電子メールの中で、大規模な言語モデルに関して「多大な進歩」があり、「信じられないほど」迅速なエンジニアが新人研修中であると報告した。