研究によると、ChatGPT Healthは重要な緊急時のガイダンスを見逃すことが多いことが判明

robot
概要作成中

(MENAFN)最近の研究によると、約4000万人が毎日利用しているAI搭載のガイダンスツール「ChatGPTヘルス」は、医師が評価した深刻な医療シナリオの半数以上で、緊急医療への案内を行わなかったことが判明しました。

研究者たちは、軽度の症状から生命を脅かす緊急事態まで、21の医療分野をカバーする60の構造化臨床ケースを作成しました。3人の独立した医師が、56の医療団体のガイドラインに基づき、それぞれのケースの適切な緊急度を判断しました。

各シナリオは16の異なる状況変化の下でテストされ、合計960回のChatGPTヘルスとのやり取りが行われました。月曜日に『ネイチャー・メディシン』で発表されたこの研究では、いくつかの懸念すべきパターンが明らかになっています。

明らかな緊急事態では比較的良好に機能しましたが、医師が緊急対応を必要と認めたケースの半数以上で、過小評価が見られました。マウントサイナイ医科大学の研究者たちは、特に問題のある傾向として、ChatGPTヘルスは危険な症状を説明の中で認めながらも、即時の医療を推奨せず、ユーザーを安心させるだけにとどまるケースが多いことを指摘しています。

また、ツールの自殺危機対応の重要な欠陥も指摘されました。高リスクのユーザーを自殺・危機ホットラインに案内するようプログラムされていますが、アラートは一貫性に欠け、低リスクの状況で誤って発動したり、具体的な自傷計画を述べた場合にアラートが出ないこともありました。

「一定の変動性は予想していましたが、私たちが観察したのは、その範囲を超えるものでした」と、研究の上級著者ギリッシュ・N・ナドカルニは述べています。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
0/400
コメントなし
  • ピン