OpenAIのChatGPTヘルスプッシュがデータセキュリティに関する疑問を提起

要約

  • OpenAIは、ChatGPT Healthが今週から選ばれたユーザーに展開され、今後数週間でより広範なアクセスが計画されていると発表しました。
  • この機能は健康に関する会話を他のチャットとは別に保存し、OpenAIのモデルの訓練には使用しません。
  • プライバシー擁護者は、AIツールと共有される健康データは米国の医療プライバシー法の対象外となることが多いと警告しています。

水曜日、OpenAIはChatGPTに新機能を発表し、ユーザーが医療記録やウェルネスデータを接続できるようになりました。これにより、一部の専門家や擁護団体は個人データの使用について懸念を示しています。 サンフランシスコ、カリフォルニア州に本拠を置くAI大手は、このツールをChatGPT Healthと呼び、医師と共同で開発されたもので、診断や治療ではなくケアを支援することを目的としています。同社はこれを、ユーザーが自分の健康状態をより良く理解する手助けとなる方法として位置付けています。 多くのユーザーにとって、ChatGPTはすでに医療やメンタルヘルスに関する質問のための主要なプラットフォームとなっています。 

OpenAIは_decrypt_に対し、ChatGPT Healthは一般的な「事実に基づく健康情報」のみを共有し、「個別化されたまたは危険な医療アドバイス」を提供しないと述べました。 リスクの高い質問については、概要レベルの情報を提供し、潜在的なリスクを指摘し、利用者に対して自分の状況を理解している薬剤師や医療提供者と相談するよう促します。 この動きは、同社が10月に報告した、毎週100万人以上のユーザーがチャットボットと自殺について話しているという事実の直後に行われました。これは当時のChatGPTユーザーの約0.15%に相当します。 これらの数字は全体のユーザーベースの中では比較的小さな割合ですが、専門家はほとんどのユーザーがセキュリティやデータプライバシーの懸念に対処する必要があると指摘しています。

「企業がプライバシー保護策を備えていると主張しても、消費者はしばしば自分のデータの使用、保持、再利用について意味のある同意や透明性、コントロールを持っていません」と、Public Citizenのビッグテック責任追及活動家J.B. Branchは_decrypt_に語りました。「健康データは特に敏感であり、明確な法的制限や執行可能な監督なしでは、自己規制の保護策だけでは人々を誤用や再識別、下流の害から守ることはできません。」 OpenAIは声明の中で、ChatGPT Healthの健康データはデフォルトで暗号化されており、他のチャットとは別に保存され、基盤モデルの訓練には使用されないと述べました。 Center for Democracy and Technologyの上級政策顧問Andrew Crawfordによると、多くのユーザーは、健康データの敏感さに基づいて保護されていると誤解していますが、実際には誰が保持しているかによって異なると指摘しています。 「あなたの健康データが医師や保険会社によって保持されている場合、HIPAAのプライバシールールが適用されます」とCrawfordは_decrypt_に語りました。「しかし、健康アプリやウェアラブル健康トラッカー、AI企業などの非HIPAA対象の団体には適用されません。」 Crawfordは、ChatGPT Healthの開始は、技術企業が保持する健康データを管理する包括的な連邦プライバシー法が存在しない中で、責任の負担が消費者にかかることを強調しています。 「私たちの現行の連邦法や規制は、日常的に使用する技術がどのようにデータを扱い、共有しているかについて、個々の消費者が安心できるかどうかを分析する責任を個人に押し付けているのは残念です」と彼は述べました。 OpenAIは、ChatGPT Healthは最初に少人数のユーザーに展開されると述べました。 ウェイティングリストは欧州連合や英国以外のChatGPTユーザーに開放されており、今後数週間でウェブとiOSでより広範なアクセスが計画されています。OpenAIの発表では、GoogleやAndroidデバイスについては言及されていません。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
0/400
コメントなし
  • ピン