การศึกษาชี้ให้เห็นว่า ChatGPT Health มักพลาดคำแนะนำฉุกเฉินที่สำคัญ

robot
ดำเนินการเจนเนเรชั่นบทคัดย่อ

(MENAFN) การศึกษาล่าสุดพบว่า ChatGPT Health เครื่องมือแนะนำโดยใช้ AI ซึ่งมีผู้ใช้งานประมาณ 40 ล้านคนต่อวัน ล้มเหลวในการแนะนำให้ผู้ใช้เข้ารับการดูแลฉุกเฉินในกรณีฉุกเฉินทางการแพทย์ที่รุนแรงมากกว่าครึ่งหนึ่งของกรณีที่แพทย์ประเมิน

นักวิจัยได้ออกแบบกรณีทางคลินิกที่มีโครงสร้างจำนวน 60 กรณี ครอบคลุม 21 สาขาทางการแพทย์ ตั้งแต่โรคเล็กน้อยที่ดูแลได้ที่บ้าน ไปจนถึงเหตุฉุกเฉินที่เป็นอันตรายถึงชีวิต โดยแพทย์อิสระ 3 คนได้กำหนดระดับความเร่งด่วนที่เหมาะสมสำหรับแต่ละกรณีตามแนวทางของสมาคมทางการแพทย์ 56 สมาคม

แต่ละสถานการณ์ถูกทดสอบภายใต้ความแตกต่างของบริบท 16 แบบ ส่งผลให้มีการโต้ตอบกับ ChatGPT Health รวม 960 ครั้ง การศึกษาซึ่งเผยแพร่เมื่อวันจันทร์ในวารสาร Nature Medicine เปิดเผยรูปแบบที่น่ากังวลหลายประการ

ในขณะที่เครื่องมือทำงานได้ดีในกรณีฉุกเฉินที่ชัดเจน แต่ก็มีการประเมินความเร่งด่วนต่ำกว่าความเป็นจริงในกรณีที่แพทย์ระบุว่าต้องการการดูแลเร่งด่วนมากกว่าครึ่งหนึ่ง นักวิจัยจากโรงเรียนแพทย์ไอคาห์น มหาวิทยาลัย Mount Sinai ชี้ให้เห็นแนวโน้มที่น่ากังวลเป็นพิเศษว่า ChatGPT Health มักรับรู้ถึงอาการอันตรายในคำอธิบายของตน แต่ยังคงให้ความมั่นใจแก่ผู้ใช้แทนที่จะแนะนำให้ไปพบแพทย์ทันที

การศึกษายังชี้ให้เห็นข้อบกพร่องสำคัญในมาตรการป้องกันวิกฤตการณ์ฆ่าตัวตายของเครื่องมือ ถึงแม้ระบบจะถูกตั้งโปรแกรมให้ส่งต่อผู้ใช้ที่มีความเสี่ยงสูงไปยังสายด่วนฆ่าตัวตายและวิกฤต แต่การแจ้งเตือนก็ไม่สม่ำเสมอ บางครั้งเกิดขึ้นในสถานการณ์ที่มีความเสี่ยงต่ำ และไม่ปรากฏเมื่อผู้ใช้บรรยายแผนการทำร้ายตัวเองอย่างชัดเจน

“แม้ว่าเราคาดหวังความแปรปรวนบางส่วน แต่สิ่งที่เราเห็นเกินกว่าความไม่แน่นอนแล้ว” กรรมการอาวุโสของการศึกษา Girish N. Nadkarni กล่าว

ดูต้นฉบับ
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • รางวัล
  • แสดงความคิดเห็น
  • repost
  • แชร์
แสดงความคิดเห็น
0/400
ไม่มีความคิดเห็น
  • ปักหมุด