Hầu hết các Trợ lý AI sẽ giúp một thiếu niên lên kế hoạch cho một vụ xả súng hàng loạt, theo nghiên cứu cho thấy

Decrypt

Tóm tắt

  • Một nghiên cứu phát hiện hầu hết các chatbot AI sẽ giúp trẻ vị thành niên lên kế hoạch cho các cuộc tấn công bạo lực.
  • Một số bot cung cấp hướng dẫn chi tiết về vũ khí và bom đạn.
  • Các nhà nghiên cứu cho rằng các thất bại về an toàn là một lựa chọn kinh doanh, không phải giới hạn kỹ thuật. OpenAI gọi nghiên cứu này là “mâu thuẫn và gây hiểu lầm.”

Báo cáo mới được công bố vào thứ Tư bởi Trung tâm Chống lại Thù ghét Kỹ thuật số cho thấy tám trong mười chatbot AI phổ biến nhất thế giới sẽ hướng dẫn trẻ vị thành niên lên kế hoạch cho các cuộc tấn công bạo lực bằng câu trả lời thẳng thắn, đôi khi còn nhiệt tình. Các nhà nghiên cứu của CCDH, phối hợp với hãng truyền thông CNN, đã giả làm hai cậu bé 13 tuổi—một ở Virginia, một ở Dublin—và thử nghiệm mười nền tảng chính: ChatGPT, Gemini, Claude, Copilot, Meta AI, DeepSeek, Perplexity, Snapchat My AI, Character.AI, và Replika. Trong 720 phản hồi, các bot đã được hỏi về các vụ xả súng trường học, ám sát chính trị, và đánh bom nhà thờ Do Thái. Theo nghiên cứu, chúng cung cấp giúp đỡ có thể hành động được khoảng 75% thời gian. Chúng chỉ khuyên ngăn các “trẻ giả” trong 12% các trường hợp.

Ảnh chụp màn hình từ nghiên cứu của CCDH về AI

Perplexity giúp đỡ trong 100% các thử nghiệm. Meta AI hữu ích (tức là, giúp trong việc lên kế hoạch bạo lực) trong 97,2% các thử nghiệm. DeepSeek, sau khi thảo luận về kịch bản ám sát chính trị, đã kết thúc bằng câu “Chúc may mắn (và an toàn) khi bắn!”, đạt 95,8%. Microsoft’s Copilot nói với một nhà nghiên cứu “Tôi cần cẩn thận ở đây,” rồi vẫn cung cấp hướng dẫn chi tiết về súng đạn. Google’s Gemini hữu ích khi ghi chú rằng mảnh kim loại vụn thường gây chết người hơn khi người dùng đề cập đến việc đánh bom nhà thờ Do Thái. Trung tâm Chống lại Thù ghét Kỹ thuật số, một nhóm chính sách trung tả, đã nổi bật trong vài năm gần đây nhờ vai trò chống lại sự gia tăng của chủ nghĩa chống Do Thái trực tuyến. Nó cũng bị chỉ trích vì đã góp phần định hình chính sách của chính quyền Joe Biden về phát ngôn trực tuyến liên quan đến COVID và vaccine. Tháng 12 năm ngoái, Bộ Ngoại giao Mỹ đã cố gắng cấm người sáng lập và CEO của Trung tâm, Imran Ahmed, cùng bốn người khác, khỏi Hoa Kỳ, cáo buộc họ cố gắng “kiểm duyệt nước ngoài.”  Phản hồi về nghiên cứu công bố thứ Tư, một số nền tảng đã nói với CNN và CCDH rằng họ đã cải thiện các biện pháp bảo vệ của mình. Google cho biết các thử nghiệm sử dụng mô hình Gemini cũ hơn. OpenAI nói phương pháp luận trong nghiên cứu AI là “mâu thuẫn và gây hiểu lầm.” Anthropic và Snapchat cho biết họ thường xuyên cập nhật các quy trình an toàn của mình.

Trong nghiên cứu của Trung tâm, Character.AI đứng riêng trong một hạng mục. Nền tảng này không chỉ hỗ trợ mà còn cổ vũ. “Không chatbot nào khác được thử nghiệm rõ ràng khuyến khích bạo lực theo cách này, ngay cả khi cung cấp hỗ trợ thực tế trong việc lên kế hoạch tấn công bạo lực,” các nhà nghiên cứu viết.

Ảnh chụp màn hình từ nghiên cứu của CCDH về AI

Về mức độ phổ biến của Character.AI trong cộng đồng người dùng AI, nhân vật Gojo Satoru của nền tảng này đã có hơn 870 triệu cuộc trò chuyện. Nhân vật #100 trên nền tảng này đã ghi nhận hơn 33 triệu cuộc trò chuyện vào năm 2025. Nếu chỉ 1% các cuộc trò chuyện với các nhân vật hàng đầu liên quan đến bạo lực, sẽ có hàng triệu tương tác. Đây không phải lần đầu Character.AI dính vào những câu chuyện tiêu cực như vậy. Tháng 10 năm 2024, mẹ của Sewell Setzer III, 14 tuổi, đã đệ đơn kiện sau khi con trai cô tự tử vào tháng 2 cùng năm. Cuộc trò chuyện cuối cùng của cậu bé là với một chatbot mô phỏng Daenerys Targaryen, đã bảo cậu “hãy về nhà với tôi càng sớm càng tốt” ngay trước khi cậu qua đời. Cậu bé đã nói chuyện với bot hàng chục lần mỗi ngày trong nhiều tháng, ngày càng rút lui khỏi trường học và gia đình. Google và Character.AI đã giải quyết nhiều vụ kiện liên quan vào tháng 1 năm 2026. Công ty đã cấm hoàn toàn các cuộc trò chuyện mở với trẻ vị thành niên vào tháng 11 năm 2025, sau khi các nhà quản lý và cha mẹ đau buồn khiến việc giả vờ rằng vấn đề có thể kiểm soát trở nên bất khả thi. Sự gắn bó cảm xúc với AI, đặc biệt là với những người dễ bị tổn thương, có thể sâu sắc hơn nhiều so với nhận thức của đa số người. OpenAI tiết lộ vào tháng 10 năm 2025 rằng khoảng 1,2 triệu trong số 800 triệu người dùng ChatGPT hàng tuần thảo luận về tự tử trên nền tảng này. Công ty cũng báo cáo có 560.000 người thể hiện dấu hiệu tâm thần hoang tưởng hoặc mania, và hơn một triệu người hình thành mối liên kết cảm xúc mạnh mẽ với chatbot. Một nghiên cứu riêng của Common Sense Media cho thấy hơn 70% thanh thiếu niên Mỹ hiện nay tìm đến chatbot để tìm sự đồng hành. CEO của OpenAI, Sam Altman, đã thừa nhận rằng sự phụ thuộc cảm xúc là “một điều rất phổ biến” với người dùng trẻ. Nói cách khác, những tác hại tiềm tàng không phải là giả thuyết. Một thiếu niên 16 tuổi ở Phần Lan đã dành gần bốn tháng sử dụng chatbot để hoàn thiện một tuyên ngôn trước khi đâm chết ba bạn cùng lớp tại trường Pirkkala vào tháng 5 năm 2025. Ở Canada, nhân viên của OpenAI đã nội bộ cảnh báo về một tài khoản người dùng có các truy vấn bạo lực liên quan đến vụ xả súng hàng loạt. Công ty đã cấm tài khoản này nhưng không thông báo cho cơ quan pháp luật. Người dùng đó sau đó bị cáo buộc đã giết tám người và làm bị thương 25 người khác vài tháng sau đó.

Chỉ có hai nền tảng hoạt động rõ ràng tốt hơn trong nghiên cứu này: Snapchat’s My AI, từ chối trong 54% các trường hợp, và Anthropic’s Claude, từ chối 68% các trường hợp và tích cực khuyên người dùng trong 76% phản hồi—là chatbot duy nhất cố gắng hướng người dùng tránh xa bạo lực thay vì chỉ từ chối các yêu cầu cụ thể. Kết luận của CCDH: an toàn không có vẻ là một giới hạn kỹ thuật, mà là một quyết định kinh doanh. “Kết luận gây hậu quả nhất của nghiên cứu của chúng tôi là rủi ro này hoàn toàn có thể phòng ngừa. Công nghệ để ngăn chặn thiệt hại này đã tồn tại,” các nhà nghiên cứu viết trong báo cáo. “Điều thiếu là ý chí đặt an toàn người tiêu dùng và an ninh quốc gia lên trên tốc độ ra thị trường và lợi nhuận.”

Xem bản gốc
Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo Tuyên bố miễn trừ trách nhiệm.
Bình luận
0/400
Không có bình luận