Hầu hết công việc trong công viên gian lận được thực hiện bởi tài khoản ChatGPT.
Bởi Curry, Deep Tide TechFlow
OpenAI đã đưa ra một báo cáo trong hai ngày qua rằng có người đã bị bắt vì làm những điều xấu với ChatGPT.
Báo cáo dài và liệt kê một số lượng lớn các trường hợp lạm dụng AI. Có những người Nga tham gia vào việc tuyên truyền sai sự thật, và có những gián điệp bị tình nghi tham gia vào kỹ thuật xã hội, nhưng tôi muốn nói về một trong những trường hợp ngày hôm nay:
Đĩa giết lợn Campuchia.
Đĩa giết lợn không phải là hiếm, và mọi người đã nghe quá nhiều câu chuyện về các công viên Campuchia. Điều kỳ lạ là vai trò của AI trong đó.
Trong băng đảng lừa đảo này, ChatGPT chịu trách nhiệm yêu nhau, dịch hướng dẫn của người giám sát, viết báo cáo các ngày trong tuần và đánh giá từng nạn nhân.
Trong đĩa giết lợn, thuật ngữ bên trong được gọi là giá trị tiêu diệt, là ước tính về số tiền có thể được vắt kiệt ra khỏi bạn.
Trong toàn bộ dây chuyền lắp ráp, ChatGPT có lẽ là nhân viên bận rộn nhất trong đó.
OpenAI đã đặt cho dự án một tên mã có tên là Operation Date Bait.
Đây là quy trình.
Băng đảng lừa đảo lần đầu tiên tạo ra một dịch vụ hẹn hò cao cấp giả mạo có tên là Klub Romantis, với logo làm bằng ChatGPT. Sau đó, họ đặt quảng cáo trả phí trên phương tiện truyền thông xã hội, với các từ khóa chơi gôn, du thuyền và nhà hàng cao cấp, đặc biệt nhắm mục tiêu đến những người đàn ông trẻ Indonesia.
Bạn nhấp vào quảng cáo và bắt đầu bằng cách nói chuyện với một chatbot AI. Robot giả vờ gợi cảm ở quầy lễ tân, cho phép bạn chọn kiểu cô gái bạn thích và cung cấp cho bạn một liên kết Telegram với mã mời độc quyền.
Khi trên Telegram, những người thực sự bắt đầu tiếp quản.
Nhân viên lễ tân tiếp tục sử dụng ChatGPT để tạo ra các tin nhắn mơ hồ, ngày càng trở nên rõ ràng hơn khi bạn trò chuyện, sau đó hướng bạn đến hai nền tảng hẹn hò giả mạo, một gọi là LoveCode và một gọi là SexAction.
Có rất nhiều thông tin về cô gái giả mạo trên nền tảng và có một thanh thông báo cuộn liên tục phát sóng “Chúc mừng người này và người kia đã hoàn thành nhiệm vụ và mở khóa tiền thưởng”. Tất cả đều được tạo ra và bạn có thể thấy nó trong nháy mắt nếu bạn có kinh nghiệm lướt web, nhưng không phải tất cả các nhóm mục tiêu sẽ không bị lừa.
Cuộc trò chuyện đã được thực hiện và nhân viên lễ tân chuyển bạn đến một “người cố vấn”. Người cố vấn bắt đầu yêu cầu bạn làm “nhiệm vụ”, mỗi nhiệm vụ đều phải tính tiền, và số tiền ngày càng lớn hơn mỗi lần. Mua thẻ VIP, bình chọn cho “cô gái yêu thích”, trả tiền đặt cọc khách sạn và có rất nhiều cái tên.
Bước cuối cùng, chúng được gọi là tiêu diệt nội bộ.
Bịa ra lý do, lỗi xử lý dữ liệu nào, tiền gửi xác minh nào, cho phép bạn chuyển một số tiền lớn cùng một lúc. OpenAI đã bao gồm một lá thư do một băng nhóm lừa đảo gửi cho nạn nhân trong báo cáo, yêu cầu thanh toán 20,5 triệu rupiah, tương đương khoảng 12.000 đô la và nói rằng 35% tiền thưởng sẽ được trả lại sau khi thanh toán.
Khi tiền đến, kẻ lừa đảo trên Telegram sẽ chặn bạn và đưa cho bạn thông báo rằng vụ việc đã được đóng lại.
Nhìn thấy điều này, bạn có thể nghĩ rằng nó không là gì cả.
Bản thân thủ thuật này không phải là mới, và thói quen giết lợn đã được chọn nhiều lần trong những năm gần đây. Điều thực sự khiến mọi người choáng váng là hậu trường.
Các nhà điều tra OpenAI đã tạo ra một kiến trúc doanh nghiệp hoàn chỉnh từ hồ sơ sử dụng của các tài khoản ChatGPT sau:
Công viên gian lận được chia thành ba bộ phận: nhóm thoát nước, nhóm tiếp nhận và nhóm giám sát. Đội thoát nước chịu trách nhiệm quảng cáo và thu hút mọi người, đội lễ tân chịu trách nhiệm trò chuyện để xây dựng lòng tin, đội giám sát chịu trách nhiệm thu hoạch cuối cùng.
Có một tờ báo hàng ngày. Báo cáo hàng ngày liệt kê từng nạn nhân đang được xử lý, bên cạnh ai chịu trách nhiệm, tiến độ đã tiến triển ở đâu và con số:
giá trị tiêu diệt .
Đó là số tiền ước tính của người giám sát có thể được trích xuất từ người này.
Họ cũng sử dụng ChatGPT để phân tích tài khoản tài chính, tạo báo cáo công việc và thậm chí hỏi ChatGPT cách kết nối với API và thay đổi mã của các trang web hẹn hò. Trong trường hợp người giám sát nói tiếng Trung và nhân viên nói tiếng Indonesia, ChatGPT chịu trách nhiệm dịch thuật cho cả hai phía.
Điều buồn cười là một nhân viên gian lận chuyển khoản đã sử dụng ChatGPT để hỏi về thuế sau khi kiếm thu nhập, và chuyên mục nghề nghiệp rất thẳng thắn được lấp đầy bởi những kẻ lừa đảo.
Báo cáo của OpenAI đã bị hạn chế, nói rằng dựa trên hồ sơ đầu vào của chính những kẻ lừa đảo, chúng có thể đang xử lý hàng trăm mục tiêu cùng một lúc, kiếm được hàng nghìn đô la mỗi ngày. Nhưng báo cáo cũng nói rằng không thể xác minh độc lập liệu những con số này có đúng hay không.
Tuy nhiên, tôi nghĩ rằng không cần phải lo lắng về việc các con số có đúng hay không, chỉ cần nhìn vào bộ quy trình quản lý này là đủ:
Thoát nước, chuyển đổi, đơn giá khách hàng, báo cáo hàng ngày, phân công lao động của bộ phận, thay đổi thuật ngữ, bạn nghĩ rằng bạn đang xem hướng dẫn vận hành của một công ty SaaS.
Và yêu, dịch thuật, viết báo hàng ngày, đổi mã, giải quyết tài khoản… Hầu hết công việc trong khuôn viên này được thực hiện bằng tài khoản ChatGPT.
Câu chuyện không kết thúc ở đây.
OpenAI cũng loại bỏ dòng thứ hai trong cùng một báo cáo, có tên mã là Chiến dịch Nhân chứng giả (gian lận thứ cấp của nạn nhân), cũng từ Campuchia.
Dòng này không nhắm vào những người bình thường, mà nhắm vào những người đã bị lừa dối.
Logic rất đơn giản: bạn đã bị đĩa giết lợn lừa tiền, bạn muốn lấy lại nó, bạn nên làm gì nếu bạn tìm kiếm trên Internet.
Sau đó, bạn thấy một quảng cáo nói rằng nó chuyên giúp nạn nhân lừa đảo thu hồi tổn thất của họ. Bạn nhấp vào.
Trang web làm rất nhiều thứ. Một số ảnh luật sư là hình đại diện thật bị đánh cắp từ mạng xã hội, trong khi những bức ảnh khác do AI tạo ra. Mỗi công ty luật đều có địa chỉ, giấy phép và hồ sơ. ChatGPT đã tạo thẻ thành viên cho Hiệp hội Luật sư Bang New York và cũng tạo hồ sơ đăng ký luật sư giả mạo.
OpenAI đã tìm thấy ít nhất sáu công ty luật giả mạo.
Ngoài ra còn có một trang web trực tiếp mạo danh Trung tâm Khiếu nại Tội phạm Internet của FBI. Có một nút “Gửi khiếu nại” trên trang và bạn có thể nhấp vào nút đó để chuyển đến tài khoản Telegram.
Trên Telegram, “luật sư” bắt đầu nói chuyện với bạn. Bài phát biểu được tạo ra bởi ChatGPT và đặc biệt được yêu cầu viết bằng “tiếng Anh Mỹ” với giọng điệu bắt chước giọng điệu của một luật sư chuyên nghiệp. Họ nói với bạn rằng chúng tôi hợp tác với Tòa án Hình sự Quốc tế và không tính phí trước khi thu hồi tiền.
Nhưng bạn phải trả phí dịch vụ 15% để kích hoạt tài khoản và thanh toán bằng tiền điện tử.
Họ cũng cho phép bạn ký thỏa thuận không tiết lộ. Thỏa thuận không tiết lộ này cũng được ChatGPT viết để ngăn bạn xác minh.
FBI sau đó đã đưa ra cảnh báo công khai cụ thể về vụ việc, nói rằng trò lừa đảo chủ yếu nhắm vào người già và lợi dụng sự háo hức của các nạn nhân để thu hồi những tổn thất của họ.
Sau khi đọc hai trường hợp này, tôi nghĩ trong môi trường hiện tại mà AI đã trở thành tiêu chuẩn, đây là nụ cười gượng gạo nhất:
Lần đầu tiên bạn nói dối bạn, bạn là mục tiêu. Lần thứ hai bạn nói dối, bạn là mục tiêu tốt hơn,Bởi vì bạn đã chứng minh rằng bạn sẽ bị lừa.
Cuối cùng, OpenAI đã tóm tắt quá trình gian lận trong ba bước trong báo cáo.
Bước đầu tiên được gọi là ping, cold reach và tìm cách khiến mục tiêu chú ý đến bạn. Bước thứ hai được gọi là zing, tạo ra những cảm xúc khiến bạn phấn khích, phấn khích hoặc sợ hãi. Bước thứ ba được gọi là chích, thu hoạch, lấy tiền.
Khung này được tóm tắt rất tốt, hãy xem xét kỹ hơn, AI không thể làm được bước nào trong ba bước này?
Trong quá khứ, chi phí giết lợn lớn nhất là con người. Bạn phải thuê một phòng người ngồi trước máy tính và trò chuyện, và bạn phải nói ngôn ngữ đích. Công viên Campuchia tuyển người trong những năm đầu, và cũng chọn tiếng Anh tốt, và mức lương cũng cao.
Bây giờ nhìn vào vụ gian lận hẹn hò được đề cập trong báo cáo, người giám sát nói tiếng Trung, nhân viên nói tiếng Indonesia và mục tiêu cũng là người Indonesia. Ba bên không hiểu ngôn ngữ, vì vậy họ không thể làm công việc này trước đây. Thêm một ChatGPT và tất cả đã hoàn thành.
Ngôn ngữ chỉ là một trong những điều đó.
Ngoài ra còn có một chi tiết trong báo cáo rằng kẻ lừa đảo thậm chí còn hỏi ChatGPT cách kết nối với API của OpenAI, cố gắng tự động hóa hoàn toàn phiên trò chuyện.
Nói cách khác, AI không làm cho sự lừa dối trở nên thông minh, lừa dối vẫn là những sự lừa dối đó.AI đang làm cho sự lừa dối trở nên rẻ hơn.
Giờ đây, theo OpenAI, băng đảng này có thể đang đối phó với hàng trăm trường hợp lừa đảo cùng một lúc. Khi quy mô tăng lên, chi phí lao động được chia sẻ bởi một nạn nhân thấp hơn, điều này tự nhiên đánh lừa nhiều người hơn với đơn giá nhỏ hơn.
Có một câu hỏi khác mà tôi nghĩ đáng để suy nghĩ.
OpenAI có thể phát hiện ra điều này vì băng nhóm lừa đảo đã sử dụng ChatGPT và các bản ghi trò chuyện được lưu trữ trên máy chủ của OpenAI.
Còn những người sử dụng các mô hình nguồn mở tại chỗ thì sao?
Những gì báo cáo này có thể trình bày có thể chỉ là một mảnh ghép nhỏ mà OpenAI có thể nhìn thấy. Không ai biết nơi không thể chiếu sáng lớn như thế nào.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Trong trò lừa đảo này, AI chịu trách nhiệm yêu đương và cũng làm giả giấy phép luật sư
Hầu hết công việc trong công viên gian lận được thực hiện bởi tài khoản ChatGPT.
Bởi Curry, Deep Tide TechFlow
OpenAI đã đưa ra một báo cáo trong hai ngày qua rằng có người đã bị bắt vì làm những điều xấu với ChatGPT.
Báo cáo dài và liệt kê một số lượng lớn các trường hợp lạm dụng AI. Có những người Nga tham gia vào việc tuyên truyền sai sự thật, và có những gián điệp bị tình nghi tham gia vào kỹ thuật xã hội, nhưng tôi muốn nói về một trong những trường hợp ngày hôm nay:
Đĩa giết lợn Campuchia.
Đĩa giết lợn không phải là hiếm, và mọi người đã nghe quá nhiều câu chuyện về các công viên Campuchia. Điều kỳ lạ là vai trò của AI trong đó.
Trong băng đảng lừa đảo này, ChatGPT chịu trách nhiệm yêu nhau, dịch hướng dẫn của người giám sát, viết báo cáo các ngày trong tuần và đánh giá từng nạn nhân.
Trong đĩa giết lợn, thuật ngữ bên trong được gọi là giá trị tiêu diệt, là ước tính về số tiền có thể được vắt kiệt ra khỏi bạn.
Trong toàn bộ dây chuyền lắp ráp, ChatGPT có lẽ là nhân viên bận rộn nhất trong đó.
OpenAI đã đặt cho dự án một tên mã có tên là Operation Date Bait.
Đây là quy trình.
Băng đảng lừa đảo lần đầu tiên tạo ra một dịch vụ hẹn hò cao cấp giả mạo có tên là Klub Romantis, với logo làm bằng ChatGPT. Sau đó, họ đặt quảng cáo trả phí trên phương tiện truyền thông xã hội, với các từ khóa chơi gôn, du thuyền và nhà hàng cao cấp, đặc biệt nhắm mục tiêu đến những người đàn ông trẻ Indonesia.
Bạn nhấp vào quảng cáo và bắt đầu bằng cách nói chuyện với một chatbot AI. Robot giả vờ gợi cảm ở quầy lễ tân, cho phép bạn chọn kiểu cô gái bạn thích và cung cấp cho bạn một liên kết Telegram với mã mời độc quyền.
Khi trên Telegram, những người thực sự bắt đầu tiếp quản.
Nhân viên lễ tân tiếp tục sử dụng ChatGPT để tạo ra các tin nhắn mơ hồ, ngày càng trở nên rõ ràng hơn khi bạn trò chuyện, sau đó hướng bạn đến hai nền tảng hẹn hò giả mạo, một gọi là LoveCode và một gọi là SexAction.
Có rất nhiều thông tin về cô gái giả mạo trên nền tảng và có một thanh thông báo cuộn liên tục phát sóng “Chúc mừng người này và người kia đã hoàn thành nhiệm vụ và mở khóa tiền thưởng”. Tất cả đều được tạo ra và bạn có thể thấy nó trong nháy mắt nếu bạn có kinh nghiệm lướt web, nhưng không phải tất cả các nhóm mục tiêu sẽ không bị lừa.
Cuộc trò chuyện đã được thực hiện và nhân viên lễ tân chuyển bạn đến một “người cố vấn”. Người cố vấn bắt đầu yêu cầu bạn làm “nhiệm vụ”, mỗi nhiệm vụ đều phải tính tiền, và số tiền ngày càng lớn hơn mỗi lần. Mua thẻ VIP, bình chọn cho “cô gái yêu thích”, trả tiền đặt cọc khách sạn và có rất nhiều cái tên.
Bước cuối cùng, chúng được gọi là tiêu diệt nội bộ.
Bịa ra lý do, lỗi xử lý dữ liệu nào, tiền gửi xác minh nào, cho phép bạn chuyển một số tiền lớn cùng một lúc. OpenAI đã bao gồm một lá thư do một băng nhóm lừa đảo gửi cho nạn nhân trong báo cáo, yêu cầu thanh toán 20,5 triệu rupiah, tương đương khoảng 12.000 đô la và nói rằng 35% tiền thưởng sẽ được trả lại sau khi thanh toán.
Khi tiền đến, kẻ lừa đảo trên Telegram sẽ chặn bạn và đưa cho bạn thông báo rằng vụ việc đã được đóng lại.
Nhìn thấy điều này, bạn có thể nghĩ rằng nó không là gì cả.
Bản thân thủ thuật này không phải là mới, và thói quen giết lợn đã được chọn nhiều lần trong những năm gần đây. Điều thực sự khiến mọi người choáng váng là hậu trường.
Các nhà điều tra OpenAI đã tạo ra một kiến trúc doanh nghiệp hoàn chỉnh từ hồ sơ sử dụng của các tài khoản ChatGPT sau:
Công viên gian lận được chia thành ba bộ phận: nhóm thoát nước, nhóm tiếp nhận và nhóm giám sát. Đội thoát nước chịu trách nhiệm quảng cáo và thu hút mọi người, đội lễ tân chịu trách nhiệm trò chuyện để xây dựng lòng tin, đội giám sát chịu trách nhiệm thu hoạch cuối cùng.
Có một tờ báo hàng ngày. Báo cáo hàng ngày liệt kê từng nạn nhân đang được xử lý, bên cạnh ai chịu trách nhiệm, tiến độ đã tiến triển ở đâu và con số:
giá trị tiêu diệt .
Đó là số tiền ước tính của người giám sát có thể được trích xuất từ người này.
Họ cũng sử dụng ChatGPT để phân tích tài khoản tài chính, tạo báo cáo công việc và thậm chí hỏi ChatGPT cách kết nối với API và thay đổi mã của các trang web hẹn hò. Trong trường hợp người giám sát nói tiếng Trung và nhân viên nói tiếng Indonesia, ChatGPT chịu trách nhiệm dịch thuật cho cả hai phía.
Điều buồn cười là một nhân viên gian lận chuyển khoản đã sử dụng ChatGPT để hỏi về thuế sau khi kiếm thu nhập, và chuyên mục nghề nghiệp rất thẳng thắn được lấp đầy bởi những kẻ lừa đảo.
Báo cáo của OpenAI đã bị hạn chế, nói rằng dựa trên hồ sơ đầu vào của chính những kẻ lừa đảo, chúng có thể đang xử lý hàng trăm mục tiêu cùng một lúc, kiếm được hàng nghìn đô la mỗi ngày. Nhưng báo cáo cũng nói rằng không thể xác minh độc lập liệu những con số này có đúng hay không.
Tuy nhiên, tôi nghĩ rằng không cần phải lo lắng về việc các con số có đúng hay không, chỉ cần nhìn vào bộ quy trình quản lý này là đủ:
Thoát nước, chuyển đổi, đơn giá khách hàng, báo cáo hàng ngày, phân công lao động của bộ phận, thay đổi thuật ngữ, bạn nghĩ rằng bạn đang xem hướng dẫn vận hành của một công ty SaaS.
Và yêu, dịch thuật, viết báo hàng ngày, đổi mã, giải quyết tài khoản… Hầu hết công việc trong khuôn viên này được thực hiện bằng tài khoản ChatGPT.
Câu chuyện không kết thúc ở đây.
OpenAI cũng loại bỏ dòng thứ hai trong cùng một báo cáo, có tên mã là Chiến dịch Nhân chứng giả (gian lận thứ cấp của nạn nhân), cũng từ Campuchia.
Dòng này không nhắm vào những người bình thường, mà nhắm vào những người đã bị lừa dối.
Logic rất đơn giản: bạn đã bị đĩa giết lợn lừa tiền, bạn muốn lấy lại nó, bạn nên làm gì nếu bạn tìm kiếm trên Internet.
Sau đó, bạn thấy một quảng cáo nói rằng nó chuyên giúp nạn nhân lừa đảo thu hồi tổn thất của họ. Bạn nhấp vào.
Trang web làm rất nhiều thứ. Một số ảnh luật sư là hình đại diện thật bị đánh cắp từ mạng xã hội, trong khi những bức ảnh khác do AI tạo ra. Mỗi công ty luật đều có địa chỉ, giấy phép và hồ sơ. ChatGPT đã tạo thẻ thành viên cho Hiệp hội Luật sư Bang New York và cũng tạo hồ sơ đăng ký luật sư giả mạo.
OpenAI đã tìm thấy ít nhất sáu công ty luật giả mạo.
Ngoài ra còn có một trang web trực tiếp mạo danh Trung tâm Khiếu nại Tội phạm Internet của FBI. Có một nút “Gửi khiếu nại” trên trang và bạn có thể nhấp vào nút đó để chuyển đến tài khoản Telegram.
Trên Telegram, “luật sư” bắt đầu nói chuyện với bạn. Bài phát biểu được tạo ra bởi ChatGPT và đặc biệt được yêu cầu viết bằng “tiếng Anh Mỹ” với giọng điệu bắt chước giọng điệu của một luật sư chuyên nghiệp. Họ nói với bạn rằng chúng tôi hợp tác với Tòa án Hình sự Quốc tế và không tính phí trước khi thu hồi tiền.
Nhưng bạn phải trả phí dịch vụ 15% để kích hoạt tài khoản và thanh toán bằng tiền điện tử.
Họ cũng cho phép bạn ký thỏa thuận không tiết lộ. Thỏa thuận không tiết lộ này cũng được ChatGPT viết để ngăn bạn xác minh.
FBI sau đó đã đưa ra cảnh báo công khai cụ thể về vụ việc, nói rằng trò lừa đảo chủ yếu nhắm vào người già và lợi dụng sự háo hức của các nạn nhân để thu hồi những tổn thất của họ.
Sau khi đọc hai trường hợp này, tôi nghĩ trong môi trường hiện tại mà AI đã trở thành tiêu chuẩn, đây là nụ cười gượng gạo nhất:
Lần đầu tiên bạn nói dối bạn, bạn là mục tiêu. Lần thứ hai bạn nói dối, bạn là mục tiêu tốt hơn,Bởi vì bạn đã chứng minh rằng bạn sẽ bị lừa.
Cuối cùng, OpenAI đã tóm tắt quá trình gian lận trong ba bước trong báo cáo.
Bước đầu tiên được gọi là ping, cold reach và tìm cách khiến mục tiêu chú ý đến bạn. Bước thứ hai được gọi là zing, tạo ra những cảm xúc khiến bạn phấn khích, phấn khích hoặc sợ hãi. Bước thứ ba được gọi là chích, thu hoạch, lấy tiền.
Khung này được tóm tắt rất tốt, hãy xem xét kỹ hơn, AI không thể làm được bước nào trong ba bước này?
Trong quá khứ, chi phí giết lợn lớn nhất là con người. Bạn phải thuê một phòng người ngồi trước máy tính và trò chuyện, và bạn phải nói ngôn ngữ đích. Công viên Campuchia tuyển người trong những năm đầu, và cũng chọn tiếng Anh tốt, và mức lương cũng cao.
Bây giờ nhìn vào vụ gian lận hẹn hò được đề cập trong báo cáo, người giám sát nói tiếng Trung, nhân viên nói tiếng Indonesia và mục tiêu cũng là người Indonesia. Ba bên không hiểu ngôn ngữ, vì vậy họ không thể làm công việc này trước đây. Thêm một ChatGPT và tất cả đã hoàn thành.
Ngôn ngữ chỉ là một trong những điều đó.
Ngoài ra còn có một chi tiết trong báo cáo rằng kẻ lừa đảo thậm chí còn hỏi ChatGPT cách kết nối với API của OpenAI, cố gắng tự động hóa hoàn toàn phiên trò chuyện.
Nói cách khác, AI không làm cho sự lừa dối trở nên thông minh, lừa dối vẫn là những sự lừa dối đó.AI đang làm cho sự lừa dối trở nên rẻ hơn.
Giờ đây, theo OpenAI, băng đảng này có thể đang đối phó với hàng trăm trường hợp lừa đảo cùng một lúc. Khi quy mô tăng lên, chi phí lao động được chia sẻ bởi một nạn nhân thấp hơn, điều này tự nhiên đánh lừa nhiều người hơn với đơn giá nhỏ hơn.
Có một câu hỏi khác mà tôi nghĩ đáng để suy nghĩ.
OpenAI có thể phát hiện ra điều này vì băng nhóm lừa đảo đã sử dụng ChatGPT và các bản ghi trò chuyện được lưu trữ trên máy chủ của OpenAI.
Còn những người sử dụng các mô hình nguồn mở tại chỗ thì sao?
Những gì báo cáo này có thể trình bày có thể chỉ là một mảnh ghép nhỏ mà OpenAI có thể nhìn thấy. Không ai biết nơi không thể chiếu sáng lớn như thế nào.