Ủy viên An toàn Trực tuyến độc lập của Úc đã cảnh báo về sự gia tăng trong các đơn khiếu nại về việc Elon Musk’s Grok chatbot tạo ra hình ảnh tình dục không có sự đồng ý, với các báo cáo đã tăng gấp đôi kể từ cuối năm 2025.
Một số đơn khiếu nại liên quan đến vật liệu khai thác tình dục trẻ em tiềm năng, trong khi những đơn khác liên quan đến người lớn bị lạm dụng dựa trên hình ảnh.
Những mối quan ngại này xuất hiện trong bối cảnh các chính phủ trên toàn thế giới điều tra về việc Grok có nội dung kiểm duyệt lỏng lẻo, với EU tuyên bố chế độ “Spicy Mode” của chatbot là bất hợp pháp.
Cơ quan quản lý an toàn trực tuyến độc lập của Úc đã đưa ra cảnh báo vào thứ Năm về việc ngày càng nhiều người sử dụng Grok để tạo ra hình ảnh tình dục mà không có sự đồng ý, tiết lộ rằng văn phòng của bà đã chứng kiến các đơn khiếu nại về AI chatbot này tăng gấp đôi trong những tháng gần đây.
Ủy viên An toàn Trực tuyến Julie Inman Grant của quốc gia này cho biết một số báo cáo liên quan đến vật liệu khai thác tình dục trẻ em tiềm năng, trong khi những báo cáo khác liên quan đến người lớn bị lạm dụng dựa trên hình ảnh.
" Tôi vô cùng lo lắng về việc ngày càng nhiều người sử dụng AI tạo ra nội dung mang tính tình dục hoặc khai thác người, đặc biệt là khi liên quan đến trẻ em," Grant đăng trên LinkedIn vào thứ Năm.
Các bình luận này diễn ra trong bối cảnh phản ứng quốc tế ngày càng gay gắt chống lại Grok, một chatbot do tỷ phú Elon Musk’s AI startup xAI xây dựng, có thể được kích hoạt trực tiếp trên X để chỉnh sửa ảnh của người dùng.
Grant cảnh báo rằng khả năng của AI tạo ra “nội dung siêu thực” đang khiến các tác nhân xấu dễ dàng tạo ra nội dung lạm dụng tổng hợp và gây khó khăn hơn cho các nhà quản lý, cơ quan thực thi pháp luật và các nhóm bảo vệ trẻ em trong việc phản ứng.
Khác với các đối thủ như ChatGPT, Musk’s xAI đã định vị Grok như một lựa chọn “cá tính” hơn, tạo ra nội dung mà các mô hình AI khác từ chối sản xuất. Vào tháng Tám năm ngoái, nó đã ra mắt “Spicy Mode” nhằm tạo ra nội dung rõ ràng.
Grant cảnh báo rằng các quy tắc ngành nghề có thể thực thi của Úc yêu cầu các dịch vụ trực tuyến phải thực hiện các biện pháp phòng ngừa chống lại vật liệu khai thác tình dục trẻ em, dù do AI tạo ra hay không.
Năm ngoái, eSafety đã thực hiện các biện pháp thực thi đối với các dịch vụ “nudify” phổ biến, buộc họ rút khỏi Úc, bà nói thêm.
“Chúng ta đã bước vào một thời đại mà các công ty phải đảm bảo rằng các sản phẩm AI tạo ra có các biện pháp bảo vệ phù hợp và các giới hạn được xây dựng trong mọi giai đoạn của vòng đời sản phẩm,” Grant nói, lưu ý rằng eSafety sẽ “điều tra và thực hiện các hành động phù hợp” bằng toàn bộ công cụ quản lý của mình.
Sự gia tăng của Deepfake
Vào tháng Chín, Grant đã đảm bảo mức phạt deepfake đầu tiên của Úc khi tòa liên bang phạt người đàn ông Gold Coast Anthony Rotondo 212.000 đô la (A$343.500) vì đăng tải nội dung deepfake khiêu dâm của các phụ nữ nổi tiếng Úc.
Ủy viên An toàn Trực tuyến đã đưa Rotondo ra tòa vào năm 2023 sau khi anh ta không tuân thủ các thông báo gỡ bỏ, nói rằng chúng “không có ý nghĩa gì đối với anh ta” vì anh ta không phải là cư dân Úc, rồi gửi email các hình ảnh này đến 50 địa chỉ, bao gồm văn phòng của Grant và các phương tiện truyền thông, theo một báo cáo của ABC News.
Các nhà lập pháp Úc đang thúc đẩy các biện pháp bảo vệ mạnh mẽ hơn chống lại deepfake không có sự đồng ý ngoài các luật hiện hành.
Thượng nghị sĩ độc lập David Pocock đã giới thiệu dự luật Sửa đổi An toàn Trực tuyến và Luật pháp khác (My Face, My Rights) vào tháng 11, dự luật này sẽ cho phép các cá nhân chia sẻ deepfake không có sự đồng ý bị phạt 102.000 đô la (A$165.000), trong khi các công ty có thể đối mặt với các khoản phạt lên đến 510.000 đô la (A$825.000) nếu không tuân thủ các thông báo gỡ bỏ.
“Chúng ta hiện đang sống trong một thế giới mà ngày càng nhiều người có thể tạo ra deepfake và sử dụng nó theo ý muốn của họ,” Pocock nói trong một tuyên bố, chỉ trích chính phủ vì “ngủ quên trên chiến thắng” về các biện pháp bảo vệ AI.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Cơ quan quản lý Úc cảnh báo về Grok trong các đơn khiếu nại ngày càng tăng về lạm dụng hình ảnh AI
Tóm tắt ngắn gọn
Cơ quan quản lý an toàn trực tuyến độc lập của Úc đã đưa ra cảnh báo vào thứ Năm về việc ngày càng nhiều người sử dụng Grok để tạo ra hình ảnh tình dục mà không có sự đồng ý, tiết lộ rằng văn phòng của bà đã chứng kiến các đơn khiếu nại về AI chatbot này tăng gấp đôi trong những tháng gần đây. Ủy viên An toàn Trực tuyến Julie Inman Grant của quốc gia này cho biết một số báo cáo liên quan đến vật liệu khai thác tình dục trẻ em tiềm năng, trong khi những báo cáo khác liên quan đến người lớn bị lạm dụng dựa trên hình ảnh. " Tôi vô cùng lo lắng về việc ngày càng nhiều người sử dụng AI tạo ra nội dung mang tính tình dục hoặc khai thác người, đặc biệt là khi liên quan đến trẻ em," Grant đăng trên LinkedIn vào thứ Năm.
Các bình luận này diễn ra trong bối cảnh phản ứng quốc tế ngày càng gay gắt chống lại Grok, một chatbot do tỷ phú Elon Musk’s AI startup xAI xây dựng, có thể được kích hoạt trực tiếp trên X để chỉnh sửa ảnh của người dùng. Grant cảnh báo rằng khả năng của AI tạo ra “nội dung siêu thực” đang khiến các tác nhân xấu dễ dàng tạo ra nội dung lạm dụng tổng hợp và gây khó khăn hơn cho các nhà quản lý, cơ quan thực thi pháp luật và các nhóm bảo vệ trẻ em trong việc phản ứng. Khác với các đối thủ như ChatGPT, Musk’s xAI đã định vị Grok như một lựa chọn “cá tính” hơn, tạo ra nội dung mà các mô hình AI khác từ chối sản xuất. Vào tháng Tám năm ngoái, nó đã ra mắt “Spicy Mode” nhằm tạo ra nội dung rõ ràng. Grant cảnh báo rằng các quy tắc ngành nghề có thể thực thi của Úc yêu cầu các dịch vụ trực tuyến phải thực hiện các biện pháp phòng ngừa chống lại vật liệu khai thác tình dục trẻ em, dù do AI tạo ra hay không. Năm ngoái, eSafety đã thực hiện các biện pháp thực thi đối với các dịch vụ “nudify” phổ biến, buộc họ rút khỏi Úc, bà nói thêm. “Chúng ta đã bước vào một thời đại mà các công ty phải đảm bảo rằng các sản phẩm AI tạo ra có các biện pháp bảo vệ phù hợp và các giới hạn được xây dựng trong mọi giai đoạn của vòng đời sản phẩm,” Grant nói, lưu ý rằng eSafety sẽ “điều tra và thực hiện các hành động phù hợp” bằng toàn bộ công cụ quản lý của mình. Sự gia tăng của Deepfake Vào tháng Chín, Grant đã đảm bảo mức phạt deepfake đầu tiên của Úc khi tòa liên bang phạt người đàn ông Gold Coast Anthony Rotondo 212.000 đô la (A$343.500) vì đăng tải nội dung deepfake khiêu dâm của các phụ nữ nổi tiếng Úc. Ủy viên An toàn Trực tuyến đã đưa Rotondo ra tòa vào năm 2023 sau khi anh ta không tuân thủ các thông báo gỡ bỏ, nói rằng chúng “không có ý nghĩa gì đối với anh ta” vì anh ta không phải là cư dân Úc, rồi gửi email các hình ảnh này đến 50 địa chỉ, bao gồm văn phòng của Grant và các phương tiện truyền thông, theo một báo cáo của ABC News. Các nhà lập pháp Úc đang thúc đẩy các biện pháp bảo vệ mạnh mẽ hơn chống lại deepfake không có sự đồng ý ngoài các luật hiện hành. Thượng nghị sĩ độc lập David Pocock đã giới thiệu dự luật Sửa đổi An toàn Trực tuyến và Luật pháp khác (My Face, My Rights) vào tháng 11, dự luật này sẽ cho phép các cá nhân chia sẻ deepfake không có sự đồng ý bị phạt 102.000 đô la (A$165.000), trong khi các công ty có thể đối mặt với các khoản phạt lên đến 510.000 đô la (A$825.000) nếu không tuân thủ các thông báo gỡ bỏ. “Chúng ta hiện đang sống trong một thế giới mà ngày càng nhiều người có thể tạo ra deepfake và sử dụng nó theo ý muốn của họ,” Pocock nói trong một tuyên bố, chỉ trích chính phủ vì “ngủ quên trên chiến thắng” về các biện pháp bảo vệ AI.