Vitalik Buterin đã đưa ra một cảnh báo mới về trí tuệ nhân tạo, lần này tập trung ít hơn vào sự thổi phồng và nhiều hơn vào quyền riêng tư. Trong một bài đăng blog mới, đồng sáng lập Ethereum lập luận rằng nhiều công cụ AI được xây dựng dựa trên hạ tầng từ xa có thể truy cập dữ liệu nhạy cảm của người dùng, tạo ra những rủi ro mà đa số người không nhận ra đầy đủ khi họ nhập vào một chatbot, ủy thác một nhiệm vụ hoặc kết nối một dịch vụ bên ngoài. Mối lo, như ông trình bày, không chỉ giới hạn ở một mô hình hay một ứng dụng. Đó là vấn đề mang tính cấu trúc. Hạ tầng AI từ xa tạo ra một bề mặt quyền riêng tư rộng hơn Quan điểm của Buterin khá thẳng thắn. Ngày càng nhiều sản phẩm AI dựa vào hạ tầng nằm ngoài thiết bị của người dùng và ngoài sự kiểm soát của người dùng. Điều đó có nghĩa là các lời nhắc, tệp, chi tiết tài khoản và các mẫu sử dụng đều có thể đi qua các hệ thống có thể lưu trữ, xử lý hoặc tái sử dụng dữ liệu theo những cách mà người dùng chưa từng định. Ông cảnh báo rằng vấn đề không dừng lại ở các mô hình ngôn ngữ lớn. Các dịch vụ bên ngoài được gắn với những hệ thống đó có thể đưa đến các lỗ hổng riêng của chúng, từ các vụ rò rỉ dữ liệu đơn giản đến việc sử dụng trái phép thông tin cá nhân. Nói cách khác, mối nguy không chỉ nằm ở mô hình. Đó là cả chuỗi xung quanh nó. Điều này quan trọng vì AI ngày càng được bán như một lớp trợ lý trên các lĩnh vực tài chính, phần mềm, giao tiếp và danh tính trực tuyến. Càng trở nên hữu ích, nó càng có xu hướng hấp thụ nhiều ngữ cảnh riêng tư hơn. Jailbreak biến AI từ trợ giúp thành một nghĩa vụ rủi ro Buterin cũng chỉ ra các cuộc tấn công jailbreak như một mối đe dọa cụ thể. Những cuộc tấn công này sử dụng các đầu vào từ bên ngoài để thao túng một mô hình nhằm khiến nó hành xử theo những cách đi ngược lại lợi ích của người dùng, qua đó biến một trợ lý thành thứ kém đáng tin cậy hơn và có khả năng gây hại. Cảnh báo đó xuất hiện vào thời điểm các công cụ AI đang tiến gần hơn đến việc thực thi, chứ không chỉ dừng ở hội thoại. Khi các hệ thống này có quyền truy cập vào tin nhắn, ví, tài liệu và các hành động tự động, các sự cố về quyền riêng tư có thể nhanh chóng trở thành các sự cố vận hành. Điều mà Buterin thực sự muốn cảnh báo ở đây là một sự thay đổi về rủi ro. AI không còn chỉ là câu hỏi về năng lực. Nó đang trở thành câu hỏi về ranh giới tin cậy, ai kiểm soát dữ liệu, mô hình chạy ở đâu và điều gì sẽ xảy ra khi ranh giới đó bị thất bại.