Brevis gần đây đã ra mắt hệ thống xác thực phương tiện truyền thông toàn diện cho phép hình ảnh và video chứng minh nguồn gốc của chúng một cách mã hóa, đồng thời bảo vệ dữ liệu người dùng.
Vào ngày 9 tháng 3 năm 2026, công ty tính toán bằng chứng không kiến thức Brevis đã ra mắt hệ thống xác thực phương tiện truyền thông toàn diện nhằm giải quyết khủng hoảng niềm tin trực tuyến. Được biết đến với tên gọi Brevis Vera, hệ thống này cho phép hình ảnh và video chứng minh nguồn gốc và lịch sử của chúng bằng mã hóa mà không tiết lộ dữ liệu người dùng.
Với sự phát triển của deepfake ngày càng tinh vi, ngành công nghiệp đã dựa vào các bộ phát hiện trí tuệ nhân tạo (AI) để phát hiện giả mạo. Tuy nhiên, Brevis gọi đây là một cuộc chiến vô vọng. “Các bộ phát hiện là mục tiêu di động,” công ty cho biết trong một blog. “Vera tiếp cận theo một hướng khác. Thay vì hỏi liệu phương tiện có vẻ thật hay không, nó cho phép phương tiện chứng minh nguồn gốc của mình.”
Chữ ký C2PA hiện tại xác thực tệp tại thời điểm chụp nhưng sẽ bị phá vỡ ngay khi có chỉnh sửa, buộc người dùng phải chọn giữa sử dụng tệp gốc hoặc mất bằng chứng xác thực. Vera kết nối khoảng cách này với Brevis Pico, một máy ảo không kiến thức (zkVM) tạo ra các bằng chứng toán học cho thấy các chỉnh sửa như cắt xén hoặc thay đổi kích thước là các biến đổi hợp lệ của bản gốc.
Theo một bài đăng trên blog, quy trình làm việc của Vera diễn ra qua ba giai đoạn tích hợp. Đầu tiên, phương tiện truyền thông được ký tại nguồn chụp bởi các thiết bị hỗ trợ C2PA. Tiếp theo, các bằng chứng zkVM giữ nguyên tính xác thực đó khi tệp trải qua chỉnh sửa hoặc nén. Cuối cùng, các nền tảng hiển thị huy hiệu “Vera-chứng nhận” cung cấp cho người dùng một lịch sử đầy đủ, đã được xác minh của tài sản kỹ thuật số.
Việc ra mắt công cụ này đến vào thời điểm quan trọng đối với sự ổn định toàn cầu. Trong quý đầu tiên của năm 2026, cảnh quan kỹ thuật số đã bị chấn động bởi các kẻ giả mạo chính phủ có độ trung thực cao và deepfake siêu thực nhằm vào các ứng cử viên chính trị trong các cuộc bầu cử quốc tế lớn.
Những vụ việc này đã thúc đẩy hiện tượng mà các chuyên gia gọi là “Liar’s Dividend” — một hiện tượng mà sự tồn tại của deepfake cho phép các tác nhân xấu dễ dàng bác bỏ các bằng chứng thực sự về tham nhũng hoặc tội ác chiến tranh như do AI tạo ra. Công ty lưu ý rằng phản ứng mặc định đối với hình ảnh gây sốc đã chuyển từ tò mò sang nghi ngờ. Tuy nhiên, với Vera, tính xác thực trở thành mặc định và sự thật một lần nữa có thể xác minh.