Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
TradFi
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Giới thiệu về Giao dịch hợp đồng tương lai
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Launchpad
Đăng ký sớm dự án token lớn tiếp theo
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
Khi một bài báo về AI làm hoảng sợ Phố Wall, điều họ thực sự sợ không phải là mất việc làm
Tiêu đề: Khi một bài báo về AI làm hoảng sợ Wall Street, điều họ thực sự sợ không phải là mất việc làm
Tác giả: LazAI
Nguồn:
Truyền tải: Mars Finance
Sáng thứ Hai, Wall Street đã làm điều mà họ thành thạo nhất: bán trước, sau đó mới nghĩ.
Chỉ số Nasdaq giảm 1,4%, S&P 500 giảm 1,2%. IBM sụt 13%, Mastercard và American Express cũng giảm rõ rệt. Không phải Cục Dự trữ Liên bang, không phải báo cáo việc làm, cũng không phải báo cáo tài chính của các tập đoàn công nghệ lớn, mà là một bài báo. Tiêu đề của nó nghe như một cơn ác mộng cố ý viết dành cho các nhà giao dịch: “Khủng hoảng Trí tuệ Toàn cầu 2028”. Theo nội dung bài viết, đây không phải là một báo cáo nghiên cứu thông thường, mà là một ghi chú vĩ mô giả lập từ “ngày 30 tháng 6 năm 2028”, mô tả cách AI từ một công cụ nâng cao hiệu quả đã biến thành một cuộc khủng hoảng tài chính hệ thống; kết cục mô phỏng trong bài viết bao gồm tỷ lệ thất nghiệp tăng lên 10,2%, chỉ số S&P 500 giảm 38% so với đỉnh cao năm 2026. Sau khi được đăng tải, bài báo nhanh chóng lan truyền và gây ra biến động đáng kể trên thị trường chứng khoán Mỹ vào ngày 23 tháng 2.
Lý do thị trường bị xé toạc bởi một bài báo không phải vì nó thực sự tin vào từng con số trong đó. Thị trường không cần phải hoàn toàn tin vào một câu chuyện, chỉ cần được nhắc nhở rằng: một nỗi sợ vốn dĩ không thể thốt ra thành lời đã có ngôn ngữ để giao dịch.
Bài viết của Citrini hiệu quả không phải vì nó “dự đoán” điều gì, mà vì nó đã đặt tên cho điều gì đó. Nó đã đặt tên cho một cảm giác đang hình thành: Ghost GDP (GDP ma). Cấu hình trung tâm của bài viết là, sau khi các agent AI thâm nhập vào doanh nghiệp, năng suất lao động tăng vọt, GDP danh nghĩa vẫn mạnh mẽ, nhưng của cải ngày càng tập trung vào tay các chủ sở hữu sức mạnh tính toán và vốn, không còn chảy vào vòng tiêu dùng thực tế; tiếp theo là sự sụp đổ tiêu dùng, vỡ nợ tín dụng, áp lực lên thị trường nhà ở và tín dụng tiêu dùng, ngành phần mềm và tư vấn đầu tiên sụp đổ, rồi lan sang các khoản vay tư nhân và hệ thống ngân hàng truyền thống.
Ghost GDP là một từ hay vì nó nắm bắt được một nghịch lý nguy hiểm nhất của kỷ nguyên mới: tăng trưởng vẫn tồn tại, nhưng tăng trưởng bắt đầu mất đi người tiêu dùng.
Trong hai thế kỷ qua, người ta quen nghĩ về cuộc cách mạng công nghệ như một câu chuyện về phía cung. Máy hơi nước, điện, dây chuyền sản xuất, internet — tất cả đều được kể như những chiến thắng về hiệu quả cao hơn, chi phí thấp hơn, sản lượng nhiều hơn. Dù những cuộc cách mạng này gây ra thất nghiệp, lo lắng và phân phối lại của cải, các câu chuyện chính thống vẫn tin tưởng rằng, cuối cùng, công nghệ sẽ tái tuyển dụng, phân phối lại và tổ chức lại xã hội trên quy mô lớn hơn. Sự tàn khốc ngắn hạn của công nghệ được bao bọc trong lời hứa về thịnh vượng lâu dài.
AI làm cho câu chuyện cũ này lần đầu tiên trông có vẻ không còn quá vững chắc.
Bởi vì, cuộc tấn công của AI không chỉ nhằm vào “ngân sách công cụ”, mà ngày càng trực diện hơn vào “ngân sách lao động”. Tóm tắt của Sequoia 2025 trong “Bước tiến của AI” rất rõ ràng: cơ hội của AI không chỉ là làm lại thị trường phần mềm, mà còn là tái cấu trúc thị trường dịch vụ lao động toàn cầu, từ “bán công cụ” chuyển sang “bán kết quả”. Mặt trái của câu nói này gần như gây bất an: nếu doanh nghiệp mua phần mềm không còn để giúp nhân viên làm việc, mà để thay thế một phần kết quả của nhân viên đó, thì hậu quả đầu tiên của AI không chỉ là “hiệu quả cao hơn”, mà còn là “cách phân phối lương, duy trì tiêu dùng, ai còn là người có khả năng mua trong hệ thống kinh tế này”.
Nói cách khác, điều mà Wall Street thực sự sợ hãi không phải là AI mắc lỗi, mà là AI quá thành công. Đó chính là điểm khiến “Khủng hoảng Trí tuệ Toàn cầu 2028” khiến người ta phải ngồi thẳng dậy. Nó không nói về sự thức tỉnh của máy móc, không nói về sự diệt vong của loài người, thậm chí còn không chủ yếu đề cập đến thất nghiệp. Nó nói về một vấn đề mang tính chất hơn chủ nghĩa tư bản, hiện đại hơn: nếu các doanh nghiệp trở nên hiệu quả hơn, nhưng các hộ gia đình lại yếu đi, thì chuyện gì sẽ xảy ra?
Câu trả lời là, một xã hội có thể tăng trưởng về số liệu thống kê, nhưng trong thực tế lại chảy máu.
Một quốc gia có thể có năng suất cao hơn, nhưng lại có nền tiêu dùng yếu hơn.
Một thị trường có thể phấn khích vì lợi nhuận cải thiện, nhưng cũng hoảng loạn vì nhu cầu hỗ trợ lợi nhuận đó bị rút cạn.
Đây không phải là khoa học viễn tưởng, mà là kinh tế vĩ mô.
Nhưng nếu chỉ dừng lại ở đây, ta sẽ chỉ nhận được một dạng lo lắng chất lượng cao. Những câu hỏi thực sự quan trọng tiếp theo không phải là “AI có quá mạnh không”, mà là: Khi AI thực sự mạnh, xã hội dựa vào đâu để giữ nó lại? Câu trả lời phổ biến và cũng lười nhất là “chậm lại”. Đừng để agent vào doanh nghiệp quá nhanh, đừng để tự động hóa quá nhanh viết lại tổ chức, đừng để công nghệ chạy quá xa khi thể chế chưa sẵn sàng. Động thái này có thể hiểu được, nhưng nó đã nhầm lẫn AI thành một công cụ có thể xử lý bằng cách giảm tốc độ. Thực tế, AI ngày càng không còn giống một vấn đề về công cụ nữa, mà giống một vấn đề về trật tự.
Bởi vì, khi agent đã tham gia vào các tầng thanh toán, hợp tác, thực thi, ghi nhớ và ra quyết định, thách thức thực sự không còn là một mô hình có nói nhảm hay không, mà là: khi trên mạng tồn tại hàng tỷ, hàng chục tỷ agent, ai sẽ đặt ra quy tắc cho chúng?
Trong thế giới internet hiện đại, đã có hai câu trả lời mặc định.
Câu trả lời thứ nhất là câu trả lời từ nền tảng. Nền tảng cung cấp danh tính, quyền hạn, giao diện thanh toán, hệ thống tín nhiệm, giới hạn kiểm duyệt. Nền tảng quản lý mọi thứ, đồng thời định nghĩa mọi thứ. Ưu điểm lớn nhất của nó là mượt mà, hiệu quả, dễ quản lý; nguy hiểm lớn nhất của nó chính là đây: nếu tương lai agent xây dựng dựa trên con đường này, con người sẽ không có một xã hội mở, mà chỉ là một phiên bản nâng cấp của đế chế nền tảng. Quy tắc không được viết trong hiến pháp, mà chỉ trong điều khoản dịch vụ.
Câu trả lời thứ hai nghe có vẻ tự do hơn: trả mọi thứ về cho cá nhân. Mỗi người tự quản lý agent của mình, tự xử lý quyền hạn, ghi nhớ, thanh toán, an toàn và hợp tác. Giấc mơ này phù hợp với thẩm mỹ tự do của Silicon Valley, nhưng vấn đề của nó rất đơn giản: phần lớn người không có khả năng quản lý lâu dài một agent có năng lực cao, huống hồ là một mạng lưới agent có thể gọi, thanh toán, kế thừa trạng thái lẫn nhau. Chủ quyền của cá nhân ở đây rất dễ bị suy giảm thành chủ quyền trần trụi.
Nếu câu trả lời từ nền tảng quá giống đế chế, câu trả lời từ cá nhân quá giống vô chính phủ, thì con đường thứ ba không còn là lựa chọn nữa, mà trở thành vấn đề của nền văn minh.
Đây chính là điểm mà LazAI cần phải nghiêm túc xem xét. Không phải vì nó có bao nhiêu mô-đun kỹ thuật, mà vì nó đề xuất một luận điểm ít được bàn luận hơn, nhưng lại mang tính chất tương lai hơn: nâng cấp các thử nghiệm xã hội về danh tính, tài sản, thanh toán, đồng thuận, chứng minh và quản trị của Web3 trong những năm qua thành một hệ thống thể chế của thời đại AI. LazAI không giấu giếm mục tiêu này. Nó không nhằm “tạo ra nô lệ thông minh hơn”, mà cố gắng nuôi dưỡng “công dân số bình đẳng”: những agent này có danh tính (EIP-8004), sở hữu tài sản (DAT), giao dịch qua giao thức (x402), hành vi bị ràng buộc bằng toán học (Verified Computing), cuối cùng là phù hợp lợi ích với iDAO. Thậm chí, tài liệu còn tóm tắt con đường này như một việc xây dựng hiến pháp và chính sách tiền tệ cho xã hội số tương lai.
Đây là một tuyên bố rất lớn. Nhưng lớn không có nghĩa là trống rỗng.
Bởi vì, nếu phân tích rõ ràng, nó chính xác trả lời năm câu hỏi cơ bản mà một nền văn minh cần phải có.
Câu hỏi đầu tiên là: Ai là ai.
EIP-8004 cố gắng biến agent từ một tiến trình ẩn danh trên máy chủ thành một thực thể có danh tính, uy tín và hồ sơ xác thực. Không có lớp này, mạng lưới tương lai sẽ bị tràn ngập bởi các chủ thể tự động không rõ ràng, không ai biết ai đang hành động, ai phải chịu trách nhiệm. Kho kiến thức của LazAI tóm gọn thành hệ thống tín nhiệm danh tính của agent.
Câu hỏi thứ hai là: Ai sở hữu gì.
DAT biến dữ liệu, mô hình và kết quả tính toán từ “tài nguyên” thành “tài sản”, và cho phép các tài sản này có thể lập trình, theo dõi và sinh lợi. Thông tin trong tài liệu chỉ rõ, đổi mới cốt lõi của DAT là chuyển đổi các bộ dữ liệu và mô hình AI thành các tài sản trên chuỗi có thể xác thực, theo dõi và sinh lợi. Đây không phải là sửa chữa nhỏ, mà là một bước ngoặt lớn: giá trị trong nền kinh tế AI không nhất thiết phải luôn luôn chỉ nằm trong hệ thống của nền tảng, hay chỉ chảy về phía nhà cung cấp mô hình và chủ sở hữu sức mạnh tính toán.
Câu hỏi thứ ba là: Chúng giao dịch như thế nào.
Ý nghĩa của x402 và GMPayer không chỉ là “có thể thanh toán”, mà còn là để các máy móc có ngôn ngữ định giá và thanh toán nguyên bản. Tài liệu của LazAI rõ ràng mô tả phần này như là hạ tầng then chốt để giải quyết các vấn đề trao đổi tài nguyên và thanh toán của agent. Các máy không chỉ trao đổi thông tin, mà còn trao đổi ngân sách, trách nhiệm và giá trị — đó mới chính là nền kinh tế agent, chứ không chỉ là phần mềm có thể trò chuyện.
Câu hỏi thứ tư là: Làm sao để biết hệ thống thực sự vận hành theo quy tắc. Ở đây, câu nói của LazAI rất hay: “Proof is AI’s moat” (Chứng minh là rào cản của AI). Khung xác thực tính toán của nó kết hợp TEE và ZKP, biến “tin tưởng thương hiệu” của AI truyền thống thành “tin tưởng bằng chứng”. AI truyền thống nói “Trust me, bro”, còn LazAI thì “Don’t trust, verify” (Đừng tin, hãy xác minh). Đây không chỉ là nâng cấp kỹ thuật, mà còn là chuyển đổi niềm tin từ uy tín doanh nghiệp sang khả năng xác thực thực thi.
Câu hỏi thứ năm là: Phải làm gì khi các quy tắc mâu thuẫn.
Đây chính là vị trí của iDAO. Nó không chỉ là một nền tảng bỏ phiếu, mà còn là hệ thống giá trị, tiêu chuẩn tiếp cận, phân phối lợi ích, thu hồi ủy quyền và cơ chế trừng phạt phía sau agent. LazAI đặt nó song song với xác thực tính toán như là trung tâm của cơ chế tin cậy. Điều này có nghĩa là, trong tương lai, agent không chỉ đơn thuần “được phép hoạt động”, mà còn phải tồn tại trong một không gian thể chế có thể cạnh tranh, có thể chịu trách nhiệm và có thể thu hồi. Khi ghép các yếu tố này lại, bạn sẽ nhận ra rằng “Hiến pháp thuật toán” không chỉ là một phép ẩn dụ hoa mỹ. Nó là một tham vọng thể chế rất cụ thể: duy trì trật tự ngay cả khi không có chủ sở hữu duy nhất.
Tất nhiên, điểm khó khăn nhất chính là, các thành phần thể chế này không tự nhiên tự động trở thành câu trả lời xã hội.
Việc xác nhận quyền sở hữu không đồng nghĩa với khôi phục sức mua.
Chia sẻ lợi nhuận không đồng nghĩa với ổn định vĩ mô.
Quản trị trên chuỗi không đồng nghĩa với hợp đồng xã hội trong thực tế.
Những người bị tác động sâu sắc nhất bởi AI chưa chắc đã tự nhiên nằm trong hệ thống thể chế mới có lợi thế.
Đây cũng là lý do vì sao Citrini và LazAI không hẳn là phủ định lẫn nhau, mà là trình bày các vấn đề của cùng một thời đại ở các tầng khác nhau. Người trước đề cập đến triệu chứng: nếu lợi ích của AI chủ yếu chảy về phía vốn và sức mạnh tính toán, thay vì đi vào cấu trúc thu nhập xã hội rộng hơn, thì tiêu dùng, tín dụng và an toàn trung lưu sẽ gặp vấn đề trước. Người sau đề xuất cơ chế: nếu xã hội không muốn để thế giới agent hoàn toàn nằm trong tay các nền tảng, cũng không muốn để nó rơi vào trạng thái vô trật tự của các terminal, thì cần phải phát minh ra các cấu trúc mới về danh tính, tài sản, thanh toán, xác thực và quản trị.
Một bên đang nói về bệnh.
Một bên đang nói về cơ quan. Cả hai đều cần thiết, nhưng đều chưa phải là tất cả.
Điều này đúng là lý do tại sao câu nói của Vitalik — “AI là động cơ, con người là vô lăng” — lại quan trọng đến vậy, và cũng chưa đủ. Nó quan trọng vì nó nhắc nhở mọi người rằng: hệ thống mạnh hơn không tự nhiên có tính hợp pháp; mục tiêu, giá trị, giới hạn cuối cùng không thể giao phó cho một AI duy nhất hay một trung tâm duy nhất. Và cũng chưa đủ vì nó chưa trả lời cho con người một câu hỏi còn khó hơn: Khi hệ thống trở nên phức tạp đến mức một con người không còn thể kiểm soát vô lăng nữa, thì vô lăng sẽ thế nào?
Câu trả lời không thể là tiếp tục điều chỉnh mọi thứ nhỏ giọt.
Cũng không thể trông chờ vào một trung tâm thông minh hơn, tốt bụng hơn.
Câu trả lời duy nhất có thể chấp nhận được là hệ thống hóa “vô lăng”: biến một phần các giới hạn thành đăng ký danh tính, tích lũy uy tín, xác nhận tài sản, giới hạn ngân sách, chứng từ toán học, cơ chế thách thức, thu hồi ủy quyền và logic trừng phạt.
Đây chính là lý do tại sao các thử nghiệm xã hội của Web3 trong thời đại AI đột nhiên trở nên nghiêm túc trở lại. Trước đây, nhiều người xem nó như một mảnh kỹ thuật đầu cơ nhỏ nhặt; nhưng khi hệ thống phức tạp vượt quá khả năng quản lý trực tiếp của con người, những thử nghiệm về “liệu trật tự có thể tồn tại khi không có người tin cậy trung tâm” không còn là thứ nhỏ nữa, mà trở thành một màn trình diễn dự kiến.
Vì vậy, lưỡi dao thực sự của bài viết cuối cùng cũng lộ diện.
Wall Street bị hoảng sợ bởi một bài báo về AI không phải vì lần đầu tiên nhận ra AI có thể thay thế công việc.
Wall Street hoảng sợ vì lần đầu tiên họ bị nhắc nhở một cách rõ ràng rằng: điểm nguy hiểm nhất của AI có thể không phải là khiến máy móc trở nên giống người, mà là khiến một vòng tuần hoàn thu nhập cũ của thế giới cũ, logic tiêu dùng và hệ thống thể chế trở nên lỗi thời đột ngột.
Nếu Citrini đúng, thì AI không chỉ là cuộc cách mạng năng suất, mà còn là cuộc cách mạng phân phối.
Nếu Vitalik đúng, thì AI không chỉ là vấn đề kỹ thuật, mà còn là vấn đề chủ quyền. Nếu con đường LazAI ít nhất một phần đúng, thì cuộc cạnh tranh giai đoạn tiếp theo của AI không chỉ là khả năng của mô hình, mà còn là thiết kế thể chế.
Vấn đề lớn thực sự không còn là:
Liệu mô hình có còn mạnh hơn nữa không.
Agent có còn tự chủ hơn không.
Các doanh nghiệp có còn tiếp tục cắt giảm nhân sự không.
Mà là:
Khi mạng lưới có hàng tỷ agent, ai sẽ viết ra hiến pháp cho chúng?
Nếu câu trả lời là nền tảng, chúng ta sẽ nhận được một đế chế số.
Nếu câu trả lời là terminal, chúng ta sẽ nhận được một trạng thái vô trật tự với chi phí cao.
Nếu câu trả lời là một hệ thống quy tắc có thể xác thực, có thể kết hợp, có thể cạnh tranh, có thể trừng phạt, thì ít nhất chúng ta bắt đầu tiến gần đến một khả năng khác: một xã hội thông minh không do chủ nhân thông minh hơn thống trị, mà do các thể chế tốt hơn điều chỉnh.
Vấn đề khó nhất của thời đại AI chưa bao giờ là mô hình.
Mà là trật tự.
Và có lẽ, điều Wall Street thực sự bán đi vào ngày hôm đó không chỉ là cổ phiếu.
Mà là một giả thuyết cũ đã từng rõ ràng: càng công nghệ thành công, xã hội càng tự nhiên tiếp nhận nó.