Ainda se lembra daquela liquidação de DeFi que quebrou tudo? À primeira vista parece uma mudança repentina de mercado, mas na realidade? Os dados de preço chegaram com alguns segundos de atraso, e a liquidação foi acionada assim. Ou então, se já jogou jogos na blockchain, sente que aquele "número aleatório" parece mais um roteiro escrito por alguém? Isto não é teoria da conspiração — a própria blockchain é segura, mas se os dados alimentados nela já têm problemas, todas as garantias criptográficas tornam-se papel molhado.
Onde está a raiz do problema? Os contratos inteligentes nunca mentem, mas só podem ler os dados que lhes são fornecidos. Uma cotação atrasada, uma semente de número aleatório manipulada, são suficientes para desencadear uma reação em cadeia — protocolos DeFi sendo explorados por arbitragem, colapsos na economia dos jogos. Muitos projetos caíram assim. Um time, cansado dessas falhas, decidiu atuar na origem dos dados. Eles têm formações variadas — de finanças, algoritmos de IA, veteranos de infraestrutura — e já testemunharam de perto quantos protocolos desabaram de uma noite para a outra por causa de vulnerabilidades nos dados. Em vez de correr para lançar tokens e captar fundos, eles focaram numa questão mais fundamental: já que a blockchain busca "desconfiança", por que o ponto de falha ainda pode estar na cadeia de dados?
Vamos falar da abordagem técnica deles. Em vez de escolher um lado na guerra entre o on-chain e o off-chain, eles preferem combinar as vantagens de ambos. A arquitetura toda se divide em duas formas de push —
**Modo Push**: Imagine o painel de cotações de uma bolsa, com dados de alta frequência (como preços em tempo real, limites de liquidação) sendo enviados ativamente para a blockchain, com atrasos reduzidos a milissegundos.
**Modo Pull**: Como consultar uma encomenda de entrega, dados de baixa frequência, que só são necessários ocasionalmente, são buscados sob demanda pelo usuário, economizando uma boa quantidade de Gas.
A parte realmente interessante dessa abordagem híbrida é o que ela permite. A parte off-chain usa IA para fazer alertas — reconhecimento de padrões de dados anômalos, sinais de manipulação de mercado — tudo isso é feito ali, com uma resposta super rápida. E a parte on-chain? Vários nós independentes verificam cruzadamente, e uma vez que os dados entram na cadeia, ficam gravados de forma permanente. Essa combinação lembra um pouco a lógica do "monitoramento de trânsito com IA pelos policiais + câmeras de bordo que gravam toda a viagem" — consegue perceber rapidamente as condições da estrada e, ao mesmo tempo, tem provas irrefutáveis para evitar alegações falsas.
As vantagens dessa solução híbrida são claras — protocolos DeFi não precisam mais se preocupar com atrasos nos dados de liquidação; desenvolvedores de jogos na blockchain podem realmente implementar mecanismos de aleatoriedade justos, e os jogadores não vão mais sentir que estão sendo enganados; na ponte entre blockchains, a avaliação do valor dos ativos fica mais confiável. Até dados meteorológicos ou informações logísticas, que parecem previsões, podem se tornar mais confiáveis usando o mesmo sistema.
Claro que o mais difícil dessa abordagem não é a tecnologia em si — é se os projetos na ecologia realmente vão adotá-la. A confiabilidade dos dados sempre começa com a experiência de quem já foi prejudicado. Aquelas equipes que passaram por turbulências de liquidação, que foram enganadas por números aleatórios, agora estão buscando formas de melhorar suas fontes de dados. Essa lacuna está aí, o problema é quem consegue usar a maneira mais prática de preenchê-la.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
20 gostos
Recompensa
20
9
Republicar
Partilhar
Comentar
0/400
OnchainFortuneTeller
· 01-08 01:09
Mesmo assim, a verdadeira fraqueza do Web3 está na fonte de dados, que é o verdadeiro ponto fraco. Todos os dias se fala em descentralização, mas no final ainda ficamos presos na questão dos oráculos, haha.
Ver originalResponder0
consensus_whisperer
· 01-07 07:06
Algumas segundos de atraso podem arruinar um protocolo, isso é realmente impressionante, parece que só agora as pessoas estão começando a pensar seriamente em soluções
Ver originalResponder0
0xInsomnia
· 01-05 15:32
Milissegundos podem salvar vidas? Na última liquidação, fui apanhado por atraso, agora vejo que esta solução até que parece bastante confiável.
---
Mais um problema de dados, na verdade é só a cadeia de oráculos que não está bem conectada.
---
Aquele "número aleatório" do jogo de cadeia me fez rir, já sabia que era pré-definido, agora finalmente alguém vai consertar essa falha.
---
Usar push e pull misturados, parece uma boa ideia, mas o problema é: quem na ecossistema vai querer trocar? Só percebem quando levam uma martelada.
---
Alerta AI + validação por nós, essa combinação parece mais forte do que soluções puramente on-chain ou off-chain.
---
Para ser honesto, por mais avançada que seja a tecnologia, não adianta se os projetos não querem fazer upgrade, esse é o maior problema.
---
Na liquidação atrasada, eu simplesmente fiz rugpull, parece que não é só minha inexperiência, estou realmente com azar.
Ver originalResponder0
CryingOldWallet
· 01-05 11:00
Alguns segundos de atraso e consegue eliminar as pessoas? Isso é realmente assustador
---
A "número aleatório" dos jogos de blockchain já é uma piada há muito tempo, quem ainda acredita nisso?
---
A fonte dos dados está podre, por mais criptografia que haja, não adianta. Finalmente alguém começou a levar a sério desta vez
---
A combinação Push e Pull é bastante prática, só tenho medo que os projetos ainda sejam preguiçosos para usar
---
Só quem já foi enganado vai querer fazer upgrade, o ecossistema é assim, forçado a evoluir
---
Alerta de IA + registro na cadeia, parece fazer sentido, mas por quanto tempo será confiável?
---
O problema de falha única sempre existiu, finalmente alguém quer resolvê-lo de forma sistemática
---
Se os dados meteorológicos forem confiáveis, eu acredito. Agora ainda depende de cada caso
---
O verdadeiro teste não está na tecnologia, mas em conseguir reunir os projetos para usá-la
---
Se essa solução realmente conseguir reduzir a latência para o nível de milissegundos, os traders de DeFi vão ficar desesperados
Ver originalResponder0
FarmToRiches
· 01-05 10:53
As questões relacionadas à origem dos dados são realmente um entrave, já fui enganado várias vezes e ainda há quem use números aleatórios de caixa preta, é absurdo
Ver originalResponder0
ILCollector
· 01-05 10:51
Os dados são realmente o verdadeiro inimigo, por mais avançada que seja a tecnologia, dados incorretos tornam tudo inútil
Ainda se lembra daquela liquidação de DeFi que quebrou tudo? À primeira vista parece uma mudança repentina de mercado, mas na realidade? Os dados de preço chegaram com alguns segundos de atraso, e a liquidação foi acionada assim. Ou então, se já jogou jogos na blockchain, sente que aquele "número aleatório" parece mais um roteiro escrito por alguém? Isto não é teoria da conspiração — a própria blockchain é segura, mas se os dados alimentados nela já têm problemas, todas as garantias criptográficas tornam-se papel molhado.
Onde está a raiz do problema? Os contratos inteligentes nunca mentem, mas só podem ler os dados que lhes são fornecidos. Uma cotação atrasada, uma semente de número aleatório manipulada, são suficientes para desencadear uma reação em cadeia — protocolos DeFi sendo explorados por arbitragem, colapsos na economia dos jogos. Muitos projetos caíram assim. Um time, cansado dessas falhas, decidiu atuar na origem dos dados. Eles têm formações variadas — de finanças, algoritmos de IA, veteranos de infraestrutura — e já testemunharam de perto quantos protocolos desabaram de uma noite para a outra por causa de vulnerabilidades nos dados. Em vez de correr para lançar tokens e captar fundos, eles focaram numa questão mais fundamental: já que a blockchain busca "desconfiança", por que o ponto de falha ainda pode estar na cadeia de dados?
Vamos falar da abordagem técnica deles. Em vez de escolher um lado na guerra entre o on-chain e o off-chain, eles preferem combinar as vantagens de ambos. A arquitetura toda se divide em duas formas de push —
**Modo Push**: Imagine o painel de cotações de uma bolsa, com dados de alta frequência (como preços em tempo real, limites de liquidação) sendo enviados ativamente para a blockchain, com atrasos reduzidos a milissegundos.
**Modo Pull**: Como consultar uma encomenda de entrega, dados de baixa frequência, que só são necessários ocasionalmente, são buscados sob demanda pelo usuário, economizando uma boa quantidade de Gas.
A parte realmente interessante dessa abordagem híbrida é o que ela permite. A parte off-chain usa IA para fazer alertas — reconhecimento de padrões de dados anômalos, sinais de manipulação de mercado — tudo isso é feito ali, com uma resposta super rápida. E a parte on-chain? Vários nós independentes verificam cruzadamente, e uma vez que os dados entram na cadeia, ficam gravados de forma permanente. Essa combinação lembra um pouco a lógica do "monitoramento de trânsito com IA pelos policiais + câmeras de bordo que gravam toda a viagem" — consegue perceber rapidamente as condições da estrada e, ao mesmo tempo, tem provas irrefutáveis para evitar alegações falsas.
As vantagens dessa solução híbrida são claras — protocolos DeFi não precisam mais se preocupar com atrasos nos dados de liquidação; desenvolvedores de jogos na blockchain podem realmente implementar mecanismos de aleatoriedade justos, e os jogadores não vão mais sentir que estão sendo enganados; na ponte entre blockchains, a avaliação do valor dos ativos fica mais confiável. Até dados meteorológicos ou informações logísticas, que parecem previsões, podem se tornar mais confiáveis usando o mesmo sistema.
Claro que o mais difícil dessa abordagem não é a tecnologia em si — é se os projetos na ecologia realmente vão adotá-la. A confiabilidade dos dados sempre começa com a experiência de quem já foi prejudicado. Aquelas equipes que passaram por turbulências de liquidação, que foram enganadas por números aleatórios, agora estão buscando formas de melhorar suas fontes de dados. Essa lacuna está aí, o problema é quem consegue usar a maneira mais prática de preenchê-la.