Mira fez-me pensar que a IA autónoma pode ser impossível sem verificação

A IA autónoma no cripto está a avançar rapidamente. Demasiado rápido para que a infraestrutura subjacente consiga acompanhar. Agentes estão a executar negociações. Modelos estão a resumir propostas de governação antes das votações acontecerem. Motores de risco alimentados por modelos de linguagem estão a tomar decisões em tempo real sobre os parâmetros do protocolo. A tese é convincente: eliminar o gargalo humano, deixar que sistemas inteligentes lidem com a complexidade, mover-se mais rápido do que qualquer equipa de analistas poderia. Mas há um problema estrutural por trás de tudo isso que quase ninguém está a falar. IA autónoma sem verificação não é inteligência autónoma. É confiança automatizada. Aqui está a distinção. Um modelo de linguagem não raciocina em direção a uma resposta como um analista humano. Ele gera a continuação mais estatisticamente provável de uma sequência com base em padrões aprendidos durante o treino. Quando produz uma avaliação de risco, não está a verificar essa avaliação com a verdade factual. Quando resume uma proposta de governação, não está a verificar se o resumo reflete o conteúdo real. Quando fornece um sinal de negociação, não está ciente de se esse sinal está correto. Ele produz o que se encaixa no padrão. A confiança é uma propriedade estilística do resultado, não um sinal de precisão. Não há um alarme interno que dispare quando o modelo está errado. Esse mecanismo simplesmente não existe na arquitetura. Aumente o tamanho do modelo e isso não muda. Um modelo maior e mais capaz produz resultados mais convincentes. Mas não produz resultados com uma relação confiável com a verdade. Agora aplique isso a sistemas autónomos na blockchain. Um agente autónomo a tomar decisões de execução na blockchain precisa que as suas entradas sejam precisas. Não provavelmente precisas. Não na maior parte do tempo. Precisas na situação específica em que está prestes a agir, porque não há um humano no ciclo para apanhar a exceção. O objetivo da autonomia é que o sistema aja sem esperar por revisão. É exatamente nesse momento que a saída de IA não verificada se torna perigosa. A manipulação de oráculos já ensinou essa lição da forma mais difícil. Sistemas automatizados confiaram numa fonte de dados que tinha sido comprometida. O protocolo não tinha um mecanismo entre a entrada de dados e a execução que questionasse se a entrada era legítima. A exploração funcionou porque essa lacuna existia. A IA amplia enormemente essa superfície de ataque. Um oráculo manipulado fornece dados de preço falsos. Um modelo que hallucina pode fornecer parâmetros de risco incorretos, resumos de propostas errados, precedentes ruins, raciocínios incorretos, e fazer tudo isso com a mesma fluência e confiança de quando está certo. Este é o problema que a Mira Network foi criada para resolver. A Mira fica entre a saída do modelo e a ação do sistema. Quando uma consulta gera uma resposta, essa resposta não passa diretamente. Ela é decomposta em afirmações discretas e verificáveis. Essas afirmações são encaminhadas para uma rede distribuída de validadores independentes que executam modelos diferentes. Cada validador avalia as afirmações de forma independente, sem ver o que os outros concluíram. A rede então alcança consenso. As afirmações que sobrevivem a esse processo são consideradas confiáveis. As que não sobrevivem são sinalizadas ou removidas. A arquitetura é deliberadamente inspirada em como funcionam sistemas epistêmicos sérios. Uma fonte propõe. Muitas fontes independentes avaliam. O acordo entre avaliadores independentes torna-se o sinal de que algo pode ser confiável. É o que a revisão por pares é. É o que o consenso científico é. Não é uma ideia nova. É o mecanismo que os sistemas de produção de conhecimento usam há séculos, precisamente porque qualquer fonte única, por mais credível que seja, pode estar errada de maneiras que ela mesma não consegue detectar. A Mira aplica essa lógica à inferência de IA ao nível da infraestrutura. $MIRA é o que faz a rede funcionar, e não apenas existir. Uma rede de validadores descentralizada sem apostas económicas é um sistema de votação. Os validadores podem aproveitar-se do sistema. Podem coordenar-se discretamente. Podem aprovar silenciosamente o que a saída inicial diz, porque desacordos custam esforço e acordos não custam nada. A aparência de verificação distribuída não produz nada de substância. $MIRA muda a estrutura de incentivos. Os validadores apostam tokens para participar. Uma avaliação precisa e independente é recompensada. Conluio e consenso preguiçoso implicam exposição económica. A estratégia racional e a estratégia honesta tornam-se a mesma, exatamente o que o design de mecanismos deve alcançar. Sem essa camada, a rede não tem força. Com ela, a verificação é real porque as consequências de manipular são reais. A implicação mais ampla para o Web3 é significativa. Cada protocolo de IA integrado que está a ser construído neste momento faz uma aposta implícita: que as saídas do modelo são suficientemente confiáveis para agir com base nelas. Algumas dessas apostas parecerão boas durante muito tempo. Os modelos são genuinamente capazes e estão a tornar-se mais capazes. A maior parte das saídas, na maior parte do tempo, está correta na direção certa. Mas sistemas autónomos não podem confiar na maior parte do tempo. Operam em escala, continuamente, sem revisão. Os casos de falha que um humano detectaria num processo manual são automatizados juntamente com tudo o resto. E, em ambientes na blockchain, falhas não são rascunhos. São transações. São votos. São posições. A questão para qualquer integração séria de IA no cripto não é se o modelo é bom. A questão é o que acontece quando ele está errado, e se há algo na pipeline capaz de detectar isso antes que as consequências cheguem. A Mira Network é a resposta a essa questão ao nível da infraestrutura. Não um modelo mais seguro. Não um prompt mais inteligente. Uma camada de verificação que trata a saída do modelo como uma proposta e a submete a uma avaliação independente antes de qualquer ação. IA autónoma no cripto não é impossível. Mas IA autónoma sem verificação não é realmente inteligência autónoma. É apenas uma forma muito rápida de estar errado em escala. $MIRA @mira_network #MIRA #Mira

MIRA-4,9%
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Fixar