Resultados da pesquisa por "CODE"
Hoje
07:30

CEO da Morpho: O Interesse Institucional em DeFi Não Desaparecerá à medida que as Finanças na Cadeia Aceleram

Mensagem de notícias do Gate, 27 de abril — O CEO da Morpho, Paul Frambot, compartilhou percepções a partir de conversas com grandes instituições ao longo da última semana, afirmando que o interesse institucional em DeFi não vai desaparecer. Frambot observou que os canais de distribuição — incluindo enormes ativos sob gestão (AUM), pagamentos,
Mais
MORPHO0,05%
05:17

GPT-5.5 Volta ao Topo em Codificação, mas a OpenAI Troca os Benchmarks Depois de Perder para o Opus 4.7

Mensagem do Gate News, 27 de abril — A SemiAnalysis, uma empresa de análise de semicondutores e IA, divulgou um benchmark comparativo de assistentes de codificação, incluindo GPT-5.5, Claude Opus 4.7 e DeepSeek V4. A principal descoberta: GPT-5.5 marca o primeiro retorno da OpenAI ao limite do que há de mais avançado em modelos de codificação em seis meses, com engenheiros da SemiAnalysis agora alternando entre Codex e Claude Code depois de anteriormente dependerem quase exclusivamente de Claude. O GPT-5.5 é baseado em uma nova abordagem de pré-treinamento codificada como "Spud" e representa a primeira expansão do OpenAI na escala de pré-treinamento desde o GPT-4.5. Em testes práticos, surgiu uma divisão clara de funções. Claude fica com o planejamento de projetos novos e a configuração inicial, enquanto Codex se destaca em correções de bugs que exigem raciocínio intensivo. O Codex demonstra uma compreensão mais forte de estruturas de dados e raciocínio lógico, mas tem dificuldades para inferir a intenção ambígua do usuário. Em uma tarefa única no painel, o Claude replicou automaticamente o layout da página de referência, mas fabricou grandes quantidades de dados, enquanto o Codex pulou o layout, mas entregou dados significativamente mais precisos. A análise revela um detalhe de manipulação de benchmark: o post do blog da OpenAI de fevereiro incentivou a indústria a adotar o SWE-bench Pro como o novo padrão para benchmarks de codificação. No entanto, o anúncio do GPT-5.5 mudou para um novo benchmark chamado "Expert-SWE." O motivo, escondido nas letras miúdas, é que o GPT-5.5 foi superado pelo Opus 4.7 no SWE-bench Pro e ficou muito aquém do não lançado Mythos da Anthropic 77.8%. Em relação ao Opus 4.7, a Anthropic publicou uma análise pós-mortem uma semana após o lançamento, reconhecendo três bugs no Claude Code que persistiram por várias semanas de março a abril, afetando quase todos os usuários. Vários engenheiros já haviam relatado degradação de desempenho na versão 4.6, mas foram dispensados como observações subjetivas. Além disso, o novo tokenizador do Opus 4.7 aumenta o uso de tokens em até 35%, algo que a Anthropic admitiu abertamente—o que, efetivamente, constitui um aumento de preço oculto. O DeepSeek V4 foi avaliado como "acompanhando o ritmo da fronteira, mas não liderando," posicionando-se como a alternativa de menor custo entre modelos de código fechado. A análise também observou que "Claude continua a superar o DeepSeek V4 Pro em tarefas de escrita em chinês de alta dificuldade," comentando que "Claude venceu o modelo chinês na própria língua. O artigo apresenta um conceito-chave: a precificação dos modelos deve ser avaliada por "custo por tarefa" em vez de "custo por token." A precificação do GPT-5.5 é o dobro da do GPT-5.4 input $5, output por um milhão de tokens, mas ele conclui as mesmas tarefas usando menos tokens, tornando o custo real não necessariamente mais alto. Os dados iniciais da SemiAnalysis mostram que a proporção input-to-output do Codex é de 80:1, menor do que a do Claude Code, de 100:1.
Mais
03:53

Singapore's Foreign Minister Deploys Custom AI Assistant on Raspberry Pi Using Claude Code

Mensagem do Gate News, 27 de abril — O ministro das Relações Exteriores de Singapura, Vivian Balakrishnan, anunciou recentemente que construiu um sistema personalizado de assistente de IA, que ele chama de "segundo cérebro do diplomata", rodando em um Raspberry Pi 5 (um microcomputador do tamanho de um cartão de crédito). O sistema se integra ao WhatsApp e ao Gmail dele, permitindo a transcrição de notas de voz, a sumarização de artigos, a redação de discursos, o fornecimento de respostas a perguntas e a acumulação contínua de conhecimento. Balakrishnan afirmou que "não se atreve a desligá-lo". Ele esclareceu no X que nunca usou uma IDE ambiente de desenvolvimento integrado, com toda a edição de código feita pelo Claude Code, descrevendo o trabalho como "montagem de ferramentas" para diferenciá-lo do conceito de "vibe coding" de Andrej Karpathy. O sistema é construído sobre o framework de agentes de código aberto NanoClaw e roda o Claude Agent SDK dentro de contêineres Docker isolados, com cada grupo de chat operando de forma independente. A integração com o WhatsApp usa Baileys, uma implementação de código aberto do protocolo do WhatsApp Web, evitando depender de APIs comerciais. A transcrição de voz é tratada localmente via whisper.cpp, sem fazer upload para serviços em nuvem. O armazenamento de conhecimento emprega uma arquitetura em três camadas inspirada no modelo da LLM Wiki de Karpathy. A primeira camada armazena materiais brutos discursos, artigos sem modificação; a segunda camada usa mnemon, um grafo de conhecimento baseado em SQLite que extrai fatos como nós independentes e realiza recuperação semântica via nomic-embed-text, um modelo local de embeddings de 274MB; a terceira camada compila fatos em páginas Wiki legíveis por humanos organizadas por entidades, conceitos e cronologias, sincronizadas com o Obsidian no telefone dele via iCloud. Ao receber mensagens, o sistema consulta automaticamente o grafo de conhecimento e injeta fatos relevantes no contexto. As medidas de segurança incluem acesso a APIs por meio de proxies de credenciais do OneCLI, sem expor chaves brutas, montagem de caminhos restrita por lista de permissões que bloqueia diretórios sensíveis como .ssh e .aws, e processamento local de toda a transcrição de voz e embeddings vetoriais. Balakrishnan publicou a documentação completa da arquitetura no GitHub, afirmando "diplomatas que aprendem a colaborar com IA terão uma vantagem real, e acredito que essa janela de vantagem agora está aberta."
Mais
02:33

A China rompe um esquema de roubo de criptomoedas avaliado em mais de $140 Milhão, prende 5 suspeitos

Mensagem da Gate News, 27 de abril — Uma unidade de cibercrimes em Wuhan, província de Hubei, na China, desmantelou um esquema de roubo de criptomoedas que envolvia aplicativos de carteira falsificados, com investigações revelando mais de 100 milhões de yuans (aproximadamente $14 milhões) em proveitos ilícitos. Cinco suspeitos foram
Mais
02:06

Telegram Lança Ferramenta de Criação de Bots de IA Sem Código

Mensagem do Gate News, 27 de abril — O Telegram lançou uma ferramenta de criação de bots de IA sem código que permite aos usuários criar e personalizar chatbots sem conhecimento de programação. Os usuários podem interagir com o bot LobsterFather para obter uma chave de API e, em seguida, integrá-la a plataformas como Telewer, GPTBots ou Lazy AI para configurar o comportamento e os recursos do bot por meio de opções de apontar e clicar. A ferramenta oferece suporte a vários modelos de IA, incluindo GPT e Llama. Os usuários podem selecionar o modelo de sua preferência e personalizar o estilo de conversa e a funcionalidade do bot. A plataforma permite a criação de um Master Bot que pode gerenciar e distribuir tarefas para sub-bots, tornando-se adequado para lidar com vários grupos de chat ou cenários de solicitações de clientes. O recurso é integrado ao Telegram Business, permitindo que os bots atuem como assistentes autônomos. Os bots podem dar boas-vindas a novos membros 24/7, filtrar mensagens de spam e responder perguntas frequentes, ajudando as comunidades a se manterem organizadas e responsivas. O Telegram destacou que os usuários devem estar cientes dos riscos de segurança de dados de terceiros ao usar essas integrações, já que os dados do bot podem ser processados por plataformas externas.
Mais
02:51

Startup de Codificação com IA Cognition em Conversas para Rodada de Financiamento com Avaliação de $25B Valuation

Mensagem do Gate News, 25 de abril — A startup de codificação com IA Cognition está em conversas iniciais para captar centenas de milhões de dólares ou mais, com uma avaliação de aproximadamente um $25 bilhão, de acordo com pessoas familiarizadas com o assunto. O interesse aumentou após a aquisição, pela SpaceX, de uma startup rival de codificação com IA. Co
Mais
14:42

DeepSeek V4 é lançado com janela de contexto de 1M; chips Huawei Ascend e Cambricon alcançam compatibilidade total

Mensagem do Gate News, 24 de abril — DeepSeek V4-Pro e DeepSeek V4-Flash foram oficialmente lançados e tiveram seu código aberto em 24 de abril, com o comprimento de processamento de contexto sendo expandido significativamente de 128K para 1M, representando um aumento de capacidade de quase 10 vezes. A Huawei Computing anunciou que seus produtos de supernó Ascend
Mais
01:46

OpenAI Lança GPT-5.5, Projetado para Tarefas de Agentes e Fluxos de Trabalho Complexos

Mensagem do Gate News, 24 de abril — A OpenAI lançou oficialmente o GPT-5.5, um modelo de IA de próxima geração projetado para lidar com objetivos complexos, integração de ferramentas, auto-verificação e conclusão de tarefas em várias etapas. O modelo se destaca na escrita de código e depuração, pesquisa online, análise de dados, criação de documentos
Mais