Mensagem do Gate News, 27 de abril — A OpenAI está a colaborar com a MediaTek e a Qualcomm para desenvolver processadores para smartphones, de acordo com a análise da cadeia de abastecimento do analista da Tianfeng International Securities, Ming-Chi Kuo. A Foxconn Connector (Luxshare Precision) será o parceiro exclusivo de conceção do sistema e de fabrico, prevendo-se que a produção em massa comece em 2028. Espera-se que as especificações e os fornecedores sejam finalizados até ao final de 2026 ou no primeiro trimestre de 2027.
Kuo explicou que a principal razão da OpenAI para entrar no mercado de smartphones é que controlar simultaneamente o sistema operativo e o hardware é essencial para fornecer serviços abrangentes de agentes de IA. Os smartphones são os únicos dispositivos capazes de aceder em tempo real à informação contextual completa dos utilizadores, o que é fundamental para o raciocínio dos agentes de IA. Em vez de utilizarem várias aplicações, os utilizadores irão concretizar tarefas e satisfazer necessidades através dos seus telemóveis — uma mudança fundamental na forma como os smartphones são definidos.
Em termos comerciais, a OpenAI poderá agrupar serviços de subscrição com hardware e colaborar com programadores para construir um ecossistema de aplicações de agentes de IA. A conceção do processador dará prioridade à eficiência energética, à gestão da hierarquia de memória e à execução local de modelos mais pequenos, enquanto as tarefas complexas serão delegadas a IA baseada na nuvem. Kuo citou o chip TPU Zebrafish da MediaTek, desenvolvido para a Google, como ponto de referência, salientando que um único chip Zebrafish gera receitas aproximadamente equivalentes a 30 a 40 processadores de smartphone para agentes de IA. Com as remessas globais de smartphones premium a atingirem cerca de 300 a 400 milhões de unidades por ano, os ciclos de substituição de dispositivos poderão tornar-se um novo motor de crescimento tanto para a MediaTek como para a Qualcomm. Para a Luxshare Precision, este projeto oferece a oportunidade de garantir uma vantagem de primeira-mover na produção de smartphones da próxima geração, uma área em que tem lutado para ultrapassar a posição da Foxconn na cadeia de abastecimento da Apple.
A iniciativa representa uma mudança significativa na forma como as capacidades de IA são integradas no hardware de consumo, com implicações para a indústria de smartphones mais alargada e para o emergente ecossistema de agentes de IA.
Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a
Isenção de responsabilidade.
Related Articles
IEA: O investimento em infraestruturas de IA já ultrapassou o investimento na produção de petróleo e gás; em 2026, prevê-se que aumente mais 75%
De acordo com a análise e os dados de mercado divulgados pela Agência Internacional da Energia (IEA) a 26 de abril, o investimento de capital (capex) total das cinco principais empresas tecnológicas em 2025 ultrapassa 400 mil milhões de dólares, sendo aplicado principalmente à construção de infraestruturas de IA, num nível já superior ao do investimento anual global em produção de petróleo e gás natural. A IEA estima que os capex relacionados poderão aumentar mais 75% em 2026.
MarketWhisper25m atrás
O senador Bernie Sanders emite um aviso sobre a ameaça existencial da IA
Sanders sublinhou que, mesmo que a maioria dos cientistas de IA reconheça a possibilidade de a IA escapar ao controlo e se tornar um perigo para a nossa existência, não foram tomadas medidas importantes para evitar isso. “Temos de garantir que a IA beneficia a humanidade, e não nos prejudica”, afirmou.
Principais lições:
Bernie Sanders
Coinpedia34m atrás
Responsável pelo grande modelo da Xiaomi: a competição em IA está a mudar para a era dos agentes, e a autoevolução é um evento-chave para a AGI
A responsável da equipa de grandes modelos da Xiaomi, Luo Fuli, concedeu uma entrevista aprofundada na plataforma Bilibili em 24 de abril (número do vídeo: BV1iVoVBgERD). A entrevista teve a duração de 3,5 horas e foi a sua primeira exposição pública e sistemática das suas perspetivas técnicas enquanto responsável técnico. Luo Fuli afirmou que a competição na área dos grandes modelos já passou da era do Chat para a era do Agent, e indicou que «autoevolução» será o acontecimento-chave para a AGI no próximo ano.
MarketWhisper35m atrás
A Voz do Grok da xAI assume a linha de atendimento ao cliente da Starlink, 70% das chamadas são arquivadas automaticamente
De acordo com o comunicado oficial publicado pela xAI a 23 de abril, a xAI lançou o agente de IA de voz Grok Voice Think Fast 1.0 e já o colocou em funcionamento na linha telefónica de apoio ao cliente +1 (888) GO STARLINK. Com base nos dados de testes divulgados no anúncio, 70% das chamadas são encerradas automaticamente por IA, sem necessidade de intervenção humana.
MarketWhisper46m atrás
GPT-5.5 Regressa ao Estado da Arte na Codificação, mas a OpenAI Muda os Benchmarks Depois de Perder para o Opus 4.7
Gate News mensagem, 27 de Abril — A SemiAnalysis, uma empresa de análise de semicondutores e IA, publicou um benchmark comparativo de assistentes de codificação, incluindo GPT-5.5, Claude Opus 4.7 e DeepSeek V4. A principal conclusão: GPT-5.5 marca o primeiro regresso da OpenAI ao estado da arte em modelos de codificação em seis meses, com engenheiros da SemiAnalysis agora a alternar entre Codex e Claude Code após antes dependerem quase exclusivamente de Claude. O GPT-5.5 baseia-se numa nova abordagem de pré-treinamento com o nome de código "Spud" e representa a primeira expansão do OpenAI da escala de pré-treinamento desde o GPT-4.5.
Em testes práticos, surgiu uma divisão clara de responsabilidades. Claude trata do planeamento de novos projectos e da configuração inicial, enquanto Codex se destaca em correcções de bugs que exigem raciocínio intensivo. O Codex mostra uma compreensão mais forte de estruturas de dados e raciocínio lógico, mas tem dificuldades em inferir intenções de utilizador ambíguas. Numa tarefa única no mesmo painel, o Claude replicou automaticamente o layout da página de referência, mas fabricou grandes quantidades de dados; já o Codex ignorou o layout, mas entregou dados significativamente mais precisos.
A análise revela um detalhe de manipulação do benchmark: um post de Fevereiro da OpenAI incentivava a indústria a adoptar o SWE-bench Pro como o novo padrão para benchmarks de codificação. No entanto, o anúncio do GPT-5.5 mudou para um novo benchmark chamado "Expert-SWE." O motivo, escondido nas letras pequenas, é que o GPT-5.5 foi ultrapassado pelo Opus 4.7 no SWE-bench Pro e ficou muito aquém do Mythos 77.8%, ainda não lançado da Anthropic.
Quanto ao Opus 4.7, a Anthropic publicou uma análise pós-mortem uma semana após o lançamento, reconhecendo três bugs no Claude Code que persistiram por várias semanas de Março a Abril, afectando quase todos os utilizadores. Vários engenheiros tinham previamente reportado degradação de desempenho na versão 4.6, mas foram descartados como observações subjectivas. Além disso, o novo tokenizador do Opus 4.7 aumenta o uso de tokens em até 35%, o que a Anthropic admitiu abertamente — constituindo, na prática, um aumento de preço oculto.
O DeepSeek V4 foi avaliado como "acompanhar o ritmo da fronteira, mas não liderar," posicionando-se como a alternativa de menor custo entre os modelos de código fechado. A análise também notou que "o Claude continua a superar o DeepSeek V4 Pro em tarefas de escrita chinesa de alta dificuldade," comentando que "o Claude venceu o modelo chinês na sua própria língua."
O artigo introduz um conceito-chave: a precificação do modelo deve ser avaliada por "custo por tarefa" e não por "custo por token." A precificação do GPT-5.5 é o dobro da do GPT-5.4 input $5, output por milhão de tokens, mas conclui as mesmas tarefas usando menos tokens, pelo que o custo real não é necessariamente mais alto. Os dados iniciais da SemiAnalysis mostram que a razão input-para-output do Codex é de 80:1, inferior à do Claude Code, que é de 100:1.
GateNews51m atrás
Executivo da Google DeepMind: Cada Empresa de Produtos de IA Deve Criar Benchmarks Personalizados
Mensagem do Gate News, 27 de abril — Logan Kilpatrick, gestor sénior de produto na Google DeepMind e responsável de produto para o Google AI Studio, declarou no X que todas as empresas que criam produtos baseados em IA devem estabelecer os seus próprios benchmarks personalizados para medir o desempenho dos modelos de IA. Ele descreveu isto como um método para
GateNews1h atrás