O Odaily Planet Daily News A Anthropic retirou um compromisso fundamental de segurança da sua política de expansão responsável, deixando de se comprometer a suspender a formação quando as medidas de mitigação de risco não estiverem totalmente implementadas. Jared Kaplan, diretor científico da Anthropic, disse à TIME que, no contexto do rápido desenvolvimento da IA, não faz sentido comprometer-se unilateralmente a suspender o treino se os concorrentes continuarem a progredir.
A OpenAI também reviu a sua declaração de missão para remover a palavra “de forma segura” do seu documento ao IRS de 2024, que anteriormente tinha sido dito para construir uma IA de propósito geral que “beneficie a humanidade de forma segura”, e que agora foi alterada para “garantir que a IA de propósito geral beneficie toda a humanidade.”
Edward Geist, investigador sénior de políticas na RAND Corporation, afirmou que a IA avançada idealizada pelos primeiros defensores da segurança da IA é fundamentalmente diferente dos atuais grandes modelos de linguagem, e a mudança na terminologia reflete também o desejo da empresa de sinalizar aos investidores e decisores políticos que não vai recuar perante a concorrência económica devido a preocupações de segurança.
A Anthropic concluiu recentemente um financiamento de 30 mil milhões de dólares com uma avaliação de cerca de 380 mil milhões de dólares; A OpenAI está a avançar com uma ronda de financiamento de até 100 mil milhões de dólares, apoiada pela Amazon, Microsoft e Nvidia. Entretanto, a Anthropic enfrenta incerteza quanto aos seus contratos de defesa devido a desacordos públicos com o Secretário da Defesa dos EUA, Pete Hegseth, devido à recusa em abrir totalmente o acesso de Claude ao Pentágono. (Descifrar)
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
Anthropic e OpenAI ajustam a formulação das regras de segurança no contexto do acelerado combate de IA
O Odaily Planet Daily News A Anthropic retirou um compromisso fundamental de segurança da sua política de expansão responsável, deixando de se comprometer a suspender a formação quando as medidas de mitigação de risco não estiverem totalmente implementadas. Jared Kaplan, diretor científico da Anthropic, disse à TIME que, no contexto do rápido desenvolvimento da IA, não faz sentido comprometer-se unilateralmente a suspender o treino se os concorrentes continuarem a progredir.
A OpenAI também reviu a sua declaração de missão para remover a palavra “de forma segura” do seu documento ao IRS de 2024, que anteriormente tinha sido dito para construir uma IA de propósito geral que “beneficie a humanidade de forma segura”, e que agora foi alterada para “garantir que a IA de propósito geral beneficie toda a humanidade.”
Edward Geist, investigador sénior de políticas na RAND Corporation, afirmou que a IA avançada idealizada pelos primeiros defensores da segurança da IA é fundamentalmente diferente dos atuais grandes modelos de linguagem, e a mudança na terminologia reflete também o desejo da empresa de sinalizar aos investidores e decisores políticos que não vai recuar perante a concorrência económica devido a preocupações de segurança.
A Anthropic concluiu recentemente um financiamento de 30 mil milhões de dólares com uma avaliação de cerca de 380 mil milhões de dólares; A OpenAI está a avançar com uma ronda de financiamento de até 100 mil milhões de dólares, apoiada pela Amazon, Microsoft e Nvidia. Entretanto, a Anthropic enfrenta incerteza quanto aos seus contratos de defesa devido a desacordos públicos com o Secretário da Defesa dos EUA, Pete Hegseth, devido à recusa em abrir totalmente o acesso de Claude ao Pentágono. (Descifrar)