Ética em IA: Por que é importante, agora, trabalhar em IA ética


Descubra as principais notícias e eventos de fintech!

Inscreva-se na newsletter do FinTech Weekly

Lido por executivos do JP Morgan, Coinbase, Blackrock, Klarna e mais


A ética na IA é uma das principais preocupações de investidores e analistas, especialmente desde a introdução do ChatGPT da OpenAI, que se tornou a aplicação de crescimento mais rápido.

A ética é necessária se quisermos que a inteligência artificial não se torne perigosa e seja usada de forma adequada - também no que diz respeito à indústria de fintech, já que pode ser particularmente perigoso usar IA não treinada corretamente em finanças.

Por que a ética na IA ganha destaque

A ética na inteligência artificial ganha destaque por motivos positivos e negativos.

Enquanto a Microsoft recentemente reduziu seu departamento de IA & Sociedade – deixando apenas 7 pessoas durante uma das ondas de demissões que envolveram a empresa, muitos analistas e organizações tentam refletir sobre o tema e entender por que a ética importa.

Isso também inclui organizações internacionais e políticas, algo que talvez possa ajudar os usuários comuns – talvez ainda muito inconscientes do progresso da inteligência artificial – a ter a certeza de que a IA não é apenas um tema de negócios.

Em 23 de novembro de 2021, a UNESCO lançou um texto, “Recomendação sobre a Ética da Inteligência Artificial”, que foi então adotado pelos 193 Estados-membros.

As recomendações começam com “Levando plenamente em consideração que o rápido desenvolvimento das tecnologias de IA desafia sua implementação ética e governança, bem como o respeito e a proteção da diversidade cultural, e tem o potencial de perturbar padrões e valores éticos locais e regionais”.

A referência ao multiculturalismo é importante no caso da IA.

Como veremos em breve, é importante considerar que nem todos são capazes de gerenciar e usar IA, e se ela permanecer uma prerrogativa dos profissionais de tecnologia e empresas, pode ser difícil para algumas culturas e segmentos da população acessarem essa tecnologia importante.

A IA possui consciência?

Não temos – pelo menos, ainda não – uma IA consciente.

Até agora, as ferramentas baseadas em IA são** treinadas por pessoas e dados**. Se sob uma certa perspectiva isso significa que a IA ainda não pode ser considerada perigosa demais, também significa que se as pessoas fornecerem dados tendenciosos, as respostas fornecidas pela IA serão tendenciosas.

O mesmo se aplica se os dados e o treinamento forem fornecidos apenas por certos profissionais e em determinados países.

Conforme reportado pelo MIT, a disparidade de gênero em STEM (ciência, tecnologia, engenharia e matemática) ainda é extremamente significativa, e mulheres com empregos compatíveis com seus estudos em uma dessas áreas representam apenas 28%.

Um relatório publicado pela IDC (International Data Corporation), o Guia de Investimentos Mundiais em Inteligência Artificial, nos informa que os investimentos em IA devem atingir US$ 154 bilhões em 2023. Mas onde esses investimentos estão concentrados?

Conforme reportado pelo InvestGlass, os países onde os investimentos estão concentrados são os Estados Unidos e a China. Além disso, Japão, Canadá e Coreia do Sul estão aumentando seus investimentos e estratégias envolvendo IA. A União Europeia não é a região mais avançada em relação à inteligência artificial – mesmo que alguns países como Alemanha e França estejam desenvolvendo um ambiente interessante para IA.

Todos esses dados mostram que nem todos estão envolvidos nessa revolução, e isso – é claro – pode ser prejudicial a um desenvolvimento valioso e ético da IA.

Se a IA permanecer muito concentrada em certos campos e países, os dados que ela produzir serão necessariamente tendenciosos.

Se o multiculturalismo ainda pode não estar devidamente abordado, os investidores já buscam por uma tecnologia que seja socialmente responsável e ética.

O que os investidores pensam sobre IA?

Nos últimos anos, uma maior conscientização sobre responsabilidade social também levou os investidores a preferir negócios que não sejam prejudiciais às sociedades.

No caso da inteligência artificial, é difícil não apenas criar estruturas globais voltadas à regulamentação da tecnologia, mas também é difícil para os investidores entenderem completamente o que é realmente ético em termos de IA.

A IA é relativamente nova, e dar a ela um contexto adequado fica ainda mais difícil pelo fato de que ela está em constante mudança.

Por isso, os investidores estão usando métodos diferentes para avaliar os possíveis desenvolvimentos futuros de um negócio de IA, bem como sua ética à medida que o tempo passa e mudanças são feitas.

Conforme reportado pelo TechCrunch, parece que os investidores podem achar mais útil avaliar as características e qualidades do proprietário do projeto, para entender melhor como ele ou ela pode reagir a novos frameworks e como desejam gerenciar um projeto de IA apesar das mudanças constantes.

Portanto, mesmo falando de IA, os humanos ainda têm a última palavra – e quanto mais éticas forem as pessoas que usam IA, mais ética será a IA no futuro.

Reflexões finais

A ética na IA não é um tema fácil, e não é simples avaliar como a IA pode ser ética.

A IA não é consciente, ela não tem alma – independentemente de como uma alma possa ser definida.

Apesar disso, é fundamental trabalhar na ética da IA agora, para evitar ao máximo os perigos no futuro.


Se você quer saber mais sobre notícias, eventos e insights de fintech, inscreva-se na newsletter do FinTech Weekly!

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar