A Inteligência Artificial (IA) está agora integrada em tudo, desde assistentes de smartphones e feeds de redes sociais até saúde e transporte. Essas tecnologias trazem benefícios sem precedentes, mas também apresentam riscos e desafios significativos.

Especialistas e instituições globais alertam que, sem diretrizes éticas adequadas, a IA pode reproduzir preconceitos e discriminações do mundo real, contribuir para danos ambientais, ameaçar direitos humanos e ampliar desigualdades existentes.

Neste artigo, vamos explorar com a INVIAI os riscos do uso da IA em todas as áreas e tipos de IA – desde chatbots e algoritmos até robôs – com base em insights de fontes oficiais e internacionais.

Preconceito e Discriminação em Sistemas de IA

Um dos principais riscos da IA é o enraizamento de preconceitos e discriminação injusta. Modelos de IA aprendem a partir de dados que podem refletir preconceitos ou desigualdades históricas; como resultado, um sistema de IA pode tratar pessoas de forma diferente com base em raça, gênero ou outras características, perpetuando injustiças.

Por exemplo, “IA de uso geral com mau funcionamento pode causar danos por meio de decisões tendenciosas em relação a características protegidas como raça, gênero, cultura, idade e deficiência,” segundo um relatório internacional sobre segurança em IA.

Algoritmos tendenciosos usados em processos de contratação, concessão de crédito ou policiamento já resultaram em resultados desiguais que prejudicam injustamente certos grupos. Organismos globais como a UNESCO alertam que, sem medidas de equidade, a IA corre o risco de “reproduzir preconceitos e discriminações do mundo real, alimentar divisões e ameaçar direitos e liberdades fundamentais”. Garantir que sistemas de IA sejam treinados com dados diversos e representativos e auditados quanto a vieses é essencial para evitar discriminação automatizada.

Preconceito e Discriminação em Sistemas de IA

Perigos da Desinformação e Deepfake

A capacidade da IA de gerar textos, imagens e vídeos hiper-realistas gerou temores de uma enxurrada de desinformação. IA generativa pode produzir notícias falsas convincentes, imagens fraudulentas ou vídeos deepfake difíceis de distinguir da realidade.

O Relatório Global de Riscos 2024 do Fórum Econômico Mundial identifica “informações manipuladas e falsificadas” como o risco global de curto prazo mais grave, observando que a IA está “amplificando informações manipuladas e distorcidas que podem desestabilizar sociedades.”

De fato, a desinformação e a informação falsa alimentadas pela IA representam um dos “maiores desafios já enfrentados pelo processo democrático” – especialmente com bilhões de pessoas prestes a votar em eleições futuras. Mídias sintéticas como vídeos deepfake e vozes clonadas por IA podem ser usadas para espalhar propaganda, imitar figuras públicas ou cometer fraudes.

Autoridades alertam que atores mal-intencionados podem usar a IA para campanhas massivas de desinformação, facilitando a inundação das redes sociais com conteúdo falso e semeando o caos. O risco é um ambiente informacional cínico onde os cidadãos não confiam no que veem ou ouvem, minando o discurso público e a democracia.

Perigos da Desinformação e Deepfake na IA

Ameaças à Privacidade e Vigilância em Massa

O uso generalizado da IA levanta sérias preocupações com a privacidade. Sistemas de IA frequentemente exigem grandes quantidades de dados pessoais – desde nossos rostos e vozes até hábitos de compra e localização – para funcionar eficazmente. Sem proteções rigorosas, esses dados podem ser mal utilizados ou explorados.

Por exemplo, reconhecimento facial e algoritmos preditivos podem possibilitar vigilância invasiva, monitorando cada movimento dos indivíduos ou avaliando seu comportamento sem consentimento. A recomendação global de ética em IA da UNESCO alerta explicitamente que “sistemas de IA não devem ser usados para pontuação social ou vigilância em massa.” Esses usos são amplamente vistos como riscos inaceitáveis.

Além disso, a análise de dados pessoais por IA pode revelar detalhes íntimos de nossas vidas, desde estado de saúde até crenças políticas, ameaçando o direito à privacidade. Agências de proteção de dados enfatizam que a privacidade é “um direito essencial para a proteção da dignidade humana, autonomia e agência” que deve ser respeitado durante todo o ciclo de vida de um sistema de IA.

Se o desenvolvimento da IA avançar mais rápido que as regulamentações de privacidade, os indivíduos podem perder o controle sobre suas próprias informações. A sociedade deve garantir governança robusta de dados, mecanismos de consentimento e técnicas que preservem a privacidade para que as tecnologias de IA não se tornem ferramentas de vigilância descontrolada.

Ameaças à Privacidade e Vigilância em Massa

Falhas de Segurança e Danos Não Intencionais

Embora a IA possa automatizar decisões e tarefas físicas com eficiência sobre-humana, ela também pode falhar de maneiras imprevisíveis, causando danos reais. Confiamos cada vez mais à IA responsabilidades críticas para a segurança – como dirigir carros, diagnosticar pacientes ou gerenciar redes elétricas – mas esses sistemas não são infalíveis.

Falhas, dados de treinamento defeituosos ou situações imprevistas podem levar a erros perigosos. A IA de um carro autônomo pode identificar mal um pedestre, ou uma IA médica pode recomendar o tratamento errado, com consequências potencialmente fatais.

Reconhecendo isso, diretrizes internacionais enfatizam que danos indesejados e riscos à segurança da IA devem ser previstos e evitados: “Danos indesejados (riscos de segurança), assim como vulnerabilidades a ataques (riscos de segurança), devem ser evitados e tratados durante todo o ciclo de vida dos sistemas de IA para garantir a segurança humana, ambiental e dos ecossistemas.”

Em outras palavras, sistemas de IA devem ser rigorosamente testados, monitorados e construídos com mecanismos de segurança para minimizar falhas. A confiança excessiva na IA também pode ser arriscada – se humanos confiarem cegamente nas decisões automatizadas, podem não intervir a tempo quando algo der errado.

Garantir supervisão humana é, portanto, crucial. Em usos de alto risco (como saúde ou transporte), decisões finais devem permanecer sujeitas ao julgamento humano, e como a UNESCO observa, “decisões de vida ou morte não devem ser delegadas a sistemas de IA.” Manter segurança e confiabilidade na IA é um desafio contínuo, exigindo design cuidadoso e uma cultura de responsabilidade dos desenvolvedores.

Falhas de Segurança e Danos Não Intencionais na IA

Deslocamento de Empregos e Disrupção Econômica

O impacto transformador da IA na economia é uma faca de dois gumes. Por um lado, a IA pode aumentar a produtividade e criar indústrias totalmente novas; por outro, representa risco de deslocar milhões de trabalhadores por meio da automação.

Muitos empregos – especialmente aqueles que envolvem tarefas rotineiras, repetitivas ou dados facilmente analisáveis – são vulneráveis a serem assumidos por algoritmos e robôs de IA. Previsões globais são preocupantes: por exemplo, o Fórum Econômico Mundial projeta que “noventa e dois milhões de empregos podem ser deslocados até 2030” devido à IA e tecnologias relacionadas.

Embora a economia possa também criar novas funções (potencialmente mais empregos do que os perdidos a longo prazo), a transição será dolorosa para muitos. Os empregos criados geralmente exigem habilidades diferentes, mais avançadas, ou estão concentrados em certos polos tecnológicos, o que pode dificultar a recolocação dos trabalhadores deslocados.

Esse descompasso entre as habilidades dos trabalhadores e as exigidas pelas novas funções impulsionadas pela IA pode levar a maior desemprego e desigualdade se não for enfrentado. De fato, formuladores de políticas e pesquisadores alertam que o avanço rápido da IA pode causar “disrupção no mercado de trabalho e desigualdades econômicas” em escala sistêmica.

Grupos específicos podem ser mais afetados – por exemplo, alguns estudos indicam que uma parcela maior dos empregos ocupados por mulheres ou por trabalhadores em países em desenvolvimento está em alto risco de automação. Sem medidas proativas (como programas de requalificação, educação em habilidades de IA e redes de proteção social), a IA pode ampliar as disparidades socioeconômicas, criando uma economia dominada pela tecnologia onde os donos da IA colhem a maior parte dos benefícios.

Preparar a força de trabalho para o impacto da IA é fundamental para garantir que os benefícios da automação sejam amplamente compartilhados e para evitar convulsões sociais decorrentes da perda generalizada de empregos.

Deslocamento de Empregos e Disrupção Econômica na IA

Uso Criminoso, Fraudes e Ameaças à Segurança

A IA é uma ferramenta poderosa que pode ser usada tanto para fins nobres quanto para propósitos nefastos. Cibercriminosos e outros agentes maliciosos já estão explorando a IA para aprimorar seus ataques.

Por exemplo, a IA pode gerar e-mails de phishing altamente personalizados ou mensagens de voz (clonando a voz de alguém) para enganar pessoas e obter informações sensíveis ou dinheiro. Também pode ser usada para automatizar invasões, encontrando vulnerabilidades em softwares em larga escala, ou para desenvolver malwares que se adaptam para evitar detecção.

O Centro para Segurança em IA identifica o uso malicioso da IA como uma preocupação central, destacando cenários em que sistemas de IA são usados por criminosos para realizar fraudes e ataques cibernéticos em grande escala. De fato, um relatório encomendado pelo governo do Reino Unido alertou explicitamente que “atores maliciosos podem usar IA para operações massivas de desinformação, influência, fraudes e golpes.”

A velocidade, escala e sofisticação que a IA proporciona podem sobrecarregar as defesas tradicionais – imagine milhares de chamadas fraudulentas geradas por IA ou vídeos deepfake atacando a segurança de uma empresa em um único dia.

Além dos crimes financeiros, há também o risco de a IA ser usada para facilitar roubo de identidade, assédio ou criação de conteúdo nocivo (como pornografia deepfake não consensual ou propaganda para grupos extremistas). À medida que as ferramentas de IA se tornam mais acessíveis, a barreira para realizar essas atividades maliciosas diminui, podendo levar a um aumento do crime potencializado por IA.

Isso exige novas abordagens em cibersegurança e aplicação da lei, como sistemas de IA que possam detectar deepfakes ou comportamentos anômalos e atualizações legais para responsabilizar os infratores. Em essência, devemos antecipar que qualquer capacidade que a IA ofereça a beneficiários, pode igualmente ser usada por criminosos – e nos preparar para isso.

Uso Criminoso, Fraudes e Ameaças à Segurança na IA

Militarização e Armas Autônomas

Talvez o risco mais assustador da IA surja no contexto da guerra e segurança nacional. A IA está sendo rapidamente integrada a sistemas militares, levantando a possibilidade de armas autônomas (“robôs assassinos”) e tomada de decisões em combate conduzida por IA.

Essas tecnologias podem reagir mais rápido que qualquer humano, mas retirar o controle humano do uso da força letal é repleto de perigos. Há o risco de que uma arma controlada por IA selecione o alvo errado ou escale conflitos de maneiras imprevisíveis. Observadores internacionais alertam que a “militarização da IA” é uma ameaça crescente.

Se as nações competirem para equipar seus arsenais com armas inteligentes, isso pode desencadear uma corrida armamentista desestabilizadora. Além disso, a IA pode ser usada em guerra cibernética para atacar autonomamente infraestruturas críticas ou espalhar propaganda, borrando a linha entre paz e conflito.

As Nações Unidas manifestaram preocupação de que o desenvolvimento da IA na guerra, se concentrado nas mãos de poucos, “pode ser imposto às pessoas sem que elas tenham voz sobre seu uso,” minando a segurança global e a ética.

Sistemas de armas autônomas também levantam dilemas legais e morais – quem é responsável se um drone de IA matar civis por engano? Como esses sistemas cumprem o direito humanitário internacional?

Essas questões sem resposta levaram a pedidos de proibição ou regulação rigorosa de certas armas habilitadas por IA. Garantir supervisão humana sobre qualquer IA que possa tomar decisões de vida ou morte é amplamente considerado fundamental. Sem isso, o risco não é apenas erros trágicos no campo de batalha, mas a erosão da responsabilidade humana na guerra.

Militarização e Armas Autônomas na IA

Falta de Transparência e Responsabilização

A maioria dos sistemas avançados de IA hoje opera como “caixas-pretas” – sua lógica interna é frequentemente opaca até mesmo para seus criadores. Essa falta de transparência cria o risco de que decisões da IA não possam ser explicadas ou contestadas, o que é um problema sério em áreas como justiça, finanças ou saúde, onde a explicabilidade pode ser uma exigência legal ou ética.

Se uma IA nega um empréstimo, diagnostica uma doença ou decide quem sai da prisão, naturalmente queremos saber o porquê. Com alguns modelos de IA (especialmente redes neurais complexas), fornecer uma justificativa clara é difícil.

A “falta de transparência” pode minar a confiança e “também pode dificultar contestar efetivamente decisões baseadas em resultados produzidos por sistemas de IA,” observa a UNESCO, “e assim infringir o direito a um julgamento justo e a um recurso efetivo.”

Em outras palavras, se nem usuários nem reguladores conseguem entender como a IA toma decisões, torna-se quase impossível responsabilizar alguém por erros ou vieses que surgirem.

Essa lacuna de responsabilização é um risco grave: empresas podem fugir da responsabilidade culpando “o algoritmo”, e indivíduos afetados podem ficar sem recurso. Para combater isso, especialistas defendem técnicas de IA explicável, auditorias rigorosas e exigências regulatórias para que decisões de IA sejam rastreáveis a uma autoridade humana.

De fato, diretrizes éticas globais insistem que deve “sempre ser possível atribuir responsabilidade ética e legal” pelo comportamento dos sistemas de IA a uma pessoa ou organização. Humanos devem permanecer responsáveis em última instância, e a IA deve auxiliar, não substituir, o julgamento humano em assuntos sensíveis. Caso contrário, corremos o risco de criar um mundo onde decisões importantes são tomadas por máquinas insondáveis, o que é receita para injustiça.

Falta de Transparência e Responsabilização no Uso da IA no Trabalho

Concentração de Poder e Desigualdade

A revolução da IA não está acontecendo de forma uniforme no mundo – um pequeno número de corporações e países domina o desenvolvimento da IA avançada, o que traz seus próprios riscos.

Modelos de IA de ponta exigem enormes quantidades de dados, talentos e recursos computacionais que apenas gigantes da tecnologia (e governos bem financiados) possuem atualmente. Isso levou a uma “cadeia de suprimentos altamente concentrada, singular e globalmente integrada que favorece poucas empresas e países,” segundo o Fórum Econômico Mundial.

Essa concentração de poder em IA pode se traduzir em controle monopolista sobre tecnologias de IA, limitando a concorrência e a escolha do consumidor. Também aumenta o perigo de que as prioridades dessas poucas empresas ou nações moldem a IA de formas que não considerem o interesse público mais amplo.

As Nações Unidas observaram o “perigo de que a tecnologia [de IA] possa ser imposta às pessoas sem que elas tenham voz sobre seu uso,” quando o desenvolvimento está concentrado em poucos.

Esse desequilíbrio pode agravar desigualdades globais: nações e empresas ricas avançam ao aproveitar a IA, enquanto comunidades mais pobres ficam sem acesso às ferramentas mais recentes e sofrem perdas de empregos sem desfrutar dos benefícios da IA. Além disso, uma indústria de IA concentrada pode sufocar a inovação (se novos entrantes não conseguem competir com os recursos dos incumbentes) e representar riscos de segurança (se infraestruturas críticas de IA forem controladas por poucos, tornando-se pontos únicos de falha ou manipulação).

Enfrentar esse risco requer cooperação internacional e possivelmente novas regulamentações para democratizar o desenvolvimento da IA – por exemplo, apoiando pesquisas abertas, garantindo acesso justo a dados e capacidade computacional, e elaborando políticas (como a proposta de Lei de IA da UE) para evitar práticas abusivas por “guardas da IA.” Um cenário de IA mais inclusivo ajudaria a garantir que os benefícios da IA sejam compartilhados globalmente, em vez de ampliar a divisão entre os que têm e os que não têm tecnologia.

Concentração de Poder e Desigualdade

Impacto Ambiental da IA

Frequentemente negligenciado nas discussões sobre riscos da IA está seu impacto ambiental. O desenvolvimento da IA, especialmente o treinamento de grandes modelos de aprendizado de máquina, consome enormes quantidades de eletricidade e poder computacional.

Data centers repletos de milhares de servidores famintos por energia são necessários para processar os volumes de dados dos quais os sistemas de IA aprendem. Isso significa que a IA pode contribuir indiretamente para emissões de carbono e mudanças climáticas.

Um relatório recente de uma agência das Nações Unidas constatou que as emissões indiretas de carbono de quatro das principais empresas de tecnologia focadas em IA dispararam em média 150% entre 2020 e 2023, em grande parte devido à demanda energética dos data centers de IA.

À medida que o investimento em IA cresce, espera-se que as emissões decorrentes da operação dos modelos de IA aumentem drasticamente – o relatório projetou que os principais sistemas de IA poderiam emitir coletivamente mais de 100 milhões de toneladas de CO₂ por ano, pressionando significativamente a infraestrutura energética.

Para colocar em perspectiva, os data centers que alimentam a IA estão elevando o consumo de eletricidade “quatro vezes mais rápido que o aumento geral do consumo de eletricidade”.

Além das emissões de carbono, a IA também pode consumir muita água para resfriamento e gerar resíduos eletrônicos à medida que o hardware é rapidamente atualizado. Se não for controlado, o impacto ambiental da IA pode comprometer os esforços globais de sustentabilidade.

Esse risco exige tornar a IA mais eficiente energeticamente e usar fontes de energia mais limpas. Pesquisadores desenvolvem técnicas de IA verde para reduzir o consumo de energia, e algumas empresas se comprometeram a compensar os custos de carbono da IA. Ainda assim, permanece uma preocupação urgente que a corrida pela IA possa ter um alto custo ambiental. Equilibrar progresso tecnológico com responsabilidade ecológica é outro desafio que a sociedade deve enfrentar ao integrar a IA em todos os lugares.

Impacto Ambiental da IA

Riscos Existenciais e de Longo Prazo

Além dos riscos imediatos, alguns especialistas alertam para riscos especulativos e de longo prazo da IA – incluindo a possibilidade de uma IA avançada que ultrapasse o controle humano. Embora os sistemas atuais de IA sejam limitados em suas capacidades, pesquisadores trabalham ativamente para desenvolver uma IA geral que poderia superar humanos em muitos domínios.

Isso levanta questões complexas: se uma IA se tornar muito mais inteligente ou autônoma, poderia agir de formas que ameacem a existência da humanidade? Embora pareça ficção científica, figuras proeminentes da comunidade tecnológica expressaram preocupação com cenários de “IA descontrolada”, e governos levam essa discussão a sério.

Em 2023, o Reino Unido sediou uma Cúpula Global de Segurança em IA para tratar dos riscos da IA de fronteira. O consenso científico não é unânime – alguns acreditam que a superinteligência está a décadas de distância ou pode ser mantida alinhada aos valores humanos, enquanto outros veem uma pequena, mas real, chance de resultados catastróficos.

O recente relatório internacional sobre segurança em IA destacou que “especialistas têm opiniões divergentes sobre o risco de a humanidade perder o controle da IA de forma que possa resultar em consequências catastróficas.”

Em essência, há o reconhecimento de que o risco existencial da IA, por mais remoto que seja, não pode ser totalmente descartado. Tal cenário poderia envolver uma IA perseguindo seus objetivos em detrimento do bem-estar humano (o exemplo clássico é uma IA que, se mal programada, decide fazer algo prejudicial em grande escala por falta de senso comum ou restrições morais).

Embora nenhuma IA hoje tenha agência próxima a esse nível, o ritmo de avanço da IA é rápido e imprevisível, o que por si só é um fator de risco. Preparar-se para riscos de longo prazo significa investir em pesquisas de alinhamento da IA (garantindo que os objetivos da IA permaneçam compatíveis com valores humanos), estabelecer acordos internacionais sobre pesquisas de alto risco em IA (semelhantes a tratados sobre armas nucleares ou biológicas) e manter supervisão humana à medida que os sistemas de IA se tornam mais capazes.

O futuro da IA traz imensa promessa, mas também incertezas – e a prudência exige que consideremos até mesmo riscos de baixa probabilidade e alto impacto em nosso planejamento de longo prazo.

>>> Clique para saber mais: Benefícios da IA para Indivíduos e Empresas

Riscos Existenciais e de Longo Prazo na IA


A IA é frequentemente comparada a um motor poderoso que pode impulsionar a humanidade – mas sem freios e direção, esse motor pode sair do controle. Como vimos, os riscos do uso da IA são multifacetados: desde questões imediatas como algoritmos tendenciosos, notícias falsas, invasões de privacidade e mudanças no mercado de trabalho, até desafios sociais mais amplos como ameaças à segurança, decisões em “caixa-preta”, monopólios da Big Tech, pressão ambiental e até o espectro distante de perder o controle para uma IA superinteligente.

Esses riscos não significam que devemos parar o desenvolvimento da IA; ao contrário, destacam a necessidade urgente de governança responsável da IA e práticas éticas.

Governos, organizações internacionais, líderes da indústria e pesquisadores colaboram cada vez mais para enfrentar essas preocupações – por exemplo, por meio de estruturas como o AI Risk Management Framework do NIST dos EUA (para melhorar a confiabilidade da IA), a Recomendação Global de Ética em IA da UNESCO e a Lei de IA da União Europeia.

Esses esforços visam maximizar os benefícios da IA enquanto minimizam seus impactos negativos, garantindo que a IA sirva à humanidade e não o contrário. No fim, compreender os riscos da IA é o primeiro passo para gerenciá-los. Mantendo-se informado e envolvido no desenvolvimento e uso da IA, podemos ajudar a conduzir essa tecnologia transformadora de forma segura, justa e benéfica para todos.