Quais são os desafios mais urgentes da regulamentação da Inteligência Artificial (IA) para a proteção dos direitos humanos? Essa foi a questão central da conversa com Lucía Camacho, advogada e pesquisadora colombiana de referência internacional no tema. Em seus estudos, ela expõe como a IA tem desigualdades reforçadas e alimenta a perseguição de grupos sociais estigmatizados. Ainda assim, Camacho acredita que a tecnologia pode ser uma aliada dos direitos humanos, desde que regulada de forma responsável.

Especialista em políticas públicas pelo Conselho Latino-Americano de Ciências Sociais (Clacso) e mestre em direitos humanos pela Universidade Nacional de San Martín, Camacho atua na interseção entre tecnologia e direitos. Neste mês, representou a organização Derechos Digitales no Festival de Inovação e Tecnologia Social, em Bogotá (Colômbia), onde, no painel “Entre utopias e distopias: ética da IA ​​em nossa região”, alertou sobre os riscos atuais da IA ​​e a necessidade de regulamentações alinhadas aos direitos humanos.

Agora, ela participa do primeiro encontro da conferência CTRL+J LATAM – Tecnologia e Jornalismo no Sul Global, organizada pela Associação de Jornalismo Digital (Ajor) e pela Momentum – Journalism and Tech Task Force, em parceria com o International Fund for Public Interest Media (Fundo Internacional para a Mídia de Interesse Público, em tradução livre) e apoio da Luminate.

Crédito: reprodução.

O evento, realizado entre 20 e 22 de março em São Paulo, debate temas como sustentabilidade do jornalismo, produção e distribuição de notícias e as assimetrias entre Norte e Sul Global no financiamento e na circulação de informações confiáveis. 

Acompanhe a entrevista:

Quais são os principais desafios que você enfrenta ao trabalhar com direitos digitais na América Latina, especialmente em relação à regulamentação tecnológica e à proteção dos direitos humanos?

Existem dois tipos de desafios que nós que trabalhamos neste setor enfrentamos hoje. Por um lado, a estigmatização das organizações da sociedade civil dificulta nosso trabalho e nossa conexão com autoridades em conversas relevantes sobre o futuro da tecnologia.

Também é um desafio ver o entusiasmo exagerado e irrefletido das autoridades por tecnologias como a IA, cujos riscos elas ignoram, apesar de seu uso progressivo e generalizado no setor público, o que ameaça o exercício de direitos em setores críticos como saúde, educação e justiça, onde é implementada sem salvaguardas ou garantias essenciais.

Como a região pode promover a regulamentação da IA ​​que equilibre a inovação e a proteção dos direitos humanos, e quais são os maiores obstáculos para a implementação de políticas públicas eficazes nessa área?

No momento, é um desafio falar sobre regulamentação de IA neste contexto geopolítico tenso, em que empresas transnacionais de tecnologia, ou Big Tech, estão tentando afastar qualquer responsabilidade de países fora dos Estados Unidos. Apesar disso, vale ressaltar em nossos países, consumidores, mas não produtores de IA, a necessidade de avançar no desenvolvimento da soberania digital, ou seja, no desenvolvimento de nossas próprias infraestruturas e tecnologias alinhadas aos valores democráticos e ao respeito aos direitos.

No entanto, um dos obstáculos mais importantes a serem superados nessa conversa tem a ver com a quebra de uma falácia narrativa, em que os reguladores veem a inovação como incompatível com os direitos e dão preferência às vozes da indústria como se fosse um jogo de “soma zero” — o que não precisa ser.

Como os governos e a sociedade civil podem trabalhar juntos para garantir que a IA seja desenvolvida e usada de forma ética e responsável?

A abertura ao diálogo e a participação significativa são essenciais para permitir que o governo e os atores da sociedade civil encontrem a fórmula para tornar a IA uma tecnologia ética, responsável e alinhada aos direitos humanos.

Entretanto, na maioria dos contextos regulatórios regionais, há atualmente uma desconexão entre as vozes oficiais e as da sociedade civil, em grande parte mediada pela deterioração do espaço cívico e pelos ataques a esta última.

Quais são os impactos mais urgentes das tecnologias digitais nos direitos humanos, especialmente em comunidades marginalizadas, e como a falta de regulamentação amplifica as desigualdades sociais e econômicas?

No momento, um dos impactos mais críticos que vemos é como a IA está alimentando práticas de vigilância em massa e a perseguição de grupos sociais estigmatizados, reforçando e ampliando a desigualdade social.

Por exemplo, a automação da vigilância por meio de reconhecimento facial implantada em espaços públicos no contexto de protestos sociais, ou o uso de IA para monitorar massivamente o discurso online e punir vozes dissidentes é uma tendência preocupante em uma região onde essa tecnologia é implantada sem salvaguardas e, o que é ainda pior, apesar da existência de evidências que sugerem que seu uso estigmatiza minorias historicamente excluídas — pessoas racializadas, mulheres, dissidentes de gênero, entre outros.

Por que é essencial discutir a regulamentação das tecnologias digitais a partir de uma perspectiva de direitos humanos e quais são os desafios específicos que a América Latina enfrenta nesse contexto?

Em grande medida, é urgente falar sobre regulamentação em um cenário geopolítico como o atual, porque muitos dos problemas que atualmente assolam as democracias do nosso hemisfério são resultado do poder exacerbado por um punhado de atores que não prestam contas a quase ninguém.

No caso das tecnologias digitais, uma perspectiva baseada em direitos facilita o equilíbrio entre a responsabilização e a proteção dos indivíduos, mas essa tarefa envolve desafios críticos que os países latino-americanos em particular devem superar, como a aplicação e o respeito às suas jurisdições por atores como as Big Tech, a maioria dos quais está domiciliada fora de nossos países e agora busca proteção de seus governos para impedir qualquer tentativa de regulamentação.

Outro desafio que vemos nos atuais processos regulatórios na América Latina tem a ver com a ausência de certos debates importantes que deveriam fazer parte da conversa, como a proteção do futuro do trabalho e dos trabalhadores, ou a sustentabilidade ambiental de uma tecnologia intensiva em recursos e extremamente sedenta, que busca explorar intensivamente recursos escassos em nossa região.

Vemos tendências buscando copiar a fórmula regulatória europeia, e o trabalho da sociedade civil é garantir que as regulamentações respondam aos nossos contextos e necessidades, especialmente aqueles problemas que são urgentes em um contexto como o da América Latina, que é extremamente desigual.

Uma de suas investigações aborda a proteção de dados de refugiados. Como são as parcerias entre organizações de direitos humanos e as Big Techs e quais desafios essas colaborações representam para pessoas em situações vulneráveis?

Neste momento, as fronteiras dos nossos países são locais de experimentação e de implantação de tecnologias altamente invasivas da privacidade dos migrantes, que são vulneráveis ​​porque as fronteiras são espaços onde a proteção dos direitos humanos é diminuída.

Em áreas como a tríplice fronteira Argentina-Paraguai-Brasil ou a fronteira México-Estados Unidos, múltiplas camadas de tecnologias digitais, como drones, reconhecimento facial, entre outras, são implantadas de forma opaca com objetivos claros: excluir migrantes indesejados e fazer sua expulsão ou retorno aos seus países de origem.

A relação, por exemplo, entre grandes empresas de tecnologia e Estados é muitas vezes opaca, mas nestes contextos, sob o pretexto de proteger a segurança nacional, é completamente opaca; Enquanto a sociedade civil busca esclarecer seus papeis e as tecnologias oferecidas aos nossos Estados, e descobrir seu impacto na vida das pessoas.

A Inteligência Artificial pode ser uma aliada dos direitos humanos? Quais aspectos da regulamentação da IA ​​você considera mais urgentes para garantir a proteção desses direitos?

A IA, como uma tecnologia que facilita certos aspectos de nossas vidas, pode ser uma grande aliada dos direitos humanos, por exemplo, para auxiliar na tarefa de descobrir padrões de violência ou crime, ou violações sistemáticas de direitos humanos.

Mas na discussão regulatória, onde se buscam salvaguardas para certos usos críticos e altamente arriscados, é urgente dar atenção especial a quatro esferas críticas para a América Latina:

  1. o uso da IA ​​para aprimorar as práticas de vigilância em massa do Estado, permitir práticas de perseguição e silenciamento de vozes opostas e dissidentes;
  2. o impacto da IA ​​nos processos democráticos;
  3. a proteção do trabalho e do futuro dos trabalhadores, não apenas dos trabalhadores de plataformas, mas de todos aqueles que veem seu trabalho impactado pela automação, desde criadores, jornalistas e artistas, até educadores, prestadores de serviços de saúde, entre outros;
  4. e o impacto da IA ​​nas mudanças climáticas e no meio ambiente.

É claro que há outros aspectos críticos que precisam ser abordados agora, como o uso da IA ​​que afeta mulheres, grupos dissidentes de gênero e crianças. As frentes são múltiplas, e o desafio é como garantir que todas essas discussões mereçam a devida atenção e motivem a adoção das medidas de proteção necessárias.

O jornalismo independente e de causa precisa do seu apoio!


Fazer uma matéria como essa exige muito tempo e dinheiro, por isso precisamos da sua contribuição para continuar oferecendo serviço de informação de acesso aberto e gratuito. Apoie o Catarinas hoje a realizar o que fazemos todos os dias!

Contribua com qualquer valor no pix [email protected]

ou

FAÇA UMA CONTRIBUIÇÃO MENSAL!

Últimas