Em painel realizado na conferência FebrabanTech 2025, iniciada em São Paulo nesta terça-feira (10/06), a Data Privacy Brasil abordou impactos socioeconômicos da Inteligência Artificial (IA) e defendeu a regulação do uso da IA pelo Congresso.

O painel “Qual é o verdadeiro custo socioeconômico da IA?” teve como tema central a pergunta: como garantir benefícios equitativos e evitar possíveis danos como a intensificação da desigualdade, o deslocamento de empregos, o comprometimento da privacidade e dos direitos do consumidor?

Mediado por Mona Dorf (diretora-adjunta de redes sociais da Febraban), o painel contou com a presença do professor Glauco Arbix (Observatório da Inovação do Instituto de Estudos Avançados da Universidade de São Paulo), Gabriela Tourinho (coordenadora de IA da BTG Pactual), Carla Lopes de Moraes (IT Senior Head na F1rst), Alexandre Del Rey (fundador e conselheiro da I2AI Associação Internacional de Inteligência Artificial) e Rafael Zanatta (codiretor da Data Privacy Brasil).

Rafael Zanatta durante sua fala no painel “Qual é o verdadeiro custo socioeconômico da IA?”, na FebrabanTech, em São Paulo.

 

No painel, Glauco Arbix ressaltou que as escolhas institucionais presentes determinarão os efeitos distributivos das IAs, fazendo menção ao trabalho do economista Daron Acemoglu e as divergências entre as previsões de grandes consultorias empresariais e o trabalho feito por departamentos universitários.

Gabriela Tourinho e Carla Lopes ressaltaram que, apesar do “hype” em torno da produtividade da IA, há grandes oportunidades de transformações de processos produtivos internos em organizações intensivas em tecnologias, bem como oportunidades de instituição de novas relações entre pessoas e IAs no ambiente de trabalho, com o devido cuidado com a proteção dos dados e a autonomia das pessoas. “É preciso entender a funcionalidade de cada tecnologia e como ela pode colaborar de fato”, disse Lopes.

Alexandre Del Rey também reforçou a centralidade de uma estratégia nacional focada em educação e desenvolvimento de capacidades, para que as pessoas tenham proximidade com a IA e não a coloquem em um lugar místico como uma “tecnologia salvadora”. “O tema da educação em IA precisa ser pilar de uma estratégia brasileira de IA”, disse Alexandre.

Rafael Zanatta abordou o duplo fenômeno do impacto para o trabalho: de um lado, aumento das automações e eliminação de trabalhos em estágios iniciais de carreira como organização e gerenciamento de documentos, pesquisas jurídicas e revisão de códigos; do outro lado, a invisibilização de trabalhos de rotulagem de dados já existentes, como ficou notável no escândalo da empresa Builder AI, que possuía investimentos de grandes fundos e decretou falência após se provar que seus “produtos automatizados de IA” eram feitos por 700 programadores e engenheiros indianos. O mesmo escândalo ocorreu com a Amazon nas lojas “Just Walk Out”. “As cadeias de trabalho de dados tendem à terceirização no Sul Global. Precisamos dar visibilidade e produzir dados sobre que tipo de trabalho sustenta soluções de IA”, disse.

Zanatta também abordou o potencial crescimento das fraudes movidas por IA e diferentes tipos de golpes já identificados por centros de pesquisa que tendem a se intensificar com IA generativa (golpes de voz sintética para transações financeiras, golpes de imagem sintética que simulam relacionamento amoroso, golpes de automação em canais de Whatsapp para compra de criptoativos e produtos fraudulentos). “A Câmara pode olhar para o tema das fraudes e encará-lo como de alto risco diante da escala e impacto bilionário para economia popular”, afirmou.

O painel também discutiu as relações entre inovação e regulação, com enfoque na dinâmica regulatória no Brasil, que possui diversos setores econômicos regulados. Para Arbix, a inovação caminha de mãos dadas com a regulação. “O setor que mais produz inovações produtivas é o de saúde, responsável por mais de 35% das inovações em setores altamente regulados. Regulação não impede inovação”, sustentou o professor da USP.

Para Zanatta, é necessário compreender que a regulação dos usos de IA no Projeto de Lei 2338/2023 “separa o joio do trigo”, diferenciando situações muitos distintas de alto risco: “A regulação não impede a robótica industrial, a ciência em modelos de linguagem, os serviços de aprendizado em máquinas, mas mira situações muito específicas onde há riscos concretos a direitos fundamentais e potencial de dano. É algo básico que o Congresso Nacional precisa avançar com a aprovação da lei de IA em 2025”.

Confira o material de suporte da Data Privacy Brasil aqui

Veja também

Veja Também