Rita Casaro
Se a inteligência artificial (IA) imaginada pela ficção científica em que máquinas tornam-se capazes de pensar e agir como seres humanos ainda é uma possibilidade distante, já fazem parte efetivamente do cotidiano ferramentas que automatizaram inúmeras tarefas, valendo-se de alto poder computacional e do uso de dados em larga escala. Assim, o que os populares MetaIA, ChatGPT e Gemini fazem é predição estatística progressivamente aprimorada, aponta Renata Mielli, pesquisadora pelo Programa de Ciências da Comunicação da Escola de Comunicação e Artes da Universidade de São Paulo (ECA-USP). “Nesse sentido, não há uma inteligência como a humana, mas ela tem capacidade de aprendizado a partir dos dados que recebe e de ir gerando resultados cada vez com mais acurácia, assertividade, menos erros e mais elaborados”, explica.
Coordenadora do Conselho Gestor da Internet no Brasil (CGI.br) e ligada ao Ministério da Ciência, Tecnologia e Inovação (MCTI), ela chama a atenção para os impactos dos mecanismos de IA na economia e no mercado de trabalho. Auxiliar fundamental no ganho de produtividade e eficiência, a adoção de tais ferramentas, pondera, deve ser feita de forma planejada, levando-se em conta a empregabilidade dos trabalhadores e a necessidade de qualificação da mão de obra. Para além dos efeitos na economia ou na prestação de serviços públicos, há preocupações relativas à integridade da informação e à preservação de direitos humanos, completa.
Por isso mesmo, salienta ela, é essencial que o Brasil estabeleça regulação legal para IA, medida em debate por meio do Projeto de Lei 2.238/2023, que tramita no Senado. A Comissão Temporária Interna sobre Inteligência Artificial no Brasil (CTIA), em reunião realizada em 28 de novembro, após análise das emendas propostas, apresentou texto substitutivo sobre o qual deve deliberar no dia 5 de dezembro. Incluído pelo presidente do Senado, Rodrigo Pacheco, no esforço concentrado antes do encerramento do ano, o PL pode ser votado em Plenário até o dia 12.
Neste novo relatório do senador Eduardo Gomes (PL/TO), questões destacadas por Mielli como essenciais, a exemplo de várias prevendo a proteção dos trabalhadores, foram rejeitadas, indicando pressão de grupos de interesse na reta final da discussão. “Como em todo debate legislativo que envolve temas que impactam as big techs, há um lobby muito forte dessas empresas e de parte do setor privado de evitar a regulação ou de desidratar as propostas para que elas sejam tão minimalistas e principiológicas que, na prática, não tenham um impacto mais relevante”, adverte a pesquisadora.
Corroborando o alerta, nota legislativa elaborada pela consultoria parlamentar Consillium para a Federação Nacional dos Engenheiros (FNE) aponta enfraquecimento da fiscalização com risco à proteção dos trabalhadores em áreas sensíveis. Destaca também a ausência de “sistemas de supervisão e transparência capazes de reduzir o potencial de decisões algorítmicas prejudiciais em serviços de alto risco, como a engenharia”, assim como de “dispositivos adicionais para que sistemas de IA não comprometam direitos conquistados, a segurança e a empregabilidade dos trabalhadores”. A Coalizão Direitos na Rede (CDR) também fez o alerta para o risco de esvaziamento da legislação. Em nota pública subscrita por inúmeras organizações, classifica o substitutivo que seguirá para votação pelos senadores como "o mínimo necessário", apontando necessidade aprimoramentos.
Nesta entrevista ao Jornal do Engenheiro, Mielli fala ainda sobre a necessidade de avanços na produção nacional de tecnologia e na educação da população. “Nós temos uma lição de casa, precisamos trabalhar envolvendo todo esse ecossistema, educomunicação e literacia, que inclua uma compreensão mínima sobre o uso e os impactos da inteligência artificial”, afirma. Confira a seguir e no vídeo ao final.
O termo inteligência artificial se popularizou bastante e remete a personagens de ficção científica. O que é exatamente na atualidade essa tecnologia?
Desde a década de 1950, matemáticos e cientistas da computação trabalham a ideia de que ferramentas computacionais associadas a modelos matemáticos poderiam desenvolver uma tecnologia que pudesse mimetizar a forma de pensar e raciocinar dos seres humanos. Por isso se cunhou o termo inteligência artificial. Só que, ao longo do desenvolvimento e da evolução das ciências e da tecnologia, aquela ideia de inteligência artificial não conseguia ser efetivamente implantada, então esse termo acabou sendo abandonado, de certa forma. O que nós vimos a partir da internet [foi] que esse modelo de negócios baseado na coleta de dados – tudo o que nós fazemos na internet [gera] dados dos mais variados tipos –, associado ao desenvolvimento do poder computacional de chips de última geração, [trouxe] uma nova oportunidade para essa área do conhecimento chamada de inteligência artificial. Isso se popularizou com o advento do ChatGPT, lançado para que as pessoas pudessem usar uma versão gratuita. Primeiro, é preciso dizer que não existe apenas um tipo de inteligência artificial. Existe a baseada em modelos de árvore, a generativa, a clássica. Essas com que a gente está acostumado a interagir enquanto usuário, como MetaIA, ChatGPT, Gemini, são inteligências artificiais baseadas no que se chama de processamento de dados em larga escala, que tem o objetivo de, a partir de processos estatísticos, oferecer um resultado. Então, nada mais é do que uma ferramenta de predição estatística. Nesse sentido, não há uma inteligência como a humana, mas ela tem capacidade de aprendizado a partir dos dados que recebe e de ir gerando resultados cada vez com mais acurácia, assertividade, menos erros e mais elaborados. À medida que recebe mais dados, aprende com eles e gera respostas cada vez melhores; um conjunto de resultados que é impossível à mente humana processar de forma rápida. Então, é isso que se convenciona chamar de inteligência artificial. Você tem os Large Language Models (LLMs), os baseados em imagem e um conjunto de aplicações que são customizadas a partir dessa ferramenta original, desenvolvida hoje principalmente por big techs.
Além do ChatGPT e assistentes virtuais que fazem parte do dia a dia de muitas pessoas, onde a inteligência artificial tem aplicação no sistema produtivo e com que impacto? Há risco de desemprego para milhões de pessoas como se alardeia? No caso da engenharia, em especial, a tecnologia pode substituir os profissionais?
Nós estamos num momento muito inicial ainda da adoção em larga escala de ferramentas de inteligência artificial nas várias áreas da economia. No Brasil, isso ainda é mais verdade, porque há uma assimetria mundial com relação às capacidades para o uso de inteligência artificial e adoção dessas ferramentas. Não à toa o governo brasileiro lançou recentemente um Plano Brasileiro de Inteligência Artificial para tentar estimular, a partir de políticas públicas e de financiamento, a adoção e o uso dessas ferramentas nas várias áreas da economia brasileira. Toda nova tecnologia que se introduz na sociedade traz tanto benefícios quanto riscos associados ao seu uso. Há benefícios porque elas podem facilitar imensamente processos produtivos em áreas, por exemplo, de grande risco para a atividade humana ou onde o trabalho repetitivo pode ser melhor realizado de maneira até mais segura e eficiente por processos automatizados. Mas isso sempre também veio associado com o problema de como impacta a sociedade e particularmente o mercado de trabalho. Então, buscar esse equilíbrio hoje é uma das grandes discussões que estão sendo feitas em âmbito internacional e também no Brasil. A inteligência artificial tem que ser vista, e acho que essa também tem sido a visão do governo brasileiro quando debate esse tema, como uma ferramenta que auxilia e melhora a produtividade do trabalhador. Mas é claro que em algum momento, em algumas atividades, pode haver uma substituição. O que nós precisamos olhar é que tipo de trabalho será substituído e como esse trabalhador que será ou não substituído numa tarefa específica tem outras tarefas mais qualificadas para assumir, porque com a tecnologia também surgem novas demandas de trabalho humano, que merecem e exigem mais qualificação. Hoje, um dos problemas que nós temos, e é uma das dimensões do Plano Brasileiro de IA, é a qualificação e requalificação do trabalhador para utilizar a inteligência artificial como uma ferramenta. Esse, de fato, é um grande dilema. Na minha perspectiva, nós precisamos olhar com muita cautela, porque da mesma maneira que há previsões que dizem que você pode ter a eliminação de milhões de postos de trabalho pela introdução da inteligência artificial, você também tem estudos que mostram que a inteligência artificial vai gerar milhões de novos postos de trabalho diferentes, mais qualificados, com mais valor agregado. Nós precisamos compreender, enquanto sociedade, que tipo de trabalho nós queremos que a inteligência artificial faça e que tipo de trabalho nós não queremos – aqueles que envolvem criatividade, dimensões inerentes à natureza humana ou a necessidade de responsabilidade posterior. Na área da engenharia, a gente está falando de uma série de questões sensíveis: você não pode responsabilizar uma IA por um erro de engenharia. Essa inteligência artificial tem que ser uma ferramenta para contribuir, facilitar e aprimorar o trabalho do engenheiro, que em última instância é o responsável. Esse é um debate que não tem uma resposta simples, mas nós vamos precisar olhar a questão de uma maneira mais abrangente.
E quais são os impactos previstos na sociedade, para além do mercado de trabalho e da economia?
À medida que a gente for tendo um uso responsável de ferramentas de inteligência artificial, que seja guiado por parâmetros éticos, por uma boa governança, com uma regulação robusta baseada em riscos, ela pode trazer muitos benefícios, porque pode de fato facilitar processos em áreas de prestação de serviços públicos, da relação das várias esferas governamentais com o cidadão. Há aplicações na área da saúde que podem auxiliar em processos de prevenção, cuidado, atenção básica, triagem. No ambiente escolar, não para substituir o professor na sala de aula, muito pelo contrário, mas no auxílio à gestão, por exemplo [na compreensão e combate] à evasão. Em políticas públicas voltadas à segurança alimentar ou transferência de renda e emprego, pode identificar através de ferramentas de inteligência artificial processos de distribuição olhando a realidade produtiva de determinados lugares. Você consegue otimizar processos e, com isso, fazer com que se tenham recursos mais bem aplicados. Agora, você tem os riscos envolvendo essas aplicações os mais variados, mas hoje principalmente relacionados à integridade da informação. Você tem hoje uma enxurrada de deepfakes que são utilizadas para influenciar processos eleitorais, e isso pode trazer riscos imensos. Em função da inteligência artificial, você pode perder, se não tiver um processo de governança muito forte, a própria percepção daquilo que é real e daquilo que não é, que é produzido artificialmente. Imagine uma criança no ensino fundamental que se depara com aquela resposta em que a IA produziu imagens de um soldado nazista, sendo um negro, uma mulher, um indígena. Essa criança não tem o background cultural, educacional ou histórico para saber que essa resposta é uma mentira, uma distorção, porque jamais poderia haver um soldado nazista negro. Então, isso é um exemplo extremo para mostrar que nós precisamos tomar muito cuidado com a relação que a gente tem com esse tipo de ferramenta. Existem ferramentas de IA para fazer terapia psicológica, sem nenhum tipo de regulação. É um chatbot que conversa, isso é uma coisa extremamente perigosa. Que tipo de diálogo você vai estabelecer? Imagine uma criança, um adolescente, num diálogo com uma inteligência artificial, tentando fazer uma terapia. Isso tudo exige, portanto, uma regulação e uma governança muito robusta dessas ferramentas.
Um aspecto que tem sido muito discutido é o uso de IA para questões de segurança pública, com reconhecimento facial de viés racista. Ou uso de big data para, por exemplo, fazer a avaliação de professores com resultados que contradizem a experiência do dia a dia, trazendo questionamentos sobre a suposta isenção dessas ferramentas.
Na verdade, muitas dessas ferramentas nem são inteligência artificial; a gente acaba chamando de inteligência artificial tudo o que é automatizado e que usa dados. Mas o fato é que os vieses são enormes e tem muitos erros. No Vale do Silício, a região geográfica que sedia a matriz dessas big techs, eles usam essa retórica para vender os seus produtos como as mil maravilhas. E como é que eles começaram a chamar os erros da inteligência artificial? De “alucinações”. As pessoas acabam se relacionando com as tecnologias e acham que são neutras porque são sistemas matemáticos, mas isso não é verdade. Nem é só por causa dos dados usados para o seu treinamento, que são majoritariamente do Norte Global, de uma cultura que não tem nada a ver com a brasileira – mais de 80% dos modelos de inteligência artificial são treinados em inglês –; [o problema vem] desde a concepção da ferramenta por um conjunto de pesquisadores que trabalham para uma empresa, geralmente privada, que visa o lucro. E esses pesquisadores, na sua esmagadora maioria, são homens brancos, norte-americanos ou do Norte Global. O resultado não necessariamente tem como objetivo melhorar as relações sociais. Desde o início, tudo tem viés, então a tecnologia não é neutra na concepção, no desenvolvimento, no treinamento nem no uso. Uma das questões que a gente tem discutido muito é que nós precisamos investir para que os países do Sul Global, inclusive o Brasil, deixem de ser consumidores de tecnologias que venham prontas do Norte Global para ser produtores. Porque precisamos desenvolver e treinar esses modelos de forma georreferenciada, para que essas ferramentas estejam voltadas a resolver problemas concretos da sociedade brasileira, que reflitam a nossa diversidade linguística, cultural, econômica, geográfica, étnico-racial. Então, à medida que a gente também passe a ser produtor dessa tecnologia, com empresas, universidades ou parcerias público-privadas, elas também têm mais aderência às regras legais estabelecidas no território nacional. Esse é um dos desafios hoje: estabelecer regras para o uso dessas tecnologias no Brasil, [o que enfrenta] problemas jurisdicionais porque estamos tratando de empresas cuja sede são os Estados Unidos.
Esse ponto remete à discussão sobre a regulamentação das big techs, que até hoje não se conseguiu fazer no Brasil, e à necessidade de regulação da IA. Tramita no Senado o PL 2.338/2023, que tem esse objetivo. Como é que está essa discussão?
Na verdade, temos vários projetos no Congresso Nacional, mas há um hoje que é o principal, que tem mobilizado as atenções dos vários segmentos sociais, que é o PL 2.338/2023. Tem uma abordagem regulatória baseada em direitos e riscos, muito semelhante à perspectiva regulatória do AI Act, que foi aprovado na União Europeia. Esse projeto foi elaborado por juristas, entregue ao senador Rodrigo Pacheco, presidente do Senado, e tem hoje como relator o senador Eduardo Gomes. Nós estamos num processo de discussão bastante grande no âmbito da comissão que foi criada, mas como todo debate legislativo, que envolve temas que impactam as big techs, há um lobby muito forte dessas empresas e de parte do setor privado diretamente ligado a elas de evitar a regulação ou, na impossibilidade de evitar a regulação, de desidratar as propostas regulatórias para que elas sejam tão minimalistas e principiológicas que, na prática, não tenham um impacto mais relevante. O substitutivo apresentado pelo senador Eduardo Gomes [em julho último] trazia mudanças com relação ao projeto original. Algumas positivas, outras de acomodações; como ocorre em todo projeto de lei, ele nunca vai ser unânime. Mas eu acho que era um projeto adequado e equilibrado para lidar com essas questões dos riscos, sem impedir a inovação, o investimento, o cuidado e o uso dessas tecnologias. Mas houve nessa reta final uma ação muito forte das empresas para modificar o projeto em vários artigos.
Juntamente com o esforço da regulação legal, como é possível promover a educação digital da população para que não seja mera usuária de dispositivos e tecnologias cujo funcionamento desconhece?
Esse é um desafio imenso. Na verdade, tudo o que diz respeito ao Brasil é um desafio imenso, porque nós somos um país continental, com diversidade regional, com assimetrias gigantescas. A gente vem falando dos temas relacionados à educação midiática e da comunicação, literacia digital, há muitos anos, muito antes da inteligência artificial, e a gente não tem conseguido emplacar, do ponto de vista da adoção de políticas públicas mais robustas. Você tem iniciativas, mas elas não têm escala, e no Brasil, esse é o grande desafio, você precisa de escala. Nós temos uma lição de casa para fazer, precisamos trabalhar envolvendo todo esse ecossistema, educomunicação e literacia digital. E literacia que inclua uma compreensão mínima sobre o uso e os impactos da inteligência artificial. O Plano Brasileiro de IA prevê isso, inclusive tem uma linha de investimentos bastante robusta para projetos de formação, desde a educação básica voltada à inteligência artificial. Mas nós precisamos incluir esse desafio no sistema educacional. Precisa entrar nos currículos das escolas, porque o que tem escala no Brasil é a educação. Por aí, a gente consegue enfrentar uma parte do problema, que seriam as crianças. Mas nós temos outro público que não está dentro da escola, que são os trabalhadores. Quando a gente pensa esses processos de qualificação e requalificação voltadas ao mercado de trabalho, tem que ter uma dimensão de literacia para o uso de IA e literacia digital. É a maneira de ganhar escala. Nós não podemos entender a qualificação e requalificação para o uso de IA no mercado de trabalho apenas na sua dimensão mais técnica, stricto sensu. Nós vamos precisar incorporar isso de uma maneira mais abrangente, pensar parcerias com as entidades sindicais, olhar o movimento social. Isso é uma questão de médio e longo prazos, mas que a gente só vai solucionar se encarar esse desafio de uma maneira sistêmica. É uma questão fundamental para que a gente possa lidar de forma responsável e consciente com essas muitas ferramentas tecnológicas.
Conteúdo publicado originalmente em 01/12/2024 e atualizado em 04/12/2024
Assista ao vídeo da entrevista