logo seesp ap 22

 

BannerAssocie se

Por que a inteligência artificial deve ser regulada

Avalie este item
(0 votos)

Rita Casaro

 

Se a inteligência artificial (IA) imaginada pela ficção científica em que máquinas tornam-se capazes de pensar e agir como seremos humanos ainda é uma possibilidade distante, já fazem parte efetivamente do cotidiano ferramentas que automatizaram inúmeras tarefas, valendo-se de alto poder computacional e do uso de dados em larga escala. Assim, o que os populares MetaIA, ChatGPT e Gemini fazem é predição estatística, aponta Renata Mielli, pesquisadora pelo Programa de Ciências da Comunicação da Escola de Comunicação e Artes da Universidade de São Paulo (ECA-USP). “Nesse sentido, não há uma inteligência como a humana, mas ela tem capacidade de aprendizado a partir dos dados que recebe e de ir gerando resultados cada vez com mais acurácia, assertividade, menos erros e mais elaborados”, explica.

 

Coordenadora do Conselho Gestor da Internet no Brasil (CGI.br) e ligada ao Ministério da Ciência, Tecnologia e Inovação (MCTI), ela chama a atenção para os impactos dos mecanismos de IA na economia na economia e no mercado de trabalho, mas também na vida em sociedade. Auxiliar fundamental no ganho de produtividade e eficiência, a adoção de tais ferramentas, pondera, deve ser feita de forma planejada, levando-se em conta empregabilidade dos trabalhadores e a necessidade de qualificação da força de trabalho.

 

Para além dos efeitos na economia ou na prestação de serviços públicos, há preocupações relativas à integridade da informação e à preservação de direitos humanos, destaca Mielli. Por isso mesmo, salienta ela, é essencial que o Brasil estabeleça regulação legal pra IA, medida em debate por meio do Projeto de Lei 2238/2023, que tramita no Senado. Xxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

 

Nesta entrevista ao Jornal do Engenheiro, a coordenadora do CGI.br fala ainda sobre a necessidade de avanços na produção nacional de tecnologia e na educação da população. “Nós temos uma lição de casa para fazer, precisamos trabalhar envolvendo todo esse ecossistema, educomunicação e literacia que inclua uma compreensão mínima sobre o uso e os impactos da inteligência artificial”, afirma. Confira a seguir e no vídeo ao final.

 

O termo inteligência artificial se popularizou bastante e no imaginário de muita gente remete a personagens de ficção científica. O que é exatamente essa tecnologia que se convencionou chamar de Inteligência artificial?

Essa discussão sobre o que é inteligência artificial é muito importante. Desde a década de 1950, matemáticos e cientistas da computação trabalham a ideia de que ferramentas computacionais associadas a modelos matemáticos poderiam desenvolver uma tecnologia que pudesse mimetizar a forma de pensar e raciocinar dos seres humanos. Por isso se cunhou o termo inteligência artificial. Só que, ao longo do desenvolvimento e da evolução das ciências e da tecnologia, aquela ideia de inteligência artificial não conseguia ser efetivamente implantada, então esse termo acabou sendo abandonado de uma certa forma. O que nós vimos a partir da internet [foi] que esse modelo de negócios baseado na coleta de dados – tudo que nós fazemos na internet [gera] dados dos mais variados tipos – , associado ao desenvolvimento do poder computacional de chips de última geração, [trouxe] uma nova oportunidade para esta área do conhecimento chamada de inteligência artificial. Isso se popularizou com o advento do ChatGPT, lançado para que as pessoas pudessem usar uma versão gratuita. Primeiro, é preciso dizer que não existe apenas um tipo de inteligência artificial. Existe a baseada em modelos de árvore, a generativa, a clássica. Essa com que a gente está acostumado a interagir enquanto usuário, como MetaIA, ChatGPT, Gemini, são inteligências artificiais baseadas no que se chama de processamento de dados em larga escala, que tem o objetivo de, a partir de processos estatísticos, oferecer um resultado para o usuário. Então, nada mais é do que uma ferramenta de predição estatística. Nesse sentido, não há uma inteligência como a humana, mas ela tem capacidade de aprendizado a partir dos dados que recebe e de ir gerando resultados cada vez com mais acurácia, assertividade, menos erros e mais elaborados. À medida que recebe mais dados, aprende com eles e gera respostas cada vez melhores; um conjunto de resultados que é impossível à mente humana processar de forma rápida. Então, é isso que se convenciona a chamar inteligência artificial. Você tem os Large Language Models (LLMs), os baseados em imagem e um conjunto de aplicações que são customizadas a partir dessa ferramenta original, desenvolvida hoje principalmente por grandes big techs.

 

Além do ChatGPT, que se popularizou, há todos os assistentes virtuais das big techs que fazem parte do dia a dia de muitas pessoas. Para além dessas ferramentas, onde a inteligência artificial tem aplicação no sistema produtivo e com que impacto? Há risco de desemprego para milhões de pessoas como se alardeia? No caso da engenharia, em especial, a tecnologia pode substituir os profissionais?

Nós estamos num momento muito inicial ainda da adoção em larga escala de ferramentas de inteligência artificial nas várias áreas da economia. No Brasil, isso ainda é mais verdade porque há uma assimetria mundial com relação às capacidades para o uso de inteligência artificial e a adoção dessas ferramentas. Não à toa o governo brasileiro lançou recentemente um Plano Brasileiro de Inteligência Artificial para tentar estimular, a partir de políticas públicas e de financiamento, a adoção e o uso dessas ferramentas nas várias áreas da economia brasileira. Toda nova tecnologia que se introduz na sociedade traz tanto os benefícios quanto riscos associados ao seu uso. Há benefícios porque elas podem facilitar imensamente processos produtivos em áreas, por exemplo, de grande risco para a atividade humana ou onde o trabalho repetitivo pode ser melhor realizado de maneira até mais segura e eficiente por processos automatizados. Mas isso sempre também veio associado com o problema de como isso impacta a sociedade e particularmente o mercado de trabalho. Então, buscar esse equilíbrio hoje é uma das grandes discussões que estão sendo feitas em âmbito internacional e também no Brasil. A inteligência artificial tem que ser vista, na minha visão, e acho que essa também tem sido a visão do governo brasileiro quando debate esse tema, como uma ferramenta que auxilia e melhora a produtividade do trabalhador. Mas é claro que em algum momento, em algumas atividades, pode haver uma substituição. O que nós precisamos olhar é que tipo de trabalho será substituído e como esse trabalhador que será ou não substituído numa tarefa específica tem outras tarefas mais qualificadas para assumir porque com o surgimento da tecnologia também surgem novas demandas de trabalho humano, que merecem e exigem mais qualificação. Hoje, um dos problemas que nós temos, e é uma das dimensões do Plano Brasileiro de IA, é a qualificação e requalificação do trabalhador para utilizar a inteligência artificial como uma ferramenta. Esse, de fato, é um grande dilema. Na minha perspectiva, nós precisamos olhar com muita cautela, porque da mesma maneira que há previsões que dizem que você pode ter a eliminação de não sei quantos milhões de postos de trabalho pela introdução da inteligência artificial, você também tem estudos que mostram que a inteligência artificial vai gerar não sei quantos milhões de novos postos de trabalho diferentes, mais qualificados, com mais valor agregado. Nós precisamos compreender, enquanto sociedade, que tipo de trabalho nós queremos que a inteligência artificial faça e que tipo de trabalho nós não queremos que a inteligência artificial faça – aqueles que envolvem criatividade, dimensões que são inerentes à natureza humana ou a necessidade de responsabilidade posterior. Na área da engenharia, a gente está falando de uma série de questões sensíveis: você não pode responsabilizar uma inteligência artificial por um erro de engenharia. Essa inteligência artificial tem que ser uma ferramenta para contribuir, facilitar e aprimorar o trabalho do engenheiro, que em última instância é o responsável. Esse é um debate que não tem uma resposta simples, mas nós vamos precisar olhar a questão de uma maneira mais abrangente.

 

E quais são os impactos já observados na sociedade, para além do mercado de trabalho e da economia?

À medida que a gente for tendo um uso responsável de ferramentas de inteligência artificial, que seja guiado por parâmetros éticos, por uma boa governança, com uma regulação robusta baseada em riscos, ela pode trazer muitos benefícios porque pode de fato facilitar processos em áreas de prestação de serviços públicos, de facilitação da relação das várias esferas governamentais com o cidadão. Há aplicações na área da saúde que podem auxiliar em processos de prevenção, cuidado, atenção básica, triagem. No ambiente escolar, não para substituir o professor na sala de aula, muito pelo contrário, mas no auxílio à gestão, por exemplo [na compreensão e combate] à evasão. Em políticas públicas voltadas à segurança alimentar ou transferência de renda e emprego, pode identificar através de ferramentas de inteligência artificial processos de distribuição olhando a realidade produtiva de determinados lugares. Você consegue otimizar processos e, com isso, fazer com que se tenham recursos mais bem aplicados. Agora, você tem os riscos envolvendo essas aplicações, os mais variados, mas hoje principalmente relacionados à integridade da informação.  Você tem hoje uma enxurrada de deepfakes que são utilizadas para influenciar processos eleitorais, e isso pode trazer riscos imensos. Em função da inteligência artificial, você pode perder, se não tiver um processo de governança muito forte, a própria percepção daquilo que é real e daquilo que não, que é produzido artificialmente. Imagine uma criança no ensino fundamental que se depara com aquela resposta em que a IA produziu imagens de um soldado nazista, sendo um negro, uma mulher, um indígena. Essa criança não tem o background cultural, educacional ou histórico para saber que essa resposta é uma completa inverdade, é uma mentira, uma distorção, porque jamais poderia haver um soldado nazista negro. Então, isso é um exemplo extremo para mostrar que nós precisamos tomar muito cuidado com a relação que a gente tem com esse tipo de ferramenta. Existem ferramentas de IA para fazer terapia psicológica, sem nenhum tipo de regulação. É um chatbot que conversa, isso é uma coisa extremamente perigosa. Que tipo de diálogo você vai estabelecer? Imagine uma criança, um adolescente, num diálogo com uma inteligência artificial, tentando fazer uma terapia. Isso tudo exige, portanto, uma regulação e uma governança muito robusta dessas ferramentas.

 

Um aspecto que tem sido muito discutido é o uso de IA para questões de segurança pública, com reconhecimento facial de viés racista. Ou uso de big data para, por exemplo, fazer a avaliação de professores com resultados que contradizem a experiência do dia a dia, trazendo questionamentos sobre a suposta isenção dessas ferramentas.

Na verdade, muitas dessas ferramentas, nem são inteligência artificial; a gente acaba chamando de inteligência artificial tudo que é automatizado e que usa dados. Mas o fato é que os vieses são enormes e tem muitos erros. No Vale do Silício, a região geográfica que sedia a matriz dessas big techs, eles usam essa retórica para vender os seus produtos como as mil maravilhas. E como é que eles começaram a chamar os erros da inteligência artificial? De alucinações. As pessoas acabam se relacionando com as tecnologias e acham são neutras porque são sistemas matemáticos, mas isso não é verdade. Nem é só por causa dos dados que usados para o seu treinamento, que são majoritariamente dados do norte global, de uma cultura que não tem nada a ver com a brasileira, com língua brasileira –  mais de 80% dos modelos de inteligência artificial são treinados em inglês –, [o problema está] desde a concepção da ferramenta por um conjunto de pesquisadores que trabalham para uma empresa, geralmente privada, que visa o lucro. E esses pesquisadores, na sua esmagadora maioria, são homens brancos, norte-americanos ou do norte global. O resultado não necessariamente é tem como objetivo melhorar as relações sociais. Desde o início, tudo tem viés, então, a tecnologia não é neutra: na concepção, no desenvolvimento, no treinamento e nem no uso. Uma das questões que a gente tem discutido muito é que nós precisamos investir para que os países do sul global, inclusive o Brasil, deixem de ser consumidores de tecnologias que venham prontas do norte global para serem produtores dessas tecnologias. Porque precisamos desenvolver e treinar esses modelos de forma georreferenciada, para que essas ferramentas estejam voltadas a resolver problemas concretos da sociedade brasileira, que reflitam a nossa diversidade linguística, cultural, econômica, geográfica, étnico-racial. Então, à medida que a gente também passe a ser produtor dessa tecnologia, com empresas, universidades ou parcerias público-privadas elas também têm mais aderência às regras legais estabelecidas no território nacional. Porque esse é um dos desafios hoje: estabelecer regras para o uso dessas tecnologias no Brasil, [o que enfrenta] problemas jurisdicionais porque estamos tratando de empresas cuja sede são os Estados Unidos. A gente viu o que aconteceu recentemente com a questão do X.

 

Esse ponto remete à discussão sobre a regulamentação das big techs, que até hoje não se conseguiu fazer no Brasil, e à necessidade de regulação da IA. Tramita no Senado o PL 2338/2023, que tem esse objetivo. Como é que está essa discussão?

Na verdade, temos vários projetos no Congresso Nacional, mas  há um projeto hoje que é o principal, que tem mobilizado as atenções dos vários segmentos sociais, que é o PL 2338/2023. Tem uma abordagem regulatória baseada em direitos e riscos, muito semelhante à perspectiva regulatória do AI Act, que foi aprovado na União Europeia. Esse projeto foi elaborado por juristas, entregue ao senador Rodrigo Pacheco, presidente do Senado, e tem hoje como relator o senador Eduardo Gomes. Nós estamos num processo de discussão bastante grande no âmbito da comissão que foi criada, mas como todo debate legislativo, que envolve temas que impactam as big techs, há um lobby muito forte dessas empresas e de parte do setor privado diretamente ligado a elas de evitar a regulação ou, na impossibilidade de evitar a regulação, de desidratar as propostas regulatórias para que elas sejam tão minimalistas e principiológicas que, na prática, não tenham um impacto mais relevante. O último substitutivo apresentado pelo senador Eduardo Gomes trazia algumas mudanças com relação ao projeto original. Algumas positivas, outras de acomodações, como ocorre em todo projeto de lei, ele nunca vai ser unânime. Mas eu acho que era um projeto adequado e equilibrado para lidar com essas questões dos riscos, sem impedir a inovação, o investimento, o cuidado e o uso dessas tecnologias. Mas houve aí nessa reta final uma ação muito forte das empresas para modificar o projeto em vários artigos e parece que o relator vai oferecer agora uma nova versão.

 

Juntamente com o esforço da regulação legal, como é possível promover a educação digital da população para que não seja mera usuária de dispositivos e tecnologias cujo funcionamento desconhece?

Esse é um desafio imenso. Na verdade, tudo que diz respeito ao Brasil é um desafio imenso, porque nós somos um país continental, com uma diversidade regional imensa, com assimetrias gigantescas. A gente vem falando dos temas relacionados à educação midiática e da comunicação, literacia digital, há muitos anos, muito antes da inteligência artificial, e a gente não tem conseguido emplacar, do ponto de vista da adoção de políticas públicas mais robustas. Você tem iniciativas, mas elas não têm escala, e no Brasil, esse que é o grande desafio, você precisa de escala. Nós temos uma lição de casa para fazer, nós precisamos trabalhar envolvendo todo esse ecossistema, educomunicação, literacia digital e literacia que inclua uma compreensão mínima sobre o uso e os impactos da inteligência artificial. O Plano Brasileiro de IA prevê isso, inclusive tem uma linha de investimentos bastante robusta para projetos de formação, desde a educação básica voltada à inteligência artificial. Mas nós precisamos incluir esse desafio de uma maneira sistêmica, no sistema educacional. Isso, de uma vez por todas, precisa entrar nos currículos das escolas, porque o que tem escala no Brasil é a educação. Por aí, a gente consegue enfrentar uma parte do problema, que seriam as crianças. Mas nós temos um outro público que não está dentro da escola, que são os trabalhadores. Quando a gente pensa esses processos de qualificação e requalificação voltadas ao mercado de trabalho, tem que ter uma dimensão de literacia para o uso de IA e literacia digital. É a maneira de ganhar escala. Nós não podemos entender a qualificação e requalificação para o uso de IA no mercado de trabalho apenas na sua dimensão mais técnica, estrito, senso. Nós vamos precisar incorporar isso de uma maneira mais abrangente, pensar parcerias com as entidades sindicais, olhar o movimento social. Isso é uma questão de médio e longo prazos, mas que a gente só vai solucionar se encarar esse desafio de uma maneira sistêmica, incorporado naquilo que tem de grande escala na sociedade brasileira. É uma questão fundamental para que a gente possa lidar de forma responsável e consciente com essas muitas ferramentas tecnológicas.

 

Adicionar comentário

Receba o SEESP Notícias *

agenda