Carlos Magno Corrêa Dias*
Hoje quando se fala em Inteligência Artificial (IA) pensa-se, de imediato, tem-se a vaga noção, na verdade, que se trata de algo muito inovador ou inolvidável, recente, tipo tecnologia avançada super contemporânea, um conceito para lá de desenvolvido, um procedimento de ponta.
Entretanto, embora possa parecer surpreendente, já no período clássico da Grécia Antiga o filósofo Aristóteles defendia a posição de substituir mão-de-obra escrava por objetos autônomos; ideia esta que é tomada como a primeira concepção de IA e que foi explorada gradativa e constantemente até consagrar nos domínios da Ciência da Computação quando os computadores passaram a realizar atividades remotamente inteligentes. Pensava-se já naquele período que a mente humana era algo semelhante a uma máquina que poderia operar o conhecimento de maneira codificada em uma linguagem para realizar a escolha de ações a serem efetivadas.
Claro que o desenvolvimento pleno da IA, no sentido de se simular procedimentos humanos para cada vez mais obter ganhos significativos de performance ou para a ampliação das possibilidades de desenvolvimento e expansão dos sentidos e habilidades intelectuais humanas, se deu mais recentemente por volta do Século XX. É lá pelos anos de 1950 que, entretanto, a IA inicia um avanço extraordinário quando se intensificaram os estudos e projetos sobre “agentes inteligentes" os quais são entendidos como “sistemas que ao perceberem seus ambientes passam a tomar atitudes que maximizam suas chances de sucesso”.
De forma (bastante) geral entende-se a IA como “uma capacidade do sistema para interpretar corretamente dados externos, aprender a partir desses dados e utilizar essas aprendizagens para atingir objetivos e tarefas específicas através de adaptação flexível”.
Mais pontualmente, IA constitui uma área do campo da Computação na qual são buscados “métodos ou dispositivos computacionais que possuam ou multipliquem a capacidade racional do ser humano de resolver problemas, pensar ou, de forma ampla, ser inteligente”. Mas, o sempre “subestimar” de possibilidades contribuiu para algum atraso no desenvolvimento da IA plenamente, pois havia um senso (meio que geral) que os computadores se prestavam, basicamente, ou essencialmente, para apenas “efetuar operações aritméticas e nada mais” não sendo capaz de realizar qualquer que fosse a atividade remotamente inteligente.
Inicialmente, efetivamente, admite-se que o primeiro programa a considerar a abordagem “artificial da inteligência” humana foi o “General Problem Solver” (Solucionador de Problemas Gerais) ou GPS, de 1957, o qual, basicamente, foi edificado para “imitar protocolos humanos de resolução de problemas”. O GPS pretendia funcionar como uma máquina universal de solucionar problemas de forma que todo problema simbólico formalizado, em princípio, poderia ser por ele resolvido.
Da década de 1950 para os dias atuais muito desenvolvimento tecnológico ocorreu no campo da IA de forma que dia após dia a IA vem reestruturando, intensamente, praticamente, todas as áreas que trabalham, principalmente, com a prática da dedução por repetição seguida. “Alfa” premissas geraram (recursivamente) “beta” conclusões as quais se incorporam (continuamente) às premissas iniciais em ciclo que se processa (indefinidamente e sucessivamente) para se produzir novas conclusões.
Assim sendo, conhecidas as “alfa” premissas (A1, A2, A3, ..., An) deduz-se, inicialmente, a conclusão B1. Em seguida, com o novo conjunto de premissas A1, A2, A3, ..., An, B1 gera-se (deduz-se) a conclusão B2 que será incorporada ao posterior conjunto de premissas; ou seja, tem-se a nova conjunção de verdades A1, A2, A3, ..., An, B1, B2 que por sua vez será a base para a dedução de uma conclusão B3. Já a conclusão B4 será deduzida das premissas A1, A2, A3, ..., An, B1, B2, B3 e assim sucessivamente até a obtenção da conclusão Bm.
Mas, o processo é infinitamente recorrente dado que a partir do conjunto das premissas A1, A2, A3, ..., An, B1, B2, B3, B4, ..., Bm poder-se-á gerar C1 e assim sucessivamente até a dedução das C1, C2, C3, ..., Cp conclusões até deduzir Dq e, assim, também, sucessivamente “ad infinitum” (indefinidamente).
A despeito da observação do parágrafo precedente há de se salientar que a IA tem seus fundamentos (tanto quanto seu próprio e contínuo desenvolvimento) centrados em diferentes áreas do saber humano as quais fornecem (em conjunção) distintas técnicas, ideias e ferramentas para se atingir o atual estágio de progresso e complexidade; abrangendo, por conseguinte, uma gama enorme de subáreas.
Mas, estruturalmente, a IA está baseada em “algoritmos” que são modelos formados por sequências de raciocínios, instruções, procedimentos ou operações para se atingir um objetivo determinado seguindo passos finitos e operados sistematicamente. Grosso modo, um algoritmo a partir de dados de entrada (“input”) e cálculos (mediados por instruções específicas) apresenta respostas de saída (“output”) sob a forma de informações.
Um algoritmo funciona como uma receita a ser executada para se atingir um objetivo (um resultado) específico a partir de informações iniciais; algo como fazer um bolo tomando-se por base uma receita em particular e os ingredientes necessários para dar realidade àquele bolo pretendido. No caso da comparação, os ingredientes necessários para produzir o bolo são os “dados de entrada do algoritmo”, o passo a passo para executar a receita remete ao “processamento ou execução das instruções lógicas do algoritmo”; sendo o resultado, o próprio bolo, “a resposta dada pelo algoritmo”.
Embora, algo aparentemente elementar, os algoritmos iniciados de forma simples a partir das primeiras instruções vão se tornando cada vez mais complexos e internos de acordo com aquilo que se objetiva atingir. Algoritmos vão “evoluindo” ao ponto dos próprios algoritmos adquirem a capacidade gerar outros algoritmos cada mais poderosos (cada vez mais “inteligentes”).
Chega-se, então, à fase na qual as máquinas podem “aprender” e, inevitavelmente, passam a ser capazes de tomar “decisões” independentemente da interferência humana. Podendo-se afirmar, sem medo de errar, que “inteligência” e “aprendizado” não são mais atributos próprios (ou exclusivos) dos seres humanos. Além do mais, não seria, em absoluto, exagero algum considerar que as máquinas com IA estão não apenas “aprendendo” como, também, estão “apreendendo” (assimilando, compreendendo).
É notório que a IA já há muito tempo começou a mudar o mundo. Entretanto, atualmente, a cada momento, a IA vem promovendo transformações com uma velocidade espantosa. Em muitas das vezes em questão de horas todo um processo, uma realidade, construída durante décadas, é transformada, modificada, alterada, de forma a ampliar significativamente possibilidades e excluindo grandes contingentes de outros procedimentos que não fazem mais sentido diante dos avanços tecnológicos determinados pela própria IA.
Pode-se, então, resumidamente, dizer que a principal função da IA é mesmo a transformação das realidades por intermédio do “aprendizado de máquina” (“machine learning”) o qual, essencialmente, remete a um processo de se repetir o raciocínio do ser humano. Assim pensada, a IA se presta a fornecer às máquinas a capacidade de aprender de forma algo semelhante à capacidade humana da aprendizagem.
Porém, não é permitido esquecer que, devido exatamente ao insistente trabalho de transformar, com o auxílio da IA, os robôs humanoides ou mesmo os humanos digitais em “seres artificiais” cada vez mais “perfeitos” (no sentido de serem o mais próximo possível dos seres humanos e melhores que eles) sérios problemas sequer aventados anteriormente começam a se impor de maneira determinante.
Não se restringindo mais a reproduzir habilidades humanas tais como audição, visão, fala, movimentos, gestos, expressões faciais, agora se intensificam trabalhos no sentido de replicar “comportamentos”, “entendimentos”, “pensamentos”. Atualmente é pretendido (declaradamente, explicitamente) a criação de máquinas “iguais” aos seres humanos com, inclusive, “sentimentos” (ou até “vontade”). Deseja-se, sim, criar um “ser artificial” estruturalmente semelhante ao homem em todos os diversos aspectos que poderá, em futuro o mais próximo possível, vir a disputar espaço com os próprios seres humanos.
Dirão alguns que tal perspectiva é algo que orbita a ficção científica. No entanto, avaliando os atuais robôs humanoides ou os humanos digitais existentes e espalhados pelos mais diversos ambientes já se tem uma enorme preocupação com os aperfeiçoamentos atingidos no sentido aventado precedentemente.
Conquanto possa gerar alguma apreensão já existem, por exemplo, projetos bem avançados destinados à criação de clones de seres humanos que possam executar as tarefas do dia a dia de qualquer pessoa enquanto o original humano passe a realizar outras atividades que as máquinas não poderiam executar. Também existem trabalhos para se gerar a “imortalidade digital” a qual consiste em se replicar a mente das pessoas artificialmente para poder continuar a se desenvolver ilimitadamente mesmo depois da morte biológica.
Dada a velocidade e a forma com a qual a IA se desenvolve fato é que a humanidade muito em breve deverá se defrontar com “humanos artificiais” que poderão tomar o lugar nas decisões sobre o mundo. Assim, é urgente começar a discutir como serão garantidos não somente os direitos e os deveres dos seres criados com IA, como, também, como humanos e não humanos (“humanos artificias” com IA) poderão conviver pacificamente e em harmonia dado que se um “ser artificial” adquirir (realmente) a capacidade da “consciência” (com elevada inteligência, uma “consciência artificial inteligente”) não se permitirá ser subjugado ou escravizado por outros seres com menores potencialidades. É o que pelo menos se imagina seguindo princípios básicos de sobrevivência dos seres conscientes.
Enquanto o atributo da “consciência” não pertencer a uma máquina “inteligente”, embora possa aprender e “apreender”, está não teria (em tese) com impedir de ser “desligada” (assim se acredita). Entretanto, “alfa” premissas conduzem a “beta” conclusão” (sempre) e chegará o momento no qual a IA evoluirá tanto e com tamanha velocidade que (possivelmente) os seres humanos não serão páreo para as máquinas cuja “inteligência” venha superar a do homem. Não se deve esquecer: a inteligência humana tem uma evolução muito lenta, é extremamente limitada e frágil; sendo seu desenvolvimento apenas biológico.
Supõe-se que se IA não adquirir “consciência de sua existência” de forma a não desenvolver “vontade própria”, ou não for “autossuficiente”, ou não conseguir “desenvolver sentimentos ou a vontade” para se preservar livre, o homem continuará a dominar os robôs humanoides e os humanos digitais que ele próprio está criando a sua semelhança. Julga-se, então, que sem uma “consciência artificial” as máquinas inteligentes não entrarão em conflito com os humanos para garantirem sua existência em detrimento da vida humana.
A questão parece, então, até bem simples ou controlada. Mas, quais seriam (de fato) as possibilidades de um ser com consciência e mais inteligente que o ser humano se manter escravo das vontades ou das condições impostas por um humano (comprovadamente seu inferior)?
Recorrendo à etimologia da palavra tem-se que "consciência" deriva do termo latino “conscientia” e significa “conhecimento de algo partilhado com alguém”. O termo “consciência” pode remeter, também, à “descoberta ou reconhecimento de algo” seja de natureza exterior ou interior ao próprio “Eu”.
Frequentemente, afirma-se que a consciência pode desdobrar-se em sentidos tais como: o psicológico, o epistemológico e o metafísico. Em sentido psicológico, seria a “percepção do eu por si mesmo”. Em sentido epistemológico é admitida como “o sujeito do conhecimento”. E, em sentido metafísico, em muitas das vezes, remete ao que se chama de “o Eu”. Diz-se que consciência, enquanto uma “qualidade da mente” que envolve “subjetividade, autoconsciência e a capacidade de perceber a relação entre si e o outro” é, então, “um atributo do espírito, da mente ou do pensamento humano”.
Todavia, julga-se provável que uma máquina inteligente com elevada capacidade de dedução muito além da humana e com poder ilimitado de processamento pode sim desenvolver consciência de si própria para pensar e refletir mantendo-se independente de quaisquer controles. Não é devido esquecer que o funcionamento da IA é baseado, exatamente, nos pilares: (1) obtenção de dados; (2) tomadas de decisão; e, (3) realização de ações por meio de dispositivos por ela controlados. O propósito da IA sempre foi ser a mais capaz possível “para realizar atividades em prol de um objetivo”.
Já atualmente há situações nas quais se emprega IA de forma que sequer é possível distinguir (com plena certeza) se realmente as decisões são ou não tomadas por humanos. Máquinas inteligentes com algoritmos de IA já são capazes de “prever”, por exemplo, o comportamento humano a partir de “aprendizado” obtido pela visualização de vídeos. Tais algoritmos de IA são capazes de fornecer às máquinas algo como uma previsão futura (mais intuitiva, por assim se dizer) daquilo que poderá ocorrer no futuro apenas analisando ações e comportamentos que vão sendo aprendidos e “apreendidos”.
Sob o pretexto de se favorecer uma melhor interação/colaboração humano-robô são desenvolvidos, na atualidade, série de algoritmos de IA que podem fazer previsões sobre o comportamento humano para mais adequadamente coordenar/integrar melhor as ações das máquinas com a dos seres humanos. Para tanto, dispositivos com IA “analisam” enorme conjunto de vídeos para “aprender” regras de comportamento humano. Assim, uma máquina passa a ter a possibilidade de prever aquilo que alguém estaria prestes a realizar avaliando tão somente a linguagem corporal ou as expressões faciais. Tais máquinas podem prever, então, por exemplo, ações como abraços, beijos, socos, apertos de mão, movimentos simbólicos dos dedos e das mãos como “paz e amor”, “vida longa e próspera”, “ok”, dentre outros.
Estão sendo criadas estruturas matemáticas que permitem às máquinas organizar sequências de procedimentos em conformidade com a possibilidade de acontecerem no futuro quando guardadas as mesmas condições iniciais anteriores. Claro que, em várias das vezes, ações futuras não são previsíveis. Todavia, já é possível desenvolver modelos que podem “raciocinar abstratamente sobre eventos futuros". O desenvolvimento em questão permite aos computadores avaliar situações para a tomada de “decisões menos pré-programadas” e muito mais parecidas com aquelas próprias do comportamento humano. Está se fazendo alusão a algo como se um robô passasse a “entender” e antecipar comportamentos humanos, ou mesmo, pudesse "adivinhar" o que se deveria fazer em seguida de uma séria de ações conhecidas. A IA caminha para além do objetivo e avança no campo de uma “subjetividade” quanto à tomada de decisão.
Fala-se, no agora, que nos próximos cinco ou dez anos as máquinas com IA serão capazes não apenas de “pensar” como um humano, mas, também, ter “sentimentos” e “tomar decisões próprias” independente de qualquer interferência da humanidade. Um novo mundo com diferentes estruturas relacionais será habitado por outros seres “muito mais inteligentes que os humanos” e que, também, terão a capacidade de “sentir”, de ter “emoções” tais como felicidade, satisfação, medo ou frustação. Imagine-se a complexidade. É o que está sendo sinalizado: “máquinas inteligentes com sentimentos”.
Ter sentimentos implica a produção de “emoções” que tanto podem provocar sensações boas de bem-estar ou prazer quanto de mal-estar tais como indisposição ou descontentamento; as quais indubitavelmente interferem diretamente na tomada de decisão. Todavia, como se sabe, sejam quais forem as emoções elas entram em conflito, geralmente, na tomada de decisão, quando confrontadas com a razão. Assim, o difícil (e sem solução) dilema razão/emoção está prestes a assumir nova forma e dimensão.
Este modelo aventado de “máquinas inteligentes com sentimentos” está sendo edificado sobre modelos matemáticos supercomplexos (e terminados, completos) baseados não apenas em algoritmos, mas no mesmo modelo de tomada de decisão do cérebro humano. A presunção ao se inserir padrões subjetivos nos sistemas de IA é que as correspondentes máquinas “pensantes” venham tomar decisões por ela própria segundo estímulos que elas próprias vão percebendo.
Não é muito difícil entender a questão de se possibilitar que máquinas tenham “sentimentos” haja vista que já atualmente os modelos de IA são capazes de mapear os sentimentos dos indivíduos levando em consideração padrões de comportamento das próprias pessoas. Exemplos não faltam. São encontrados diversos modelos de tomada de decisão baseados em padrões de comportamento associados ao tempo de resposta e juízo de valor das pessoas. Em avançado grau de desenvolvimento já estão, por exemplo, os estudos que permitem qualificar tipos de perfis das pessoas ao se analisar seus comportamentos.
Se humanos limitados (quanto ao tempo e ao espaço) podem (já há tempos) traçar perfis de personalidades com os dados que possuam imagine-se, então, uma máquina com poder indefinido de processamento de dados sempre cada vez mais crescente.
Quanto às escolhas (decisões) por intermédio de perfis pré-identificados veja-se, por exemplo, para citar apenas uma ocorrência, que grandes empresas já contratam profissionais especificamente preparados para selecionar (com base em perfis escolhido de antemão) seus futuros colaboradores objetivando maior eficiência e alcance.
Então, não é muito difícil de se imaginar que se máquinas forem programadas previamente para decidirem segundo “objetivos” padrões de afeto, alegria, amor, aversão, ciúme, compaixão, confiança, empatia, esperança, frustração, hostilidade, medo, paixão, raiva, surpresa, tristeza, dentre outros sentimentos, elas próprias poderão impor ao ser humano (em tese) escolhas segundo seus novos padrões de emoções (segundo seu próprio “arbítrio”). E, neste novo universo, máquinas poderão redefinir emoções tais como admiração, ansiedade, apreço visual, calma, desejo, diversão, dúvida, estranhamento, excitação, horror, interesse, inveja, nojo, nostalgia, romance, satisfação, simpatia, tédio, triunfo.
Na esteira de que “é possível desde que provável” surge uma série de preocupações que se avolumam dia após dia ao se cogitar uma nova forma de escravidão futrura que poderá ser imposta aos homens por “máquinas inteligentes pensantes com conscxiência”.
Admita-se que se instale, previamente, em um dado sistema artificial (em uma máquina inteligente com IA com “pensamentos”) um conceito tão subjetivo como o de beleza, um modelo que siga determinados padrões de beleza (ditados por outros, também, subjetivos sentimentos). Naquele momento da instalação se deu à máquina o poder total de decisão sobre o que será seguido como beleza naquele meio que dependa daquela máquina. Seguindo um pouco mais à frente no exemplo, pense, também, que aquela mesma máquina (com o tal conceito de beleza instalado) seja a responsável por selecionar trabalhadores para uma vaga de emprego e que dentre as condições para o candidato ser aceito exista a restrição prévia “ser bonito”. Simples, então, será o processo de eliminação dado que se de acordo com os padrões de beleza da máquina existir algum candidato que não se enquadre naquelas normas de beleza este indivíduo será (sumariamente) eliminado. Perceba-se a problemática futura.
Há, porém, de outro lado, quem afirme que máquinas inteligentes com “sentimentos” e, por conseguinte, com “vontade” e “emoções”, haverão de “transcender” entre mundos possíveis; sendo a primeira “transcendência” ocasionada, exatamente, no instante quando a IA se transformar em CA (“Consciência Artificial”); conforme a própria Engenharia Lógica e outras áreas do saber já vem sinalizando há algum tempo. Então, máquinas inteligentes que constroem outras máquinas mais inteligentes serão responsáveis, também, pela criação de outros mundos.
O ser humano enquanto organismo biológico vivo não tem como sair de seu único mundo possível, o mundo real. Mas, surgem, então, outro detalhe algo interessante: as probabilidades dos mundos possíveis para além do mundo real são “quânticas” (no sentido de infinitas).
Numa análise meio que condicional ou condicionada, corre-se, então, também, o risco do “subjetivo” ser escravizado (paradoxalmente) pelo “objetivo” na tomada de decisões quando as máquinas estiverem no comando das emoções humanas. O que por si só já seria um enorme problema conflituoso para o arbítrio humano. E ressalte-se, dada a espantosa e célere evolução tecnológica em pleno desenvolvimento, não é mais o caso de conjecturar “se vai acontecer” a CA como possibilidade apassivadora, mas sim “quando vai acontecer” a CA como fato aventado; deixando, por conseguinte, a IA original como mais uma história a ser contada para as gerações futuras.
*Carlos Magno Corrêa Dias é professor, pesquisador, conselheiro consultivo do Conselho das Mil Cabeças da CNTU, conselheiro sênior do Conselho Paranaense de Cidadania Empresarial (CPCE) do Sistema Fiep, líder/fundador do Grupo de Pesquisa em Desenvolvimento Tecnológico e Científico em Engenharia e na Indústria (GPDTCEI) do CNPq, líder/fundador do Grupo de Pesquisa em Lógica e Filosofia da Ciência (GPLFC) do CNPq, personalidade empreendedora do Estado do Paraná pela Assembleia Legislativa do Estado do Paraná (Alep).
Ilustrações: Freepik.com