Depois de termos publicado ChatGPT como problema para o ensino e para a academia, de Fábio Costa, trazemos no Fios do Tempo o texto de Leopoldo Lusquino Filho (professor do Departamento de Engenharia de Controle e Automação da Unesp) sobre as fragilidades do debate e da percepção pública em torno do ChatGPT.
Sendo alvos fáceis de um chauvinismo científico de interesse corporativo, nossos posicionamentos tendem a se dividir entre entusiastas utópicos e céticos inveterados. No sentido inverso da pressa em concluir, Leopoldo nos traz uma competentíssima análise do quadro de desenvolvimento das inteligências artificiais, expondo os problemas mais básicos a respeito da filosofia da ciência e da modelização matemática que são pressupostos em nossas expectativas, projeções e temores.
Neste movimento reflexivo, Leopoldo se baseia não apenas em sua capacidade conceitual fina e erudição filosófica e científica, como também na própria experiência que tem como engenheiro que já criou modelos de IA, bem e mal sucedidos.
Desejo, como sempre, uma excelente leitura!
André Magnelli
Fios do Tempo, 14 de fevereiro de 2022
Torne-se sócio-apoiador do Ateliê Clube
Nada de novo debaixo do sol:
o vazio epistêmico em torno das discussões sobre o ChatGPT
Lançado em novembro de 2022, o ChatGPT marcou um passo importante na evolução do processamento de linguagem natural, ajudou a fomentar o muito exagerado entusiasmo em torno da inteligência artificial (IA), atraiu sobre si uma legião de críticos e reviveu a curiosidade e excitação em torno de temas recorrentes associados à IA. Apesar de todo seu impacto na indústria e na mídia, o ChatGPT nada mais é do que um chatbot, um tipo de tecnologia que mantém conversações em linguagem natural com agentes humanos e que é estudada há mais de 70 anos.
Não há nenhuma contribuição científica especialmente nova no ChatGPT; todo seu poder reside na sua arquitetura computacional absurdamente parruda e na descomunal quantidade de dados que usa para estruturar seu aprendizado, ambos tecnicamente inviáveis até recentemente. Da mesma forma, não se vê nenhuma originalidade nas discussões que seu lançamento vem suscitando: plagiarismo, desemprego e automação, risco existencial proporcionado pela tecnologia, etc. Todos já discutidos à exaustão no passado, mas vigorosamente ressuscitados agora.
Existe algo de fascinante nessa capacidade da IA, e mesmo da ficção em torno da IA, de requentar debates antigos e vendê-los como inéditos. Basta algum divulgador científico do YouTube ou algum milionário excêntrico dono de alguma Big Tech dar alguma declaração aleatória sobre IAs conscientes ou qualquer coisa que o valha e a imaginação pública é imediatamente fisgada! Para mim a razão disso se deve a dois fatores: (i) os consensos da comunidade sobre estas questões não são satisfatórios, com profundas lacunas metafísicas e respostas precipitadas, justificando a tediosa, e normalmente circular, retomada das velhas discussões, e (ii) o fato da IA fornecer simultaneamente distanciamento e proximidade da condição humana, oferecendo todo um repertório interessante e perigoso de metáforas para nossa própria reflexão existencial. Neste ensejo, nas linhas abaixo vou tentar refletir sobre algumas debilidades da filosofia da ciência e da percepção pública de tecnologia expostas pelo ChatGPT.
A suposta neutralidade das declarações técnicas
Chatbots geralmente fertilizam a antiga preocupação em torno da obtenção de uma possível humanidade por uma peça de tecnologia. Olhando pragmaticamente, nós podemos encontrar atualmente três grandes ambições relacionados ao desenvolvimento da IA: (i) desenvolver modelos que superem humanos em tarefas específicas, (ii) desenvolver uma IA geral, ou seja, um modelo que consiga atuar em diferentes campos e extrapolar sua experiência de um para o outro (como humanos fazem, por exemplo, quando têm um insight científico depois de consumir uma obra de arte ou quando melhoram sua capacidade de sociabilização depois de um momento de reflexão introspectiva), e (iii) desenvolver uma IA consciente, isto é, um modelo com auto-consciência, senciência e subjetividade.
É preciso entender que estes são problemas distintos, porque uma IA pode muito bem não apenas criar um poema ou uma pintura se baseando e adaptando as cópias de um acervo armazenado na sua memória, como pode criar um estilo totalmente novo de arte através das combinações não-lineares dos exemplares que consumiu. E ainda assim, ela não precisa ter subjetividade para ser capaz de apreciar esteticamente a sua própria criação ou ter uma consciência reflexiva do seu processo criativo, que, por sua vez, pode ter sido vazio de intencionalidade, mas ainda assim dotado de originalidade, com uma semântica perceptível para humanos.
Para desenvolver uma IA geral nós precisaríamos de um aparato conceitual científico que incluísse uma teoria estatística unificada do conhecimento e do aprendizado e um conjunto de leis da auto-organização de sistemas complexos, ambos formulações teóricas que não temos e que sequer sabemos se são possíveis de se obterem. Para desenvolvermos uma IA consciente precisaríamos resolver o problema duro e o meta-problema da consciência, além de conseguirmos desenvolver uma teoria da emergência de propriedades de sistemas complexos. Não conseguimos tais feitos. E ainda não temos como saber se eles são, de fato, possíveis. Ou seja, mesmo se estivéssemos diante de uma IA geral ou de uma IA consciente, não teríamos como identificá-las. Nós sequer possuímos as ferramentas para tal! E nós sequer sabemos se um dia iremos possuí-las. Logo, clamores que afirmam ou refutam fortemente a possibilidade de tais projetos são necessariamente especulativos, não são suportados por evidências e não são realistas, pois simplesmente o estado-da-arte epistemológico não está em condições de fazer afirmações sobre isso.
E ainda assim, poderosas profecias sobre o futuro da IA são pronunciadas a torto e a direito, não apenas pela imprensa sensacionalista como também por especialistas, que pressionados com a volatilidade da atenção que é dada à IA são obrigados a resumirem complexas e controversas discussões em frases de efeito para não correrem o risco de deixarem de dar seus dois centavos antes que o tema da moda mude. E esse mérito o ChatGPT possui inegavelmente: ele lança holofotes contundentes sobre o chauvinismo científico denunciado por Paul Feyerabend há cinco décadas atrás[1], aquela pretensa autoridade intelectual da ciência que a impele a fazer clamores absolutistas sem antes entender e criticar seus próprios limites epistemológicos, enquanto seus agentes são obviamente enviesados e comprometidos ideologicamente com suas fontes de financiamento.
Hermenêutica artificial
Quando começamos a falar de chatbots, é impossível evitar que alguém venha invocar o Quarto Chinês de John Searle.[2] No famoso experimento mental, o filósofo sugere que caso uma pessoa não falante de chinês trancada em um quarto na posse de um dicionário infalível de chinês recebesse mensagens por debaixo da porta escritas com caracteres chineses por um falante nativo, ela poderia as traduzir e respondê-las inteligivelmente na linguagem do seu interlocutor, mesmo sem desenvolver nenhuma compreensão de chinês. Searle usa essa metáfora para postular que a perfeita execução de tarefas por parte de uma IA não implica na sua posse de estados mentais genuínos. Apesar do valor inegável do Quarto Chinês para o avanço das discussões em filosofia da mente no século passado, sua repetição descontextualizada tem muitas vezes nos distraído do fato óbvio que a IA não precisa aprender a hermenêutica humana para ter uma compreensão genuína da realidade: ela pode ter sua própria hermenêutica artificial.
Por exemplo, certa vez criei uma IA que predizia para os próximos anos a produção de azeite de dendê dadas as características gerais dos insumos (tipo de semente da palmeira, tipo do solo e do adubo, condições atmosféricas, etc).[3] Essa IA superou a acurácia preditiva dos especialistas humanos, mas fez mais do que isso, ela encontrou um novo jeito de agrupar as palmeiras que difere totalmente da taxonomia biológica tradicional. Esta divisão taxonômica que a minha IA delineou é totalmente contra-intuitiva para humanos, uma vez que nós sequer podemos entender racionalmente quais são os padrões que ela identificou e se baseou para tal, mas o fato é que para o cumprimento dessa tarefa específica, a taxonomia artificial foi superior à taxonomia dos especialistas humanos. Agora, um detalhe engraçado é que quando eu criei uma versão adaptada deste mesmo modelo para classificar entes em imagens de baixa resolução, ele foi totalmente incapaz de diferenciar patos de aviões!
Existem centenas de exemplos parecidos, por exemplo, há uns sete anos atrás pesquisadores de Stanford criaram uma rede neural convolucional que inferia com uma acurácia incrível detalhes sobre a sexualidade de indivíduos a partir de uma simples foto[4], usando para isso critérios totalmente contra-intuitivos para nós. Mas uma outra rede convolucional, muito parecida com esta, não conseguia identificar a diferença entre uma tartaruga e uma espingarda (!), caso os pixels do casco da tartaruga fossem levemente escurecidos (para olhos humanos a diferença era imperceptível).[5] Ou seja, modelos de IA, especialmente aqueles que seguem o paradigma conexionista, não necessariamente se baseiam nos mesmos padrões e parâmetros que nós humanos usamos. A cognição e percepção que eles podem gerar da realidade é totalmente distinta. E na maioria das vezes não temos como validar se a lógica por trás da inferência da máquina está correta porque ela foge totalmente ao nosso paradigma cognitivo, cabendo a nós meramente validar sua qualidade pelo desempenho final que ela gera na tarefa proposta.
Atualmente um campo de pesquisa que está crescendo bastante é o da eXplanaible AI (XAI), que consiste justamente em gerar mecanismos que traduzam a hermenêutica da máquina para uma hermenêutica humanamente compreensível.[6] Já adianto que, muitas vezes, isto não é possível. Mas algo que um especialista em IA e um especialista no domínio da tarefa específica podem fazer conjuntamente é gerenciar a aplicação da hermenêutica da máquina. Porém, quando a XAI é bem sucedida em nos explicar os padrões percebidos e assumidos pela máquina em uma tarefa onde ela obteve alto desempenho, isso pode simplesmente acelerar em décadas nossas reflexões sobre uma área de pesquisa ou mesmo criar campos de estudo novos que seriam inacessíveis de outra maneira, simplesmente porque os pressupostos dele não são perceptíveis a priori por humanos. Não é que a IA pode apenas fazer o que humanos fazem, só que mais rápido e melhor em campos que não exigem reflexão. A IA pode fazer atividades que humanos não fazem. E algumas que nunca serão capazes de fazer per si. E isso inclui tipos muito específicos de indução e abdução.
E podemos ver que, da mesma forma que entusiastas utópicos se precipitam para louvarem o ChatGPT sem recorrerem a evidências e a uma sólida base epistemológica, temos também os seus duplos, os céticos inveterados, que não hesitam em repetir a antiga ladainha searleana para explicarem que o super chatbot é cognitivamente estéril, apenas um papagaio estocástico ou algo do tipo, incapaz de ter qualquer papel na reflexão dos mesmos temas sobre os quais discorre eloquentemente, uma vez que IAs são apenas ferramentas de automação, definitivamente privadas do domínio sagrado dos problemas teóricos. Porém, isso não é um fato.
Físicos da Universidade de Maryland estão utilizando com aparente sucesso modelos de aprendizado de máquina baseados em reservatórios para pensar teorias de sistemas caóticos.[7] Não apenas para analisar dados, não apenas para simular hipóteses, mas sim para formular teorias. E teorias que talvez não fossem formuladas de outra maneira, porque humanos simplesmente são inaptos para perceberem os padrões que possibilitam a formulação de tais teorias. O mesmo vale para áreas de pesquisa consideradas menos duras: pesquisadores da University of Southern California estão usando IA para tentar entender melhor sistemas de crenças e a formação de dissonância cognitiva[8], acadêmicos de Cornell estão usando IA para realizar inferência causal em relações sociais[9], enquanto cientistas de Oxford, Cambridge e do Imperial College estão usando IA em busca de um consenso metodológico e epistemológico em filosofia da mente.[10] Se essas teorias serão facilmente refutáveis ou fortemente contaminadas pela estocasticidade dos modelos e pelos vieses dos dados empíricos que foram usados no seu treinamento, eu já não sei. Mas a aplicação de IA para construção de raciocínio teórico já é um fato.
Paradigma do dispositivo
Algo a se pensar seriamente são os vieses desses modelos de IA. Por exemplo, no meu doutorado eu criei um modelo que identificava com 97% de acurácia todos os músculos faciais envolvidos nas expressões que uma pessoa fazia ao longo de um vídeo. Mas isso apenas para jovens brancos.[11] Para idosos negros, por exemplo, a acurácia do meu modelo não superava 31%. Mas esse viés étnico em IAs é bem conhecido e documentado, está presente em todos os algoritmos de reconhecimento facial dos nossos smartphones. De fato, já existe uma enorme preocupação da comunidade em identificar vieses em IA que agravam a desigualdade social. No entanto, provavelmente existem outros vieses mais sutis sobre os quais não pensamos e que podem contaminar nossa forma de perceber a realidade à medida que nossa dependência da IA aumenta.
O filósofo cristão Albert Borgmann, vagamente baseado no conceito de Gestell em Heidegger, defende a existência de um “paradigma do dispositivo”[12], que é a maneira pela qual o senso comum entende a tecnologia, como algo que é criado para cumprir um propósito e que seu uso é sempre fiel a esse objetivo, não existindo um valor ético intrínseco à tecnologia. Segundo essa visão, a moralidade atrelada a um item tecnológico é apenas uma dimensão de quem a manipula. Mas Borgmann rejeita tanto o determinismo tecnológico, que afirma que a tecnologia sempre cumprirá o propósito para o qual foi criado, quanto a visão instrumentalista, que afirma que a tecnologia é sempre neutra, uma mera extensão da moralidade e dos desejos dos seus criadores e usuários. Para Borgmann, há uma alienação fundamental na análise do uso da tecnologia causada pela desconsideração de sua ontologia.
Uma das consequências do paradigma do dispositivo é que a tecnologia parece existir apenas como uma facilidade para alcançar uma boa vida, recebendo assim aceitação acrítica e ingenuamente otimista. Para Borgmann, o próprio conjunto de valores que orienta a construção do ideal de boa vida em uma sociedade já é influenciado pela sua tecnologia. Por exemplo, a rede elétrica foi responsável por uma ruptura histórica no comportamento humano, alterando permanentemente nossa perspectiva de conforto, planejamento e relacionamentos interpessoais. Seria ingênuo acreditar que a rede elétrica apenas cumpriu as intenções originais de sua criação e não teve outras consequências imprevistas na cosmovisão das pessoas, como, por exemplo, ao acentuar nossa alienação do mundo natural.
Agora, se considerarmos os fortes vieses da IA e sua rápida disseminação para as mais diferentes áreas de atuação humana e extrapolarmos o paradigma do dispositivo do campo moral pensado por Borgmann para o campo epistemológico e hermenêutico, temos um sério problema a analisar: IAs podem criar teorias que humanos não podem, podem nos facilitar a percepção de aspectos da realidade até então ocultos a nós, mas podem também enviesar nossa própria capacidade de raciocínio e inferência, construída gradualmente por milênios de evolução biológica e desenvolvimento cultural, e nos afastar radicalmente de uma forma humana de pensar, por assim dizer. Basta lembrarmo-nos do exemplo da IA que não conseguia distinguir tartarugas de espingardas…
Talvez o grande risco do ChatGPT não seja como ele vai alavancar a escrita automatizada de dissertações inócuas por alunos de má-fé, evidenciar os confusos limites dos direitos autorais ou dificultar a vida de publicitários e comunicólogos pouco inspirados. Provavelmente a maior preocupação que deveríamos ter é como o ChatGPT põe mais uma peça no silencioso e inexorável processo de algoritmização da vida e do pensamento humano.
Notas
[1] FEYERABEND, Paul. Against method: Outline of an anarchistic theory of knowledge. Verso Books, 2010.
[2] SEARLE, John. Chinese room argument. Scholarpedia, v. 4, n. 8, p. 3100, 2009.
[3] LUSQUINO FILHO, Leopoldo AD et al. Extending the weightless WiSARD classifier for regression. Neurocomputing, v. 416, p. 280-291, 2020.
[4] WANG, Yilun; KOSINSKI, Michal. Deep neural networks are more accurate than humans at detecting sexual orientation from facial images. Journal of personality and social psychology, v. 114, n. 2, p. 246, 2018.
[5] TADDEO, Mariarosaria; MCCUTCHEON, Tom; FLORIDI, Luciano. Trusting artificial intelligence in cybersecurity is a double-edged sword. Nature Machine Intelligence, v. 1, n. 12, p. 557-560, 2019.
[6] GUNNING, David et al. XAI—Explainable artificial intelligence. Science robotics, v. 4, n. 37, p. eaay7120, 2019.
[7] PATHAK, Jaideep et al. Model-free prediction of large spatiotemporally chaotic systems from data: A reservoir computing approach. Physical review letters, v. 120, n. 2, p. 024102, 2018.
[8] HERNÁNDEZ, Carlos et al. Simple and efficient bi-objective search algorithms via fast dominance checks. Artificial Intelligence, v. 314, p. 103807, 2023.
[9] KOŹLAK, Jarosław; ZYGMUNT, Anna; NAWARECKI, Edward. Modelling and analysing relations between entities using the multi-agents and social network approaches. arXiv preprint arXiv:1303.6094, 2013.
[10] ZELAZO, Philip David; MOSCOVITCH, Morris; THOMPSON, Evan (Ed.). The Cambridge handbook of consciousness. Cambridge University Press, 2007.
[11] FILHO, Leopoldo AD Lusquino et al. Action Units Classification Using ClusWiSARD. In: AICANN 2019, Munich, Germany, September 17–19, 2019, Proceedings, Part III 28. Springer International Publishing, 2019. p. 409-420.
[12] BORGMANN, Albert. Technology and the character of contemporary life: A philosophical inquiry. University of Chicago Press, 1987

LEOPOLDO LUSQUINO FILHO é professor do Departamento de Engenharia de Controle e Automação da Unesp. Possui mestrado e doutorado em Inteligência Artificial pela UFRJ e realizou um pós-doutorado no laboratório Recod.ai, na Unicamp. Foi monge vaishnava por sete anos, é teólogo leigo e coordenador do projeto Clube do Dharma.
Deixe uma resposta