Fios do Tempo. Quem escreveu isso? O chatGPT como problema para o ensino e para a academia – por Fábio Costa

Lançado recentemente pela OpenAI, o ChatGPT está gerando reflexões sobre sua natureza e suas consequências: indicaria esse chatbot a entrada em uma fase avançada de escrita automatizada por Inteligência Artificial? A que ponto este modelo de linguagem avançada faz com que se tornem obsoletas habilidades humanas que envolvem o estudo, a escrita, a narrativa, a argumentação e a própria capacidade de pensar, interpretar e julgar? Quais são seus efeitos tanto sobre a vida escolar e universitária quanto sobre o mundo do trabalho?

Fábio Costa, doutor em filosofia (UERJ) e professor do Colégio Pedro II, nos propicia hoje, no Fios do Tempo, suas reflexões sobre o ChatGPT, tendo o cuidado conceitual do filósofo e o olhar experimentado do educador.

Neste sentido, não há dúvidas: sendo expressão de um pensamento, seu inteligente texto não foi criado pelo ChatGPT.

Desejamos, como sempre, uma excelente leitura.

A.M.
Fios do Tempo, 18 de janeiro de 2023


Torne-se um sócio-apoiador do Ateliê Clube


Quem escreveu isso?

O chatGPT como problema
para o ensino e para a academia

A OpenAI, uma das principais empresas de inteligência artificial do mundo, lançou recentemente o ChatGPT, um modelo de linguagem avançado capaz de compreender e gerar texto natural, ou seja, sem a aparência de automação. Ele foi treinado com grandes quantidades de dados de texto da internet, tornando-o útil para uma variedade de tarefas, como geração de texto, tradução automática e compreensão de linguagem natural. Fundada em 2015 por nomes conhecidos como Elon Musk, Sam Altman e Greg Brockman, a OpenAI tem como objetivo desenvolver tecnologias de inteligência artificial de forma acessível e segura para todos, visando tornar o avanço da inteligência artificial benéfico para toda a humanidade.

O ChatGPT funciona com base no princípio de aprendizado profundo, onde o modelo é treinado com grandes volumes de dados de texto, para que ele possa aprender a compreender e gerar escritos com naturalidade. Tais textos podem ser difíceis de distinguir daqueles redigidos por humanos, o que é uma das suas principais vantagens. Os usuários podem operar o ChatGPT de diferentes maneiras, dependendo do contexto e objetivo da aplicação. Algumas das funcionalidades incluem: gerar texto, completar texto, traduzir texto e compreender a linguagem natural. Para utilizar o ChatGPT, geralmente é necessário acessar uma API da OpenAI ou utilizar uma das ferramentas ou aplicativos já existentes que usam o modelo, os quais possuem uma interface amigável e fácil. Pode ser necessário ter conhecimento de programação para integrar o ChatGPT em uma aplicação específica.

Os dois parágrafos acima estão em itálico porque foram redigidos, não por mim, mas pelo próprio ChatGPT. Aquele que aventa a hipótese de que isso seja um plágio, provavelmente não compreendeu o modo de funcionamento do ChatGPT. Quem solicitar um texto sobre o ChatGPT receberá não somente  uma redação diferenciada, mas também não encontrará na internet um escrito exatamente igual, sequer passível de ser caraterizado como plágio, tal qual no caso de montagens de um texto a partir da extração de parágrafos de fontes diversas.  As conclusões são óbvias.

Munidos desse sistema, os alunos poderão se aventurar a compor redações, responder trabalhos discursivos e, até mesmo, solucionar questões de matemática, física ou química. Ora, o site Tecmundo nos informa que o senhor Ammar Reshi compôs um livro infantil em 72 horas apenas se valendo da Inteligência Artificial. Não digo que tão-só escreveu. Pelo Midjourney, uma inteligência artificial que elabora imagens, nosso “não-sei-se-autor” realizou o projeto gráfico. O livro já se encontra disponível para vendas no site da Amazon.[1]

O caso parece não ser levado muito a sério no Brasil, mas é fato que a cidade de Nova York decretou o banimento do sistema em ambiente escolar. Parece ser o caso de luta inglória de retrógrados contra o progresso da tecnologia. Contudo, a própria revista científica Nature, em matéria intitulada “Abstracts written by ChatGPT fool scientists”[2], demonstra como o sistema foi capaz de produzir resumos que, em porcentagem expressiva, conseguiram enganar os pesquisadores, pois estes supuseram que haviam sido produzidos por humanos.

Não estamos, então, diante de favas contadas. Contadas estão as favas daquelas atividades que já produzem textos exclusivamente informacionais, ou propagandas, ou e-mails, ou textos padronizados. As formas de escrita publicitária, os chavões dos coachs, os lugares-comuns da dita escrita criativa, os resumos, os fichamentos triviais, tudo isso é bem executado pela máquina. O sistema já vem pronto para respostas politicamente corretas, conforme os direitos humanos; e é constantemente exercitada a vencer vieses sexistas, racistas, etários. É, digamos, um bom humano. Não se pode dizer que lhe falte humor, pois é capaz de contar piadas, ainda que carregadas em demasia com o estilo americano. Escreve poemas e redige música. Entabula conversas variadas, das educacionais às consolatórias. E não se furta a dar conselhos, das receitas culinárias às crises amorosas. Tal portento, evidentemente, está em conformidade com o já mil vezes dito, já espalhado, já divulgado. Segue a estrutura daquele fenômeno designado por Heidegger, em Ser e Tempo, como a publicidade.[3]

O sistema tenta copiar estilos, mas expressa imperícia. O que a máquina não consegue fazer, talvez isso seja o mais interessante. Não faz exatamente aquilo que estamos acostumados a não fazer no sistema de ensino. Obviamente, a medida de perspicácia da máquina não pode ter sua pedra de toque na estupidez humana: dados comandos imprecisos ou sem refinamento, também precária será a resposta. Dito isso, alimentada pelos dados da internet, o sistema parece não possuir acuidade sobre qual tipo de informação é mais ou menos relevante. Exemplifiquemos.

Se a máquina for perguntada sobre o fundamento metafísico do princípio de razão suficiente, ela gera um breve histórico do problema, cita Leibniz, mas confunde o princípio de razão suficiente com o princípio de causalidade. Não lembra da vontade de Deus como causa final para aquilo que Leibniz chama de verdades de fato, por oposição às verdades de razão. Se solicitada a fazer um resumo do texto kantiano Resposta às pergunta: o que é esclarecimento, não consegue discernir a hierarquia de relevância dos conceitos para a constituição do argumento. Equivoca-se sobre uso público e uso privado da razão; sobre o uso da razão no caso de um agente público, sob ordens do Estado ou da Igreja; mergulha em trivialidades sobre liberdade e autonomia, exatamente aquelas ladainhas irrefletidas postas em textos de rebaixada divulgação, que chega a obscurecer o fato de que, também neste texto, trata-se de um problema de limites. Assim, Kant se converte em precursor do Twitter; e o esclarecido uso da razão tem o seu poente no salve-se quem puder opiniático.

A limitação do sistema está em seu caráter informacional, o que não lhe permite ser argumentativo com desenvoltura. Não explicita as notas de um conceito, não fundamenta, não demonstra as conexões entre as notas, não coloca problemas ao longo do texto, pouco observa conflitos e onde eles residem entre diferentes posições. Como não tem discernimento do público ao qual se dirige, mesmo que especificado, não possui a direção argumentativa do horizonte comum de determinada plateia. Observações já feitas por Hubert Dreyfus, a propósito dos limites da inteligência artificial, apenas se confirmam: seu maior defeito é não ter a capacidade de julgar.[4] Não descobre ou cria uma regra de casos particulares, não reconhece em qual regra é mais conveniente encaixar um particular.

O ChatGPT não seria um grande problema, caso nós já não estivéssemos mergulhados no imbróglio. É de conhecimento de todos a imensa indústria suspeitosa das letras. Há casos de trabalhos acadêmicos comprados; escritores fantasmas por detrás de autores midiáticos; artigos científicos que são redigidos segundo fórmulas protocolares desgastadas. Seriam os Principia, de Newton, ou o Diálogo, de Galileu, menos científicos, já que melhor redigidos? O sistema realiza muito bem o esquema das redações de Enem. Dados os comandos acertados, faz citação de intelectuais ilustres, exemplifica dados, dá referências, explicita a tese no parágrafo inicial, mostra riqueza em conectivos, oferece proposta de solução do problema no parágrafo final. A máquina apenas explicita o parâmetro mecânico de adestramento educacional, geradora de uma mão de obra natimorta, porque já substituível.

Nada cria, contudo. Se, por criar, a mentalidade comum pressupõe o puro espontaneísmo, o verbo rasgado da suposta inspiração, as afirmações sem a paciência do conceito; então, equivoca-se. Já a máquina faz isso bem, porque a máquina faz o que já foi feito: tais casos abundam no palavrório da internet. No entanto, se criar for suposto como encontrar a analogia ainda não estabelecida, a metáfora que nos escapa, a forma de dizer ainda emudecida, a regra antes impensada; por fim, o padrão que determina novos fenômenos… Tudo isso a máquina não faz, já que não pensa, ou seja, não põe um problema, não se detém na formulação de uma questão, não reconhece as limitações do já posto e do já dito.

Que o leitor teste a máquina. O reino dos cursinhos, das apostilas, do macete, da dica trivial, do simples citar conceitos e autores para dar um peso intelectual… Tudo isso soçobra; e leva ao ralo a indústria forjada ao seu redor, uma vez que o ChatGPT é infinitamente mais barato, de disponibilidade contínua… Pelo menos até que a empresa se resolva sobre o valor monetário do seu grande benefício para a humanidade.

Observação do editor:
Mais reflexões do autor, em meio a algumas experimentações com o ChatGPT, podem ser encontradas no canal:
https://youtube.com/@philonatur.

Notas

[1] Tecmundo. (2022). Homem escreve livro em 3 dias usando ChatGPT, mas é criticado. TecMundo. Disponível em: https://www.tecmundo.com.br/software/259301-homem-escreve-livro-3-dias-usando-chatgpt-criticado.htm. Acesso em: 17 de janeiro de 2023.

[2] Nature. (2023). Abstracts written by ChatGPT fool scientists. Disponível em: doi: https://doi.org/10.1038/d41586-023-00056-7

[3] HEIDEGGER. Ser e Tempo. §27 O cotidiano ser-si-mesmo e a-gente.

[4] Dreyfus, H. L. (1986). Mind over machine: The power of human intuition and expertise in the era of the computer. New York: The Free Press.


Fábio Costa é professor de Filosofia do Colégio Pedro II. Mestre e Doutor em Filosofia das Ciências e Teoria do Conhecimento pela UERJ.

Catálogo do Ateliê de Humanidades Editorial


Últimos posts

Deixe uma resposta

por Anders Noren

Acima ↑

%d blogueiros gostam disto: