Fios do Tempo. O medium algorítmico – por Pierre Lévy

Como parte das atividades do último Ciclo de Humanidades 2020, com o tema “Bem-vindos à humanidade digital?”, trazemos hoje, depois de ter publicado uma entrevista com Pierre Lévy e um Pontos de Leitura que apresenta sua obra, o artigo “O medium algorítmico”, com tradução inédita para o português.

Pierre Lévy faz aqui uma ampla apresentação da transformação da inteligência coletiva rumo a uma “sociedade datacêntrica” (ou seja, centrada em dados) que estará organizada por um “medium algorítmico”. Para tanto, várias questões são esclarecidas: por que devemos compreender nossas sociedades como “datacêntricas”? Quais são os limites presentes nos algoritmos contemporâneos? O que seria um medium algorítmico e qual é sua história e tendência de desenvolvimento? Estaríamos nos primórdios de uma revolução antropológica decorrente da digitalização do mundo? Aqueles, como nós, que têm compromissos éticos e democráticos, devemos nos lamentar com isso, ou podemos fazer um proveito de suas oportunidades?

Agradecemos fortemente a Pierre Lévy pela generosidade de sua dádiva. E desejamos a todos uma excelente leitura!

André Magnelli
Fios do Tempo, 07 de janeiro de 2021



O medium algorítmico

Pierre Lévy1

Na ciência, na economia ou na política, as atividades humanas estão cada vez mais baseadas na gestão e análise de enormes quantidades de dados digitais.2 Mesmo que não estejamos claramente cientes disso, nossa sociedade está gradualmente se tornando datacêntrica. Paralelamente a esta evolução, nossas comunicações – tanto transmissores quanto receptores de dados – baseiam-se em uma infra-estrutura cada vez mais complexa de manipulação automática de símbolos, que eu chamo de “medium algorítmico“. Mas tanto a sociedade datacêntrica quanto o medium algorítmico no qual ela se baseia ainda estão em seus tímidos começos. A maior parte de seu crescimento e de seu desenvolvimento ainda está por vir. Além disso, os espíritos permanecem fascinados pela potência de difusão de mensagens oferecida pela Internet, uma potência que não está longe de estar esgotada, na medida em que se abre um vasto – e ainda inexplorado – espaço para a transformação e a análise do fluxo de dados que produzimos todos os dias.

Na vanguarda da revolução algorítmica, o IEML3 (ou qualquer outro sistema com as mesmas propriedades) democratizará a categorização e a análise automática do oceano de dados. Seu uso nas mídias sociais criará um ambiente ainda mais propício do que o atual para o aprendizado colaborativo e a produção de conhecimentos massivamente distribuídos. Ao fazer isso, o IEML (ou algum outro código semântico universal) contribuirá para o surgimento do medium algorítmico do futuro e permitirá uma reflexão da inteligência coletiva sobre a edificação da sociedade datacêntrica por vir.

1. O esgotamento da lógica da difusão

1.1 O horizonte da comunicação universal

De Gutenberg até meados do século XX, o principal efeito técnico dos mídias foi registrar, multiplicar e transmitir mecanicamente os símbolos da comunicação humana. Exemplos incluem a impressão (jornais, revistas, livros), a indústria fonográfica, o cinema, o telefone, o rádio e a televisão. Certamente, também havia técnicas para o cálculo ou a transformação automática de símbolos. Mas as calculadoras automáticas disponíveis antes dos computadores não eram muito potentes e de uso limitado. Os primeiros computadores tiveram pouco impacto na comunicação social devido a seu alto preço, à complexidade de uso e ao baixo número de proprietários (principalmente grandes empresas, alguns laboratórios científicos e administrações governamentais em países ricos). Foi somente nos anos 1980 que o desenvolvimento dos computadores pessoais colocou nas mãos de uma proporção crescente da população ferramentas poderosas para produzir mensagens, sejam elas textos, tabelas de figuras, imagens ou música. A partir dessa época, a democratização das impressoras e o desenvolvimento das redes de comunicação entre computadores, bem como a multiplicação dos canais de cadeias de rádio e televisão, começaram gradualmente a pôr em questão o monopólio da distribuição em massa de mensagens, que tradicionalmente pertencia a editores, jornalistas profissionais e gerentes das principais redes de televisão.4 Esta revolução da difusão acelerou-se com a chegada da World Wide Web em meados da década de 90. Ela floresceu no novo tipo de esfera pública mundial multimídia que prevalece no início do século XXI.

No plano da estrutura da comunicação social, a característica essencial da nova esfera pública é permitir a qualquer pessoa produzir mensagens, emitir para uma comunidade sem fronteiras e acessar as mensagens produzidas por outros emissores. Esta liberdade de comunicação é tanto mais eficaz quanto é exercida de forma quase gratuita e não requer nenhum conhecimento técnico prévio. Apesar das limitações que em breve apontarei, devemos dar saudações ao novo horizonte de comunicação agora aberto para nós: ao ritmo a que as taxas de conexão estão crescendo, quase todo ser humano da próxima geração será capaz de transmitir suas mensagens para todo o planeta gratuitamente e sem esforço.

Certamente, a manipulação – ou transformação – automática de símbolos foi praticada já nos anos 1960 e 1970. Já observei também que grande parte da computação pessoal foi utilizada para produzir informações, não apenas para divulgá-las. Finalmente, grandes empresas da Web como Google, Amazon, E-bay, Apple, Facebook ou Twitter processam diariamente enormes quantidades de dados em “usinas informacionais” totalmente automatizadas. Apesar disso, para a maioria das pessoas, o medium digital ainda é concebido e utilizado como uma ferramenta de difusão e recebimento de informações, na continuidade dos meios de comunicação de massa, desde a mídia impressa até a televisão. É como se a Web distribuísse para cada indivíduo o poder de uma editora, de um canal de televisão e de uma rede postal multimídia em tempo real, ao mesmo tempo em que fornece acesso a uma biblioteca e mediateca mundial onipresente. Assim como os primeiros livros impressos – incunábulos – copiaram de perto a forma dos manuscritos, estamos usando o meio digital para realizar, ou empurrar para a conclusão, o poder de difusão dos mídias anteriores. Qualquer pessoa pode transmitir universalmente. Qualquer pessoa pode receber de qualquer lugar.

1.2 Os limites do medium algorítmico contemporâneo

Além da censura e da vigilância maliciosa exercida por regimes ditatoriais, há pelo menos três limites para este processo de comunicação global.

1.2.1 Limites cognitivos

A primeira limitação está relacionada às habilidades cognitivas de grupos sociais e indivíduos: quanto mais alto for seu nível de educação (primário, secundário, universitário), mais desenvolvido é seu pensamento crítico5 e melhor eles são capazes de transformar o novo ambiente de comunicação em seu benefício. Na medida em que os pontos de acesso e os dispositivos móveis se multiplicam, a conhecida questão da “fratura digital” (digital divide) se sobrepõe  cada vez mais a questões relativas à alfabetização e à educação. Deve-se notar que o simples fato de saber ler e escrever já dá acesso a uma possibilidade de expressão, assim como a uma série de relações sociais e de informações que estariam fora de alcance sem o medium digital.6

1.2.2 Limites semânticos

O segundo limite é semântico, pois, enquanto a conexão técnica tende a se tornar universal, a comunicação do sentido ainda está fragmentada de acordo com as fronteiras das línguas, dos sistemas de classificação, das disciplinas e de outros universos culturais mais ou menos disjuntos. A “Web Semântica”, iniciada por Tim Berners Lee no final dos anos 1990, é muito útil para traduzir as relações lógicas entre os dados. Mas não cumpriu sua promessa de interoperabilidade do sentido, apesar da autoridade de seu promotor e do investimento de muitas equipes de engenheiros. Como mostrei no Volume 1 de La sphère sémantique (2011)7, é impossível abordar completamente os problemas semânticos dentro dos limites estreitos da lógica. Por outro lado, os métodos essencialmente estatísticos utilizados pelo Google, bem como pelos numerosos sistemas de tradução automática disponíveis, fornecem excelentes ferramentas para a assistência de tradução, mas não foram mais bem sucedidos do que a “Web Semântica” para a abertura de um espaço real de comunicação translinguística. As estatísticas não são mais eficazes do que a lógica para automatizar o processamento da significação. Aqui novamente, o que falta é uma codificação de significado linguístico que a torne verdadeiramente calculável em toda a sua complexidade.

1.2.3 Os limites do positivismo estatístico

O acesso público ao poder de difusão da Web e a inundação de dados digitais que agora fluem de todas as atividades humanas nos confronta com o seguinte problema: como transformar as torrentes de dados em rios de conhecimento? A solução para este problema determinará o próximo passo na evolução do medium algorítmico. Alguns observadores entusiastas do processamento estatístico de grandes dados, como Chris Anderson, o editor-chefe da Wired, foram rápidos em declarar que as teorias científicas (em geral!) são agora obsoletas.8 Tudo o que precisaríamos agora seriam enormes fluxos de dados e poderosos algoritmos estatísticos operando nas “nuvens” da Internet: as teorias – e, portanto, as hipóteses que elas propõem e a reflexão da qual elas nascem – pertenceriam a uma fase passada do método científico. Pareceria que os números falam por si mesmos. Mas isto significa obviamente esquecer que, antes de qualquer cálculo, é necessário determinar os dados relevantes, saber exatamente o que se está contando e nomear – ou seja, categorizar – os padrões emergentes. Além disso, nenhuma correlação estatística proporciona diretamente relações de causalidade. As relações causais são necessariamente baseadas em hipóteses que explicam as correlações reveladas pelos cálculos estatísticos. Sob o pretexto do pensamento revolucionário, Chris Anderson e seus seguidores ressuscitam a velha epistemologia positivista e empirista em voga no século XIX, segundo a qual apenas o raciocínio indutivo (ou seja, baseado em dados) é científico. Esta posição equivale a recalcar ou passar a ser influenciado pelas teorias – e, portanto, por hipóteses arriscadas baseadas em um pensamento pessoal – que estão necessariamente em ação em qualquer processo de análise de dados e que se manifestam nas decisões de seleção, identificação e categorização. Não se pode iniciar o processamento estatístico e interpretar seus resultados sem nenhuma teoria. Mais uma vez, a única escolha que temos é deixar esta teoria tácita ou torná-la explícita. Tornar explícita uma teoria nos permite relativizá-la, compará-la com outras teorias, compartilhá-la, generalizá-la, criticá-la e melhorá-la.9 É até mesmo um dos principais componentes do que é conhecido como “pensamento crítico”, que o ensino médio e universitário deve desenvolver nos estudantes.

2. Nos primórdios da sociedade datacêntrica

Descreverei agora os primeiros passos da sociedade datacêntrica, tal como ela está se delineando tendo por base a nossa nova capacidade – massivamente distribuída – de difusão universal.

2.1 Comunicação estigmática

Comecemos analisando o tipo de comunicação agora dominante no início do século XXI, que ocorre no que é conhecido como os “mídias sociais”. Aqui, os mídias sociais não se referem apenas a blogs e serviços tradicionais de networking, tais como Facebook, Twitter ou Linkedin. Eles também incluem uma série de serviços de publicação, de colaboração, de busca, de aprendizado oude transação on-line que permitem aos usuários encontrar as informações, os produtos ou as pessoas que eles procuram através da exploração da inteligência coletiva on-line. Por exemplo, a Wikipédia conta com a atividade auto-organizada de milhões de autores e editores. O Google utiliza os hyperlinks exibidos por milhões de websites para classificar suas respostas às nossas consultas. A Amazon sugere livros baseados nas escolhas dos usuários que têm perfis de compra similares aos nossos etc. No final, a comunicação sempre se dá entre as pessoas. Mas, no medium algorítmico, esta comunicação ocorre principalmente no modo estigmático10, ou seja, as pessoas se comunicam umas com as outras modificando seu ambiente comum: os dados digitais online. Cada link que criamos, cada tag que colocamos em informações, cada ato de avaliação ou aprovação, cada “like”, cada pedido, cada compra, cada comentário, cada re-tweet, todas essas operações modificam sutilmente a memória comum, ou seja, a massa inextricável de relações entre os dados. Nosso comportamento on-line emite um fluxo contínuo de mensagens e pistas que contribuem – às vezes diretamente, mas na maioria das vezes indiretamente – para orientar e informar outros internautas. Este é obviamente o caso porque as informações que produzimos individualmente são processadas por algoritmos para serem transformadas em informações úteis para a coletividade.

2.2 O modelo datacêntrico de comunicação

No modelo datacêntrico de comunicação, a interação dos indivíduos com a massa de dados comuns – e através dela com outros participantes – pode ser dividida em quatro etapas logicamente distintas, mas virtualmente interdependentes: a produção, o roteamento, a mineração e a análise de dados.

2.2.1 Produção

Os dados devem primeiro ser produzidos antes de serem inseridos na memória coletiva. Seja por escrita e edição de texto, tabelas, imagens fixas ou animadas, som, música, software ou pacotes multimídia, o produtor de dados usa invariavelmente um ou mais programas de software, ou seja, em última instância, algoritmos. O mesmo se aplica aos dados gerados por transações econômicas, por sensores biomédicos ou por aqueles que identificam, localizam e medem as ações de objetos ou máquinas.

2.2.2 Roteamento

No momento produzido e emitido para um banco de dados on-line, os dados são processados a fim de serem roteados para os destinatários relevantes. Dependendo de nossas atividades e de nossa rede, os algoritmos dos serviços on-line nos enviam seleções de informações, recomendações de pessoas a serem seguidas, sugestões de compras, anúncios etc. A análise de grandes massas de dados e a filtragem colaborativa alimentam assim – muitas vezes gratuitamente – nossos pedidos de informação cotidiana e monitoramento sobre nossos temas favoritos.

2.2.3 Mineração

Uma consulta explícita em um mecanismo de busca (ou seja, realmente em um banco de dados) aciona uma seleção de informações e a classificação e apresentação dos dados selecionados. Na atividade de mineração de dados, é em princípio o usuário que determina as informações que ele recebe. Entretanto, os algoritmos de busca personalizam seus resultados de acordo com nosso perfil (idioma, consultas anteriores, etc.). Além disso, seus algoritmos de seleção e classificação têm um impacto decisivo nos resultados que retornam, como pode ser facilmente visto ao comparar os resultados da mesma consulta em diferentes mecanismos de busca.

2.2.4 Análise

Finalmente, os dados agregados ou reunidos de várias fontes podem ser analisados para extrair padrões, regularidades ou tendências indiscerníveis de outra forma. Os resultados desta análise de grandes quantidades de dados são usados para compreender melhor processos complexos, para prever o futuro (quando possível) com mais precisão e para tomar melhores decisões. Os dados que são objeto de tais análises podem ser produzidos “internamente” pelas organizações que as processam (governos, laboratórios científicos, empresas etc.). Mas eles também podem ser recuperados na Web, disponibilizados ao público por agências governamentais de várias escalas, ou por empresas que disponibilizam seus dados ao público por razões filantrópicas. Ao contrário das três fases anteriores (produção, roteamento e busca), a análise automática de grandes quantidades de dados raramente está nas mãos dos usuários finais de forma gratuita e intuitiva. Em 2013 [e ainda em 2020], estas análises automáticas ainda estão em sua maioria reservadas a instituições ricas e com fortes competências técnicas.

2.2.5 O papel dos algoritmos na comunicação datacêntrica

Os resultados da análise de grandes quantidades de dados são, em si mesmos, dados que podem ser usados para produzir documentos. Estes documentos são, por sua vez, roteados, inspecionados e assim por diante. É um ciclo. Vamos rever as etapas deste ciclo: os indivíduos colaboram para produzir dados, recebem dados relevantes de outros grupos ou indivíduos com base em seus perfis e atividades, coletam dados em resposta a solicitações explícitas e analisam as massas de dados recebidos. Em todos os casos, a relação dos usuários com os dados é mediada por algoritmos. Vimos que, na sociedade datacêntrica, as pessoas se comunicam de forma indireta, modificando a estrutura das relações entre os dados que constituem seu contexto comum. Nossas interações com a massa de informações armazenadas nas “nuvens” da Internet são mediadas por algoritmos. Estes algoritmos gerenciam nossas interações sensório-motoras com computadores e gadgets portáteis, nosso acesso a bancos de dados, nossa busca, triagem etc. Ainda melhor, os algoritmos organizam o looping pessoal e coletivo da emissão e recepção de dados, recomendam e gerenciam contatos pessoais na Internet, organizam o ambiente econômico, social e cognitivo da inteligência coletiva. Em suma, são os algoritmos no fim das contas que formam agora o ambiente de comunicação dentro do qual as redes humanas constroem e modificam de forma colaborativa sua memória comum.

2.3 Os avanços multiformes de uma cultura datacêntrica

Vários fenômenos tecno-sociais contemporâneos são testemunhos eloquentes do surgimento de uma nova era de comunicação social. O movimento da “ciência aberta” visa construir uma comunidade científica mundial que inclua não apenas as publicações tradicionais (artigos, livros, relatórios), mas também os dados brutos e as ferramentas de software que têm sido utilizadas para explorá-los. Assim, a comunidade científica internacional se comunica de forma cada vez mais transparente, reunindo-se em torno do bem comum digital que produz e se alimenta, assim como as universidades de antigamente se reuniam em torno de suas bibliotecas.

A meta-disciplina emergente das humanidades digitais está trabalhando para digitalizar e colocar on-line todos os arquivos, textos, vários documentos e comentários acumulados que constituem o material para sua atividade. Também está construindo uma infinidade de redes sociais em torno desta massa de documentos, compartilhando suas ferramentas para a exploração colaborativa de dados.11

Os jornalistas identificam conjuntos de dados promissores fornecidos por governos, agências estatísticas ou outras instituições. Eles analisam esses dados usando algoritmos apropriados e depois visualizam e explicam os resultados a seus leitores.

No campo da comunicação organizacional e da knowledge management [gestão do conhecimento], cada vez mais se considera que a boa gestão social do conhecimento emerge, no modo bottom-up [de baixo para cima], a partir das atividades pessoais dos membros da organização para gerenciar seu próprio conhecimento. A empresa ou a administração torna-se assim um medium social facilitando três processos complementares. Em primeiro lugar, seus membros, clientes e parceiros acumulam dados comuns, codificando o conhecimento que lhes é útil. Em segundo lugar, todos podem acessar esses dados no momento certo. Terceiro, conversas abertas entre os participantes da rede facilitam tanto a codificação do conhecimento destinado para o coletivo quanto sua apropriação pessoal em situações de trabalho.Em sua versão conectiva, o “Massive Open Online Courses (MOOC) transcendem a educação à distância convencional para estimular o aprendizado colaborativo em rede, com os estudantes contribuindo para a produção de materiais didáticos comuns em uma infinidade de plataformas interconectadas.

Em sua versão conectiva, o “Massive Open Online Courses (MOOC) transcende a educação à distância convencional para estimular o aprendizado colaborativo em rede, com os estudantes contribuindo para a produção de materiais didáticos comuns em uma infinidade de plataformas interconectadas.

A maioria das formas de crowdsourcing, assim como a comunicação peer-to-peer (P2P) e o compartilhamento de arquivos, ilustram este modelo de relação social no qual um grande número de indivíduos praticamente se reúne em torno de um tesouro de dados comuns para – simultaneamente – enriquecê-lo e explorá-lo.

2.4 As instituições datacêntricas

Além dessas tendências de vanguarda, as instituições humanas, como as administrações governamentais, as autoridades locais, as universidades, as escolas, as grandes ou pequenas empresas e as associações de todo tipo dependem, para seu desempenho diário (administrativo, orçamentário, legal, estratégico, etc.), da gestão informatizada de dados digitais. Dois tipos principais de dados podem ser distinguidos a este respeito.
Primeiramente, os dados “internos” representam as próprias instituições. Isto inclui seus arquivos, suas competências ou saberes-chave, as operações em curso, assim como as informações sobre seus membros, clientes ou beneficiários. As instituições são geralmente responsáveis pela produção e manutenção dos dados nos quais se apoiam sua memória e suas atividades cotidianas. Tais dados são obviamente produzidos e gerenciados de acordo com o sentido a eles atribuído pela instituição, um sentido que está enraizado em suas finalidades e em suas tradições.

Em segundo lugar, os dados “externos” são produzidos por outras instituições, incluindo a mídia tradicional. Estes dados externos representam o ambiente da instituição e são muitas vezes objeto de investigação científica, industrial, econômica, política, estratégica e assim por diante. Para a instituição em questão, o objetivo desta atividade de inteligência [renseignement] é compreender seu ambiente, antecipar ao máximo sua evolução e adaptar-se ao ambiente – ou intervir proativamente nele. Como os dados externos são produzidos e organizados em função de fins ou ângulos interpretativos que não são os seus próprios, a instituição deve recodificá-los – ou re-categorizá-los – à sua própria maneira.

É evidente que a fronteira entre os dados internos e externos é altamente permeável. Além disso, as instituições estão cada vez mais organizadas e interligadas em redes através das quais trocam dados e realizam um grande número de transações on-line. As instituições estão se tornando datacêntricas, na medida em que se identificam cada vez menos com sua infra-estrutura física (incluindo os próprios computadores) e com sua localização física, ao passo que se identificam cada vez mais com o núcleo de seus dados estratégicos e com a forma pela qual os dados são codificados e processados – interna e externamente – para manter sua integridade. Estes dados fundamentais – e os algoritmos que os processam – podem ser virtualizados na nuvem da Internet, permitindo que os colaboradores institucionais tenham acesso a eles a qualquer hora e de qualquer lugar.

2.5 Conflitos datacêntricos

Os conflitos políticos ou militares também giram cada vez mais em torno do controle de dados digitais on-line. As recentes campanhas eleitorais certamente têm sido em grande parte realizadas nas mídias sociais, no modo clássico de agitação e propaganda. Mas também surgiu uma tendência complementar: as equipes vencedoras investiram muito na análise automática de grandes quantidades de dados sobre os eleitores e suas opiniões. Elas também conseguiram explorar os resultados destas análises em tempo real no campo.12

As revoltas árabes de 2011 utilizaram os telefones celulares e as redes sociais para sua organização interna e a difusão de suas mensagens [12] Simetricamente, as ditaduras em questão tentaram cortar ou bloquear as redes, infiltraram-se nas comunidades on-line para obter informações sobre os revolucionários e se envolveram em atividades de contra-propaganda e envenenamento digital. Não há mais um movimento social no planeta que não utilize agora o poder coordenador e disseminador das redes sociais. Mas tanto os governos como os órgãos de inteligência e de aplicação da lei utilizam as mesmas ferramentas para a divulgação, exploração, manipulação e análise de dados.

Independentemente de qual lado esteja envolvido, é sempre uma questão de analisar e influenciar a memória de curto prazo (eventos atuais) e de longo prazo (história) das comunidades envolvidas, uma memória que agora está incorporada aos fluxos e estoques de dados digitais. Do lado da análise, tenta-se perceber os sinais fracos e os padrões de evolução que anunciam o futuro, mesmo que não atraiam a atenção da maioria. Do lado da influência, tenta-se fazer com que as pessoas esqueçam, ignorem ou desacreditem certos dados, enquanto por outro lado se quer chamar a atenção para dados “favoráveis” (ou mesmo criá-los artificialmente) e dar-lhes a máxima credibilidade. A mídia tradicional (principais jornais e televisão) é agora apenas mais uma fonte de dados. Embora essas fontes de mídia sejam particularmente poderosas devido a seus recursos e credibilidade, seu impacto agora é medido por sua capacidade diferencial de influenciar a conexão afetiva de indivíduos e grupos com a massa planetária de dados.

Até o século XIX, as forças armadas eram divididas em exércitos e marinhas. O século XX assistiu ao desenvolvimento de uma terceira armada importante: a força aérea. Na segunda década do século XXI, uma quarta armada surgiu nas forças de defesa da maioria das médias e grandes potências: a armada informática. A ciberguerra obviamente inclui a espionagem, a desinformação e os jogos de simulação. Mas não se limita a essas coisas, pois neste caso poderia ter ficado confinada às funções de inteligência [renseignement], de propaganda e de pensamento estratégico das outras armadas. Além das funções clássicas que acabamos de mencionar, os ciberataques têm como objetivo bloquear redes e destruir dados-chave da força militar, do governo e da economia das potências inimigas, bem como assumir o controle de instalações e da infraestrutura remotas. Tal aquisição pode se estender à sabotagem física das instalações e à completa ruptura da infraestrutura. No lado da defesa, a missão da nova armada é proteger as redes e os dados estratégicos das instituições militares, governamentais, industriais e econômicas de um país. Escusado será dizer que uma das principais competências esperadas dos cyber-ninjas é o projeto e a programação de algoritmos. Deve-se notar também que todos os ramos das forças armadas foram dotadas de capacidades de comunicação, de coordenação e de inteligência [renseignement] (integradas, interativas e em tempo real) que reproduzem e ampliam as principais funções das mídias sociais civis.

3. Desenvolvimento do medium algorítmico

Sem dúvida, esgotaram-se as possibilidades lógicas da difusão automática – a virtude midiática dos últimos quatro séculos –, a fim de atender e começar a assimilar sobre um plano cultural o potencial ainda quase inexplorado de transformação automática: a virtude midiática dos séculos vindouros. É por isso que estou falando aqui do medium algorítmico: a fim de sublinhar a capacidade de transformação automática da comunicação com suporte digital. Naturalmente, a potência transformadora ou de processamento do novo medium só pode ser atualizada com base no cumprimento irreversível da missão do medium anterior, ou seja, a divulgação universal ou a ubiquidade da informação. Como essa ubiquidade está sendo quase alcançada no início do século XXI, as gerações vindouras vão gradualmente se conformando com o processamento automático do fluxo de dados oceânicos mundiais, com todas as consequências culturais imprevisíveis que isso acarretará.

Atualmente, a maioria dos algoritmos que gerenciam o roteamento de mensagens e a mineração de dados são opacos, uma vez que são protegidos pelo sigilo comercial das principais empresas da Web. Quanto aos algoritmos de análise, eles são, em sua maioria, não apenas opacos, mas também fora do alcance da maioria dos internautas, tanto por razões técnicas como econômicas. Entretanto, é impossível produzir conhecimento confiável usando métodos secretos. O estado contemporâneo do médium algorítmico deve obviamente ser considerado como transitório. O crescimento exponencial dos dados só pode ser aprovisionado culturalmente – e assim ser transformado em conhecimento reflexivo – por uma mudança qualitativa no medium algorítmico. Mas para entender como chegamos a este ponto, e especialmente para prever como a sociedade datacêntrica e o medium algorítmico continuarão a se desenvolver no futuro, devemos primeiro explorar a essência abstrata da manipulação automática de símbolos.

3.1 A estrutura algorítmica

A fim de entender plenamente a natureza do novo medium, precisamos ser tão claros quanto possível sobre o que é um algoritmo e como ele funciona.

3.1.1 Codificação

Para que o processamento automático seja aplicado aos dados, os dados em questão devem obviamente ter sido codificados de antemão de forma adequada e uniforme. Isto não se refere apenas à codificação binária (zero e um), mas a tipos de codificação mais especializados. Exemplos são a codificação de números (base dois, oito, dez, dezesseis etc.), escrita de caracteres, imagens (pixels), sons e assim por diante. A este respeito, a IEML é apresentada como um sistema de codificação da significação linguística que é própria para torná-lo calculável, assim como o sistema de pixel tornou as imagens manipuláveis por algoritmos.

3.1.2 Operadores

Em seguida, é preciso conceber um conjunto de ferramentas ou micromáquinas especializadas na execução de certas tarefas. Chamemos essas ferramentas especializadas de “operadores”. Os operadores são identificados com precisão e agem de forma totalmente determinada e mecânica, sempre da mesma forma. Deve haver, naturalmente, uma correspondência ou adequação entre a codificação dos dados e o funcionamento dos operadores. Os operadores foram inicialmente identificados dentro dos computadores: aqui eles são circuitos eletrônicos elementares. Mas qualquer processador de dados – não importa quão complexo o seja – pode ser considerado como uma “caixa preta” atuando como um operador. É assim que o protocolo de Internet, ao endereçar os computadores na rede, abriu, ao mesmo tempo, um sistema de endereçamento de operador universal.

3.1.3 Contêineres

Além disso, você precisa imaginar um armazém de dados onde as caixas elementares ou contêineres [“containers“] são perfeitamente endereçados: um sistema de registro lógico com uma superfície lisa para escrever, apagar e ler. É evidente que a codificação dos dados, as operações aplicadas a eles e a maneira como são registrados devem ser harmonizadas para otimizar o processamento. O primeiro sistema de endereçamento de contêineres é interno aos computadores e é gerenciado por seu sistema operacional. Mas acima desta camada interna de endereçamento, os URLs na World Wide Web estabeleceram um sistema de endereçamento de contêineres que é universal.

3.1.4 Instruções

O quarto e último aspecto de um algoritmo é um conjunto ordenado de regras – ou um mecanismo de controle – que organiza a circulação recursiva de dados entre os contêineres e os operadores. A circulação é iniciada por um fluxo de dados que parte dos contêineres para os operadores apropriados e depois direciona os resultados das operações para contêineres precisamente endereçados. Um conjunto de testes (se… então…) determina a escolha dos contêineres dos quais se extraem os dados a serem processados, a escolha dos contêineres onde se inscrevem os resultados e a escolha dos operadores. A circulação de dados termina quando um teste determina que o processamento está completo. A partir de então, o resultado do processamento – ou seja, um conjunto de dados codificados – é então localizado em um endereço específico no sistema de contêineres.

3.1.5 As instruções dependem do jogo de operações, assim como da codificação e do endereçamento dos dados

Nas explicações populares ou vulgarizadas da programação, o algoritmo é muitas vezes reduzido a uma série de instruções ou a uma “receita”. Mas nenhum algoritmo pode fazer seu trabalho sem primeiro ter os três elementos seguintes: primeiro, um código adequado para os dados; segundo, um conjunto bem definido de operadores reificados – ou funções elementares atuando como caixas pretas; terceiro, um sistema de contêineres precisamente endereçados capazes de armazenar os dados iniciais, os resultados intermediários e o resultado final. As regras – ou instruções – só fazem sentido em relação ao código, aos operadores e aos endereços-memória. Gostaria de salientar aqui um ponto que é bem conhecido dos especialistas, mas cuja importância é raramente apreciada pelo público: o tipo de processamento, o escopo e a performance dos algoritmos dependem estreitamente da identidade dos operadores, bem como da codificação e do endereçamento dos dados.

Vou agora me apoiar na análise que acaba de ser feita da estrutura íntima dos algoritmos para analisar a evolução do medium algorítmico. Veremos que as grandes etapas do crescimento deste medium estão relacionadas precisamente ao aparecimento de novos sistemas de endereçamento e codificação, tanto para os contêineres de dados quanto para os operadores.

3.2 O ovo (1940-1970)

Quando podemos datar o advento do medium algorítmico? Poderíamos ser tentados a dar-lhe como data de nascimento, 1937, pois foi nesse ano que Alan Turing publicou seu famoso artigo introduzindo pela primeira vez o conceito de máquina universal, ou seja, o esquema formal de um computador. O artigo em questão representa as funções calculáveis por programas da máquina universal, ou seja, basicamente por algoritmos. Também poderíamos escolher 1945, já que von Neumann publicou em junho deste ano o Primeiro rascunho de um relatório sobre o EDVAC no qual apresenta a arquitetura fundamental dos computadores: 1) uma memória contendo os dados e programas (estes últimos codificando os algoritmos); 2) uma unidade de cálculo aritmético e uma lógica; 3) uma unidade de controle capaz de interpretar as instruções dos programas contidos na memória. Como os textos seminais de Turing e von Neumann representam apenas avanços teóricos, poderíamos datar a nova era da construção e do uso efetivo dos primeiros computadores dos anos 1950. É claro, porém, que (apesar da presciência de alguns visionários), até o final dos anos 1970, ainda era difícil falar de um medium algorítmico. Uma das principais razões para isto é que os computadores naquela época ainda eram máquinas grandes, caras e fechadas em si mesmas, com interfaces de entrada e saída que só podiam ser manuseadas por especialistas. Embora já estivesse no ovo, o medium algorítmico ainda não tinha prevalência social. Deve-se notar que entre 1950 e 1980 os fluxos algorítmicos de dados circulavam em geral entre os contêineres e os operadores em endereços locais fechados em uma única máquina.

3.3 A eclosão (1970-1995)

Uma nova tendência surgiu durante os anos 1970 e assumiu o controle durante os anos 1980: a interconexão de computadores. O protocolo de Internet (inventado em 1969) impôs-se como método preferido de endereçamento de máquinas em redes de telecomunicação. Este é também o período durante o qual a informática se torna pessoal. O digital é agora visto como um vetor para a transformação e comunicação de todos os símbolos, não apenas dos números. As atividades postais, telecomunicações, editoriais, de imprensa e de radiodifusão começam a convergir. Nesta fase, os dados processados pelos algoritmos ainda estão alojados em contêineres com endereços locais, mas – além deste endereço – os operadores agora têm um endereço físico universal na rede global. Como resultado, os operadores algorítmicos podem “colaborar” e a gama de tipos de processamento e aplicações se expande consideravelmente.

3.4 A maturação (1995-2020)

No entanto, a Internet não se tornou um meio de comunicação majoritário – a ponto de colocar irreversivelmente em questão o funcionamento da mídia tradicional e da maioria das instituições econômicas, políticas e culturais – até a chegada da Web, por volta de 1995. A revolução da Web é essencialmente explicada pela criação de um sistema de endereços físico universais para contêineres. Estes são, é claro, URLs. Deve-se notar que – como no caso do protocolo de Internet para operadores – este sistema universal vem a se juntar aos endereços locais dos contêineres de dados, mas ele não os elimina.

A partir de então, a potência efetiva e a capacidade de colaboração – ou interoperação – dos algoritmos estão aumentando e diversificando prodigiosamente, uma vez que tanto os operadores quanto os contêineres têm agora endereços universais. A máquina programável fundamental torna-se a própria rede, como mostra o uso generalizado da cloud computing [computação em nuvem].

A década 2010-2020 vê o início da transição para uma sociedade datacêntrica. Com efeito, a partir desta fase de implantação social do novo medium, as interações entre as pessoas fazem uso principalmente do canal da Internet, seja por pura e simples sociabilidade ou para a informação, o trabalho, a pesquisa, o aprendizado, o consumo, a ação política, o jogos, o monitoramento e assim por diante. Ao mesmo tempo, os algoritmos fazem uma interface crescente nas relações entre as pessoas, nas relações entre os dados e nas relações entre as pessoas e os dados. O surgimento de conflitos em torno da propriedade e do livre acesso aos dados, e em torno da abertura e da transparência dos algoritmos, são sinais seguros da transição para uma sociedade datacêntrica. Entretanto, como disse no início deste artigo, apesar de seu papel já decisivo, os algoritmos ainda não são percebidos na consciência coletiva como o novo medium da comunicação e do pensamento humano. Ainda estamos fascinados pela lógica da difusão dos mídias anteriores.

3.5 A decolagem (2020-…)

O que ainda não existe é notoriamente difícil de observar ou reconhecer, e mais ainda a ausência do que não existe ainda. Ora, o que está bloqueando atualmente o desenvolvimento de um verdadeiro medium algorítmico – e ao mesmo tempo o advento de uma nova civilização – é precisamente a ausência de um sistema universal e calculável de metadados semânticos. Lembro que a esfera semântica baseada na linguagem IEML é a primeira e (que eu saiba) a única candidata para este papel de sistema de coordenadas semânticas do universo de dados. Já temos um sistema de endereçamento físico universal para dados (a Web) e um sistema de endereçamento físico universal para operadores (a Internet). Em sua fase de implantação completa, o medium algorítmico também incluirá um código semântico universal: IEML. Este sistema de metadados – projetado desde o início para otimizar a capacidade de cálculo do significado enquanto multiplica sua diferenciação até o infinito – abrirá o medium algorítmico à interoperabilidade semântica e dará origem a novos tipos de manipulação simbólica. Se os dados de hoje correspondem aos fenômenos da ciência clássica, então precisamos de metadados computáveis e interoperáveis que combinem com as teorias e modelos explicativos da ciência clássica. IEML é precisamente uma ferramenta de teorização e categorização algorítmica que pode explorar a potência computacional da “cloud” [nuvem] e fornecer um complemento indispensável às recentes ferramentas algorítmicas para observação de patterns [padrões].

O IEML oferece um método automatizado para definir conceitos e relações entre conceitos. Os dados categorizados no IEML poderão ser processados muito mais eficientemente do que hoje, uma vez que as categorias e as relações semânticas entre categorias se tornarão não apenas computáveis, mas automaticamente traduzíveis de um idioma para outro.13

Além disso, o IEML permitirá a comparação dos resultados fornecidos pela análise do mesmo conjunto de dados de acordo com diferentes regras (teorias!) de categorização.

Quando este sistema simbólico de análise e de síntese conceitual estiver democraticamente em todas as mãos, for traduzido automaticamente em todas as línguas e for facilmente manipulado a partir de um simples tablete, então o oceano de dados poderá ser aprovisionado e o medium algorítmico será experimentado diretamente como uma ferramenta de melhoria cognitiva – pessoal e social – e não apenas como um instrumento de difusão. Com base nesta metalinguagem aberta de geração e de reconhecimento de redes semânticas, um ciclo autogerador de experimentação coletiva e de criação de ferramentas levará à decolagem do medium algorítmico do futuro.

4. A revolução da comunicação ainda não terminou

Entre 1950 e 1980, a ave do medium algorítmico põe no ovo dos grandes computadores. Ele eclodiu como uma rede entre 1980 e 1995 com a Internet e os PCs. Tem sua maturação multimídia, interativa e social através da Web desde 1995. Mas ainda não decolou realmente. Ele decolará no final da segunda década do século XXI, de um limiar crítico na adoção do IEML (ou de qualquer outro sistema universal de codificação computacional do sentido). Isto significa, antes de tudo, que a “revolução da comunicação” está tudo menos acabada, e que o que vimos é ainda os seus primórdios. Quanto mais centrada nos dados a sociedade humana e suas instituições se tornarem, mais o domínio [maîtrise] dos dados – a começar pelo domínio intelectual – se tornará uma grande questão científica, política, social e econômica. Com a capacidade universal de emissão tendo sido adquirida, a evolução tecno-cultural avançará para o aperfeiçoamento das capacidades de colaboração na produção, análise, síntese e transformação dos fluxos e estoques de dados. Hoje, apenas os governos, as grandes empresas e os grandes centros de pesquisa acadêmica têm os meios financeiros e as habilidades para extrair informações relevantes de enormes massas de dados. Amanhã, ferramentas de acesso gratuito a partir de todos os dispositivos permitirão produzir, encaminhar, pesquisar e analisar colaborativamente o oceano de dados. O domínio teórico e prático dessas ferramentas será ensinado na escola primária. Os algoritmos em que serão baseados serão distribuídos, abertos, transparentes, interoperáveis, personalizáveis à vontade e usarão todo o poder da computação em nuvem (cloud computing). O IEML está na vanguarda deste movimento que é, indissociavelmente, técnico, científico e cultural.

O medium tipográfico suportava a reprodução e a difusão automática dos símbolos. Ele permitiu o desenvolvimento de formas culturais nunca antes vistas, como as ciências experimentais e matemáticas da natureza, a economia industrial e o Estado-nação. O medium algorítmico suporta a manipulação e a transformação automática dos símbolos. A sociedade datacêntrica baseada no medium algorítmico do futuro será, sem dúvida, tão diferente da sociedade industrial quanto o Egito faraônico baseado na escrita hieroglífica era das tribos pré-históricas.

Notas

1 Este artigo é uma tradução do original: Lévy, Pierre, “Le medium algorithmique”, Sociétés, 2015/3 (n° 129), p. 79-96. https://www.cairn.info/revue-societes-2015-3-page-79.htm#re9no9.

2 Pierre Lévy traduz o inglês big data por “massas de dados” ou “dados massivos”.

3 [N. T.] IEML é um acrônimo para Information Economy MetaLanguage. Ela consiste em uma linguagem de programação, mais propriamente uma semântica, desenvolvida por Pierre Lévy e equipe ao longo dos últimos anos dos quais quatorze anos foram financiados pelo governo federal canadense através da Cátedra de Pesquisa em Inteligência Coletiva da Universidade de Ottawa (2002-2016).

4 Aliás, um monopólio que muitas vezes foi regulado ou controlado pelos governos.

5 O pensamento crítico se refere aqui à capacidade de avaliar a transparência de uma fonte de informação, de verificar sua exatidão e decifrar seus pressupostos e suas teorias implícitas.

6 Ver os trabalhos de Manuel Castells (por exemplo, Communication Power. Oxford: Oxford University Press, 2009) e de Barry Wellman (por exemplo, avec L. Rainie, Networked: The New Social Operating System. Cambridge: MIT Press, 2012).

7 Lévy, Pierre (2011) La sphère sémantique, tome 1. Paris/Londres: Hermès-Lavoisier, Paris-Londres, sobretudo o capítulo 8.

8 Cf. Anderson, Ch. (2008) The End of Theory: The Data Deluge Makes the Scientific Method Obsolete, Wired, 23 junho.

9 Entre a literatura muito abundante sobre o assunto, veja em particular as obras de dois grandes epistemólogos do século XX, Karl Popper e Michael Polanyi. Ver Popper, Karl (1972) Objective Knowledge: An Evolutionary Approach, Clarendon Press, Oxford; Polanyi, Michael (1974) Personal Knowledge: Toward a Post-Critical Philosophy. Chicago: University of Chicago Press.

10 [N. T.] A estigmergia é uma forma de comunicação indireta realizada por um sistema emergente auto-organizado em que as partes componentes do sistema (os agentes) se comunicam e colaboram entre si alterando o próprio meio em que atuam. O conceito de estigmergia foi estabelecido pelo zoólogo francês Pierre-Paul Grassé (1959) para tratar da forma como as formigas, que são insetos sociais por excelência, se comunicam constituindo tarefas coletivas sem precisarem de um aparelho central de gestão e comunicação. Ela se faz, no caso das formigas, quando deixam traços no ambiente, ao longo de seu trajeto, que estimulam a ação que se seguirá, seja da mesma formiga ou de outra, tendendo-se assim a reforçar a si mesma e a fazer emergir uma coordenação espontânea e coerente de uma coletividade. Da mesma forma que neste texto, Pierre Lévy menciona também, em nossa entrevista realizada em dezembro de 2020, o uso deste conceito para tratar da lógica de comunicação própria do medium algorítmico.

11 Sobre isso ver: M. Nielsen, Reinventing Discovery: The New Era of Networked Science. Princeton: Princeton University Press., 2012.

12 Ver, por exemplo, Z. Tufekci, « Beware the Smart Campaign », New York Times, 16 novembre 2012.

13 Para ser mais preciso, as redes semânticas hipertextuais poderão ser traduzidas automaticamente para todos os idiomas listados no Dicionário Multilíngüe IELM.

Tradução: André Magnelli

Pierre Lévy é um sociólogo, filósofo e pesquisador em ciências da informação e comunicação (CIS) que investiga desde finais dos anos 1980 o impacto da Internet sobre a sociedade, o conhecimento, a inteligência e a cultura. Ele é professor associado da Universidade de Montreal, Canadá, e membro da Royal Society of Canada.

Pontos de Leitura. Pierre Lévy, apresentação e bibliografia comentada

Nascido na Tunísia em 1956, Pierre Lévy é um sociólogo, filósofo e pesquisador em ciências da informação e comunicação (CIS) que investiga desde finais dos anos 1980 o impacto da Internet sobre a sociedade, o conhecimento, a inteligência e a cultura. Ele é professor associado da Universidade de Montreal, Canadá, e membro da Royal Society… Continuar Lendo →

Entrevista com Pierre Lévy – Inteligência coletiva digital: os primórdios de uma revolução antropológica?

No dia 03 de dezembro, realizamos a última entrevista internacional do Ciclo de Humanidades 2020, feita no contexto do nosso encontro “Bem vindos à humanidade digital?”. O entrevistado foi Pierre Lévy, que é um sociólogo, filósofo e pesquisador em ciências da informação e comunicação (CIS) que investiga desde finais dos anos 1980 o impacto da… Continuar Lendo →

Ciclo de Humanidades. Bem vindos à humanidade digital?

Chegamos ao último encontro do Ciclo de Humanidades 2020! Ele ocorrrá na próxima quinta-feira, 26 de novembro, com o tema “Bem-vindos à humanidades digital?”. Nos vemos lá! Apresentação Questão As sociedades humanas se encontram em meio a um devir digital. Quais são suas consequências sobre a cultura, a educação e o debate público? Deveremos dar… Continuar Lendo →

Ciclo de Humanidades 2020

O Ciclo de Humanidades: ideias e debates em filosofia e ciências sociais é um espaço de reflexão, exposição e conversa sobre ideias, autores e temas clássicos e contemporâneos. Ele é concebido e organizado pelo Ateliê de Humanidades, juntamente com a BiblioMaison/Consulado da França e com o Instituto Goethe/Consulado da Alemanha, tendo uma periodicidade (mínima) mensal, realizando-se habitualmente na última quinta-feira de cada mês ao longo de todo o ano.

Deixe uma resposta

por Anders Noren

Acima ↑

%d blogueiros gostam disto: