Notícia

Folha Diferenciada

Tecnologia, Ignorância e Violência

Publicado em 18 julho 2019

Por Pablo Rubén Mariconda, do Scientiae Studia

Meu objetivo neste texto é discutir o irresistível impulso tecnológico do Ocidente para o controle, domínio ou conquista da natureza, delineando em conformidade com Hermínio Martins, Experimentum humanum, duas tradições de caracterização desse impulso tecnológico de controle: a prometeica, segundo a qual o domínio da natureza serve a fins humanos, ao bem humano e, particularmente, à emancipação de toda a espécie humana; e a fáustica, que critica o otimismo dos argumentos prometeicos e avança uma concepção niilista segundo a qual a tecnologia não tem qualquer objetivo humano para além de sua própria expressão. No cerne dessa disputa encontra-se a questão crucial da passagem do domínio da natureza para o domínio dos seres humanos e, muito particularmente, a da sobrevivência da espécie humana. Essa discussão servirá para encaminhar um primeiro questionamento das concepções eugênicas do trans-humanismo vinculadas à biotecnologia, ao automatismo e à inteligência artificial: melhoria prometeica ou extinção fáustica da espécie humana?

1 Hermínio Martins, no capítulo II, intitulado “Tecnologia, modernidade e política” de seu extraordinário livro, Experimentum humanum, propõe-se a discutir as tentativas de legitimação “do impulso tecnológico do Ocidente para o ‘domínio da natureza’” (p. 35). Mostra, logo de início e consoante a interpretação de Lynn White, um historiador da ciência e da técnica medievais, que essas tentativas de legitimação devem ser pensadas, no plano mais amplo da civilização, no quadro do “Cristianismo, e particularmente, do Cristianismo Latino Ocidental” (p. 35), no interior do qual “várias tradições teológicas fortes autorizam uma ampla variedade de atitudes em relação à exploração dos recursos naturais e aos limites das considerações antropocêntricas que dizem respeito à apropriação de formas de vida não humanas.” Segundo Martins, apesar do uso da linguagem do “domínio da natureza”, desenvolveram-se no interior do Cristianismo duas tradições teológicas a respeito do domínio: as concepções da Curadoria e a da Cooperação, que desde o início criaram uma ambivalência da atitude cristã – que se mantém, em grande medida, até hoje – “no que respeita às suas prescrições teológicas acerca da natureza, da técnica, dos animais, da ética biomédica etc.” (p. 35). Basicamente a diferença entre essas duas atitudes é a seguinte: “a tradição de Curadoria prescreve a contenção na utilização dos recursos naturais, por via das gerações futuras. A tradição de Cooperação com a natureza favorece a convocação dos poderes naturais de preferência à remodelação do mundo natural de acordo com desígnios que lhe são estranhos” (p. 35, nota 1). Eu poderia deter-me aqui e tratar nessa dimensão teológica da “Carta encíclica Laudati Si’ do santo padre Francisco sobre o cuidado da casa comum”, que significativamente, como mostrou Agamben (em “O que é um dispositivo?”), expressa o sentido comunitário mais básico do Cristianismo original do que se entende por “oekonomia”, ou seja, o cuidado da casa comum, o cuidado com o planeta no qual vivemos.

2. Martins procurará mostrar então que “as invocações do ‘domínio’, do ‘controle’ ou da ‘conquista’ da natureza no pensamento social dos séculos XIX e XX” (p. 35) – e que, de meu ponto de vista podem ser retraçadas até os séculos XVI e XVII, ou seja, até a primeira modernidade – também podem ser caracterizadas em termos “de duas tradições ideais e típicas. A [concepção] prometeica do domínio da natureza (particularmente acentuada depois da Revolução Francesa) e a [concepção] fáustica (que culmina na obra do mais proeminente filósofo contemporâneo da técnica, Heidegger)” (p. 35). Ressalta Martins que evidentemente “essas tradições de pensamento sobre o domínio da natureza exibem variantes internas” (p. 35) que, entretanto, não precisam ser detalhadas nesta exposição, para a qual basta uma apresentação abreviada de sua apreensão cultural geral. Assim, enquanto para Martins, “a tradição prometeica liga o domínio técnico da natureza a fins humanos e sobretudo ao bem humano, à emancipação da espécie inteira” (p. 35-6) – tradição da qual fazem parte dois expoentes máximos da primeira modernidade, Bacon e Descartes, que anunciam o predomínio da filosofia prática entendida como um projeto de unificação do conhecimento científico e técnico –, por outro lado, “a tradição fáustica esforça-se por desmascarar os argumentos prometeicos, quer subscrevendo, quer procurando ultrapassar (sem solução clara e inequívoca) o niilismo tecnológico, condição pela qual a técnica não serve qualquer objetivo humano para além de sua própria expressão” (p. 36). Trata-se, com efeito, de uma caracterização da diferença entre a atitude otimista – que concebe o avanço da tecnologia como uma epopeia civilizatóriaem direção à sobrevivência da espécie humana [concepção da qual fazem parte algumas concepções políticas mais orientadas para uma prática de democracia comunitária e participativa e que, por isso, mantêm o otimismo de que a tecnologia pode, com a ajuda da ciência, ser reorientada para práticas que estejam voltadas para o benefício e emancipação de toda a humanidade] – e a atitude pessimista – que concebe o avanço da tecnologia como uma tragédia civilizatória, na medida em que o desenvolvimento da ciência e da tecnologia nos séculos XIX e XX ampliou o escopo do “domínio da natureza” para o de “domínio dos humanos”, tornou hegemônica a razão instrumental, e autônoma a tecnologia, com o risco da própria espécie humana ser superada e dominada por sua máxima criação, a das máquinas que pensam e tomam decisões autonomamente.

Cabe comentar que as concepções trans-humanistas também se alinham a essa visão trágica da “sobrevivência” de nossa espécie, na medida em que propõem aos humanos a ultrapassagem das limitações orgânicas (naturais) de serem compostos químicos de carbono, transformando-se em máquina, pela transferência da memória orgânica para a memória silícica de um dispositivo tecnológico de informação em um corpo robotizado.

3. Essas concepções do controle tecnológico da natureza acabaram estando ligadas, de um modo ou de outro e por vertentes diferentes, ao diagnóstico de que a civilização tecnológica em seu estágio atual, isto é, do final do século XX e particularmente com maior rapidez nas primeiras duas décadas deste século, pode ser tomada como pós-história, vinculando-se, assim, ao tema, “em parte hegeliano, do fim da história”. “As expressões ‘pós-história’ e ‘pós-histórico’ foram forjadas de modo independente por comentadores franceses [da obra de Cournot] no início do século XX e por acadêmicos norte-americanos nas últimas quatro décadas [do século XX] nomeadamente na discussão de sua teoria da história e especialmente da respectiva repercussão sobre o futuro das sociedades industriais avançadas” (p. 37). Como mostra Martins, “Cournot (1801-1877) foi o mais sistemático dos pensadores do século XIX que defenderam a probabilidade, ou até a inevitabilidade, daquilo que mais tarde haveria de chamar-se o fim da ideologia, o fim da utopia, o fim da política ou o fim da história” (p. 37), mas Martins alerta que o termo “fim” empregado nessas expressões “não significa necessariamente extinção ou término, mas pode ser elaborado com vários sentidos como exaustão, completude, cumprimento ou consumação, tal como em Hegel” (p. 37, grifos meus).

4 De meu ponto de vista, importa ressaltar que os temas da pós-modernidade, pós-política, pós-verdade receberam seu primeiro impulso da conceitualização hegeliana do fim, porque a pós-modernidade vem posta como aquilo que segue ao esgotamento do projeto da modernidade, e puseram a questão de pensar a nova ordenação social, política, econômica que se estabelece tendo como cerne a tecnociência, o predomínio da direção tecnológica comercialmente orientada, ou seja, com maximização do utilitarismo econômico, muitas vezes em detrimento da pesquisa básica. Temas como o da pós-política e da pós-verdade são efeitos do avanço da civilização material, notadamente da ampla implantação das tecnologias da informação e da comunicação (TICs).

5 A partir deste ponto vou considerar basicamente dois conjuntos de fatos. O primeiro diz respeito à inclinação técnica da ciência natural – anunciada no plano dos valores da racionalidade científica do século XVI ao XVIII – que se efetivou “à medida que formos refazendo o mundo natural, que o artificializamos, que nos tornamos cada vez mais o ‘deus dos artefatos’, dado que o artifactual, o antropogênico, ocupa uma região cada vez maior do mundo humano” (Martins, cap. 3, p. 83) e poderíamos sem dúvida acrescentar do meio em que vivemos. O segundo fato é a preponderância e centralidade (talvez até tornar-se um componente sistêmico invariante) do conceito de informação na cultura objetiva (no estágio atual da civilização material) e que se revela (ou desvela) no sistema técnico instrumental na forma de tecnologias da informação e da comunicação (nas TICs já anteriormente referidas), que se ligam ao conjunto das ciências computacionais (ciências da computação), mantendo como valor central o controle (domínio) da natureza, que, como deixa claro Norbert Wiener, o idealizador da cibernética, produz um claro aumento na possibilidade de controle dos animais e dos humanos, e um estreitamento principalmente dos controles sociais. Aqui deve-se considerar toda a parafernália instrumental das sociedades científico-tecnológicas características do Antropoceno, com a ampla predominância das máquinas elétrico-eletrônicas: computadores, tablets, telefones portáteis, dotados de múltiplas funcionalidades: comunicar, gravar, fotografar, filmar, navegar na internet, efetuar pagamentos, movimentar contas bancárias etc. As TICs afetam profundamente a relação dos humanos com o mundo, tornando ubíqua a imagem do mundo. Essa mudança no tipo de relação humano-mundo é, de certo modo, decorrência de que vivemos – no que diz respeito à visão metafísica do mundo – na “época da imagem do mundo”, segundo a acepção de Heidegger, ou na época da reprodutibilidade técnica das imagens, na acepção de Benjamin. Entretanto, nem Heidegger, nem Benjamin sequer sonharam com um objeto técnico tal como uma máquina matemática (composta de hardware e software) ou com uma tecnociência da computação (responsável pelo processamento da informação e programação de algoritmos), capaz de ser reproduzida em um dispositivo elétrico-eletrônico portátil, utilizado amplamente para a comunicação e troca de informação. De qualquer modo, mais do que em qualquer outra época, estamos obrigados pelos dispositivos tecnológicos de informação e comunicação à imagem do mundo, obrigados a ver as imagens do desenrolar técnico do mundo: o desastre nuclear de Fukushima; o rompimento da barragem do Fundão em Mariana, o rompimento da barragem 4 do complexo da Mina Córrego do Feijão em Brumadinho. Sem que percebamos – pois a ubiquidade dos dispositivos tecnológicos torna invisível sua mediação – estamos constantemente dirigidos e controlados em nossa mediação com o mundo, de modo que a imagem que tomamos como sendo do mundo é a imagem de um mundo recortado e reconstruído como imagem do mundo.

6 Cabe aqui dizer que, do ponto de vista epistemológico mais geral, a todo conjunto de conhecimentos práticos e teóricos corresponde um conjunto, de certo modo, complementar de não conhecimentos práticos e teóricos. Esta tese não tem nada de excepcional nem de original. Um serralheiro, prático em ferragens, dirá que é melhor o marceneiro pendurar a porta de madeira no batente, porque essas atividades correspondem a práticas que se reconhecem como diferentes e que necessitam não só reconhecer o que se sabe e o que se pode fazer com esse saber, mas também distingui-lo do que não se sabe e não se pode fazer, de modo que a toda esfera do conhecer e fazer humanos correspondem esferas complementares de não saber e não fazer. É evidente aqui a necessidade do reconhecimento de um não conhecimento, de que não se sabe algo. Mas quando não reconheço não saber algo, quando desconheço certa ignorância, ou mesmo quando minto saber, introduzo um aspecto retórico na relação, e acabo por envolver a esfera da ignorância. De sua parte, as TICs introduzem uma alteração fenomenológica significativa em nossa percepção cognitiva do mundo – por exemplo, dificuldade na determinação da autoria das informações ou notícias, ou seja, aparente anonimato do que se comunica; deslocamento emocional produzido pela mediação imagética da informação; transferência da memória; diminuição drástica da atenção sensitiva e oral – a ponto de ampliar espantosamente a esfera da ignorância não mais reconhecida como tal, ou seja, a ignorância ignorada, que é também uma forma de embrutecimento racional.

7 Pascal, em uma passagem dos Pensées, desenvolve uma metáfora pela qual caracteriza as ciências(o conhecimento racional) como uma esfera que cresce a partir da finitude humana em direção ao infinitamente grande e ao infinitamente pequeno. Fo Herbert Spencer, em First principles, que elaborou a metáfora do conhecimento científico como uma esfera que cresce mergulhada em um oceano de ignorância. Há duas interpretações possíveis dessa metáfora que se liga, como veremos a seguir, à concepção de Simmel dos efeitos do avanço da tecnologia ou da cultura objetiva para a cultura simbólica. Dessas duas interpretações, uma é pessimista e a outra otimista. Na interpretação pessimista, o conhecimento científico cresce linearmente segundo o diâmetro da esfera e, portanto, cresce menos que a superfície da esfera (que está em contato com a ignorância), de modo que a ignorância cresce mais do que o conhecimento. Na interpretação otimista, o conhecimento científico cresce segundo o volume e, consequentemente, cresce mais do que a superfície da esfera em contato com a ignorância. Entretanto, em qualquer interpretação há um crescimento da ignorância: maior do que o crescimento do conhecimento, no caso da interpretação pessimista; menor do que o crescimento do conhecimento, na interpretação otimista.

8 Mas deixemos as metáfora de Pascal e Spencer e voltemo-nos para Simmel, autor que introduz uma diferença capital entre conhecimento e não-conhecimento (entre Wissen e Nichtwissen). O primeiro a considerar é que o conceito de não-conhecimento difere basicamente dos conceitos de ignorância e de incerteza. O não-conhecimento “é visto como o reverso ‘natural’ do conhecimento” (Gross, 2012, p. 423). Segundo Simmel, o não-conhecimento está ligado ao avanço da cultura material ou objetiva. As máquinas e instrumentos da cultura objetiva acarretam um aumento do não-conhecimento científico. Nesse nível, o não-conhecimento de Simmel vincula-se à “ignorância especificada” de Merton que corresponde ao fato de que há (ou deveria haver) conhecimento acerca do desconhecido, acerca do que se desconhece, ou seja, uma concepção que abarcasse certa consciência do que não se conhece (ou do que se ignora). O não-conhecimento, nesse caso, corresponde a um reconhecimento do que não se conhece e, nesse sentido, corresponde ao que Martins denomina de “ignorância genuína” (Martins, p. 73). Como ela se configura? Segundo Martins:

Para além da experiência do “sublime tecnológico” no que toca ao já realizado, condenados ao progresso técnico como estamos, sabemos que este progresso gera riscos e incertezas, grandes riscos e grandes incertezas, especialmente sobre as consequências, usos e abusos, ou acidentes decorrentes da engenharia genética, inclusive a da “biologia sintética” como forma extrema da engenharia genética, das bioarmas de terror que poderão providenciar [proporcionar], da nanotecnologia e dos avanços na Inteligência Artificial (em marcha para a IA autônoma, em vez de simplesmente auxiliar, como é hoje, ou para a Inteligência Artificial Geral) (Martins, p. 73).

A ignorância genuína vincula-se então intimamente ao avanço do conhecimento, ao crescimento de nosso poder tecnológico sobre a natureza, cresce intimamente imbricada com ele, pois “para além das probabilidades calculáveis, com mais ou menos confiabilidade, sobre projetos tecnológicos de toda espécie (…) as incertezas são inelimináveis, não só devido a nossa ignorância dos mecanismos causais, mas porque nenhum grau de conhecimento poderá eliminar as incertezas que decorrem das interações entre os nossos sistemas sociotécnicos e a biosfera” (Martins, p. 73) de modo que “‘a explosão do conhecimento’ vai sendo acompanhada por uma ‘explosão de ignorância’ e de certo modo como causa e efeito, não só na proliferação de questões em aberto (…), mas como obsolescência do conhecimento profissional” (Martins, p. 73-4).

9 Entretanto, o avanço da tecnologia, em particular, das tecnologias de informação e comunicação, permitiu o surgimento de outro tipo de ignorância: a ignorância fabricada ou, na acepção de Martins, a “ignorância manufaturada”, que se revela primeiro na própria condução da pesquisa científica, de modo que

“existem nas economias de mercado, em democracias consolidadas, campanhas de produção de ignorância (a ignorância manufaturada, a incerteza manufaturada), de dúvidas, de incertezas acerca de teses bem fundamentadas, com argumentos espúrios, distorções de resultados, dados de pesquisas mal conduzidas, apresentação de experts como testemunhas em tribunais para levantar dúvidas sobre resultados sólidos de investigações científicas (Martins, p. 73, nota 18).

São exemplos dessas campanhas produtoras de ignorância o caso das indústrias do tabaco contra os resultados das pesquisas científicas que apontavam para os malefícios à saúde do hábito de fumar ou o caso bem mais recente e atualmente corrente das indústrias petrolíferas contra o aquecimento global climático e, em especial, sobre o papel antropogênico no aquecimento global. Mas, se em um primeiro momento a ignorância fabricada se limitou à esfera da pesquisa científica voltada para a questão dos riscos da tecnologia e da regulação de aplicações tecnológicas de alto impacto ambiental, tal como a emissão de gases estufa ou o cultivo de monoculturas transgênicas ligadas ao avanço da biotecnologia genética, no século XXI, ela se expandiu para além dos interesses econômicos que inicialmente a mobilizaram, atingindo também as ideologias políticas e afetando, com o avanço das tecnologias de informação e comunicação e dos processos de automação da IA, de modo profundo a própria cultura.

10 Vou me concentrar aqui em um aspecto dos riscos (e incertezas) produzidos pela ubiquidade dos recursos computacionais de informação e comunicação. Para isso, detenho-me em analisar um conjunto de efeitos (consequências) sociais produzidas no “espaço virtual” (virtualidade) propiciado pelo avanço das TICs e que apresenta uma séria ameaça à democracia e às liberdades individuais. É evidente – consoante o que se disse até aqui – que as TICs, enquanto desenvolvimento da cultura objetiva (na acepção de Simmel) ou da civilização material (na acepção de Braudel), envolve um aumento do não conhecimento. Por exemplo, os usuários dos celulares (telefones portáteis) reconhecem não conhecer o conhecimento científico e o saber tecnológico envolvido no funcionamento do aparelho. Mas não é só não-conhecimento, reconhecido como tal, que temos aqui. Com as TICs temos o aparecimento de uma outra espécie de ignorância fabricada que tem sido chamada de “pós-verdade”, e que tem sido ativamente praticada no sentido da violência política. A violência da pós-verdade, praticada nas redes sociais, típico produto das tecnologias da informação e comunicação, corresponde à disseminação deliberada do erro e do engano, da inverdade, da mentira, da confusão e, no plano da política, isso tem servido para desqualificar e difamar – calúnia e vitupério ad hominem – os defensores de posições políticas que se quer combater, não pelo exercício da política, mas por uma exarcebação da argumentação retórica com vistas não ao debate mas à eliminação sumária do outro, do diverso etc. Não é surpreendente nessa situação o predomínio da categoria retórica do desmentido. Cabe notar, além disso, que no plano virtual do qual essa violência faz parte, ela não se diferencia da violência amplamente divulgada e tornada invariante culturalmente dos jogos de vídeo game e de computadores, ou da violência que deles se deriva praticada pelo uso de drones para fins militares. Em ambos os casos, as TICs propiciam a supressão do combate, seja do combate político, seja, no caso de beligerância, do combate na guerra.

11 Encontramos aqui uma conexão importante entre o avanço da automação e da IA com a modificação drástica da guerra, com o surgimento da guerra virtual, mas também com a modificação drástica da política. Tanto o avanço da guerra tecnocientífica como o da “política tecnocientífica” – ambos permitidos pela irrupção do que poderíamos chamar de formas de realidade virtual – são aspectos ligados ao “despotismo técnico” propiciado pelas TICs. Nesse sentido, é preciso repensar o despotismo político atual nos quadros do despotismo técnico que estrutura o desenvolvimento da tecnologia no sistema capitalista neoliberal.

12 Não está fora de propósito nesta apresentação, fazer um esclarecimento sumário do que entendo por “guerra tecnocientífica” – que vai paulatinamente alterando o sentido do que se entende por combate e pondo significativamente em questão a distinção entre combatente armado e população civil desarmada, entre guerreiro e civil. A primeira manifestação da guerra tecnocientífica se encontra nas armas químicas utilizadas no front franco-alemão durante a Primeira Guerra Mundial, sendo emblemático que se volte a utilizá-las na Síria. Outro exemplo é o uso de bombardeamentos aéreos que, na Primeira Guerra, foram utilizados contra as tropas, mas que na Segunda Guerra avançaram contra as populações civis nos bombardeamentos de cidades como Londres, Dresden e Tóquio. O maior exemplo de guerra tecnocientífica é sem dúvida o uso da bomba atômica em Hiroshima e Nagasaki, em um ataque contra populações civis com o objetivo de persuadir o inimigo a abandonar o combate militar. O exército americano utilizou em alguma escala armas nucleares (rifles e metralhadoras) com efeitos negativos para os próprios militares que as utilizaram. Há notícias convincentes do desenvolvimento de armas biológicas, sem que, entretanto, se tenham reportado ataques efetivos com elas. Assistimos atualmente ao desenvolvimento de uma nova tecnologia de guerra representado pelos drones que consiste, segundo a definição do exército americano, em um “veículo terrestre, naval ou aeronáutico [não tripulado] controlado a distância ou de modo autônomo”. Os drones são um desenvolvimento da IA e dos processos de automação que ela propicia. Atualmente, os drones combinam dois tipos de controle: (1) o controle a distância por operadores humanos (o chamado telecomando); (2) o controle autônomo por meio de dispositivos robóticos (a chamada pilotagem automática). Essas armas têm sido amplamente utilizadas no Iraque e Afeganistão e têm originado movimentos pela proibição total de seu desenvolvimento, uma vez que se prevê que, numa guerra de drones autônomos, os humanos correriam o risco de serem impiedosamente dizimados.

13 Outro esclarecimento com relação ao despotismo tecnológico consiste em sua vinculação com o considero como uma invariante histórico-estrutural do desenvolvimento da tecnologia a partir do século XIX: o estado de exceção tecnológica, que se caracteriza pela supressão constante das normas e leis vigentes e na demora de chegar a regulações do uso de tecnologias e pela instauração de um estado em que se impõe, em suma, o direito do mais forte (das grandes companhias; das corporações transnacionais), no qual se pratica a violência nua contra cidadãos e consumidores em uma sociedade em que as populações deixam de ser legalmente protegidas em seus direitos diante dos interesses dos poderosos detentores de poder econômico.

14 Para concluir vou tratar muito sumariamente de três impactos que decorrem do desdobramento do despotismo técnico vinculado ao desenvolvimento das TICs. O primeiro se faz sentir muito significativamente na própria organização da ciência. Martins o trata incisivamente em uma Apêndice ao Capítulo III de seu Experimentum humanum, intitulado “Nota sobre a novíssima ciência” (Martins, p. 123-7). Por razões de espaço não tratarei de sua perspectiva aqui que, entretanto, é muito esclarecedora e que recomendo vivamente, pois permite entender como essa “novíssima ciência” se vincula ao conceito de informação e aos processos computacionais. De minha perspectiva, o impacto do despotismo técnico sobre a ciência está intimamente ligado à tecnocracia que alimenta atualmente a crise das universidades. A crise da universidade – como diz Heidegger em um de seus últimos pronunciamentos – diz respeito a sua orientação eminentemente técnica que passa a dominar a ciência na época da imagem do mundo, quando a ciência é transformada apenas em pesquisa. O despotismo técnico aparece aqui transvertido de gerenciamento científico da universidade e assume a face da avaliação científica (que emprega métodos estatísticos e quantitativos) da pesquisa científica e técnica, voltando-se para o número de publicações, o número de patentes ou certificados de propriedade ou, enfim, mais recentemente, para a contribuição da pesquisa para o processo de inovação e de aplicação mercadológica.

15 O segundo aspecto diz respeito ao impacto dos processos de automação propiciados pelo desenvolvimento da IA sobre o mundo social do trabalho. De 2015 a 2018, foram feitas várias predições sobre as perdas de trabalho devidas à interação entre a inteligência artificial e a automação. Utilizo aqui dados que disponho sobre o Reino Unido, mas um número deste ano da revista Pesquisa da Fapesp também apresenta um mapa sobre as profissões e ofícios que se tornarão obsoletos com o avanço da IA que ameaça desse modo com um desemprego estrutural inevitável e prolongado. Assim, o Banco da Inglaterra alerta que, na próxima década, 15 milhões de postos de trabalhos estão em risco; a Universidade de Oxford de 35% das ocupações laborais correntes no Reino Unido tornar-se-ão obsoletas; e, finalmente, para a Royal Society for the Arts, 4 milhões de postos de trabalho no setor privado podem ser perdidos na próxima década em setores como finanças, contabilidade, transporte, distribuição, comunicação (media), marketing e propaganda. Esse panorama sombrio perpassa assim todas as sociedades pós-industriais atuais e ensejam discussões sobre a necessidade de implantação de uma “renda mínima universal” que assegure minimamente a sobrevivência de pessoas que jamais chegarão a trabalhar. Outro efeito evidente nessas condições é a tendência de supressão de direitos trabalhistas e a evidente diminuição dos ganhos decorrentes do trabalho assalariado.

16 Por fim, no plano político, as TICs têm representado um avanço claro do despotismo político e uma ameaça à forma representativa da democracia liberal. Segundo o dossiê produzido pela organização Scientist for Global Responsability – organização não governamental composta por cientistas, arquitetos, engenheiros e tecnólogos –, reportando um documento produzido por Martha Spurrier: “A vigilância constante [possibilitada pelo avanço da IA no setor de comunicação] conduz as pessoas a um comportamento de autocensura legal. Silenciosamente, essas medidas [de rastreamento através de motores automáticos] dobram nosso direito de protestar, de falar livremente e de dissentir. Elas condicionam nossos comportamentos de modos que corroem o núcleo de nossas liberdades democráticas”, acrescentando que “mais perniciosamente, essa tecnologia é mais perigosa para as pessoas que mais têm necessidade dela”. Corporações como Facebook e Google estão na base de “uma onda de controle totalitário…cujas aparências nem mesmo Orwell e Huxley poderiam imaginar” (Georges Soros, Open Society Foundation). Ainda segundo o dossiê da Scientist for Global Responsability: “na exata medida em que estamos assistindo a um passo [decisivo] no aumento funcional da difusão da IA, algo mais está acontecendo: o surgimento do ultranacionalismo, do autoritarismo de direita e do fascismo”.

17 Uma última consideração com relação à expansão das chamadas fake news e o início de uma reflexão sobre sua possibilidade. Essas questões atingem o núcleo das preocupações sobre a “responsabilidade” da informação, seja na ciência, seja na política. Enquanto noção central da ética, a responsabilidade dirige-se à sustentação da consciência, da identidade e da agência moral humanas. Em um nível fundamental, a introdução da IA acarreta a remoção da necessidade imediata de que os humanos exerçam a responsabilidade direta, transferindo-a para a IA. Existem vários exemplos nos quais outras formas de transferência de responsabilidade em particular na economia mostram-se falhas, em contextos que vão dos transportes e cuidados médicos domiciliares até a segurança. A transferência de responsabilidade efetuada no âmbito da comunicação aponta para transferências filosoficamente mais preocupantes das responsabilidades envolvidas em fazer escolhas que possuem impacto material nas vidas das pessoas. Isso corre o risco de embasar e instituir uma forma de sociopatia. Uma das dimensões mais emotiva na recente eleição presidencial brasileira foi a de “retomar a direção perdida, de readquirir o controle da situação”, sem que houvesse a mínima discussão de como isso seria feito, apenas através da demonização da outra posição, sem qualquer razão claramente articulada, sem qualquer crítica que ultrapassasse os limites do emocional. Não deixa de ser irônico de que com o rápido desenvolvimento da IA e do aprendizado de máquina estejamos perdendo o controle de aspectos fundamentais de nossas vidas, da política e da economia com um entendimento paupérrimo das implicações e consequências de fazer isso.

Referências

Agamben, G. Qu’est-ce qu’un dispositif? Tradução M. Rueff. Paris: Payot/Rivages, 2007.

_____. Estado de exceção. Tradução I. D. Poleti. São Paulo: Boitempo, 2018.

Benjamin, W. O anjo da história. Tradução e notas J. Barrento. Porto: Assírio e Alvim, 2017. (Obras de Walter Benjamin/4)

_____. Teorias do fascismo alemão. In: O anjo da história. Tradução e notas J. Barrento. Porto: Assírio e Alvim, 2017. p. 95-105.

Francisco, papa. Carta encíclica Laudato Si’ do Santo Padre Francisco sobre o cuidado da casa comum. 24/05/2015. Disponível em: http://w2.vatican.va/ content/francesco/pt/encyclicals/documents/papa-francesco_20150524_enciclica -laudato-si.html>. Acesso em: 14/05/2019.

Heidegger, M. O tempo da imagem do mundo. Tradução A. F. de Sá. In: _____. Caminhos da floresta. Lisboa: Fundação Calouste Gulbenkian, 2002. p. 95-138.

_____. Já só um Deus nos pode ainda salvar. Entrevista concedida por Martin Heidegger à revista alemã Der Spiegel em 23/set./1966. Tradução e notas I. B. Duarte. Covilhã: Universidade de Beira Interior, 2009.

Martins, H. Experimentum humanum. Civilização tecnológica e condição humana. Belo Horizonte: Fino Traço, 2012.

Pascal, B. Pensées. In: Lafuma, L. (Ed.). Oeuvres completes de Pascal. Paris: Seuil, 1963. p. 493-644.

Wiener, N. The human use of human beings. Cybernetics and society. USA: Da capo, 1988 [1954].

_____. Cybernetics: or the control and communication in the animal and the machine.Cambridge: The MIT Press, 1996 [1948].