Der Spiegel, Nr. 40, 02.10.2021, p.42-9. Tradução: Hans Alfred Trein
Conspiração. Nós acreditamos aquilo que nos serve e nos
parece convincente e, então, procuramos por comprovações e argumentos que
defendam nossa postura.
Em primeiro lugar, os nossos cérebros foram hackeados. Em 2009, o Twitter introduziu sua função “retweet” e o Facebook sua função “like”, que o twitter, então, copiou; tornaram se logo funções-padrão na rede. A combinação com a função “compartilhar” possibilita aos usuários disseminar imediata- e irrefletidamente quaisquer conteúdos em toda sua rede social. “Também poderíamos ter dado uma arma carregada na mão de uma criança de 4 anos”, diz Chris Wetherell, que desenvolveu a função retweet no twitter. “E eu acredito que foi isso que, na verdade, fizemos”.
Graças à essa dinâmica eu posso participar de algo com pouco
ou nenhum empenho ou risco pessoal e me esconder no anonimato, caso algum grupo
de pessoas se indigne. A vítima e eu, talvez nem nos conheçamos. Eu nem mesmo
faço ideia sobre se ela poderia perder seu emprego, ou sobre o ostracismo que
ela experimenta, pois empatia e consciência de responsabilidade são
substituídas por indignação e anonimato.
Enquanto ela sofre em ser envergonhada ou mal falada, vou
acreditar que a vítima o mereceu. Minha fúria não é uma fúria comum, não é uma
emoção cara à cara, que poderia possibilitar uma interação e levar a uma
reconciliação ou a novos reconhecimentos. Nós, da bolha, cremos que o objeto de
nossa indignação é uma ameaça ou um traidor. Mesmo quando a vítima estava bem
intencionada, ela o deveria ter sabido melhor e, em todos os casos, sua
vergonha serve de advertência a outros.
Assim somos alimentados com indignação por mídias clickbait
(isca para clicar), ativistas e fazendas estatais de trolagem, apoiadas por
software que observa cada clic. Um tal sistema pode nos impedir de trocarmos
ideias com pessoas que veem a realidade de outra forma. O que dizem os outros?
Quais são nossas diferenças? Mais estranho ainda é que somos influenciados por
um software que não nos explica o que nos mostra. Ele aprende o que clicamos e
o que outras pessoas que nos são similares clicam, fabrica um avatar virtual de
nós e passa a nos alimentar com tudo o que o nosso avatar quer. Ninguém
consegue compreender por que vemos o que vemos. Ninguém sabe o que os outros
veem. Nem mesmo as máquinas sabem o que seus algoritmos fazem.
Mídias digitais não são concebidas de maneira que elas nos
obriguem a reconhecer nossas diferenças e de nos compelir a que busquemos consenso.
Elas não querem produzir uma realidade comum. Ao invés de diminuir o fluxo de
informações, pois elas precisam ser testadas e comprovadas, as mídias digitais
premiam o imediatismo e a impulsividade, emoções ao invés de objetividade. Em
vez de repudiar agressões pessoais, elas as promovem.
Eu tenho 61 anos. Em minha infância havia nos EUA três
emissoras de TV, dois magazines de notícias e um ou dois grandes jornais em
cada cidade. Não importa, se a gente tem saudades dos velhos, bons tempos, ou
se a gente está feliz, que a era das grandes mídias tenha passado: há uma razão
por ter havido tão poucos porteiros e que eles agiam com tanto sucesso. A
informação pode ser livre, mas saber é caro. Uma grande reportagem
investigativa ou um estudo acadêmico exigem o trabalho de experts e muito
dinheiro.
Até por volta de 2016, não importava muito às lideranças e
aos técnicos do mundo digital, se as informações a que davam uma plataforma,
eram verdadeiras ou não, se é que em absoluto pensavam a respeito. Prescrever às
pessoas o que devem postar? Deixem florescer 1000 flores! Não é nossa tarefa,
controlar o mundo online! Contudo, o ano 2016 com a vitória de Trump, e o
impacto da influência nas eleições norte-americanas por redes de direita e
atores destrutivos e estrangeiros mudou muita coisa.
Por que? O Facebook, por exemplo, não é apenas uma
plataforma. Também é uma comunidade, e comunidades implodem quando
sociopatas enlouquecem. Além disso, Facebook é um empreendimento, e uma empresa
se torna não rentável quando ela se torna tóxica para os seus clientes ou para
a sociedade. Quando usuários inundam a rede com material que assusta e traz
insegurança a outros usuários, afugenta anunciantes, que envenena a marca e que
é sistematicamente inverídico, a empresa terá de escolher o que e como algo
será disseminado de maneira proeminente. Em alguns casos, excluirá conteúdos ou
usuários totalmente. Para dizê-lo resumidamente: terá de encontrar um
equivalente para a tecnologia “killer app” das velhas mídias: revisão
redacional.
Os
melhores trolistas. Wladimir
Putin deve estar com inveja de Donald Trump, que descobriu, como se transfere
estratégias de desinformação em estilo russo para a política americana.
Já faz tempo que as grandes redes sociais começaram a dar-se
um revestimento institucional. Desenvolvem normas e incentivos, para levar seus
usuários a mudar seu comportamento. O que começou com algumas equipes de
checadores de fatos que realizavam um punhado de verificações aleatórias,
desenvolveu-se na direção de uma rede global que coopera com Facebook, Google e
Youtube.
Veremos o que funciona e o que não funciona. Alguns experts
contestam que a checagem de fatos faça alguma diferença. No entanto, mais
importante é: o que antes era guiado por decisões comerciais e preconceitos
ideológicos, está sendo repensado. De qualquer modo, agora está claro que a
pretensa neutralidade das plataformas sempre foi aquilo o que na verdade
é: um pretexto, uma desculpa esfarrapada!
Um sociopata é alguém que não aceita normas sociais. Violações
de regras e uma certa falta de vergonha podem fazer sentido, pois inovações na
economia, na política ou na arte vivem de atitudes que ignoram limites.
Contudo, violações demasiadas conduzem à ruína de uma ordem social pacífica –
mais ainda quando ela é liberal, que depende de todas as pessoas, em princípio,
seguirem as mesmas regras.
Sociopatas ambiciosos reiteradamente levaram ordens liberais
à queda, mas as modernas democracias liberais do ocidente, por muito tempo,
pareciam estáveis. Desde o início do século 21, no entanto, tecnologias
digitais e mídias sociais trouxeram à luz uma quantidade infinita de enxames
anônimos. A partir do momento, em que estes se vincularam com atores estatais,
primeiro com Putin, Orbán, Erdogan e daí com o presidente dos Estados Unidos,
uma forma imperscrutável e assustadora de desinformação digital ganhou
relevância.
Por propaganda entende-se influenciar a opinião pública, sem
respeito à verdade, muitas vezes (mas nem sempre), por atores estatais – a
desinformação como guerra psicológica e informadora. O objetivo: desmoralizar,
desmotivar, isolar, intimidar. Trolls modernos veem isso de modo semelhante.
Quando os russos iniciaram a sua agressão informativa às eleições
estadunidenses em 2016, não acreditavam em com isso alçar Donald Trump à
cadeira presidencial, mas esperavam polarizar os Estados Unidos e tornar o país
menos governável. Foram exitosos nisso.
As agressões não visam pessoas ou temas individuais, mas sim
todo o espaço da informação. Steve Bannon, o antigo chefe de “Breitbart News” e
posterior estrategista-chefe de Trump, disse certa vez: “A verdadeira oposição
são as mídias. E o jeito de lidar com elas é: Flood the zone with shit - inunda
a região toda com merda”.
Não há descrição mais precisa do que se trata, quando
falamos de modernas guerras de informação. Comunidades estão sujeitas a redes
de confiança, que filtram o que é verdade e o que não é. As pessoas tem de
saber, com quem estão falando, se essa pessoa é digna de confiança, quais
instituições comunicam credibilidade e assim por diante. Confiança e
credibilidade são afetadas, quando o ambiente está inundado.
Quando, em 2018, agentes russos envenenaram Sergej Skripal e
sua filha, as mídias russas atribuíram a culpa à Grã-Bretanha. Ou à Ucrânia. Ou
a ambos. Ou talvez tenha sido um acidente. Ou suicídio. Ou um assassinato por
vingança de parentes. Ou tudo junto. Também se dizia que a Rússia não fabricava
o material danoso aos nervos que fora utilizado. Ou que tinha sido utilizado um
material danoso aos nervos completamente diferente. “O caráter contraditório
das afirmações não é um erro da propaganda do Kremlin, mas sim intenção”,
escreveu o “The Economist”. “O propósito da campanha de desinformação consiste
em afogar os serviços secretos ocidentais em uma cacofonia de afirmações desenfreadas,
em vez de oferecer uma narrativa contrária coerente”. Uma chave para o sucesso
de qualquer campanha de desinformação é que as mídias e os ecossistemas
políticos das sociedades agredidas absorvam as informações falsas e as
reforcem.
O jornalista britânico, Peter Pomerantsev, trabalhou em
Moscou, nos anos noventa, e experimentou como a propaganda russa foi mudando.
“No comunismo”, diz ele, “queria-se convencer as pessoas, de que um excelente
futuro socialista estaria à sua frente. A nova propaganda se concentrava em
causar confusão e disseminar teorias de conspiração”. O Kremlin não utilizava o
seu controle sobre a mídia, para motivar a população a apoiar o governo, mas
sim, para desmotiva-la. “Quando se está rodeado de teorias de conspiração,
tem-se a sensação de não conseguir mudar nada; não há absolutamente nada, em
que a gente possa se orientar”, diz ele. “A metanarrativa (o que está por trás):
não existe alternativa à Putin”.
E, mais uma coisa mudou. A censura tradicional parte do
princípio de que as informações são escassas, e que sua distribuição entre o
público pode ser bloqueada ou restrita. Na era digital, o cientista jurídico
americano, Tim Wu, escreve que há informações (boas e ruins) disponíveis em
abundância. Por que, então, não apostar mais em chamar atenção ao invés de
bloquear informações? Se o espaço é inundado com distração e lixo, consegue-se
manter a atenção do público e domina-lo.
O que acontece, quando não se tem segurança sobre se
a gente é manipulado ou enganado? A gente parte do princípio de estar sendo
sempre manipulado. Ou a gente se recolhe com seus amigos online para uma versão
própria e privada da realidade. Ou cai na lábia de um político demagogo, de
quem se absorve toda palavra que diz.
Já em 2013, muito tempo antes de Donald Trump iniciar sua
carreira política, ele foi referido em um tweet como “most superior troll”, o
melhor de todos os trolls. “Um elogio excelente”, foi o seu comentário. Trump,
seu estrategista Bannon e seus seguidores sabiam o que estavam fazendo, e eram
bons nisso.
Trump disseminava mentiras e distorções em proporções
inimagináveis; foi isso que os muitos verificadores de fatos constataram. Em
janeiro de 2020, os checadores de fatos do “Washington Post” registraram 22
afirmações falsas por dia. Assim como as desinformações russas, também as
mentiras de Trump não eram apenas falsas, mas ridiculamente falsas. Ninguém era
pra ser convencido de qualquer coisa, era apenas uma demonstração de que as regras
normais estavam sendo abolidas e que o líder disso era a mais alta autoridade.
Mal no cargo, ele afirmou que a multidão em sua posse teria
sido maior do que na posse de Obama – apesar de as fotografias provarem o
contrário. Num dia ele dizia que o processo de impeachment causaria danos ao
mercado de ações, no outro dia, ele se gabava, de que o mercado tinha alcançado
novos recordes de ganhos. Quando em uma reunião ministerial transmitida ao vivo
definiu o sistema penal como uma piada e uma chacota, algumas horas depois, a
Casa Branca desmentiu que Trump tinha dito aquilo.
Trump e seus apoiadores transformaram o espaço da informação
num circo. Eles atiçavam a paranoia, repetindo e reforçando teorias de
conspiração. Ignoravam todas as contestações objetivas, repeliam todas as
acusações e chamavam todas as mídias baseadas na realidade de “Fake News”.
Estudos científicos indesejados declaravam como “perseguições políticas”.
Empregavam indignação como uma arma, manipulavam a agenda pública e assim
determinavam os debates nacionais. Produzindo um redemoinho de distorções e
distrações, conseguiam desviar a atenção sobre sua corruptibilidade e
incompetência. Nenhum estudante de ciências da informação contestaria que
Trump, de fato, é “o melhor de todos os trolls”.
Nenhum comentário:
Postar um comentário