Projetos de poder se alimentam das suas emoções e as redes sabem disso

Por Selma Bellini para os Jornalistas Livres

Estamos vivendo hoje um governo eleito via WhatsApp e redes sociais. Este é um fato. Por mais que a análise dos motivos que levaram Bolsonaro ao poder seja ampla e complexa, não há dúvidas de que as redes sociais e aplicativos de mensagens foram os meios de comunicação que influenciaram o resultado. Muitos estudiosos estão dedicados a analisar tal estratégia, que segue o que tem acontecido em outros países onde a extrema direita tem se destacado. O objetivo deste texto não é, portanto, discutir o que a campanha de Bolsonaro fez nas redes sociais para chegar ao poder. O que se pretende aqui é discutir o futuro dessa dinâmica nas redes sociais, com foco no papel que nossas emoções desempenham nesse sistema.

O peso das redes sociais e aplicativos de mensagem tende a ser cada vez maior em nossa vivência política e também na comunicação do novo governo, assim como também seguem presentes as possibilidades de manipulação que esses meios têm propiciado. O novo governo utiliza suas redes sociais da mesma forma que o fez durante a campanha e as consequências disso podem ser bastante cruéis. A possibilidade de enxergar cenários políticos com alguma clareza, por menor que ela seja, pode ser cada vez mais difícil; a confusão entre verdade e mentira pode aumentar consideravelmente e as bolhas podem ficar cada vez mais fortes. O principal ponto deste texto é considerar que há algo muito importante sustentando e alimentando toda essa dinâmica: nossos medos, raivas, desejos de aceitação, necessidade de vínculos e inseguranças. Nossas emoções formam o “combustível” que impulsiona as velozes engrenagens de manipulação na comunicação digital.

Antes de falar sobre como nossas emoções são o alimento dessa dinâmica das redes, um breve recuo sobre o cenário geral no que se refere à manipulação política nas redes. No ano passado, a Universidade de Oxford divulgou o estudo “Challenging Truth and Trust: A Global Inventory of Organized Social Media Manipulation”, que analisou as novas tendências de manipulação organizada pelas mídias sociais e as crescentes capacidades, estratégias e recursos que sustentam o fenômeno. Segundo o estudo, há evidências de campanhas manipulatórias das mídias sociais, formalmente organizadas, em 48 países. Na 1ª edição do estudo, eram 28. E o Brasil está nessa lista. Em 20% dos 48 países, incluindo o Brasil, pesquisadores encontraram evidências de campanhas de desinformação por meio de aplicativos de bate-papo, como WhatsApp. O estudo menciona ainda o uso de bots, conNtas-fake, automação de comentários, entre outras estratégias.

Não é novidade: campanhas políticas sempre buscam manipular emoções com mensagens que alcançam diretamente nossos medos e esperanças. As grandes manifestações políticas da história sempre estiveram imersas em nossos medos, desejos, amores, ódios e esperança. Da mesma forma, a disseminação de informações falsas sobre adversários não é criação bolsonarista ou das redes sociais. O que há de novo, além da velocidade das redes e de sua constante presença em nossas vidas, é o fato de que há uma gigantesca quantidade de informações a nosso respeito, com uma capacidade de processamento de dados que cresce a cada dia e permite desenhar análises de cenários complexos e específicos cada vez mais rápido. Ao lado disso, a mobilização emocional dos usuários possibilita a distribuição viral e rápida de notícias falsas, sobretudo em grupos privados, o que dificulta o rastreamento, além de manter o buzz distante dos “olhos” da sociedade e da mídia.

Cada post, curtida ou comentário nas mídias sociais alimentam os algoritmos, que aprendem sobre a forma como pensamos, os nossos desejos e fragilidades. A Cambridge Analytica surgiu assim (vale ler aqui este ótimo artigo, publicado em dezembro de 2016, sobre o nascimento da Cambridge Analytica). E não são apenas os dados de redes sociais: nossas pesquisas, compras e acessos na internet, por exemplo, dão pistas sobre nossos comportamentos e emoções.

O livro “Psicopolítica digital – o neoliberalismo e as novas técnicas de poder”, do filósofo Byung-Chul Han, lançado em 2014, discute justamente como os dados que fornecemos às redes podem ser interpretados e transformados em cenários conclusivos até mesmo sobre nossos desejos inconscientes que, então, poderiam ser facilmente explorados. Vale resumir aqui as próprias palavras de Byung-Chul Han: “Como uma lupa digital, o data-mining ampliaria as ações humanas e revelaria, por trás do espaço de ação estruturado pela consciência, um campo de ação estruturado de maneira inconsciente. A microfísica dos big data tornaria visíveis actomes, isto é, microações que escapariam à consciência. Os big data também poderiam promover padrões coletivos de comportamento dos quais não seríamos conscientes como indivíduos. Com isso, o inconsciente coletivo ficaria acessível. (…) A psicopolítica digital seria então capaz de aproveitar o comportamento das massas em um nível que escapa à consciência”.

No recém-lançado “No Enxame”, o autor volta ao tema da psicopolítica digital. Ele reafirma que “a possibilidade de decifrar modelos de comportamento a partir do Big Data enuncia o começo da psicopolítica” e alerta que a “sociedade digital de vigilância, que tem acesso ao inconsciente-coletivo, ao comportamento social futuro das massas, desenvolve traços totalitários”, entregando-nos à programação e ao controle psicopolítico.

Para entender o peso da análise de Byung-Chul Han é importante considerar o crescimento exponencial da quantidade de informações que compartilhamos nas redes, algo que fazemos em grande medida sem questionar os porquês que nos levam a isso. O filósofo avalia tal comportamento sob a ótica neoliberal, a qual nos tem levado a uma necessidade de exposição e transparência cada vez maior em função do crescimento do poder das novas tecnologias.

“A transparência também é reivindicada em nome da liberdade de informação. Na verdade, ela não é nada mais que um dispositivo neoliberal. Ela vira tudo violentamente para fora, para que possa produzir informação. Nos modos atuais de produção imaterial, mais informação e mais comunicação significam mais produtividade, aceleração e crescimento. A informação é uma positividade que, por carecer de interioridade, pode circular independente do contexto. Isso permite que a circulação de informação seja acelerada à vontade”, avalia Han. A fronteira que protege nossa intimidade vai ficando cada vez mais apagada e nós estamos ajudando nesse processo ao nos engajarmos de boa vontade, com dados preciosos para as redes.

Não basta, portanto, termos consciência de como nossas emoções alimentam as redes sociais. Também é preciso compreender o ambiente em que tais mudanças estão acontecendo e que tem nos influenciado. Como nos lembra o filósofo, o poder não necessariamente se opõe à liberdade. Ele pode até mesmo usá-la, tornando as pessoas dependentes, em vez de obedientes. Ora, em que medida a nossa “liberdade” nas redes sociais está sendo utilizada para projetos de poder? O que não estamos enxergando nessa suposta transparência de livre escolha em que os algoritmos definem o que queremos ver? Até que ponto somos realmente livres ao utilizar as redes sociais se não sabemos exatamente como elas funcionam ou como nossos dados são utilizados? Seria possível pensar em uma espécie de educação digital para que as pessoas tivessem um pouco mais de consciência sobre como suas emoções alimentam o sistema?

Também importante considerar neste cenário a rapidez da análise e processamento de dados, um ponto abordado por Jamie Susskind em “Future Politics: Living Together in a World Transformed by Tech”, publicado pela Universidade de Oxford em setembro de 2018 (ainda sem título no Brasil). O crescimento da quantidade de dados a nosso respeito nas redes, aliado ao aumento da capacidade de processamento e a evolução das análises por inteligência artificial podem criar novas formas de poder e alterar drasticamente nossa vivência política (entendendo aqui política num sentido mais amplo, de convivência, não apenas no sentido partidário, eleitoral ou de governos).

De forma geral, o que o autor demonstra, e ele não é o único a fazer isso, é que quem controlar as tecnologias terá um enorme poder nas mãos – um poder maior do que o dos governos ou aliado a eles. Tal poder será exercido de formas variadas e não será perceptível para muita gente, levando a um grau de controle sem precedentes em nossas ações, pensamentos, emoções e formas de ver o mundo, 24 horas por dia e com ares de liberdade e evolução. Insights sobre nossa psiquê, algoritmos e análises por inteligência artificial formam um cenário em que poder, justiça e liberdade poderão ser vividos de forma tão diferente, que sequer podemos imaginar com exatidão como será tal futuro. O que ele faz no livro é ir colocando as peças desse quebra-cabeça na mesa para que possamos ter alguma ideia do que pode acontecer.

A hipótese que guia Jaime em “Future Politics” é que a forma como reunimos, armazenamos, analisamos e comunicamos informações está fortemente relacionada com a forma como organizamos e fazemos política. Ou seja, quando a sociedade desenvolve tecnologias disruptivas para informação e comunicação, também devemos esperar efeitos políticos. O perigo central que Jaime aponta é que gradualmente, e talvez inicialmente sem nos darmos conta, nos tornemos cada vez mais subjugados a sistemas que não só não entendemos direito, mas que não poderemos controlar. Neste cenário, ficamos à mercê dos que controlam esses sistemas, com implicações para a política, para a democracia e para nossas emoções.

Firehosing e as nossas emoções

Como dissemos anteriormente, as emoções impulsionam em grande medida a viralização de notícias falsas. Não é nossa avaliação sobre a veracidade ou utilidade do fato que impulsiona grande parte dos compartilhamentos, mas sim nossas emoções. Os jornalistas têm apontado, por exemplo, a utilização de uma técnica de manipulação que estudiosos chamam de firehosing, que consiste em divulgar mentiras em grande escala, por variados canais, em um fluxo constante, mergulhando as pessoas em tantas informações que fica difícil sair da confusão. O nome da técnica vem de firehose, que em português seria mangueira de incêndio. E é isso que a técnica faz: uma grande mangueira de incêndio espalhando falsidades em alta velocidade e de forma ininterrupta, por vários canais. Durante a campanha política, era fácil enxergar essa técnica no dia-a-dia, mas ela volta sempre em momentos importantes. Como exemplos recentes, podemos citar a dinâmica de fake news sobre a decisão de Jean Wyllys de deixar o Brasil e sobre Brumadinho (MG).

Só que o Firehosing só funciona completamente se as pessoas compartilharem as informações falsas. Por sua vez, estas mentiras só serão compartilhadas em grande escala se despertarem emoções no indivíduo – algo suficiente para que ele nem reflita a respeito daquele conteúdo. E aí vem a parte mais cruel dessa história: com os nossos dados cada vez mais mapeados, processados e compreendidos, as nossas emoções passam a ser facilmente identificáveis e as mensagens falsas são produzidas sob medida para impactar nossas emoções já previamente identificadas, amplificando, mais do que tudo, ódio, raiva e medo. Isso foi dito com todas as letras pelo próprio Presidente da Cambridge Analytica (CA), em uma gravação escondida realizada pela Channel 4, do Reino Unido. Em março de 2018, o canal exibiu reportagem contando como CA atuava. A matéria foi fruto de uma investigação de 4 meses. Uma das frases do CEO dá bem o tom da estratégia: “Não é bom lutar numa eleição com fatos porque no fundo é tudo emocional. O grande erro dos principais partidos é que eles tentam ganhar no argumento, ao invés de localizar o centro emocional da questão”. Sem nossas emoções mobilizadas a ponto de não podermos parar para questionar, podemos imaginar que a mangueira do firehosing não se sustentaria por muito tempo.

No caso da política brasileira, não está claro até que ponto a estratégia adotada pela campanha vencedora e, agora, na comunicação do novo governo, é altamente estratégica e organizada ou se, por outro lado, é uma mistura tupiniquim da estratégia “Cambridge Analytica” com loucuras individuais do grupo que assumiu o poder. O que é inegável é que as técnicas utilizadas são similares, com a manipulação de afetos como o ódio e o medo por meio de informações falsas distribuídas massivamente.

Além das emoções negativas, a nossa necessidade de vínculo e pertencimento também alimentam em grande medida o funcionamento de toda essa estratégia com emoções mais “positivas”. Cada meme que você compartilha, cada piada ou comemoração te ligam a um determinado grupo, que dá a sensação de pertencimento. Essa é uma tendência natural do ser humano e não há nada de errado com isso, mas quanto mais tempo passamos nas redes, mais nossa necessidade de vínculos vai sendo transferida para cliques, curtidas e compartilhamentos, num ambiente em que algoritmos escolhem muito do que você vê, potencializando o que já seria uma “bolha” normal sua.

As grandes mentes por trás das redes sociais sabem de toda essa dinâmica. Os botões de tristeza e raiva/indignação, por exemplo, não foram criados apenas para adicionar uma liberdade a mais para os usuários, mas sim porque eles permitiriam o engajamento emocional além do simples “curtir”, dando vazão para outras emoções. Muitos dos profissionais que estiveram no desenvolvimento destas ferramentas já levantam a voz em críticas. O caso mais recente é o de Roger McNamee, investidor de tecnologia que foi um dos mentores de negócio de Mark Zuckerberg e que assina, na revista Time de 17 de janeiro, o texto “Eu fui mentor de Mark Zuckerberg. Eu amei o Facebook. Mas eu não posso ficar em silêncio sobre o que está acontecendo”, em que relata um pouco dos bastidores da empresa.

Roger resume muito bem em que ponto estamos de nosso relacionamento com o Facebook e acredito que, com algumas diferenças, o que ele fala se aplica a todas redes sociais e aplicativos de mensagem: “Você poderia pensar que os usuários do Facebook ficariam indignados com a forma como a plataforma foi usada para minar a democracia, os direitos humanos, a privacidade, a saúde pública e a inovação. Alguns estão, mas quase 1,5 bilhão de pessoas usam o Facebook todos os dias. Eles o usam para ficar em contato com parentes e amigos distantes. Eles gostam de compartilhar suas fotos e seus pensamentos. Eles não querem acreditar que a mesma plataforma que se tornou um hábito poderoso também é responsável por tantos danos. O Facebook usou nossa confiança em familiares e amigos para construir um dos negócios mais valiosos do mundo, mas, no processo, foi descuidado com os dados dos usuários e agravou as falhas em nossa democracia, deixando os cidadãos cada vez menos capazes de pensar por si mesmos, sem saber em quem confiar ou como agir em seu próprio interesse. Os maus atores tiveram sucesso explorando o Facebook e o Google, alavancando a confiança do usuário para disseminar a desinformação e o discurso de ódio, para suprimir o voto e polarizar os cidadãos em muitos países. Eles continuarão a fazê-lo até que, em nosso papel de cidadãos, reivindiquemos nosso direito à autodeterminação”.

As redes sociais têm um potencial extraordinário para o bem, mas elas são armas poderosíssimas de poder se, do outro lado, os usuários não se preocuparem em entender como elas funcionam. Não é fácil, eu sei, tudo isso demanda tempo e interesse. A outra opção, no entanto, é simplesmente entregar suas emoções de bandeja para os algoritmos e viver a falsa sensação de liberdade da bolha ou, ainda pior, habitar um mundo paralelo de informações produzidas sem qualquer compromisso com a realidade.

COMENTÁRIOS

POSTS RELACIONADOS