Facebook é parte do problema, mas há manipulação em outras empresas, diz especialista

Em setembro, documentos mostraram que a rede social sabia dos potenciais danos de suas plataformas

Em setembro, quando começaram a aparecer documentos mostrando que o Facebook sabia dos potenciais danos de suas plataformas, como o Instagram, o noticiário não foi exatamente surpreendente para Stephanie Hankey. Na verdade, a aposta é de que há mais para aparecer.

A tecnologista é uma das pioneiras a tratar de assuntos que ligam cibersegurança, privacidade e direitos humanos na internet. Está há mais de 20 anos na área. Em 2003, Hankey co-fundou ONG Tactical Tech, da qual hoje é diretora-executiva. A organização investiga os impactos da tecnologia na sociedade.

“O Facebook é parte do problema, mas não me chocaria se, nas próximas semanas ou meses, descobrirmos outras empresas com as mesmas práticas”, diz.

No centro da questão está a coleta massiva de dados, que alimenta sistemas cada vez mais complexos para fazerem deduções a partir desse bolo de informação. Com isso, é possível entender o que as pessoas consomem (para fazê-las usarem mais os produtos) ou fazer suposições sobre a personalidade dos usuários.

A prática tem impactos, por exemplo, na saúde mental de adolescentes. Esse é um dos pontos centrais nas denúncias feitas por Frances Haugen, ex-funcionária da rede, e que foram seguidas pela série de revelações de documentos internos da empresa pela imprensa.

Problemas desse tipo, aponta a tecnologista Stephanie Hankey, podem ir muito além das redes sociais com empresas de outros setores aplicando essa mesma lógica digital, descrita por ela como “extrativista”.

Hankey é mestre em design relacionado a computadores pela Royal College of Art, em Londres. Foi professora visitante do Instituto de Internet, da Universidade de Oxford, na Inglaterra, e recebeu uma das bolsas Loeb de 2022 para pesquisar na Universidade Harvard, nos EUA.

Pergunta – Por que discutir o poder obtido ao acumular dados é importante?
Stephanie Hankey – A questão que me interessa é a do poder. O valor do conhecimento obtido com os dados acumulados e a posição em que coloca o detentor deles. Olhe para os dados de meio ambiente e o uso de inteligência artificial. A melhor coisa para reagir às mudanças climáticas na nossa situação é contar com a tecnologia. Nesse contexto, está certo ter um entusiasmo com essas tecnologias, mas isso pode ofuscar algumas das complicações. Resolve um problema, cria outro.

Pode dar um exemplo dessa tecnologia que resolve um problema, mas cria outro?
SH – Eu tenho analisado algumas das principais empresas agroquímicas do mundo, como a Monsanto. Eles estão lançando tecnologias em plantações pelo mundo, por meio da Climate FieldView. Há duas coisas acontecendo aí.

Uma é que há uma empresa agroquímica ajudando fazendeiros, o que é interessante. Ao mesmo tempo, de acordo com a própria empresa, a tecnologia é usada em 60 milhões de hectares no mundo todo [a área plantada no Brasil é de cerca de 65 milhões, segundo a Embrapa].

No fim, você tem uma das maiores empresas agroquímicas do mundo com um olhar único sobre tudo o que acontece nesse monte de terra, com tecnologia de satélite, drone, amostras de solo, tudo interconectado. A maior visão de dados globais desse tipo da história. Não há limites ou um debate. Quem é dono desses dados? O que a empresa fará com eles? Deveria buscar o bem comum. São dados que são de interesse público e deveriam estar disponíveis para governos e pessoas.

Os benefícios de se compartilhar esses dados ambientais parecem claros, mas é um problema a empresa que investiu para obtê-los manter a sua posse?
SH – A questão é: em qual posição isso os coloca? Não são apenas vendas. É decidir o funcionamento de um enorme espaço de terra, o que será plantado, quais pesticidas são usados, quais sementes são usadas. Há aí muito impacto ao ambiente. Eles não pagam nada, não têm a terra, os tratores, mas recebem todos os dados.

Eles estão tentando ajudar os fazendeiros –e não estou sugerindo o contrário. Mas o subproduto disso é gerar esses centros de poder. Hipoteticamente, o problema é o controle das fazendas e dos sistemas de produção, mudanças que criem monoculturas, afetando a biodiversidade. Essa lógica em termos de priorizar eficiência e extrativismo é o mesmo que vimos no cenário das redes sociais [com dados sobre seres humanos]. Os danos apareceram depois, como desinformação, discurso de ódio, polarização e exploração de jovens. Nós não sabemos como vai ser nesses outros espaços, mas a lógica é a mesma: ter todos os dados, todos os insights e tomar todas as decisões sem compartilhar nada.

A atuação de muitos serviços online é global e, em alguns casos, pode parecer um luxo ter discussões sobre privacidade online, por exemplo. Se as pessoas não têm saneamento básico, quão importante é discutir internet?
SH – Não vejo o desenvolvimento como linear. Você não tem que ter saneamento, aí comida, aí habitação e por último internet. Tudo acontece paralelamente. Talvez a pessoa não tenha água potável, mas tem um celular. E isso porque o telefone é a forma de trabalho, de onde se tira informações de saúde, ou sei lá. Só porque não há o padrão de vida que se espera para todas as pessoas, não quer dizer que a tecnologia não esteja presente. Não é uma questão de luxo. Vejo a tecnologia como um reflexo do contexto político em que você está. Então se há preconceito com uma comunidade na vida real, provavelmente será amplificado online, e isso não tem nada a ver com o nível de pobreza ou desenvolvimento da sociedade.

Pensando no Facebook, na última década, a relação do mundo com a empresa mudou muito, culminando com as denúncias de Frances Haugen. O que mudou nesse período?
SH – Percebemos, em mais gente, uma quebra de confiança nessas plataformas. O que eu vejo é que, quando há uma crise, muita gente que não é ligada a esses assuntos, de repente, resolve trocar para outros aplicativos. Infelizmente, elas depois voltam para os mesmos sistemas de sempre. Como essas plataformas são as maiores do mundo, têm os melhores engenheiros. O produto é mais fácil de usar, o que é importante para as massas. Quanto mais escândalos assim acontecem, no entanto, menos as pessoas se sentem confortáveis em voltar. Em algum momento existirão alternativas viáveis para que alguns troquem definitivamente.

Ao mesmo tempo, há um pouco de confusão. Há uma consciência, mas não um entendimento. Você escuta coisas do tipo “a plataforma consegue ler essa mensagem”. Não é como se houvesse uma pessoa realmente lendo as mensagens. Como o Gmail sabe os dados de seu voo? Porque a informação pode ser extraída por uma máquina. Para a maioria, é difícil distinguir.

E o quão importante é saber como uma tecnologia funciona para usá-la? Seria como se fosse necessário entender de mecânica para dirigir um carro, por exemplo?
SH – A melhor analogia seria com um carro autônomo. Num carro mecânico, você ainda controla o que está acontecendo mesmo sem saber como o motor funciona. No contexto das plataformas, seria como se decidissem por você para que lado o carro está indo.

Voltando para o Facebook, uma das maiores partes do escândalo foi o “profiling” [uso de dados para deduzir dados sobre comportamento, personalidade e preferências dos usuários] em cima de jovens e como essa informação é usada para fazê-los consumir mais conteúdo. Digamos que algum usuário tenha visto conteúdo de automutilação.

Isso passa a ser cada vez mais oferecido para a pessoa, mesmo que ela não queira. Se você é um jovem vulnerável, tentando se encontrar no mundo, isso é uma questão problemática.

Então o que as pessoas precisam saber sobre os serviços para usá-los?
SH – Um certo nível de entendimento é importante, porque precisamos de autonomia para entender quando estamos sendo manipulados. Também precisamos de conhecimento o suficiente para lutar contra essa corrente. Digamos que você simplesmente não saiba que açúcar é ruim para a sua diabetes, você continuará consumindo porque é gostoso.

Você precisa do conhecimento para fazer escolhas. Isso não quer dizer saber exatamente como as máquinas funcionam por dentro.

A sra. tem contas em redes sociais?
SH – Pessoalmente não, mas uso as contas da Tactical Tech.

E está dizendo para as pessoas deixarem as redes sociais?
SH – A escolha é bem pessoal, e as pessoas devem fazer aquilo que as faça se sentirem confortáveis.

E aí voltamos para a questão do Facebook e dos jovens, nessa questão de escolha. Não deveriam ser os adolescentes tendo que tomar essas decisões. As crianças são rastreadas e as empresas sabem exatamente quais são os pontos vulneráveis. Nesses casos, menores de 18 não deveriam poder acessar as plataformas. Já é bem difícil para adultos, que têm um controle maior sobre os impulsos. Esses algoritmos de tomada de decisão exploram isso. O Facebook é parte do problema, mas não me chocaria se, nas próximas semanas ou meses, descobrirmos outras empresas com as mesmas práticas. O sistema é desenvolvido para deixar as coisas extremamente simples, resolvidas em apenas um botão. A plataforma faz todas as escolhas e tira o poder das pessoas.

Quão diferente é a forma como os adolescentes lidam com essas tecnologias em relação aos adultos?
SH – Eles sabem operar bem a tecnologia, mas não entendem exatamente como ela funciona ou como se relaciona ao universo. E é assim que são ensinados: se aprendem sobre democracia ou negócios na escola, não é no contexto da tecnologia. A tecnologia é apenas uma forma de se locomover, de se comunicar e de acessar entretenimento.

E quais são as questões sobre as plataformas que os jovens levantam para vocês?
SH – Eles veem o impacto negativo das redes sociais e sentem que a falta de controle é frustrante. Não adianta escrever ou reclamar, porque ninguém vai arrumar nada.

A gente normalmente fala dos adolescentes como se fossem vítimas, mas eles são habilidosos. Fazem boas escolhas, são melhores [do que adultos] em questões como privacidade. O que tenho visto é que adolescentes mais jovens, ali pelos 14 anos, são consumidos pela tecnologia. Mas quando chegam aos 18 ou 19 acabam desencantados. Há uma visão de que os adolescentes estão apenas usando as plataformas sem pensar no que está acontecendo, mas me traz confiança ver que ainda há crianças que simplesmente não querem ficar no telefone.

A coleta de dados sobre jovens e a manipulação sobre esse grupo será um dos debates mais importantes na tecnologia. É uma porta de entrada para algo mais amplo, porque algo que vale para jovens, vale para todos. Por impactar crianças, é um tema mais sensível para os tomadores de decisão. Não importa se é de direita ou de esquerda, ninguém quer ver as crianças sendo manipuladas, certo? Vai ser interessante ver o que acontece com o Facebook, porque, se a tração for boa, deve criar alguma mudança na regulação. Ou pelo menos mais reflexão sobre a tecnologia.

Em seus textos, há uma discussão sobre tecnologia desenvolvida para o usuário ou para a sociedade. Qual a diferença?
SH – A lógica do desenvolvimento das tecnologias ainda é baseada nos usuários. Pensam em modelos de três ou quatro tipos de pessoas que vão usar a tecnologia e o produto é feito pensando nesses usuários ideais. Tipo: uma pessoa de São Francisco [EUA] que vai para um hotel e precisa entrar no seu quarto. Como tornar essa experiência mais conveniente para essa pessoa específica? Não tem como fazer isso para milhões de usuários diferentes, então, ao meu ver, esses métodos de desenvolvimento estão quebrados. Não funciona quando você tem 3 ou 4 bilhões de usuários, tipo o Android ou o Facebook.

A tecnologia tem que ser desenvolvida pensando que não há um ou dois usuários-modelo, mas um conjunto complexo e caótico de pessoas que operam em contextos políticos diferentes. Na prática, por exemplo, os telefones são desenvolvidos para serem usados por uma única pessoa. Há casos, no entanto, em que o aparelho é compartilhado por uma família toda, ou até uma comunidade inteira.

E a sra. sugere alguma forma alternativa de pensar o desenvolvimento de tecnologia?
SH – Há experimentos e outras metodologias. Há a abordagem consequencialista, na qual você desenvolve indo dos impactos para o produto. Há o participativo, que olha para a diversidade de contexto e de vozes. A lacuna ainda é enorme, no entanto. E é nisso que estou trabalhando agora.

Raio-x
Stephanie Hankey, 48 Mestre em design relacionado a computadores pela Royal College of Art, em Londres, é diretora-executiva da ONG Tactical Tech e pesquisadora da escola de design da Universidade Harvard, nos EUA, de onde recebeu uma das bolsas Loeb de 2022.

Por Raphael Hernandes 

Sair da versão mobile