22/02/2021
Um velho desafio de novo?
Por Victor Vicente*
Está difícil ignorar o Clubhouse. Quem ainda não viu um screenshot do perfil de um amigo orgulhoso por ter recebido o convite? Seria esta a pulseira do camarote para o mundo pandêmico, o acesso ao clube-plataforma? Eu não me lembro da última vez que uma mídia social chegou ao Brasil com tamanho sucesso para o público jovem-adulto.
Em retrospecto, parece que o Clubhouse era aquela mídia social inevitável. Uma plataforma só de áudio para você conversar em grupo sobre qualquer assunto. Ainda mais para nós, brasileiros, que nos acostumamos a usar o WhatsApp como um grande mensageiro de voz.
Com tamanha proposta de valor para um mundo isolado e sob o imperativo da visibilidade, a empresa não tardou a levantar investimentos de mais de $110 milhões, especialmente advindos da famosa empresa de Venture Capital Andreessen Horowitz.
Clubhouse chegou também em um momento instigante de diversificação e heterogeneização das mídias sociais. Por isso, olhar para essa plataforma sob um ângulo específico (o da moderação de conteúdo e da [in]acessibilidade by design) ajuda a entender algumas das discussões mais importantes sobre a Internet no momento.
Moderação de conteúdo: contexto essencial
Sabe o banimento de Donald Trump do Twitter, Facebook e Instagram? Então, essa não foi uma decisão tomada do dia para a noite. Há décadas, notavelmente desde 1996, com a Section 230, as plataformas tentam se esquivar de responsabilização por conteúdos produzidos por seus usuários.
Em resumo, essa discussão diz respeito ao seguinte: se um usuário publicar vídeos racistas no TikTok, quem deve ser responsabilizado pelo crime? A plataforma ou o usuário que postou o conteúdo? Historicamente, as legislações em democracias ocidentais definiram que plataformas não podem ser tratadas como autoras de conteúdo produzidos por terceiros. Isso as protegeu de processos judiciais e evitou casos de censura prévia por parte das plataformas.
Essa histórica garantia jurídica permitiu que as plataformas escalassem seus modelos de negócio, acumulando bilhões de usuários e dólares, com uma abordagem bastante laissez-faire em relação à moderação de conteúdo.
Na prática, o debate sobre moderação "ultrapassou" a questão da garantia de direitos. No cotidiano dos profissionais por trás das plataformas, a moderação de conteúdo se tornou assunto para o universo da experiência de uso, das metas de retenção e crescimento da base de usuários. Em suma, moderar conteúdo se tornou requisito para gerar (e extrair) maior valor para (e de) cada um dos usuários.
Exatamente por isso todas as grandes plataformas sociais implementaram algoritmos de monitoramento e personalização individualizada de conteúdo. Em outras palavras, o TikTok me mostra conteúdos pelos quais eu já demonstrei interesse no passado porque assim eu vou encontrar mais valor no TikTok, e isso, apenas enquanto premissa, deve ser bom tanto para mim quanto para a empresa.
No que diz respeito à moderação de conteúdo, a questão dos direitos humanos virou secundária. E essa abordagem foi a norma nas grandes plataformas sociais por muito tempo. Só que isso começou a mudar.
Moderação de conteúdo intensifies
Os primeiros sinais de mudança datam de meados da década de 2010, e vieram do Twitter. Na época, essa plataforma era infestada por trolls e haters que perseguiam e assediavam usuários, e, em especial, usuárias do serviço. Era comum (mesmo) que a perseguição aumentasse até que a vítima suspendesse sua própria conta e saísse da plataforma.
Quando um episódio do podcast This American Life e uma matéria do The Guardian sobre os abusos sofridos pela escritora Lindy West na plataforma viralizaram, o então CEO do Twitter Dick Costolo finalmente se pronunciou sobre o problema.
Costolo escreveu em um blog interno da empresa:
"Somos péssimos em lidar com abusos e trolls na plataforma e temos sido péssimos nisso há anos. Não é segredo e o resto do mundo fala sobre isso todos os dias. Perdemos usuários após usuários por não abordarmos problemas simples de trollagem que eles enfrentam todos os dias.
Estou francamente envergonhado sobre como lidamos com essa questão durante a minha gestão como CEO. É um absurdo. Não há desculpa para isso. Assumo total responsabilidade por não ser mais atuante nesta frente. Não é culpa de ninguém, apenas minha, e é constrangedor.
Vamos começar a banir esses usuários e garantir que, quando eles fizerem seus ataques ridículos, ninguém os ouça.
Todos na equipe de liderança sabem que isso é vital."
Note que a razão para ser mais atuante na moderação de conteúdo é evitar a perda de usuários. Pouco tempo depois dessa postagem, Costolo saiu (ou foi saído) da empresa. Quem assumiu de maneira interina (mas está até hoje) foi o cofundador, Jack Dorsey.
À época, o Twitter viveu momentos de pressão econômica e o preço de suas ações na bolsa estagnou. O modelo de monetização da plataforma a partir da compra de anúncios era visto como um fracasso, em especial comparativamente ao sucesso do Facebook e Google no setor. A plataforma continuava sendo pressionada por mais e mais atores a combater de maneira ativa o discurso de ódio. Um ano após Dorsey assumir, a plataforma baniu a primeira figura política expressiva: Milo Yiannopoulos.
A decisão aconteceu após perseguição à atriz e comediante Leslie Jones. Gigantes do entretenimento ameaçaram abandonar o Twitter caso nada fosse feito. Em resposta, Dorsey passou a encarar publicamente o combate ao discurso de ódio como uma de suas prioridades.
Conforme as mídias sociais se tornavam mais poderosas, maior passou a ser a pressão por intervenção e o escrutínio público sobre elas. Após o escândalo Cambridge Analytica, Mark Zuckerberg foi convidado a prestar esclarecimentos ao Congresso Americano em audiência histórica.
O agravamento da desinformação afetou todas as plataformas. Em decorrência disso, por exemplo, o Facebook precisou lidar um boicote generalizado de mais de 400 anunciantes, incluindo Unilever, Adidas, Lego, Ford e Microsoft, em 2020. As questões da responsabilização e moderação de conteúdos se tornaram centrais não apenas por dizer respeito à atração e retenção dos usuários. Passou a ser uma preocupação primária da liderança das principais plataformas sociais. Hoje, o Twitter investe em padrões abertos que tentam viabilizar mídias sociais descentralizadas. Já o Facebook testa o Oversight Board, um modelo de deliberação similar à Suprema Corte.
No mundo do Covid-19, a dúvida sobre a necessidade de moderação e a atribuição de maior responsabilização evaporou. Rapidamente, todas as grandes plataformas proibiram postagens que contradissessem as diretrizes da OMS. A questão agora não diz respeito à necessidade de moderação para garantia de direitos. É qual o melhor modelo de responsabilização e governança.
Muitos testes estão sendo feitos. Só que o foco principal do debate sempre recaiu sobre as grandes mídias sociais. Como ficam, então, as plataformas de conteúdo sem feeds sociais, como o Clubhouse? Ao longo dos últimos anos, tanto a pesquisa quanto o debate público sobre moderação de conteúdo e responsabilização avançaram muito.
Esse avanço deveria “subir a régua” na qualidade da moderação de conta para novas plataformas também, como o Clubhouse. Isso está acontecendo?
Clubhouse: (in)acessibilidade como abordagem para moderação de conteúdo?
A abordagem atual para moderação de conteúdo do Clubhouse parece refletir a mesma reticência ideológica que as grandes plataformas tinham nos anos iniciais de operação. Essa abordagem laissez-faire para moderação de conteúdo tem ao menos dois pilares: autorregulação do conteúdo a partir do trabalho próprio dos usuários e escolhas de marketing e design.
Primeiro, vamos falar sobre as escolhas de marketing e design. A exclusividade tem sido um tema do Clubhouse desde seu lançamento, em abril de 2020. O público visado pelo aplicativo inicialmente foi composto por celebridades e figuras proeminentes da indústria da tecnologia. A plataforma os alcançou em parte com a promessa de que seriam capazes de se comunicar sem a exposição característica das outras plataformas.
Mas mesmo hoje, onze meses após seu lançamento, o Clubhouse continua fechado. Para entrar você precisa ser convidado. Assim que finaliza seu cadastro, você recebe mais dois convites para compartilhar com a sua rede. Por isso, fazer parte da plataforma continua sendo uma espécie de símbolo de status, o que naturalmente é uma estratégia eficaz para ganhar tração em novos mercados, como já aconteceu com o Orkut no Brasil.
Além dessa estratégia de crescimento, existem outros motivos para limitar o número de usuários. Testar táticas de organização da informação, retenção e assegurar a solidez da sua tecnologia é fundamental para escalar a plataforma com segurança para o negócio. Mas no caso do ClubHouse, a opção por exclusividade vai além disso.
O aplicativo é construído em torno de “salas”, que são chats em grupo convocados por usuários específicos. Essas salas são extremamente parecidas com o que nos acostumamos a ver em eventos corporativos ou conferências. Além disso, todo conteúdo compartilhado no Clubhouse é efêmero para os usuários. Ou seja, diferentemente das lives do Facebook, por exemplo, você não pode escutar as conversas depois. Se interessou por algo? Marque na sua agenda para não perder.
Tudo para criar uma sensação de intimidade e privacidade para quem fala.
Segundo sua política de privacidade atual, áudios são armazenados apenas enquanto as salas estiverem abertas e apenas com o propósito de apoiar investigações de incidentes. Caso um usuário notifique a plataforma em relação a algum abuso enquanto a sala estiver ativa, a plataforma deverá reter o áudio para fins de investigação e, quando esta for concluída, o áudio deverá ser excluído. Ou seja, a plataforma não armazena áudios das salas caso não haja nenhuma notificação de abuso. Ainda assim, a plataforma é extremamente vulnerável à vigilância massiva, como nota o Stanford Internet Observatory.
Mesmo que ainda esteja em beta (fase de testes), a plataforma também viu crescer casos de desinformação e discurso de ódio. Já há, inclusive, um importante caso de ataque sofrido pela jornalista do New York Times Taylor Lorenz.
Apenas após essa escalada problemática, o Clubhouse implementou algumas ações de segurança e confiança. Em especial, criou botões que permitem que usuários denunciem comportamentos abusivos e bloqueiem perfis específicos. A expectativa é que a partir desses feedbacks a plataforma possa abrir investigações, ainda que a capacidade real de investigação da empresa seja um mistério, e sua equipe bastante enxuta.
Essa expectativa de que a moderação de conteúdo ocorrerá a partir do trabalho dos próprios usuários já foi replicada com sucesso limitado no Reddit, Facebook, Youtube e afins. O problema é essa ser a única estratégia de moderação de conteúdo. Mesmo com investimentos de $110 milhões e uma década de pesquisas acadêmicas sobre metodologias para moderação de conteúdo, criar espaços garantidores de direitos pareceu ser preocupação secundária no Clubhouse.
Claro, a plataforma ainda é nova. Espera-se que essas estratégias para moderação de conteúdo evoluam com o tempo. Uma questão é certa: com a heterogeneização das mídias sociais, a fronteira da moderação e da responsabilização não está restrita às grandes plataformas. O campo está se complexificando ainda mais. Um padrão de responsabilização "supraplataforma" parece ser fundamental daqui em diante.