Algoritmos, silêncio e vídeos invisíveis
- João Falanga
- há 3 dias
- 7 min de leitura

Cresci na internet. Não só como usuário, mas como alguém que decidiu produzir conteúdo em plataformas como TikTok Shop e YouTube Shorts. E, ao mesmo tempo, me formei em Ciências de Dados. Isso muda a forma como enxergo o jogo.
Quando você entende métricas, distribuição, retenção, CTR, taxa de conclusão e testes A/B, a ingenuidade acaba. Você começa a perceber padrões. E também começa a estranhar certas coisas.
Uma delas é simples e incômoda: por que somos incentivados a postar vídeos todos os dias, mas frequentemente recebemos notificações vagas de que “o vídeo viola as regras da comunidade”, sem explicação clara? Por que, ao recorrer, muitos vídeos são restaurados, mas alguns continuam “não entregues”? E por que grandes portais e influenciadores parecem imunes a esse tipo de limitação?
Com o tempo, passei a associar isso a outra experiência comum: processos seletivos com respostas genéricas ou silêncio absoluto.
Não é só coincidência. Existe uma lógica estrutural por trás disso.
A pressão diária por produção
O mito da consistência infinita
Se você já criou conteúdo no TikTok ou no YouTube , já ouviu a mesma recomendação: poste todos os dias.
A promessa é clara. Consistência gera crescimento. O algoritmo recompensa frequência. Quem publica mais, aparece mais.
Mas essa narrativa esconde uma tensão.
Como cientista de dados, eu sei que plataformas otimizam para retenção e tempo de tela. Elas querem que as pessoas fiquem mais tempo no aplicativo. Isso significa que o algoritmo não é um “juiz neutro”. Ele é um sistema de otimização.
E sistemas de otimização escolhem o que maximiza uma função objetivo.
No caso dessas plataformas, essa função costuma ser algo como:
Tempo de exibição
Engajamento imediato
Compartilhamentos
Retorno ao app
Não é verdade, necessariamente. É eficiência.
O que realmente engaja
Não é novidade para quem trabalha com dados: conteúdos que provocam emoções intensas performam melhor.
Indignação. Curiosidade. Medo. Fofoca. Sensacionalismo.
Fake news também.
Isso não é opinião. É comportamento humano observado em escala. Quando você mede taxa de compartilhamento, picos de retenção, comentários por mil visualizações, percebe que conteúdos neutros e ponderados raramente vencem disputas de atenção contra conteúdos polarizadores.
Então eu me pergunto: se o sistema é otimizado para maximizar engajamento, por que me surpreendo quando vídeos técnicos, críticos ou reflexivos têm entrega limitada?
Talvez o erro esteja na expectativa.
A notificação vaga e o silêncio algorítmico
“Seu vídeo viola as regras da comunidade”
Quem produz conteúdo já recebeu essa mensagem. O texto é quase sempre genérico. Não há clareza sobre qual trecho, qual palavra, qual enquadramento foi problemático.
Você recorre.
Alguns dias depois, recebe outra notificação: “Após revisão, seu vídeo não viola nossas diretrizes.”
Ótimo. Mas o estrago já aconteceu. O vídeo perdeu o timing. A entrega caiu. O alcance não se recupera.
Em outros casos, mesmo sem violação confirmada, o vídeo continua com distribuição limitada. Não é removido. Só não é entregue.
Para quem entende sistemas, isso levanta algumas hipóteses.
Moderação em escala e custo operacional
Plataformas como Meta, TikTok e YouTube operam com bilhões de uploads.
Não é possível revisar tudo manualmente. Logo, grande parte da moderação é automatizada.
Modelos de machine learning classificam conteúdo com base em probabilidade de violação. Não é uma decisão binária perfeita. É estatística.
Se a probabilidade ultrapassa certo limiar, o vídeo pode:
Ser removido
Ter alcance reduzido
Ser enviado para revisão manual
Aqui entra um ponto técnico importante: falsos positivos.
Em qualquer sistema de classificação, existe trade-off entre precisão e recall. Se você quer evitar ao máximo conteúdos problemáticos, aumenta a sensibilidade do modelo. Isso gera mais falsos positivos.
Ou seja, conteúdos que não violam regras podem ser penalizados preventivamente.
Do ponto de vista da empresa, isso é aceitável. Do ponto de vista do criador, é frustrante.
A opacidade estratégica
Mas existe outro elemento além da limitação técnica: estratégia.
Transparência total permitiria que criadores “jogassem contra o sistema” com mais precisão. Se eu soubesse exatamente quais palavras acionam bloqueios, poderia contornar isso sem alterar a essência do conteúdo.
Plataformas evitam esse nível de clareza deliberadamente.
A opacidade não é apenas falha. É ferramenta de controle.
O paralelo com processos seletivos
Essa experiência me lembra muito entrevistas de emprego.
Você participa de um processo. Envia currículo. Faz teste técnico. Conversa com o RH.
Fala com gestor.
Silêncio.
Ou então recebe uma mensagem padrão: “Optamos por seguir com outro candidato mais alinhado ao perfil.”
Qual perfil? Em que aspecto? Experiência? Comunicação? Fit cultural?
Nada é explicado.
O viés da primeira impressão
Em Ciência de Dados e Psicologia Organizacional, sabemos que decisões humanas são profundamente afetadas pelo viés de primeira impressão.
Nos primeiros minutos de conversa, o entrevistador forma uma hipótese. O resto da entrevista, muitas vezes, serve para confirmar essa hipótese.
Depois, a justificativa enviada ao candidato é genérica. Não porque não exista motivo. Mas porque detalhar envolve risco jurídico, esforço operacional e exposição.
O silêncio é mais seguro.
Assim como nas plataformas.
Escala e padronização
Empresas grandes recebem milhares de currículos. Plataformas recebem milhões de vídeos.
Em ambos os casos, a personalização tem custo alto.
Então surgem respostas padrão, decisões automatizadas, filtros prévios.
Não é pessoal. É escala.
Mas o efeito psicológico é pessoal. Muito.
Você começa a duvidar da própria competência. Ou da própria integridade.
Por que grandes portais parecem imunes?
Essa é a pergunta que mais me incomoda.
Grandes veículos e influenciadores publicam dezenas de vídeos por dia. Conteúdos muitas vezes sensacionalistas. E não vemos notificações públicas de restrição.
O que está por trás disso?
Histórico e score interno
Plataformas trabalham com sistemas de reputação.
Um criador com longo histórico, baixo índice de violações confirmadas e alto engajamento positivo tende a ter maior confiança algorítmica.
É plausível imaginar que existam “scores internos” de confiabilidade. Isso impactaria:
Probabilidade de bloqueio automático
Velocidade de revisão
Alcance inicial
Grandes portais têm equipes jurídicas, conhecem as regras e ajustam linguagem estrategicamente. Isso reduz risco de penalidade.
Relação comercial
Outro fator é monetização.
Criadores grandes geram receita significativa. Eles atraem anunciantes, mantêm usuários na plataforma e fortalecem a marca.
Não estou afirmando favorecimento direto. Mas, em qualquer empresa, contas estratégicas recebem tratamento diferenciado.
Isso acontece em bancos, empresas de software, consultorias. Por que seria diferente em plataformas digitais?
A vantagem da redundância
Influenciadores grandes postam muito. Se um vídeo é limitado, outros dez compensam.
Para criadores menores, um vídeo penalizado pode representar 30% do alcance semanal.
A percepção de injustiça é maior porque o impacto relativo é maior.
O que realmente está por trás disso?
Se eu tivesse que sintetizar, diria que existem cinco camadas.
1. Otimização de engajamento
O algoritmo prioriza retenção e receita publicitária. Conteúdo que maximiza esses indicadores tende a ser favorecido.
2. Gestão de risco
Plataformas preferem errar para o lado da restrição do que permitir conteúdo que possa gerar crise reputacional.
3. Escala operacional
Bilhões de conteúdos exigem automação. Automação gera erros. Erros geram frustração.
4. Opacidade como estratégia
Transparência total reduziria controle e abriria espaço para manipulação massiva.
5. Assimetria de poder
Criadores pequenos têm menos influência, menos contato direto e menos margem de erro.
A sensação de invisibilidade
Existe algo mais profundo nisso tudo.
Quando um vídeo é “não entregue”, não há debate público. Não há remoção explícita. Há invisibilidade.
É uma forma moderna de silêncio.
Você fala, mas quase ninguém ouve.
Isso cria um ambiente onde o criador internaliza a culpa. “Talvez meu conteúdo não seja bom.” “Talvez eu não entenda o algoritmo.”
Às vezes é isso mesmo. Mas nem sempre.
Como alguém que analisa dados, sei que sistemas são imperfeitos. E sei que métricas são escolhidas. Elas não são naturais. São decisões humanas.
O impacto na produção de conteúdo
Com o tempo, muitos criadores adaptam comportamento:
Evitam temas complexos
Simplificam demais
Usam títulos mais apelativos
Apostam em polêmicas
O sistema molda o conteúdo.
Isso me preocupa.
Se o que engaja é superficial, e o que é profundo é limitado ou arriscado, a tendência é uma internet mais rasa.
Não por maldade individual. Mas por incentivos estruturais.
O que eu aprendi como cientista de dados
Aprendi que todo sistema tem objetivo. E quem define o objetivo define o comportamento do sistema.
Se a função objetivo fosse qualidade informativa validada, talvez o feed fosse diferente.
Mas medir qualidade é difícil. Medir tempo de exibição é fácil.
Então escolhe-se o que é mensurável.
Isso também acontece em empresas. Processos seletivos priorizam rapidez e redução de risco jurídico, não necessariamente feedback detalhado.
Métricas moldam cultura.
Existe solução?
Não acredito em solução simples.
Transparência maior ajudaria. Critérios mais claros de moderação também.
Mas há limites reais:
Competição entre plataformas
Pressão por lucro
Risco regulatório
Escala massiva
Talvez a mudança venha mais de regulação externa do que de iniciativa interna.
Ou talvez venha de usuários que passem a valorizar mais conteúdo profundo do que entretenimento imediato.
Não sei.
O que faço diante disso
Eu continuo produzindo.
Mas produzo com consciência.
Sei que nem todo vídeo será entregue. Sei que algumas notificações serão vagas. Sei que grandes players jogam outro jogo.
Também sei que não posso basear minha autoestima nas métricas de uma plataforma cujo objetivo principal não é meu crescimento intelectual, mas a retenção de usuários.
Da mesma forma que não posso definir meu valor profissional por um e-mail genérico de rejeição.
Conclusão
Crescer em redes sociais que exigem produção diária é, ao mesmo tempo, estimulante e estranho.
Como formado em Ciências de Dados, enxergo os bastidores. Vejo a lógica estatística, os falsos positivos, a otimização de retenção, a opacidade estratégica.
Como criador, sinto a frustração da falta de clareza.
Como candidato em processos seletivos, reconheço o mesmo padrão de respostas genéricas e decisões pouco transparentes.
No fim, tudo gira em torno de escala, risco e incentivos.
Não é pessoal. Mas também não é neutro.
E talvez a pergunta mais importante não seja “por que isso acontece?”, mas “que tipo de sistema queremos continuar alimentando?”
Essa, sim, ainda está em aberto.






Comentários