Da Utopia Libertária à "Merdificação": A Colonização da Internet pelo Capital

 

1. A Utopia Original: A Internet contra o Leviatã Estatal

A internet, em sua emergência pública nos anos 1990, foi profundamente moldada por uma ideologia ciberlibertária que coincidiu com o discurso de mínima intervenção estatal. Essa corrente de pensamento, partindo de uma desconfiança histórica em relação ao poder centralizado, rapidamente posicionou o Estado como a "ameaça primária" à liberdade no nascente espaço digital. A narrativa dominante era clara: qualquer tentativa de regulação governamental era enquadrada como uma "invasão" da autonomia individual e do livre mercado.

Essa ideologia baseia-se em um sistema moral que prioriza as liberdades individuais acima de quaisquer preocupações morais coletivas (Iyer et al., 2012). O ceticismo era direcionado a qualquer mecanismo estatal, visto como uma entidade que, por natureza, busca controlar e restringir direitos , infringindo a propriedade privada (Widerquist, 2009). As ameaças percebidas eram concretas, focadas em ações estatais como censura e regulação, vistas como violações à liberdade de expressão (Lokot & Wijermars, 2023; Wijermars & Lokot, 2020). Exemplos de controle governamental na China (Liang & Lu, 2010; Shen, 2016) ou ações repressivas contra organizações como o WikiLeaks (Imre et al., 2016) serviram para alimentar essa desconfiança.

Sob a poderosa metáfora da "Fronteira Eletrônica", o ciberespaço foi enquadrado como um território autônomo que precisava ser "preservado contra a invasão estatal" (Cavelty, 2013). A forma mais extrema dessa visão, o ciberanarquismo, chegava a defender a completa abolição das estruturas estatais em favor de redes descentralizadas. Essa fixação ideológica estabeleceu uma dicotomia clara: de um lado, o ideal libertário de expressão sem censura; de outro, as tendências autoritárias do Estado (Steinberg et al., 2011; Дурнєв & Nekhaienko, 2023).

Ao definir o Estado — esse aparato de poder político e soberania — como o "antagonista principal", essa utopia original cometeu seu erro estratégico fundamental. Obcecada pelo Leviatã governamental, ela criou o vácuo ideológico e prático que permitiria uma forma de dominação muito mais eficiente e sutil: a colonização total do ciberespaço pela lógica do capital.

2. A Colonização pelo Mercado: A Ascensão dos Jardins Murados

O vácuo de poder ideológico, criado pela fixação ciberlibertária no Estado como o único inimigo, foi precisamente o que permitiu a colonização da internet pela lógica do capital. A rede, imaginada como um espaço de liberdade anárquica, tornou-se o território ideal para uma nova forma de acumulação. Esta transformação foi consolidada pelo "capitalismo de plataforma" (Qi et al., 2024), um modelo de negócios que, como já analisamos, converte toda interação humana em matéria-prima para a extração de valor.

Esse modelo reconfigurou a arquitetura da rede, marcando a transição de uma web aberta, plural e descentralizada — a era dos sites independentes, fóruns e blogs — para uma internet centralizada. O capital ergueu "jardins murados" (walled gardens) (Dillahunt et al., 2015), ecossistemas fechados (como Facebook e Google) projetados para capturar, direcionar e reter o engajamento do usuário. O objetivo não é mais a interconexão livre, mas o controle dos caminhos pelos quais a informação flui (Dommett, 2021).

Dentro desses muros, a realidade é curada por algoritmos sofisticados. Esses algoritmos não são ferramentas neutras de organização; são instrumentos de otimização de engajamento, projetados para analisar as preferências e interações anteriores do usuário (Indriani et al., 2020). O resultado direto é a "bolha de filtro" (filter bubble), termo cunhado por Eli Pariser e definido por Bruns (2019) como uma câmara de eco onde os usuários são predominantemente expostos a informações que reforçam suas crenças existentes.

A pluralidade da web aberta, que tanto se temia ser destruída pelo Estado, foi efetivamente sufocada pelas corporações. Fontes alternativas de informação foram marginalizadas (Dommett, 2021), e a exposição a pontos de vista divergentes, essencial para o discurso democrático, foi algoricamente desincentivada (Srba et al., 2023). Essa homogeneização da dieta midiática e a consequente fragmentação sociopolítica não são falhas no sistema, mas o seu resultado pretendido. Este foi o primeiro estágio da "merdificação" (enshittification): atrair e trancar os usuários em plataformas, preparando o terreno para a próxima fase de exploração.


3. Capitalismo de Vigilância: O Motor da "Merdificação"

A consolidação dos "jardins murados" (Tópico 2) só foi economicamente viável através da implementação de um novo modelo de negócios: o capitalismo de vigilância. Este sistema, como descrito na literatura (Zuboff, citada em ), é uma arquitetura econômica que "comoditiza" os dados pessoais. O que a utopia libertária não previu é que o principal produto da internet não seria a liberdade, mas o próprio usuário.

Este modelo marca o segundo e crucial estágio da "merdificação" (enshittification): as plataformas, tendo já capturado os usuários, passam a abusar deles para servir aos seus verdadeiros clientes — os anunciantes e atores políticos que compram o acesso a esses dados. A violação sistemática da privacidade não é um "bug" ou um excesso, mas a característica central e fundacional desse modo de acumulação.

Para otimizar a venda de influência, os algoritmos são desenhados com um único propósito: "maximizar o engajamento" e, por consequência, a "lucratividade". O problema é que o engajamento não é ideologicamente neutro. Pelo contrário, existe uma forte correlação entre o tempo de permanência na plataforma e a "propagação de conteúdo sensacionalista e extremo" (Gurchani, 2023).

É aqui que a colonização pelo mercado revela sua mais profunda consequência política. A necessidade econômica de maximizar o engajamento leva os sistemas algorítmicos a "favorecer o engajamento acima da diversidade de opinião" (Bouchaud, 2024). Inevitavelmente, isso resulta em dar "visibilidade desproporcional" a narrativas de direita (Bouchaud, 2024). Essas ideologias, que prosperam em temas como "medo e exclusão" (Onraet et al., 2013) ou "sentimento anti-imigrante" (Cheung-Blunden, 2020), são estruturalmente privilegiadas por gerarem "fortes reações emocionais", o combustível que o algoritmo procura.

A amplificação algorítmica torna-se, assim, uma poderosa "ferramenta de mobilização política" para movimentos de direita (Topinka et al., 2021). O rastreamento contínuo cria um "ciclo de retroalimentação" : os dados coletados permitem "moldar o conteúdo" que é entregue ao usuário, o que, por sua vez, "alimenta a radicalização" (Topinka et al., 2021). O capitalismo de vigilância, portanto, não é apenas uma violação de direitos; é o motor que, ao "merdificar" a plataforma em favor dos anunciantes, transformou a internet no principal aparelho ideológico para a amplificação da direita (Topinka et al., 2021; Bouchaud, 2024).

4. A "Merdificação" Acelerada: IA, Controle Político e a Degradação do Conteúdo

A chegada da Inteligência Artificial generativa representa a fase final e acelerada do processo de "merdificação" (enshittification). Este é o estágio em que as plataformas, tendo já capturado e abusado de seus usuários e clientes (Tópicos 2 e 3), passam a degradar a própria qualidade do serviço para extrair o máximo valor restante, priorizando o lucro acima do respeito ao usuário (Sklair & Glucksberg, 2020 ). A IA generativa é a força produtiva perfeita para essa finalidade.

Em vez de ser a ferramenta de emancipação humana, como analisamos outrora, a IA sob o controle do capital torna-se um motor de poluição informacional. Ela permite a produção em massa e a baixo custo de "conteúdo sintético" e de baixa qualidade (Neyazi et al., 2023 ), também conhecido como "slop" (Chan, 2022 ). Essa inundação deliberada da rede (Neyazi et al., 2023 ) tem como objetivo principal otimizar a máquina de engajamento em favor da plataforma, tornando a busca por informação plural (os blogs e sites originais da web aberta) uma tarefa quase impossível.

As implicações para o controle político e a degradação da esfera pública são profundas. A facilidade com que a IA produz conteúdo persuasivo, mas sintético, é a ferramenta ideal para "campanhas de desinformação" e "manipulação política" (Romanishyn et al., 2025 ). Além de fabricar fake news, os algoritmos de IA são projetados para reforçar "vieses políticos" e "estereótipos existentes" (Allan et al., 2024; Allan et al., 2025 ), consolidando os usuários em "câmaras de eco ideológicas" (Kearney et al., 2025 ).

O resultado final é a "degradação" da esfera pública. A "sobrecarga informacional" (Neyazi et al., 2023 ) leva à "dessensibilização" e à "erosão da confiança" na mídia (Kearney et al., 2025 ). O processo de "merdificação" se completa: o usuário, já trancado no jardim murado (Tópico 2) e comoditizado pela vigilância (Tópico 3), agora tem sua própria realidade fabricada por um fluxo incessante de conteúdo sintético, otimizado não para a verdade ou pluralidade, mas para o lucro da plataforma (Sklair & Glucksberg, 2020 ).

5. Conclusão: Da Utopia Libertária à Distopia "Merdificada"

A trajetória da internet, desde sua concepção como uma utopia libertária até seu estado atual de "merdificação" (enshittification ), demonstra uma tese crítica fundamental. A falha da ideologia original (Tópico 1) não foi superestimar a ameaça do Estado, mas sim subestimar – ou ignorar completamente – a lógica predatória da acumulação de capital. A esfera pública digital, idealizada como um espaço descentralizado de troca livre, foi inteiramente subsumida por essa lógica.

Hoje, a internet transformou-se em um mecanismo de "acumulação de capital e decadência ideológica". A dominação não é exercida primariamente pela coerção estatal, mas pelo convencimento hegemônico facilitado por "interesses corporativos". O poder está consolidado nas mãos de poucas corporações que controlam os algoritmos que ditam a visibilidade do conteúdo , moldando ativamente as narrativas sociais e as opiniões individuais para fins de lucro.

O resultado é um "discurso homogeneizado" , o aprofundamento da polarização e a "erosão do engajamento democrático". A promessa de uma "fronteira eletrônica" livre (Tópico 1) tornou-se um "jardim murado" (Tópico 2) movido a vigilância (Tópico 3) e agora inundado por conteúdo sintético degradado pela IA (Tópico 4). A internet é a prova cabal de que, sob o capitalismo, qualquer força produtiva será inevitavelmente convertida em uma ferramenta para aprofundar a dominação de classe e a alienação, transformando a própria esfera pública em uma mercadoria degradada.


Referências

  • Allan, K., Azcona, J., Sripada, S., Leontidis, G., Sutherland, C., Phillips, L., ... & Martin, D. (2024). Stereotypical bias amplification, and reversal, in an experimental model of human interaction with generative ai. https://doi.org/10.31234/osf.io/r7vf5

  • Allan, K., Azcona, J., Sripada, S., Leontidis, G., Sutherland, C., Phillips, L., ... & Martin, D. (2025). Stereotypical bias amplification and reversal in an experimental model of human interaction with generative artificial intelligence. Royal Society Open Science, 12(4). https://doi.org/10.1098/rsos.241472

  • Bouchaud, P. (2024). Algorithmic amplification of politics and engagement maximization on social media. In: [Livro ou conferência, pp. 131-142]. https://doi.org/10.1007/978-3-031-53503-1_11

  • Bruns, A. (2019). Filter bubble. Internet Policy Review, 8(4). https://doi.org/10.14763/2019.4.1426

  • Cavelty, M. (2013). From cyber-bombs to political fallout: threat representations with an impact in the cyber-security discourse. International Studies Review, 15(1), 105-122. https://doi.org/10.1111/misr.12023

  • Chan, G. (2022). The social capital accumulation in the contemporary era. Internet Research, 32(6), 1930-1951. https://doi.org/10.1108/intr-12-2020-0711

  • Cheung-Blunden, V. (2020). Situational insecurity versus entrenched ideologies as the source of right-wing voters' anti-migrant sentiment on both sides of the atlantic. Journal of Applied Social Psychology, 50(6), 337-350. https://doi.org/10.1111/jasp.12663

  • Dillahunt, T., Brooks, C., & Gulati, S. (2015). Detecting and visualizing filter bubbles in google and bing. In: [Anais de conferência, pp. 1851-1856]. https://doi.org/10.1145/2702613.2732850

  • Dommett, K. (2021). The inter-institutional impact of digital platform companies on democracy: a case study of the uk media's digital campaigning coverage. New Media & Society, 25(10), 2763-2780. https://doi.org/10.1177/14614448211028546

  • Дурнєв, O. and Nekhaienko, O. (2023). Internet as an ideological state apparatus. Polonia University Scientific Journal, 59(4), 146-154. https://doi.org/10.23856/5920

  • Ferreira, Adriano. (2025a). A Inteligência Artificial como Força Produtiva: Pela Apropriação Social contra a Barbárie Capitalista. Política Legal. Disponível em: https://www.politica.legal/2025/06/a-inteligencia-artificial-como-forca.html
  • Ferreira, Adriano. (2025b). O Que é Dominação Política? A tensão entre Força e Legitimidade. Política Legal. Disponível em: https://www.politica.legal/2025/08/dominacao.html

  • Ferreira, Adriano de Assis. (2025c). Estado: Definição e Elementos Essenciais. Direito Legal. Disponível em: https://direito.legal/estado/

  • Gurchani, M. (2023). Over time, right-wing twitter users in france exhibit growing homophily compared to left and center users. https://doi.org/10.31219/osf.io/jcv6k

  • Imre, I., Pjesivac, I., & Luther, C. (2016). Governmental control of the internet and wikileaks: how does the press in four countries discuss freedom of expression?. International Communication Gazette, 78(5), 385-410. https://doi.org/10.1177/1748048516640203

  • Indriani, S., Prasanti, D., & Permana, R. (2020). Analysis of the filter bubble phenomenon in the use of online media for millennial generation (an ethnography virtual study about the filter bubble phenomenon). Nyimak Journal of Communication, 4(2), 199. https://doi.org/10.31000/nyimak.v4i2.2538

  • Iyer, R., Koleva, S., Graham, J., Ditto, P., & Haidt, J. (2012). Understanding libertarian morality: the psychological dispositions of self-identified libertarians. Plos One, 7(8), e42366. https://doi.org/10.1371/journal.pone.0042366

  • Kearney, A., Poredi, N., Shelton, J., Akcinaroglu, S., Karakoç, E., Tran, T., ... & Chen, Y. (2025). Echoes amplified: a study of ai-generated content and digital echo chambers. [Publicação, p. 23]. https://doi.org/10.1117/12.3053447

  • Liang, B. and Lu, H. (2010). Internet development, censorship, and cyber crimes in china. Journal of Contemporary Criminal Justice, 26(1), 103-120. https://doi.org/10.1177/1043986209350437

  • Lokot, T. and Wijermars, M. (2023). The politics of internet freedom rankings. Internet Policy Review, 12(2). https://doi.org/10.14763/2023.2.1710

  • Neyazi, T., Ng, S., Hobbs, M., & Yue, A. (2023). Understanding user interactions and perceptions of ai risk in singapore. Big Data & Society, 10(2). https://doi.org/10.1177/20539517231213823

  • Onraet, E., Hiel, A., & Cornelis, I. (2013). Threat and right-wing attitudes: a cross-national approach. Political Psychology, 34(5), 791-803. https://doi.org/10.1111/pops.12014

  • Qi, H., Li, Z., & Wen, Y. (2024). The financialization of platform capital from the perspective of political economy. China Political Economy, 7(1), 104-121. https://doi.org/10.1108/cpe-06-2024-042

  • Romanishyn, A., Malytska, O., & Goncharuk, V. (2025). Ai-driven disinformation: policy recommendations for democratic resilience. Frontiers in Artificial Intelligence, 8. https://doi.org/10.3389/frai.2025.1569115

  • Shen, Y. (2016). Cyber sovereignty and the governance of global cyberspace. Chinese Political Science Review, 1(1), 81-93. https://doi.org/10.1007/s41111-016-0002-6

  • Sklair, J. and Glucksberg, L. (2020). Philanthrocapitalism as wealth management strategy: philanthropy, inheritance and succession planning among the global elite. The Sociological Review, 69(2), 314-329. https://doi.org/10.1177/0038026120963479

  • Srba, I., Móro, R., Tomlein, M., Pecher, B., Šimko, J., Štefancová, E., ... & Bieliková, M. (2023). Auditing youtube's recommendation algorithm for misinformation filter bubbles. Acm Transactions on Recommender Systems, 1(1), 1-33. https://doi.org/10.1145/3568392

  • Steinberg, P., Nyman, E., & Caraccioli, M. (2011). Atlas swam: freedom, capital, and floating sovereignties in the seasteading vision. Antipode, 44(4), 1532-1550. https://doi.org/10.1111/j.1467-8330.2011.00963.x

  • Topinka, R., Finlayson, A., & Osborne-Carey, C. (2021). The trap of tracking: digital methods, surveillance, and the far right. Surveillance & Society, 19(3), 384-388. https://doi.org/10.24908/ss.v19i3.15018

  • Widerquist, K. (2009). A dilemma for libertarianism. Politics Philosophy & Economics, 8(1), 43-72. https://doi.org/10.1177/1470594x08098871

  • Wijermars, M. and Lokot, T. (2020). The politics of internet freedom rankings: a call for a comparative framework for assessing internet freedom. Aoir Selected Papers of Internet Research. https://doi.org/10.5210/spir.v2020i0.11362

Comentários