1. A Utopia Original: A Internet contra o Leviatã Estatal
A internet, em sua emergência pública nos anos 1990, foi profundamente moldada por uma ideologia ciberlibertária que coincidiu com o discurso de mínima intervenção estatal
Essa ideologia baseia-se em um sistema moral que prioriza as liberdades individuais acima de quaisquer preocupações morais coletivas (Iyer et al., 2012)
Sob a poderosa metáfora da "Fronteira Eletrônica", o ciberespaço foi enquadrado como um território autônomo que precisava ser "preservado contra a invasão estatal" (Cavelty, 2013)
Ao definir o Estado — esse aparato de poder político e soberania — como o "antagonista principal"
2. A Colonização pelo Mercado: A Ascensão dos Jardins Murados
O vácuo de poder ideológico, criado pela fixação ciberlibertária no Estado como o único inimigo, foi precisamente o que permitiu a colonização da internet pela lógica do capital. A rede, imaginada como um espaço de liberdade anárquica, tornou-se o território ideal para uma nova forma de acumulação. Esta transformação foi consolidada pelo "capitalismo de plataforma" (Qi et al., 2024), um modelo de negócios que, como já analisamos, converte toda interação humana em matéria-prima para a extração de valor.
Esse modelo reconfigurou a arquitetura da rede, marcando a transição de uma web aberta, plural e descentralizada — a era dos sites independentes, fóruns e blogs — para uma internet centralizada. O capital ergueu "jardins murados" (walled gardens) (Dillahunt et al., 2015), ecossistemas fechados (como Facebook e Google) projetados para capturar, direcionar e reter o engajamento do usuário. O objetivo não é mais a interconexão livre, mas o controle dos caminhos pelos quais a informação flui (Dommett, 2021).
Dentro desses muros, a realidade é curada por algoritmos sofisticados. Esses algoritmos não são ferramentas neutras de organização; são instrumentos de otimização de engajamento, projetados para analisar as preferências e interações anteriores do usuário (Indriani et al., 2020). O resultado direto é a "bolha de filtro" (filter bubble), termo cunhado por Eli Pariser e definido por Bruns (2019) como uma câmara de eco onde os usuários são predominantemente expostos a informações que reforçam suas crenças existentes.
A pluralidade da web aberta, que tanto se temia ser destruída pelo Estado, foi efetivamente sufocada pelas corporações. Fontes alternativas de informação foram marginalizadas (Dommett, 2021), e a exposição a pontos de vista divergentes, essencial para o discurso democrático, foi algoricamente desincentivada (Srba et al., 2023). Essa homogeneização da dieta midiática e a consequente fragmentação sociopolítica não são falhas no sistema, mas o seu resultado pretendido. Este foi o primeiro estágio da "merdificação" (enshittification): atrair e trancar os usuários em plataformas, preparando o terreno para a próxima fase de exploração.
3. Capitalismo de Vigilância: O Motor da "Merdificação"
A consolidação dos "jardins murados" (Tópico 2) só foi economicamente viável através da implementação de um novo modelo de negócios: o capitalismo de vigilância. Este sistema, como descrito na literatura (Zuboff, citada em
Este modelo marca o segundo e crucial estágio da "merdificação" (enshittification): as plataformas, tendo já capturado os usuários, passam a abusar deles para servir aos seus verdadeiros clientes — os anunciantes e atores políticos que compram o acesso a esses dados. A violação sistemática da privacidade não é um "bug" ou um excesso, mas a característica central e fundacional desse modo de acumulação.
Para otimizar a venda de influência, os algoritmos são desenhados com um único propósito: "maximizar o engajamento" e, por consequência, a "lucratividade"
É aqui que a colonização pelo mercado revela sua mais profunda consequência política. A necessidade econômica de maximizar o engajamento leva os sistemas algorítmicos a "favorecer o engajamento acima da diversidade de opinião"
A amplificação algorítmica torna-se, assim, uma poderosa "ferramenta de mobilização política" para movimentos de direita
4. A "Merdificação" Acelerada: IA, Controle Político e a Degradação do Conteúdo
A chegada da Inteligência Artificial generativa representa a fase final e acelerada do processo de "merdificação" (enshittification). Este é o estágio em que as plataformas, tendo já capturado e abusado de seus usuários e clientes (Tópicos 2 e 3), passam a degradar a própria qualidade do serviço para extrair o máximo valor restante, priorizando o lucro acima do respeito ao usuário (Sklair & Glucksberg, 2020
Em vez de ser a ferramenta de emancipação humana, como analisamos outrora, a IA sob o controle do capital torna-se um motor de poluição informacional. Ela permite a produção em massa e a baixo custo de "conteúdo sintético" e de baixa qualidade (Neyazi et al., 2023
As implicações para o controle político e a degradação da esfera pública são profundas. A facilidade com que a IA produz conteúdo persuasivo, mas sintético, é a ferramenta ideal para "campanhas de desinformação" e "manipulação política" (Romanishyn et al., 2025
O resultado final é a "degradação" da esfera pública
5. Conclusão: Da Utopia Libertária à Distopia "Merdificada"
A trajetória da internet, desde sua concepção como uma utopia libertária
Hoje, a internet transformou-se em um mecanismo de "acumulação de capital e decadência ideológica"
O resultado é um "discurso homogeneizado"
Referências
Allan, K., Azcona, J., Sripada, S., Leontidis, G., Sutherland, C., Phillips, L., ... & Martin, D. (2024). Stereotypical bias amplification, and reversal, in an experimental model of human interaction with generative ai.
https://doi.org/10.31234/osf.io/r7vf5 Allan, K., Azcona, J., Sripada, S., Leontidis, G., Sutherland, C., Phillips, L., ... & Martin, D. (2025). Stereotypical bias amplification and reversal in an experimental model of human interaction with generative artificial intelligence. Royal Society Open Science, 12(4).
https://doi.org/10.1098/rsos.241472 Bouchaud, P. (2024). Algorithmic amplification of politics and engagement maximization on social media. In: [Livro ou conferência, pp. 131-142].
https://doi.org/10.1007/978-3-031-53503-1_11 Bruns, A. (2019). Filter bubble. Internet Policy Review, 8(4).
https://doi.org/10.14763/2019.4.1426 Cavelty, M. (2013). From cyber-bombs to political fallout: threat representations with an impact in the cyber-security discourse. International Studies Review, 15(1), 105-122.
https://doi.org/10.1111/misr.12023 Chan, G. (2022). The social capital accumulation in the contemporary era. Internet Research, 32(6), 1930-1951.
https://doi.org/10.1108/intr-12-2020-0711 Cheung-Blunden, V. (2020). Situational insecurity versus entrenched ideologies as the source of right-wing voters' anti-migrant sentiment on both sides of the atlantic. Journal of Applied Social Psychology, 50(6), 337-350.
https://doi.org/10.1111/jasp.12663 Dillahunt, T., Brooks, C., & Gulati, S. (2015). Detecting and visualizing filter bubbles in google and bing. In: [Anais de conferência, pp. 1851-1856].
https://doi.org/10.1145/2702613.2732850 Dommett, K. (2021). The inter-institutional impact of digital platform companies on democracy: a case study of the uk media's digital campaigning coverage. New Media & Society, 25(10), 2763-2780.
https://doi.org/10.1177/14614448211028546 Дурнєв, O. and Nekhaienko, O. (2023). Internet as an ideological state apparatus. Polonia University Scientific Journal, 59(4), 146-154.
https://doi.org/10.23856/5920 - Ferreira, Adriano. (2025a). A Inteligência Artificial como Força Produtiva: Pela Apropriação Social contra a Barbárie Capitalista. Política Legal. Disponível em:
https://www.politica.legal/2025/06/a-inteligencia-artificial-como-forca.html Ferreira, Adriano. (2025b). O Que é Dominação Política? A tensão entre Força e Legitimidade. Política Legal. Disponível em:
https://www.politica.legal/2025/08/dominacao.html Ferreira, Adriano de Assis. (2025c). Estado: Definição e Elementos Essenciais. Direito Legal. Disponível em:
https://direito.legal/estado/ Gurchani, M. (2023). Over time, right-wing twitter users in france exhibit growing homophily compared to left and center users.
https://doi.org/10.31219/osf.io/jcv6k Imre, I., Pjesivac, I., & Luther, C. (2016). Governmental control of the internet and wikileaks: how does the press in four countries discuss freedom of expression?. International Communication Gazette, 78(5), 385-410.
https://doi.org/10.1177/1748048516640203 Indriani, S., Prasanti, D., & Permana, R. (2020). Analysis of the filter bubble phenomenon in the use of online media for millennial generation (an ethnography virtual study about the filter bubble phenomenon). Nyimak Journal of Communication, 4(2), 199.
https://doi.org/10.31000/nyimak.v4i2.2538 Iyer, R., Koleva, S., Graham, J., Ditto, P., & Haidt, J. (2012). Understanding libertarian morality: the psychological dispositions of self-identified libertarians. Plos One, 7(8), e42366.
https://doi.org/10.1371/journal.pone.0042366 Kearney, A., Poredi, N., Shelton, J., Akcinaroglu, S., Karakoç, E., Tran, T., ... & Chen, Y. (2025). Echoes amplified: a study of ai-generated content and digital echo chambers. [Publicação, p. 23].
https://doi.org/10.1117/12.3053447 Liang, B. and Lu, H. (2010). Internet development, censorship, and cyber crimes in china. Journal of Contemporary Criminal Justice, 26(1), 103-120.
https://doi.org/10.1177/1043986209350437 Lokot, T. and Wijermars, M. (2023). The politics of internet freedom rankings. Internet Policy Review, 12(2).
https://doi.org/10.14763/2023.2.1710 Neyazi, T., Ng, S., Hobbs, M., & Yue, A. (2023). Understanding user interactions and perceptions of ai risk in singapore. Big Data & Society, 10(2).
https://doi.org/10.1177/20539517231213823 Onraet, E., Hiel, A., & Cornelis, I. (2013). Threat and right-wing attitudes: a cross-national approach. Political Psychology, 34(5), 791-803.
https://doi.org/10.1111/pops.12014 Qi, H., Li, Z., & Wen, Y. (2024). The financialization of platform capital from the perspective of political economy. China Political Economy, 7(1), 104-121.
https://doi.org/10.1108/cpe-06-2024-042 Romanishyn, A., Malytska, O., & Goncharuk, V. (2025). Ai-driven disinformation: policy recommendations for democratic resilience. Frontiers in Artificial Intelligence, 8.
https://doi.org/10.3389/frai.2025.1569115 Shen, Y. (2016). Cyber sovereignty and the governance of global cyberspace. Chinese Political Science Review, 1(1), 81-93.
https://doi.org/10.1007/s41111-016-0002-6 Sklair, J. and Glucksberg, L. (2020). Philanthrocapitalism as wealth management strategy: philanthropy, inheritance and succession planning among the global elite. The Sociological Review, 69(2), 314-329.
https://doi.org/10.1177/0038026120963479 Srba, I., Móro, R., Tomlein, M., Pecher, B., Šimko, J., Štefancová, E., ... & Bieliková, M. (2023). Auditing youtube's recommendation algorithm for misinformation filter bubbles. Acm Transactions on Recommender Systems, 1(1), 1-33.
https://doi.org/10.1145/3568392 Steinberg, P., Nyman, E., & Caraccioli, M. (2011). Atlas swam: freedom, capital, and floating sovereignties in the seasteading vision. Antipode, 44(4), 1532-1550.
https://doi.org/10.1111/j.1467-8330.2011.00963.x Topinka, R., Finlayson, A., & Osborne-Carey, C. (2021). The trap of tracking: digital methods, surveillance, and the far right. Surveillance & Society, 19(3), 384-388.
https://doi.org/10.24908/ss.v19i3.15018 Widerquist, K. (2009). A dilemma for libertarianism. Politics Philosophy & Economics, 8(1), 43-72.
https://doi.org/10.1177/1470594x08098871 Wijermars, M. and Lokot, T. (2020). The politics of internet freedom rankings: a call for a comparative framework for assessing internet freedom. Aoir Selected Papers of Internet Research.
https://doi.org/10.5210/spir.v2020i0.11362
Comentários
Postar um comentário