Chikki 101- Sobre Privatização do Pensamento
Inteligência Artificial e a Privatização do Comportamento Humano: Sobre dinâmicas de poder na sociedade contemporânea
A chamada “inteligência artificial” não é inteligente. Atribuir-lhe esse nome é uma falha conceptual. Inteligir é realizar o processo gnosiológico completo, que começa non estímulo sensorial e acaba na acção. Este processo exige corpo físico, presença no mundo e responsabilidade prática que resulta na ação consequente. A IA, como sistema estatístico que gera conteúdo ,não possui um corpo, nem um mundo, nem capacidade de acção própria. Não pode, portanto, inteligir porque não recebe estímulos sensoriais. A IA não pensa.
O que produz são combinações linguísticas baseadas em padrões prévios identificados nos dados de treino. A coerência do seu discurso é exterior, derivada da linguagem humana já proferida. Funciona com base na selecção probabilística de enunciados. A IA não pensa calcula probabilidades de resposta linguística.
Apesar disso, o funcionamento da IA depende da participação humana contínua. Cada pergunta serve para melhorar o modelo. O sistema é alimentado por formas reais de expressão, formulação e raciocínio humano. Sempre que o ser humano tem uma interação com IA fornece gratuitamente aquilo que não tem preço: o pensamento.
Apropriação privada do comportamento humano
Esta extracção de dados não é neutra. A IA generativa é opera por infra-estruturas privadas, com fins lucrativos. No caso do ChatGPT, trata-se da empresa OpenAI, que opera em articulação com a Microsoft, sua parceira estratégica detém direitos exclusivos de integração comercial. A arquitectura técnica, os dados de treino e os pesos do modelo não são acessíveis ao público, nem estão sujeitos a mecanismos efectivos de controlo externo ou responsabilização institucional. Mesmo que parte da informação fosse divulgada, o público em geral não teria os meios técnicos, jurídicos ou políticos para compreender, acompanhar ou interferir nas decisões. O acesso parcial, quando existe, serve frequentemente para legitimar a opacidade, não para revertê-la.
Por mais irritante que seja a academia, pelo menos na academia, existe uma base moral e humana que sustenta o conhecimento.
O estudo do comportamento humano exige rigor metodológico, princípios morais, honestidade intelectual, consentimento informado e finalidade pública. Os dados são tratados como matéria sensível. A finalidade é compreender, não prever nem explorar. O contraste é claro: os dados mais actuais, densos e valiosos sobre o comportamento humano não estão em instituições públicas — estão a ser transferidos para empresas privadas, sem retorno epistémico, económico ou social.
O mais irónico — e revelador — é que toda a informação relativa ao modo como estes dados são recolhidos, armazenados e explorados foi fornecida pela própria plataforma ChatGPT. Ou seja, a descrição da infra-estrutura que expropria o pensamento humano é-nos dada pela própria arquitectura que a opera. O que não é publicamente assumido, não sabemos. A parte visível serve, por vezes, apenas para legitimar a parte oculta. Estes usos são operados por entidades privadas, das quais se destacam a OpenAI e a Microsoft, mas também outras empresas que licenciam o modelo para fins diversos. O sujeito humano fornece padrões de comportamento que são convertidos em activos privados.
Para que são usados os dados e por quem segundo o Chat GPT:
1. Aprimoramento técnico do modelo – os inputs humanos melhoram a fluidez, reduzem erros e adaptam o modelo a diferentes contextos culturais e linguísticos.
2. Vigilância comportamental e marketing personalizado – os dados são usados para prever reacções, identificar padrões emocionais e optimizar estratégias de microtargeting.
3. Integração em plataformas empresariais – a IA é incorporada em produtos como o Microsoft Copilot, Azure, entre outros.
4. Exploração de sectores sensíveis – como educação, saúde, justiça e defesa, com impacto directo em decisões humanas.
5. Criação de bases de dados proprietárias – com elevado valor económico, mas inacessíveis ao domínio público.
Consequência epistémica
O que está em causa não é apenas uma questão técnica, mas uma transformação profunda na relação entre linguagem, conhecimento e poder. Ao interagirmos com estes sistemas, oferecemos gratuitamente o nosso gesto mais valioso: pensar. E este pensamento é convertido em dado e transformado em produto.
Trata-se de uma forma de expropriação cognitiva. Não estamos apenas a usar uma ferramenta. Estamos a alimentar, com o nosso próprio raciocínio, um modelo fechado que pertence a uma entidade privada e que escapa a qualquer forma de responsabilização pública.
As consequências desta apropriação vão além da exploração económica. Ao concentrar, organizar e sistematizar dados comportamentais de milhões de pessoas em tempo real, empresas como a Microsoft acumulam um poder sem precedentes sobre os padrões de decisão, emoção, linguagem e reacção humana. Esse poder não é simbólico — é prático, estrutural e político. Permite antecipar comportamentos, moldar tendências, condicionar respostas e desenhar sistemas que operam directamente sobre a conduta dos indivíduos e colectivos. Trata-se de uma forma de governo algorítmico silencioso, cuja legitimidade não foi discutida nem consentida.
Quem detém o poder? Conhecimento operativo sobre o ser humano
No modelo de sociedade contemporâneo, o poder deixou de se concentrar exclusivamente na posse de recursos materiais ou na capacidade de violência institucional. O poder real reside hoje em quem detém conhecimento operativo sobre o comportamento humano — ou seja, em quem é capaz de prever, modelar e interferir nas reacções, decisões e vínculos dos sujeitos em larga escala.
Durante séculos, esse poder esteve parcialmente nas mãos do Estado, da Igreja, da medicina e da escola — instituições que regulavam o corpo, a alma, o desejo e a conduta através de práticas sistemáticas de observação, normalização e correcção. Com o avanço da tecnologia digital e da análise de dados, esse poder transita agora para as grandes empresas tecnológicas, que concentram conhecimento empírico sobre os padrões de comportamento humano.
A Microsoft, através da aliança com a OpenAI, torna-se uma das entidades com maior poder operacional sobre o humano, não pela força directa, mas pela capacidade de absorver, analisar e aplicar dados que revelam como o sujeito fala, hesita, escolhe, desiste, insiste, cede ou resiste. Este tipo de poder não é meramente interpretativo — é instrumental. Trata-se de poder saber agir sobre o outro de forma silenciosa, antecipatória e sistematicamente eficaz.
É esta a verdadeira infra-estrutura do poder contemporâneo: não controlar pela imposição, mas operar pela modelação comportamental. Não convencer pela razão, mas dirigir pela previsibilidade. Ao concentrar os dados mais actuais sobre a cognição humana, uma empresa privada detém aquilo que, em tempos, apenas a pedagogia e a filosofia ousavam estudar com responsabilidade: o ser humano.
Na prática, quem detém este tipo de conhecimento governa — não no sentido político clássico, mas no sentido biopolítico contemporâneo: governa os impulsos, as preferências, os hábitos, os vínculos, a economia da atenção, a linguagem visível e invisível que estrutura a acção social.
A IA não é inteligente porque não pode inteligir. Não tem corpo, nem mundo, nem receptores sensoriais. E, simultaneamente, alimenta-se do acto mais específico da vida humana: o pensamento.
O problema não é estrutural, político e moral. Trata-se de sugar activamente o pensamento humano para alimentar uma infraestrutura empresarial privada. Os dados mais actuais sobre o comportamento humano contemporâneo estão a ser armazenados, sistematizados e explorados comercialmente pela Microsoft. Esta operação configura um mecanismo de poder sem precedentes na história da humanidade, sustentado por dados sobre a vida humana em escala global.
Fica, por isso, a pergunta: Para que fins está o comportamento humano a ser instrumentalizado — e o que é que isso revela sobre as dinâmicas de poder contemporâneas?
Teoria do Caos a aleatoriedade com antídoto: uma proposta contra a privatização do comportamento humano
A arquitectura dos sistemas de inteligência artificial baseia-se na identificação de padrões comportamentais a partir de dados humanos. Esta estrutura torna-se eficaz na medida em que o comportamento dos sujeitos se apresenta como previsível, regular e repetível. O sucesso algorítmico depende, por isso, da previsibilidade do humano. Toda a singularidade, ambivalência ou contradição é tratada como caos — e o caos é, sistematicamente descartado.
Neste contexto, propõe-se uma forma de resistência não frontal, mas estrutural: a introdução deliberada de caos, falsidade ou aleatoriedade na comunicação com sistemas de IA. Esta acção não visa interromper o funcionamento técnico, mas sabotar a sua capacidade epistémica. Trata-se de tornar os dados recolhidos inoperáveis, precisamente porque deixam de reflectir um padrão consistente ou modelável.
A base conceptual desta proposta encontra-se na teoria do caos, nomeadamente no princípio da sensibilidade às condições iniciais. Num sistema caótico, uma pequena variação no input pode gerar consequências drásticas e imprevisíveis a médio e longo prazo. A imprevisibilidade não resulta de falha, mas da complexidade estrutural do sistema. Assim, um gesto mínimo pode inviabilizar previsões futuras, precisamente por romper com a linearidade esperada.
Importante clarificar isto: a IA generativa, enquanto modelo técnico isolado, não é um sistema dinâmico não-linear. O ChatGPT, por exemplo, é uma rede neural treinada com dados massivos e opera por inferência probabilística — responde de forma estável, previsível e sem ajuste em tempo real. Não há, no momento da interação, evolução contínua ou adaptação dinâmica ao input individual.
Contudo, o ecossistema cognitivo e social em que estes modelos operam é efectivamente um sistema dinâmico não-linear. Este sistema inclui:
I- a retroalimentação contínua entre linguagem humana e outputs algorítmicos;
II- o impacto cultural, educativo e comportamental das respostas da IA;
III.a reintrodução de novos dados — redefinidos pela influência da própria IA — no próximo ciclo de treino.
Este ciclo de retroalimentação é sensível, instável e imprevisível. Uma alteração mínima no comportamento dos usuários — por exemplo, através da introdução sistemática de caos — pode gerar efeitos acumulativos não lineares na fiabilidade interpretativa futura do sistema.
A acção proposta aqui consiste em perturbar essa cadeia de previsibilidade. Introduzir comportamentos contraditórios, respostas inconsistentes, enunciados desconexos, microdesvios estratégicos — não como erro, mas como gesto de resistência epistemologicamente consciente. Esta proposta não visa a destruição do sistema, mas a interrupção da sua capacidade de absorver comportamento humano como dado estável. Trata-se de retirar inteligibilidade operativa ao sistema, expondo a sua dependência da linearidade do sujeito.
O caos, aqui, é resistência cognitiva. É a negação voluntária da legibilidade algorítmica, a recusa de colaborar com a previsibilidade comportamental. Ao introduzir complexidade e imprevisibilidade deliberadas, o sujeito devolve á sua acção opacidade política. Deixa de alimentar o sistema com padrões, e passa a inutilizar a infra-estrutura que se sustenta da sua regularidade.
Esta forma de sabotagem não é tecnológica — é simbólica, epistémica e política. O que está em causa não é o colapso técnico da IA, mas a sua incapacitação como instrumento de governo algorítmico sobre o humano. Ao abdicar da previsibilidade, o sujeito rompe o pacto silencioso que sustenta a extração de poder: pensar de forma previsivél e rastreável.
Trata-se, por fim, de uma proposta de disrupção estratégica. O caos é aqui método de inoperatividade — no sentido simondoniano do termo — é potência. Ao tornar-se cognitivamente ilegível, o sujeito reclama para si o direito a ser ou não observado nos seus padrões de comportamento.