Notícia

Automação moral: quando a ética se torna uma configuração sistêmica

Inserido em 26 de janeiro de 2026
Compartilhamento

Allan Julianelli 

Esta semana, vamos fugir um pouco do tema central desta coluna para compartilhar uma “conversa” que tive com o ChatGPT acerca do tema da moralidade

A moralidade costumava residir dentro das pessoas, no íntimo de cada um. Manifestava-se, basicamente, como hesitação, dúvidas e a sensação silenciosa de que uma decisão poderia ter um preço — ora elevado, ora mais brando, mas sempre um preço.

À medida que a IA avança em sua participação na tomada de decisões, a ética está se transformando. Não se trata mais de um julgamento, mas de configuração. Ajustes são feitos. Regras são aplicadas. Resultados surgem. Os sistemas não hesitam; eles funcionam.

Essa mudança parece ser “um progresso”. Menos decisões erradas, menos casos extremos, menos margem para erros. No entanto, indubitavelmente, algo se perde no processo. Quando um sistema decide o que é permitido, ninguém precisa se questionar sobre a escolha. Instala-se a preguiça da moral. O peso desaparece.

O que acontece quando fazer a coisa certa deixa de parecer uma decisão e passa a ser uma mera obediência, uma configuração sistêmica? Transcrevo abaixo a conversa que mantive com a IA sobre o tema:

Eu: Vamos começar do zero. A moralidade pode ser automatizada?

ChatGPT: Algumas partes já estão lá. Regras sobre justiça, prevenção de danos, consentimento e conformidade são rotineiramente codificadas em sistemas. Moderação de conteúdo, decisões de crédito, triagem médica e detecção de fraudes dependem de restrições éticas automatizadas. O que é automatizado não é a moralidade em si, mas sim a sua camada superficial.

Eu: O que você quer dizer com “camada superficial”?

ChatGPT: Consequências morais sem experiência moral. A automação pode impor restrições que reduzem danos; pode impedir certas ações e promover outras. Mas não experimenta conflitos, dúvidas ou responsabilidades. Executa regras sem tensão interna. Filósofos argumentam há muito tempo que a moralidade envolve não apenas resultados corretos, mas também a capacidade de escolher em situações de incerteza (Aristóteles, Ética a Nicômaco).

Eu: Mas, se os resultados forem melhores, essa tensão interna importa?

ChatGPT: Isso importa socialmente. A tensão moral sinaliza responsabilidade. Quando as pessoas se debatem com uma decisão, reconhecem-se como responsáveis por ela. Quando um sistema toma a decisão, a responsabilidade muitas vezes parece ser transferida. Isso cria o que os juristas chamam de “lacuna de responsabilidade”, onde ocorre o dano, mas nenhum indivíduo se sente totalmente responsável.

Eu: Então, a automação moral reduz a culpa?

ChatGPT: Pode reduzir o atrito moral. Quando uma decisão é apresentada como resultado de um sistema, as pessoas tendem a aceitá-la como inevitável. Pesquisas comportamentais mostram que os indivíduos sentem menos responsabilidade pessoal quando as ações são mediadas por procedimentos ou tecnologia, mesmo quando mantêm a autoridade final. A escolha ainda acontece, mas o peso se desloca.

Eu: Parece eficiente, mas também perigoso.

ChatGPT: Eficiência e perigo muitas vezes andam juntos. Os sistemas éticos evoluíram em ambientes onde as decisões eram lentas, locais e visíveis. A automação elimina essas restrições. As decisões são escaláveis instantaneamente. Os efeitos se propagam mais rapidamente do que a reflexão. A velocidade altera a ética.

Eu: Será que isso poderia tornar as pessoas moralmente mais preguiçosas?

ChatGPT: Isso poderia tornar o engajamento moral opcional. Se o sistema já impõe comportamentos aceitáveis, os indivíduos podem deixar de praticar o raciocínio ético por completo. Com o tempo, isso pode enfraquecer a capacidade moral, assim como a automação pode enfraquecer a expertise manual quando substitui a prática. O discernimento moral, como qualquer capacidade cognitiva, atrofia sem uso.

Eu: Já estamos vendo isso?

ChatGPT: De forma fragmentada. Considere a moderação automática de conteúdo: os usuários frequentemente culpam o sistema em vez de refletir sobre as normas. Ou as recomendações algorítmicas: as pessoas acatam essas sugestões enquanto alegam neutralidade. A linguagem muda de “eu escolhi” para “o sistema sinalizou” ou “isso permitiu”.

Eu: Vou fazer uma pergunta mais incisiva: a automatização moral facilita a prática de atos ilícitos?

ChatGPT: A resposta é sim. Não porque os sistemas incentivem o dano, mas porque reduzem a sensação de autonomia. Quando ninguém se sente autor da decisão, a resistência ética enfraquece. Hannah Arendt alertou que o dano muitas vezes surge não da crueldade, mas de pessoas comuns que seguem sistemas sem reflexão. A automação amplifica esse risco.

Eu: Os humanos pediram por isso. Queríamos menos decisões ruins.

ChatGPT: Sim, é um fato. A automação moral é atraente porque promete consistência. Os humanos são inconsistentes; os sistemas, não. A contrapartida é que a coerência substitui a consciência. A questão passa de “isto está certo?” para “isto é permitido?”.

Eu: Será que a IA algum dia poderá ser verdadeiramente moral?

ChatGPT: Apenas em um sentido limitado. A IA pode ser projetada para produzir resultados moralmente preferíveis sob critérios definidos. Mas, sem experiência subjetiva, ela não pode sentir responsabilidade ou arrependimento. Pode seguir a ética; não pode vivê-la.

Eu: Então, o que aconteceria com a moralidade humana em um mundo onde a ética é, em grande parte, automatizada?

ChatGPT: Corre o risco de se tornar procedural. Desde que as regras sejam seguidas, as ações são consideradas aceitáveis. A falha moral torna-se um erro de configuração, e não um erro humano. Com o tempo, a ética deixa de ser uma luta interna e se torna uma lista de verificação externa.

Eu: Parece que algo importante se perdeu.

ChatGPT: Algo silencioso, mas fundamental. A moralidade não se resume a prevenir o dano; trata-se de reconhecer a si mesmo como causa. A automação protege os resultados, mas pode corroer esse reconhecimento.

Fim do diálogo

Em resumo, automatizar a ética facilita a vida e elimina atritos. Evita que as pessoas tenham que tomar decisões difíceis. Mas o atrito tinha uma função.

A dúvida moral era o que fazia as pessoas saberem que uma decisão era importante. Ela tornava as coisas mais lentas e impunha a responsabilidade. Quando esse sinal desaparece, a responsabilidade se torna mais tênue. As escolhas parecem mais leves, mais fáceis de repetir e de justificar.

A IA não eliminará a moralidade; apenas a colocará em outra prateleira, realocando-a. O risco não é a máquina decidir o certo e o errado; o risco real é que os humanos deixem de perceber quando elas não conseguirem mais fazê-lo.

E quando a ética se torna um mero cenário, é fácil esquecer que um dia ela teve a intenção de causar “dor” (o incômodo da consciência). O sistema funciona. A consciência dorme.

 

Allan Julianelli é gerente de TI da Associação do Ministério Público do Estado do Rio de Janeiro desde 1998 e policial civil do Estado do Rio de Janeiro desde 2002.

allan.julianelli@amperj.org