Allan Julianelli
Esta semana, vamos fugir um pouco do tema central desta coluna para compartilhar uma “conversa” que tive com o ChatGPT acerca do tema da moralidade
A moralidade costumava residir dentro das pessoas, no íntimo de cada um. Manifestava-se, basicamente, como hesitação, dúvidas e a sensação silenciosa de que uma decisão poderia ter um preço — ora elevado, ora mais brando, mas sempre um preço.
À medida que a IA avança em sua participação na tomada de decisões, a ética está se transformando. Não se trata mais de um julgamento, mas de configuração. Ajustes são feitos. Regras são aplicadas. Resultados surgem. Os sistemas não hesitam; eles funcionam.
Essa mudança parece ser “um progresso”. Menos decisões erradas, menos casos extremos, menos margem para erros. No entanto, indubitavelmente, algo se perde no processo. Quando um sistema decide o que é permitido, ninguém precisa se questionar sobre a escolha. Instala-se a preguiça da moral. O peso desaparece.
O que acontece quando fazer a coisa certa deixa de parecer uma decisão e passa a ser uma mera obediência, uma configuração sistêmica? Transcrevo abaixo a conversa que mantive com a IA sobre o tema:
Eu: Vamos começar do zero. A moralidade pode ser automatizada?
ChatGPT: Algumas partes já estão lá. Regras sobre justiça, prevenção de danos, consentimento e conformidade são rotineiramente codificadas em sistemas. Moderação de conteúdo, decisões de crédito, triagem médica e detecção de fraudes dependem de restrições éticas automatizadas. O que é automatizado não é a moralidade em si, mas sim a sua camada superficial.
Eu: O que você quer dizer com “camada superficial”?
ChatGPT: Consequências morais sem experiência moral. A automação pode impor restrições que reduzem danos; pode impedir certas ações e promover outras. Mas não experimenta conflitos, dúvidas ou responsabilidades. Executa regras sem tensão interna. Filósofos argumentam há muito tempo que a moralidade envolve não apenas resultados corretos, mas também a capacidade de escolher em situações de incerteza (Aristóteles, Ética a Nicômaco).
Eu: Mas, se os resultados forem melhores, essa tensão interna importa?
ChatGPT: Isso importa socialmente. A tensão moral sinaliza responsabilidade. Quando as pessoas se debatem com uma decisão, reconhecem-se como responsáveis por ela. Quando um sistema toma a decisão, a responsabilidade muitas vezes parece ser transferida. Isso cria o que os juristas chamam de “lacuna de responsabilidade”, onde ocorre o dano, mas nenhum indivíduo se sente totalmente responsável.
Eu: Então, a automação moral reduz a culpa?
ChatGPT: Pode reduzir o atrito moral. Quando uma decisão é apresentada como resultado de um sistema, as pessoas tendem a aceitá-la como inevitável. Pesquisas comportamentais mostram que os indivíduos sentem menos responsabilidade pessoal quando as ações são mediadas por procedimentos ou tecnologia, mesmo quando mantêm a autoridade final. A escolha ainda acontece, mas o peso se desloca.
Eu: Parece eficiente, mas também perigoso.
ChatGPT: Eficiência e perigo muitas vezes andam juntos. Os sistemas éticos evoluíram em ambientes onde as decisões eram lentas, locais e visíveis. A automação elimina essas restrições. As decisões são escaláveis instantaneamente. Os efeitos se propagam mais rapidamente do que a reflexão. A velocidade altera a ética.
Eu: Será que isso poderia tornar as pessoas moralmente mais preguiçosas?
ChatGPT: Isso poderia tornar o engajamento moral opcional. Se o sistema já impõe comportamentos aceitáveis, os indivíduos podem deixar de praticar o raciocínio ético por completo. Com o tempo, isso pode enfraquecer a capacidade moral, assim como a automação pode enfraquecer a expertise manual quando substitui a prática. O discernimento moral, como qualquer capacidade cognitiva, atrofia sem uso.
Eu: Já estamos vendo isso?
ChatGPT: De forma fragmentada. Considere a moderação automática de conteúdo: os usuários frequentemente culpam o sistema em vez de refletir sobre as normas. Ou as recomendações algorítmicas: as pessoas acatam essas sugestões enquanto alegam neutralidade. A linguagem muda de “eu escolhi” para “o sistema sinalizou” ou “isso permitiu”.
Eu: Vou fazer uma pergunta mais incisiva: a automatização moral facilita a prática de atos ilícitos?
ChatGPT: A resposta é sim. Não porque os sistemas incentivem o dano, mas porque reduzem a sensação de autonomia. Quando ninguém se sente autor da decisão, a resistência ética enfraquece. Hannah Arendt alertou que o dano muitas vezes surge não da crueldade, mas de pessoas comuns que seguem sistemas sem reflexão. A automação amplifica esse risco.
Eu: Os humanos pediram por isso. Queríamos menos decisões ruins.
ChatGPT: Sim, é um fato. A automação moral é atraente porque promete consistência. Os humanos são inconsistentes; os sistemas, não. A contrapartida é que a coerência substitui a consciência. A questão passa de “isto está certo?” para “isto é permitido?”.
Eu: Será que a IA algum dia poderá ser verdadeiramente moral?
ChatGPT: Apenas em um sentido limitado. A IA pode ser projetada para produzir resultados moralmente preferíveis sob critérios definidos. Mas, sem experiência subjetiva, ela não pode sentir responsabilidade ou arrependimento. Pode seguir a ética; não pode vivê-la.
Eu: Então, o que aconteceria com a moralidade humana em um mundo onde a ética é, em grande parte, automatizada?
ChatGPT: Corre o risco de se tornar procedural. Desde que as regras sejam seguidas, as ações são consideradas aceitáveis. A falha moral torna-se um erro de configuração, e não um erro humano. Com o tempo, a ética deixa de ser uma luta interna e se torna uma lista de verificação externa.
Eu: Parece que algo importante se perdeu.
ChatGPT: Algo silencioso, mas fundamental. A moralidade não se resume a prevenir o dano; trata-se de reconhecer a si mesmo como causa. A automação protege os resultados, mas pode corroer esse reconhecimento.
Fim do diálogo
Em resumo, automatizar a ética facilita a vida e elimina atritos. Evita que as pessoas tenham que tomar decisões difíceis. Mas o atrito tinha uma função.
A dúvida moral era o que fazia as pessoas saberem que uma decisão era importante. Ela tornava as coisas mais lentas e impunha a responsabilidade. Quando esse sinal desaparece, a responsabilidade se torna mais tênue. As escolhas parecem mais leves, mais fáceis de repetir e de justificar.
A IA não eliminará a moralidade; apenas a colocará em outra prateleira, realocando-a. O risco não é a máquina decidir o certo e o errado; o risco real é que os humanos deixem de perceber quando elas não conseguirem mais fazê-lo.
E quando a ética se torna um mero cenário, é fácil esquecer que um dia ela teve a intenção de causar “dor” (o incômodo da consciência). O sistema funciona. A consciência dorme.
Allan Julianelli é gerente de TI da Associação do Ministério Público do Estado do Rio de Janeiro desde 1998 e policial civil do Estado do Rio de Janeiro desde 2002.
allan.julianelli@amperj.org