17 dezembro 2025

O caminho para a irresponsabilidade

 


A ilusão da neutralidade algorítmica

Nos últimos anos, tornou-se comum ouvir dirigentes empresariais vangloriarem-se de não se deixarem influenciar por emoções. A ideia soa virtuosa: decisões “a sangue-frio”, guiadas apenas por dados, seriam mais racionais, mais justas e mais eficazes. Este discurso surge com particular força quando estão em causa despedimentos em massa, encerramentos de unidades ou reestruturações dolorosas. Cada vez mais, junta-se a ele uma promessa adicional: a de que a inteligência artificial poderá ajudar a ultrapassar as limitações emocionais humanas. É aqui que reside uma ilusão perigosa.

O raciocínio implícito é simples e sedutor. Os humanos são emotivos. Emoção equivale a viés. A inteligência artificial não tem emoções. Logo, a inteligência artificial decide melhor. Mas esta cadeia lógica é profundamente falsa — não apenas do ponto de vista ético, mas também científico.

Décadas de investigação em neurociência mostram que a emoção não é um ruído que perturba a decisão racional. Pelo contrário, é um componente essencial do próprio processo de decidir. Os chamados marcadores somáticos — sinais corporais e emocionais associados a experiências passadas — permitem avaliar riscos, antecipar consequências e atribuir valor às opções disponíveis. Sem eles, a decisão não se torna mais clara; torna-se cega.

A inteligência artificial não dispõe destes marcadores. Não sente perda, dano, vergonha, culpa ou lealdade. Não antecipa sofrimento humano. Não carrega uma memória moral encarnada, construída ao longo de uma vida de relações, erros e responsabilidades. Ao eliminar a emoção, a IA não corrige a decisão humana: elimina o próprio órgão da decisão moral. O resultado não é uma racionalidade superior, mas uma forma de niilismo funcional, em que tudo se reduz a otimizações estatísticas.

O verdadeiro risco emerge quando esta limitação é apresentada como virtude. A utilização da IA em decisões difíceis serve frequentemente para criar distância psicológica, diluir responsabilidades e permitir fórmulas aparentemente neutras como “o modelo indica que…”. A decisão deixa de ser um acto humano, assumido e trágico, para se tornar um resultado técnico inevitável.

Isto não é progresso ético. É anestesia moral institucionalizada. Delegar decisões humanas fundamentais a sistemas incapazes de sentir o seu peso não nos torna mais racionais — apenas nos torna menos responsáveis.

Sem comentários: