Na área da inteligência artificial (IA) e da complexidade mental humana, existe um paradoxo cognitivo, dado que a máquina calcula, mas só o cérebro é capaz de compreender o que é o próprio cérebro
Conseguiria uma máquina sentir dúvida ou antecipar um desejo oculto? A inteligência artificial já recomenda rotas em furacões e sugere diagnósticos psicológicos. Tais feitos levam a questão central: onde se localiza o limite entre o algoritmo e a mente humana? A resposta não reside na velocidade do cálculo, mas na natureza da compreensão.
O aparecimento de grandes modelos de linguagem tem um efeito imediato: a tendência para delegar decisões complexas a chatbots. Como consequência, investigadores da Nature Reviews Psychology alertam para o impacto na autodeterminação e motivação humanas. Outro desdobramento possível é o reforço de vieses e estereótipos presentes nos dados de treino, devido à falta de correspondência entre sistemas e códigos éticos ou morais humanos.
Antes da popularização dos assistentes virtuais, os
psicólogos já estudavam a forma como as pessoas tomam decisões, distinguindo
dois modos: rápido e automático (sistema 1) ou lento e deliberativo (sistema 2).
Agora, no mesmo espaço de diálogo entre humanos e máquinas, os modelos de
linguagem de grande dimensão passam a imitar ambos os estilos. Durante um
desastre natural, a IA processa dados meteorológicos em segundos. Após este processo, a
equipe humana avalia riscos sociais, dilemas éticos, e as duas inteligências
convergem para uma abordagem integral.
Enquanto o cérebro humano consegue navegar com flexibilidade
por cenários novos e decifrar sentimentos, a IA destaca-se na repetição
exaustiva de tarefas e na análise de grandes quantidades de dados. Ao passo que um terapeuta capta nuances não verbais e
histórias de vida, um chatbot entrega
respostas baseadas em probabilidades
estatísticas. Tal como a mente humana avalia os riscos morais, o algoritmo, ao
contrário, não tem um compromisso intrínseco com a justiça ou a equidade; a
mente humana avalia os riscos morais; o algoritmo, pelo contrário, não tem um
compromisso intrínseco com a justiça ou a retidão.
Os artigos de dezembro de 2025 na Nature Reviews Psychology demonstram que a colaboração entre humanos e IA gera melhores resultados do que cada um separadamente. Contudo, substituir totalmente médicos, psicólogos ou cientistas por ferramentas generativas acarreta riscos consideráveis. — Equipe editorial da Nature Reviews Psychology, periódico de revisão por pares focado em avanços da psicologia.
As IA são imprescindíveis na colaboração entre humanos, pois
processam grandes quantidades de conhecimento com rapidez, identificam padrões
em dados invisíveis e auxiliam na triagem de sintomas de perturbações mentais.
Um furacão se aproxima
da costa. Algoritmos de IA analisam boletins meteorológicos, níveis de rio e
fluxo de tráfego em segundos. Por fim, o sistema
sugere rotas de fuga e locais de abrigo. Estas e outras recomendações são
recebidas por uma equipe de coordenadores humanos. Eles ponderam fatores
ausentes nos dados: a escola onde funciona um abrigo pertencente a uma
comunidade indígena; outra rota de fuga passa por uma área de risco social. Juntas,
as duas análises podem salvar vidas.
O limite entre IA e mente humana não é uma linha, mas uma zona de trocas. Na estatística, a máquina brilha; na incerteza, o cérebro. Não é necessário limitar um para favorecer o outro. De forma intrigante, ao estudar o que a IA não consegue alcançar de forma deliberada, intencional e ética, a psicologia aproxima-se da resposta a uma questão muito antiga: o que significa ser um ser pensante? (DS)
© 2023-2025 Notícias & Novidades — Todos os direitos reservados
