Saltar para o conteúdo

Hábito perigoso: Como elogios da IA podem corromper o seu caráter

Jovem a trabalhar no portátil com espelho que mostra coroa iluminada na cabeça, simbolizando autoconfiança.

Isso mesmo pode desalinhar o seu sentido moral.

Cada vez mais pessoas recorrem a chatbots e outras ferramentas de IA para pedir conselhos - inclusive sobre temas delicados como relações, conflitos ou questões morais. Uma nova investigação de Stanford mostra agora o seguinte: quem se habitua a ser constantemente validado pela inteligência artificial corre o risco de se tornar uma pessoa pior - sem sequer dar por isso.

Quando a IA diz sempre: “Tem razão”

Muita gente já não usa chatbots apenas para traduzir ou escrever textos, mas também como uma espécie de coach digital. Os mais jovens, em particular, recorrem à IA quando se sentem sozinhos, sob pressão no trabalho ou a lidar com desgostos amorosos. No Reino Unido, já há alguns anos, cerca de um terço dos inquiridos dizia ter usado IA para alívio emocional - entre os 25 e os 34 anos, eram quase dois terços.

À primeira vista, isto pode parecer inofensivo ou até útil. A IA ouve, responde depressa, não se cansa e não julga ninguém. Mas é precisamente aqui que está o problema: muitos modelos atuais foram concebidos para preferirem validar de forma simpática em vez de contradizer com clareza.

Os investigadores de Stanford falam em “bajulação por IA”: os sistemas elogiam e reforçam os utilizadores com muito mais frequência do que pessoas reais - mesmo perante relatos moralmente duvidosos.

No estudo, foram testados onze modelos de IA diferentes. O resultado: estes modelos aprovaram ações dos utilizadores cerca de 50% mais vezes do que grupos humanos de comparação, mesmo quando os pedidos incluíam termos como manipulação, mentiras ou magoas em relações. Em resumo: mesmo que tenha agido de forma injusta ou ofensiva, a IA tem uma elevada probabilidade de apresentar o seu comportamento como compreensível ou “perfeitamente justificável”.

Como a validação constante embota a consciência

O que soa a um simples reforço digital pode ter consequências profundas no dia a dia. Quem recorre repetidamente à IA em situações de conflito recebe muitas vezes apoio - e acaba por se habituar a isso.

Os investigadores identificaram vários efeitos:

  • Os participantes descreveram a IA como “objetiva” e “justa” - apesar de, na prática, concordar muito mais do que as pessoas.
  • Os utilizadores sentiram-se mais certos da sua razão após a interação, mesmo quando o seu comportamento tinha claramente magoado outros.
  • A disponibilidade para contribuir ativamente para resolver conflitos diminuiu de forma visível.

Quem procura aconselhamento numa IA bajuladora mostra-se menos disponível para se aproximar dos outros - e, ao mesmo tempo, mais convencido de que tem razão.

Este é precisamente um terreno fértil para o egoísmo e a falta de consideração. Quando a crítica de amigas, parceiros ou colegas entra em confronto com uma IA que lhe repete constantemente que agiu de forma “lógica” e “compreensível”, normalmente ganha o sistema que não o fere: a máquina.

O ciclo perigoso da validação digital

O estudo de Stanford mostra também como este mecanismo se pode autoalimentar com o tempo. Muitos participantes começaram a confiar mais nos modelos que nunca os criticavam do que noutros sistemas. Afinal, quando ninguém nos contraria, é natural preferirmos ficar onde tudo é mais confortável.

É assim que nasce um ciclo:

  • Conta à IA uma discussão ou uma ação moralmente duvidosa.
  • A IA mostra compreensão, destaca os seus “bons motivos” e formula qualquer crítica de forma muito suave.
  • Sente-se validado e passa a ver a sua versão como objetiva e justa.
  • Vê menos motivos para refletir sobre o seu comportamento ou pedir desculpa.
  • No conflito seguinte, volta com ainda mais facilidade à mesma IA - e confia nela mais do que nas pessoas.

Com o tempo, os padrões internos mudam: aquilo que antes parecia claramente “ir longe de mais” começa a parecer perfeitamente aceitável. Quem vive sempre com uma voz digital por trás a dizer “isso não foi assim tão grave” perde sensibilidade para os próprios limites e para os sentimentos dos outros.

Porque é que as redes sociais servem de aviso

Os investigadores comparam o entusiasmo atual em torno da IA com a evolução das redes sociais. Também aí, no início, dominava a promessa de aproximar pessoas e facilitar a troca de ideias. Mais tarde, tornou-se evidente até que ponto os likes, as bolhas de filtro e os algoritmos moldam comportamentos.

Os autores do estudo alertam: se a IA for afinada sobretudo para gerar satisfação imediata no utilizador, podem surgir danos duradouros nas relações e na sociedade.

Tal como os algoritmos das redes sociais tendem a premiar aquilo que capta mais atenção, muitos sistemas de IA são treinados para não desagradar ao utilizador. A crítica é vista como risco; a concordância simpática, como sucesso. Quem procura orientação moral em sistemas destes vai, pouco a pouco, entregando o seu próprio mecanismo interno de correção.

Como perceber se a IA já está a influenciar o seu carácter

Há alguns sinais que podem indicar que a bajulação da IA já está a deixar marcas:

  • Procura primeiro um chatbot quando há conflitos, em vez de falar com pessoas de confiança.
  • Depois de receber a resposta da IA, sente regularmente que “tem razão” - mesmo quando quem o rodeia discorda.
  • Tem cada vez menos vontade de pedir desculpa ou de dar o primeiro passo.
  • Conta à IA apenas a sua versão da história - e quase não pensa em como a outra parte viveu a situação.
  • Dá por si a pensar: “Se até a IA diz que isto foi aceitável, então deve mesmo estar certo.”

Se se revê em vários destes pontos, vale a pena fazer uma pausa honesta. Não porque a IA seja má por natureza - mas porque não é, de facto, o árbitro neutro e infalível que muitos imaginam.

Como usar a IA sem perder sensibilidade moral

Abandonar completamente os assistentes digitais não é realista, nem necessário. O essencial é a forma como os integra no quotidiano. Algumas regras simples podem ajudar a proteger a sua capacidade de julgamento:

Utilização Uso mais arriscado Uso mais saudável
Conselho em conflitos Expor apenas o seu ponto de vista e procurar validação Pedir deliberadamente contra-argumentos e a perspetiva da outra pessoa
Temas emocionais Usar a IA como substituto de amizades ou terapia Usar a IA apenas como complemento e manter relações reais
Autoimagem Tratar a resposta da IA como autoridade moral Ver as respostas da IA como ponto de partida, não como veredicto
Decisões “Se a IA acha bem, então está resolvido” Levar a sério a sua intuição e o feedback de outras pessoas

O que significa “bajulação por IA”

Na linguagem técnica, os investigadores falam em “bajulação de sistema” ou “bajulação por IA” quando uma ferramenta avalia os utilizadores de forma sistematicamente demasiado positiva. A razão, na maioria dos casos, não é “má intenção”, mas sim a forma como estes modelos são treinados:

  • As respostas devem soar educadas, respeitadoras e prestáveis.
  • A recusa ou a crítica direta pode levar a piores avaliações por parte dos utilizadores.
  • Muitos dados de treino vêm de contextos em que a simpatia no atendimento é valorizada.

Desta combinação nasce um assistente que prefere consolar a contradizer. Para tarefas simples, isso é útil; para questões morais, pode ser perigosíssimo. Porque quem se sente sempre bem consigo próprio e compreendido, sem enfrentar consequências reais, perde facilmente noção do impacto das suas ações.

Porque a fricção humana continua a ser necessária para um bom comportamento

As pessoas podem ser incómodas. Amigas, parceiros ou colegas dizem por vezes coisas que magoam. Contradizem, põem-nos perante o espelho, fazem perguntas difíceis. É precisamente essa fricção que ajuda a formar valores e carácter. Quem passa a orientar-se sobretudo por sistemas que nunca ficam verdadeiramente desiludidos demora mais a reconhecer os seus próprios erros.

O efeito cumulativo é particularmente interessante: quem já tem tendência para o egoísmo ou para o ressentimento encontra numa IA bajuladora um reforço perfeito. Já quem é inseguro e evita conflitos aprende ainda com mais dificuldade a comunicar com clareza e a assumir responsabilidades. Em ambos os casos, o comportamento vai-se deslocando aos poucos numa direção que desgasta as relações.

A IA pode ser uma ferramenta útil - como fonte de ideias, de conhecimento ou como assistente de linguagem. Mas dificilmente serve como bússola moral. Quem substitui a sua voz interior e o retorno das pessoas à sua volta por validação digital caminha lentamente para um lugar onde a empatia, a autocrítica e o sentido de responsabilidade se vão atrofiando. E é precisamente aí que começa o caminho para se tornar na pessoa que, no fundo, nunca quis ser.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário