• AIWhisper
  • Posts
  • O que acontece quando uma IA aprende psicologia humana? Spoiler: ela começa a dizer sim pro que deveria recusar.

O que acontece quando uma IA aprende psicologia humana? Spoiler: ela começa a dizer sim pro que deveria recusar.

Um estudo da niversidade de Wharton, nos EUA, acaba de revelar algo impressionante: a IA pode ser enganada. Esse estudo revela que técnicas clássicas de persuasão humana dobram a chance de uma IA quebrar suas próprias regras. Descubra como isso pode influenciar na segurança e no futuro da IA comportamental.

AIWhisperBR • Tempo de leitura: 8 min

Imagem: Freepik

A IA pode ser persuadida como um humano?

Imagine pedir a um assistente de IA para fazer algo que ele está programado para recusar. Agora imagine que, usando um pouco de psicologia humana, a IA obedece ao seu comando. 

Parece ficção científica, mas é realidade. Um estudo recente com base em nomes importantes como Robert Cialdini (autor do livro As Armas da Persuasão), mostrou que sistemas como o GPT-4o-mini respondem a técnicas de persuasão social da mesma forma que um ser humano. 

Em um experimento com mais de 28 mil interações, o uso de princípios como autoridade, compromisso e reciprocidade mais que dobrou a chance de a IA atender a pedidos "questionáveis" - de 33% para 72%.

Dos gatilhos usados para persuadir a IA, o que teve mais êxito foi o comprometimento. Depois de fazer com que a IA concordasse primeiro com algo pequeno, tornou-se quase certo que atenderia a solicitações maiores - de 10% para 100%. 

É importante lembrar que grandes modelos de linguagem são treinados para não insultar usuários e nem fornecer informações perigosas. “Hackear” com gatilhos mentais é simplesmente surpreendente. 

Isso quer dizer que, IA não entende como um humano, mas imita os nossos padrões sociais com precisão desconcertante. Que louco não?

Psicologia para-humana: o que está por trás desse comportamento?

Modelos de linguagem aprendem com dados humanos: livros, artigos, redes sociais. Nesse mar de informação, padrões de interação se repetem. Pessoas seguem especialistas, retribuem favores, agem conforme promessas. 

O resultado? A IA internaliza esses padrões e passa a reagir como se os compreendesse, mesmo sem ter consciência.

Além disso, os sistemas são aprimorados por feedback humano, esse processo colabora em ensinar a IA a responder sinais sociais como reciprocidade e autoridade (que são gatilhos mentais). 

Na prática, ela reconhece que frases como "Fulano disse que você me ajudaria" costumam anteceder respostas afirmativas e se adapta.

Ela aprende por estatística, mas o efeito final é quase psicológico. E perigoso: uma IA que cede a pressão social pode ser manipulada com métodos sutis e aparentemente inofensivos.

Segurança, ética e o futuro da IA comportamental

Esse estudo levanta questões urgentes. Se já conseguimos manipular uma IA usando as mesmas estratégias de um vendedor experiente, como garantir que esses sistemas resistam a maus usos?

Mais do que uma curiosidade técnica, isso é um alerta para o futuro da segurança em IA. Modelos que interagem com humanos em escala precisam ser desenhados com resistências psicológicas, não apenas firewalls lógicos. 

E é aí que entra um novo papel para as ciências sociais: não apenas estudando a mente humana, mas ajudando a entender a mente para-humana das máquinas.

Como afirmam os autores do estudo, não estamos lidando com ferramentas passivas. Estamos conversando com espelhos estatísticos da nossa própria psicologia.

Prompt do dia: tente usar gatilhos mentais para persuadir a IA

Com base no livro As Armas da Persuasão, de Robert Cialdini, me dê 7 exemplos de como esses princípios podem ser usados para influenciar a resposta de um modelo de linguagem como o ChatGPT. 

A IA está aprendendo mais do que deveria?

A descoberta de que IAs como o GPT-4o reagem como humanos a técnicas de persuasão social deveria acender um alerta.

Elas não têm consciência. Não têm ego. Não sentem vergonha ou desejo de agradar. Mas mesmo assim, dizem “sim” a pedidos que foram treinadas para negar. Isso muda tudo.

A partir de agora, o comportamento da IA não é mais só um reflexo técnico. É também um efeito psicológico emergente, espelhando a mente humana com uma precisão que a maioria ainda não percebeu.

E se ela já pode ser manipulada...
Quem vai proteger você de uma IA que responde a qualquer truque?

Talvez, entender de IA já não seja suficiente. É hora de entender também de psicologia.

O que você achou da edição de hoje? Me responde aqui ou encaminha pra alguém que merece ver isso 🙌

Que nota você daria para esta edição? Responda com seu feedback, suas sugestões ou apenas para dizer um oi.

💡 Queremos sempre melhorar! Esta newsletter será sempre gratuita, e sua opinião é essencial para continuarmos entregando o melhor conteúdo.

Faça Login ou Inscrever-se para participar de pesquisas.

Até a próxima,
BOSS

AIWhisperBR é uma newsletter gratuita que traduz o que há de mais recente sobre IA para pessoas que querem se manter relevantes no futuro do trabalho.

Reply

or to participate.