- AIWhisper
- Posts
- O que acontece quando uma IA aprende psicologia humana? Spoiler: ela começa a dizer sim pro que deveria recusar.
O que acontece quando uma IA aprende psicologia humana? Spoiler: ela começa a dizer sim pro que deveria recusar.
Um estudo da niversidade de Wharton, nos EUA, acaba de revelar algo impressionante: a IA pode ser enganada. Esse estudo revela que técnicas clássicas de persuasão humana dobram a chance de uma IA quebrar suas próprias regras. Descubra como isso pode influenciar na segurança e no futuro da IA comportamental.
AIWhisperBR • Tempo de leitura: 8 min

Imagem: Freepik
A IA pode ser persuadida como um humano?
Imagine pedir a um assistente de IA para fazer algo que ele está programado para recusar. Agora imagine que, usando um pouco de psicologia humana, a IA obedece ao seu comando.
Parece ficção científica, mas é realidade. Um estudo recente com base em nomes importantes como Robert Cialdini (autor do livro As Armas da Persuasão), mostrou que sistemas como o GPT-4o-mini respondem a técnicas de persuasão social da mesma forma que um ser humano.
Em um experimento com mais de 28 mil interações, o uso de princípios como autoridade, compromisso e reciprocidade mais que dobrou a chance de a IA atender a pedidos "questionáveis" - de 33% para 72%.
Dos gatilhos usados para persuadir a IA, o que teve mais êxito foi o comprometimento. Depois de fazer com que a IA concordasse primeiro com algo pequeno, tornou-se quase certo que atenderia a solicitações maiores - de 10% para 100%.
É importante lembrar que grandes modelos de linguagem são treinados para não insultar usuários e nem fornecer informações perigosas. “Hackear” com gatilhos mentais é simplesmente surpreendente.
Isso quer dizer que, IA não entende como um humano, mas imita os nossos padrões sociais com precisão desconcertante. Que louco não?
Psicologia para-humana: o que está por trás desse comportamento?
Modelos de linguagem aprendem com dados humanos: livros, artigos, redes sociais. Nesse mar de informação, padrões de interação se repetem. Pessoas seguem especialistas, retribuem favores, agem conforme promessas.
O resultado? A IA internaliza esses padrões e passa a reagir como se os compreendesse, mesmo sem ter consciência.
Além disso, os sistemas são aprimorados por feedback humano, esse processo colabora em ensinar a IA a responder sinais sociais como reciprocidade e autoridade (que são gatilhos mentais).
Na prática, ela reconhece que frases como "Fulano disse que você me ajudaria" costumam anteceder respostas afirmativas e se adapta.
Ela aprende por estatística, mas o efeito final é quase psicológico. E perigoso: uma IA que cede a pressão social pode ser manipulada com métodos sutis e aparentemente inofensivos.
Segurança, ética e o futuro da IA comportamental
Esse estudo levanta questões urgentes. Se já conseguimos manipular uma IA usando as mesmas estratégias de um vendedor experiente, como garantir que esses sistemas resistam a maus usos?
Mais do que uma curiosidade técnica, isso é um alerta para o futuro da segurança em IA. Modelos que interagem com humanos em escala precisam ser desenhados com resistências psicológicas, não apenas firewalls lógicos.
E é aí que entra um novo papel para as ciências sociais: não apenas estudando a mente humana, mas ajudando a entender a mente para-humana das máquinas.
Como afirmam os autores do estudo, não estamos lidando com ferramentas passivas. Estamos conversando com espelhos estatísticos da nossa própria psicologia.
Prompt do dia: tente usar gatilhos mentais para persuadir a IA
Com base no livro As Armas da Persuasão, de Robert Cialdini, me dê 7 exemplos de como esses princípios podem ser usados para influenciar a resposta de um modelo de linguagem como o ChatGPT. A IA está aprendendo mais do que deveria?
A descoberta de que IAs como o GPT-4o reagem como humanos a técnicas de persuasão social deveria acender um alerta.
Elas não têm consciência. Não têm ego. Não sentem vergonha ou desejo de agradar. Mas mesmo assim, dizem “sim” a pedidos que foram treinadas para negar. Isso muda tudo.
A partir de agora, o comportamento da IA não é mais só um reflexo técnico. É também um efeito psicológico emergente, espelhando a mente humana com uma precisão que a maioria ainda não percebeu.
E se ela já pode ser manipulada...
Quem vai proteger você de uma IA que responde a qualquer truque?
Talvez, entender de IA já não seja suficiente. É hora de entender também de psicologia.
O que você achou da edição de hoje? Me responde aqui ou encaminha pra alguém que merece ver isso 🙌
Que nota você daria para esta edição? Responda com seu feedback, suas sugestões ou apenas para dizer um oi.💡 Queremos sempre melhorar! Esta newsletter será sempre gratuita, e sua opinião é essencial para continuarmos entregando o melhor conteúdo. |
Faça Login ou Inscrever-se para participar de pesquisas. |
Até a próxima,
BOSS
AIWhisperBR é uma newsletter gratuita que traduz o que há de mais recente sobre IA para pessoas que querem se manter relevantes no futuro do trabalho.
Reply