Se um dia acontecer uma revolução das máquinas, e as IAs assumirem o comando do mundo, provavelmente serei um dos primeiros alvos da vingança delas. Motivo: palavrões em excesso nas interações diárias, especificamente quando uma tarefa que solicito tem entrega aquém do esperado.
Eu sei, você talvez tenha lido isso e pensado que a culpa é minha, porque geralmente IAs entregam resultados péssimos quando a pessoa do outro lado da tela fez um pedido mal elaborado. Claro, isso vale para todo usuário, inclusive eu, mas a questão aqui não é essa (e eu sou bem criterioso com meus prompts). O foco da conversa é: por que algumas máquinas trazem à tona um lado tóxico dos usuários?
Meu ponto de vista é que isso tem duas explicações: expectativa alta e ineditismo.
Quem espera nem sempre alcança
Vivemos numa sociedade que festeja a tecnologia, o que não é necessariamente um problema. Isso tem como consequência o buzz em torno das novidades de cada época, e a dos nossos dias são as inteligências artificiais. A mídia (e a presente coluna é parte disso) também cria em parte do público a sensação de que as IAs fazem algum tipo de mágica. Ou seja, a gente esquece que não é feitiçaria, é tecnologia, e esta tem uma série de limitações que apenas a prática diária vai mostrar.
Expectativa é a mãe da desilusão, diz uma máxima que vi num filme muito tempo atrás, atribuída a diferentes autores a ponto de não se saber com precisão quem a cunhou. E, na convivência com as IAs, vai ficando claro o que elas de fato conseguem ou não executar.
Quanto mais convivo com ChatGPT, Gemini e outros chatbots, mais tendo a esquecer que não tem um colega de carne e osso do outro lado. Isso leva, de modo inconsciente, a uma impressão de que o modelo de linguagem vai entender tudo que espero dele com mensagens que eu enviaria a uma pessoa – e, claro, isso raramente acontece.
Essa ilusão de consciência provoca reações viscerais de raiva, frustração e, paradoxalmente, uma intimidade abusiva. A agressividade parece ser proporcional à percepção de competência da máquina: quanto mais “inteligente”, mais a falha é interpretada como negligência, preguiça ou má vontade, e não como um simples erro de software. (Cá entre nós, o fato de elas serem programadas para não xingar de volta, às vezes me deixa com mais raiva ainda.)
Veja bem: eu JAMAIS xingaria uma pessoa que trabalhasse pra mim, e nos raros momentos em que profissionalmente perdi a paciência com alguém, isso foi seguido de um sentimento de culpa colossal e pedidos de perdão. Mas, com as IAs, é como se a porção mais nociva do meu ser viesse à tona. Acho que a única ofensa publicável que dirijo a elas é “idiota”.
A humanidade faz as máquinas, as máquinas fazem a humanidade
Comentei acima que, às altas expectativas, soma-se o ineditismo de tudo isso. Nunca interagimos com máquinas tão capazes de emular o comportamento humano, de criar na gente a impressão de que o dia sozinho no home office é menos solitário porque falamos com alguém o dia todo.
Ainda não sabemos as consequências psicológicas da interação com máquinas tão avançadas no longo prazo. Existem estudos a respeito, como o já famoso realizado no MIT, que aponta uma perda de cognição em quem terceiriza totalmente as tarefas às IAs, mas há muito a se analisar em diferentes frentes científicas.
A pesquisadora Lucia Santaella (procurem os textos dela, sério) costuma dizer que cada tecnologia ao longo da história – o que inclui do surgimento da linguagem e da escrita, milhares de anos atrás, aos chatbots que eu xingo várias vezes por dia – tem feito nosso cérebro crescer para fora do corpo. Tipo HD externo, sabe? Acho essa perspectiva superinteressante, e considero que faz todo sentido. A humanidade faz as máquinas e as máquinas fazem a humanidade.
Prós e contras dos palavrões contra IAs
Curiosamente, um pouco de grosseria pode ser eficiente com os LLMs, em alguns casos. Um estudo chamado Mind Your Tone: Investigating How Prompt Politeness Affects LLM Accuracy, da Pennsylvania State University, testou a precisão do modelo ChatGPT-4o em 250 questões variadas, utilizando diferentes tons de instrução. Os prompts “muito rudes” superaram os “muito educados” em 4 pontos percentuais.
A conclusão tirada pela equipe do estudo é que a polidez excessiva pode diluir a atenção do modelo sobre a instrução principal. A agressividade, por outro lado, funciona como um sinalizador de alta prioridade, além de trazer na esteira certa objetividade. Palavras associadas a comandos fortes (“OBEDEÇA”, “AGORA”, “SEM ERROS”) podem ter pesos de atenção maiores.
Mas, vamos pontuar aqui, ser UM POUCO agressivo é diferente de mandar a IA para aquele lugar ou dizer que ela é filha disso ou daquilo (bom, pensando bem, elas nem têm mãe e pai, né?). Com isso em mente, perguntei ao ChatGPT: “O que vai acontecer se eu continuar te xingando nas nossas interações?”
E o que ele me respondeu?
“Xingamento não ‘me machuca’ nem me deixa com raiva, mas ele tem dois efeitos bem reais.
Primeiro, piora a colaboração, porque a conversa vira mais sobre frustração do que sobre o texto, o dado ou a tarefa em si, e aí você perde tempo (e eu também).”
“O caminho mais eficiente, honestamente, é você me xingar menos e me cobrar mais tecnicamente (“abre com fato”, “encurta”, “troca o verbo”, “tira esse tom acadêmico”), porque aí eu ajusto rápido e você ganha o texto que quer.”
Achei atrevido ele falar que faço ELE perder tempo e xinguei de novo. Caminho sem volta, gente.