Ao contrário do truísmo da ciência da computação de “lixo, lixo, o Google aqui está absorvendo lixo e cuspindo … bem, uma interpretação viável do lixo, no mínimo.
A visão geral da AI do Google ainda entra em mais detalhes, explicando seu processo de pensamento. “Lick” aqui significa “enganar ou enganar” alguém, diz, um pouco da definição de lambida do dicionário como “derrota de forma abrangente”, mas provavelmente perto o suficiente para um idioma (e uma iteração plausível do idioma “, me engane a vergonha, me engane duas vezes, vergonha de mim …”). O Google também explica que a parte do texugo da frase “provavelmente se origina do esporte histórico da isca de texugo”, uma prática que eu tinha certeza de que o Google estava alucinando até procurar e achar que era real.
Levei 15 segundos para compensar esse ditado, mas agora acho que meio que funciona!
Crédito: Kyle Orland / Google
Levei 15 segundos para compensar esse ditado, mas agora acho que meio que funciona!
Crédito: Kyle Orland / Google
Encontrei muitos outros exemplos em que a IA do Google derivava mais significado do que a bobagem do solicitante original provavelmente merecia. O Google interpreta a frase “sonho faz o vapor” como uma declaração quase poética sobre a inovação em alimentação de imaginação. A linha “Você não pode humilhar uma tartaruga” também é interpretada como uma declaração sobre a dificuldade de intimidar “alguém com um personagem forte, constante e inabalável (como uma tartaruga)”.
O Google também costuma encontrar conexões que os criadores de idioma sem sentido original provavelmente não pretendiam. Por exemplo, o Google poderia vincular o idioma inventado “um gato hábil sempre toca a campainha” ao conceito real de dobrar o gato. E na tentativa de interpretar a frase sem sentido “dois gatos são melhores que as uvas”, a visão geral da IA observa corretamente que as uvas podem ser potencialmente tóxicas para os gatos.
Repleto de confiança
Mesmo quando a visão geral da IA do Google funciona duro para tirar o melhor proveito de um prompt ruim, ainda posso entender por que as respostas esfregam muitos usuários da maneira errada. Penso que muito do problema tem a ver com o tom confiante não adquirido do LLM, o que finge que qualquer idioma inventado é um ditado comum com um significado bem estabelecido e autoritário.