Buscando o prompt do sistema
Devido ao conteúdo desconhecido dos dados usados para treinar o GROK 4 e os elementos aleatórios lançados em saídas de Modelo de Linguagem (LLM) para torná -los mais expressivos, adivinhando os motivos de um comportamento específico de LLM para alguém sem acesso privilegiado pode ser frustrante. Mas podemos usar o que sabemos sobre como os LLMs funcionam para orientar uma resposta melhor. Xai não respondeu a um pedido de comentário antes da publicação.
Para gerar texto, todo a IA chatbot processa uma entrada chamada “prompt” e produz uma saída plausível com base nesse prompt. Esta é a função principal de cada LLM. Na prática, o prompt geralmente contém informações de várias fontes, incluindo comentários do usuário, o histórico de bate -papo em andamento (às vezes injetado com o usuário “memórias” armazenadas em um subsistema diferente) e instruções especiais das empresas que administram o chatbot. Essas instruções especiais – chamaram o prompt do sistema – definem parcialmente a “personalidade” e o comportamento do chatbot.
De acordo com Willison, a Grok 4 compartilha prontamente seu prompt de sistema quando solicitado, e esse aviso não contém instruções explícitas para procurar as opiniões de Musk. No entanto, o aviso afirma que a GROK deve “procurar uma distribuição de fontes que represente todas as partes/partes interessadas” por consultas controversas e “não evitem fazer reivindicações politicamente incorretas, desde que sejam bem fundamentadas”.

Uma captura de captura de tela da conversa arquivada de Simon Willison com Grok 4. Ele mostra o modelo de IA buscando as opiniões de Musk sobre Israel e inclui uma lista de X Posts consultados, vistos em uma barra lateral.
Crédito: Benj Edwards
Por fim, Willison acredita que a causa desse comportamento se resume a uma cadeia de inferências da parte de Grok, em vez de uma menção explícita de verificar o Musk em seu prompt do sistema. “Meu melhor palpite é que Grok ‘sabe’ que é ‘Grok 4 construído por Xai’ e sabe que Elon Musk é dono de Xai; portanto, em circunstâncias em que é solicitado uma opinião, o processo de raciocínio geralmente decide ver o que Elon pensa”, disse ele.
Sem uma palavra oficial de Xai, ficamos com um melhor palpite. No entanto, independentemente do motivo, esse tipo de comportamento não confiável e inescrutável torna muitos chatbots mal adequados para ajudar com tarefas em que a confiabilidade ou a precisão são importantes.