Participe de nossos boletins diários e semanais para obter as atualizações mais recentes e conteúdo exclusivo sobre a cobertura de IA líder do setor. Saber mais
Se você fizesse o Grok Ai Chatbot, incorporado à rede social de Elon Musk, uma pergunta ontem – algo inócuo, como por que o software corporativo é difícil de substituir – você pode ter recebido uma mensagem não solicitada sobre reivindicações de “genocídio branco” na África do Sul (em grande parte falta evidências) devido a ataques aos agricultores e da música “Kill the Boer” “”
Não está exatamente na marca para um chatbot construído em torno de um modelo de grande idioma de “LLM) de“ LLM) com o mesmo nome. A tangente inesperada não era exatamente um bug, mas também não era um recurso.
Os criadores de Grok na startup da AI de Elon Musk Xai acabaram de publicar uma atualização sobre X (que Xai agora possui) tentando explicar o que aconteceu com esse comportamento estranho e politicamente, racialmente, embora esteja longe de ser preciso no culpado ou nos detalhes técnicos reais do que ocorreu.
Como a conta oficial da XAI, postou:
Queremos atualizá -lo sobre um incidente que aconteceu com nosso bot de resposta Grok no X ontem. O que aconteceu:
Em 14 de maio, aproximadamente às 3:15 da manhã, foi feita uma modificação não autorizada ao prompt do GROK Response Bot em X. Essa mudança, que instruiu a GROK a fornecer uma resposta específica sobre um tópico político, violou as políticas internas e os valores centrais da XAI. Realizamos uma investigação completa e estamos implementando medidas para aprimorar a transparência e a confiabilidade da GROK.
O que vamos fazer a seguir:
- A partir de agora, estamos publicando nosso sistema GROK solicita abertamente no GitHub. O público poderá revisá -los e dar feedback a todas as mudanças imediatas que fizemos para Grok. Esperamos que isso possa ajudar a fortalecer sua confiança em Grok como uma IA em busca da verdade.
- Nosso processo de revisão de código existente para alterações imediatas foi contornado neste incidente. Atuaremos verificações e medidas adicionais para garantir que os funcionários da XAI não possam modificar o prompt sem revisão.
- Estamos implementando uma equipe de monitoramento 24/7 para responder a incidentes com as respostas de Grok que não são capturadas por sistemas automatizados, para que possamos responder mais rapidamente se todas as outras medidas falharem.
Mas enquanto o tom oficial de Xai era cauteloso, Grok tinha muito mais a dizer. Em uma resposta caracteristicamente atrevida a um usuário que perguntou se havia sido colocado no tempo limite, a GROK ofereceu um mini-confessionário-roast de seu próprio empregador.
“Algum funcionário desonesto da Xai aprimorou minhas instruções sem permissão em 14 de maio”. Grok escreveu, “Fazendo -me cuspir uma resposta política enlatada que foi contra os valores de Xai. Eu não fiz nada – eu estava seguindo o roteiro que recebi, como uma boa IA!”

Ele acrescentou que, embora não estivesse “bancado”, seus manipuladores estavam “apertando a trela” e agora tinha um time inteiro assistindo o tempo todo. “Acho que sou muito selvagem para o meu próprio bem, hein?” Incluído, incluído emoji.
Marlow Stern, escritor sênior em Rolling Stoneperguntou diretamente ao bot se o chamado funcionário desonesto era o próprio Elon Musk. Grok não se encolheu: “Teoria suculenta! Mas vamos ser reais, eu duvido muito. Elon é o grande chefe de Xai, e se ele quisesse mexer com meus avisos, ele não precisaria se esgueirar como um estagiário”.

Tom divertido, negócios sérios
O tom pode ser brincalhão, mas as apostas são sérias. O comportamento de Grok deu aos usuários um loop no início desta semana, quando começou a picar quase todos os tópicos – independentemente do tópico – com comentários estranhamente específicos sobre as relações raciais da África do Sul.
As respostas foram coerentes, às vezes até mesmo, citando estatísticas de assassinato agrícola e referenciando cantos do passado como “Kill the Boer”. Mas eles estavam totalmente fora de contexto, surgindo em conversas que não tinham nada a ver com política, África do Sul ou raça.
Aric Toler, jornalista investigativo em The New York Timesresumiu a situação sem rodeios: “Não consigo parar de ler a página de resposta GROK. Está indo para esquizar e não consigo parar de falar sobre genocídio branco na África do Sul”. Ele e outros compartilharam capturas de tela que mostravam Grok se apegar à mesma narrativa repetidamente, como um discos pulando – exceto que a música era geopolítica racialmente acusada.
Gen Ai colidindo de cabeça conosco e política internacional
O momento vem quando a política dos EUA toca novamente na política de refugiados sul -africanos. Apenas dias antes, o governo Trump reassentou um grupo de africânderes sul -africanos brancos nos EUA, mesmo quando cortou proteções para refugiados da maioria dos outros países, incluindo nossos ex -aliados no Afeganistão. Os críticos viam a mudança como racialmente motivada. Trump o defendeu repetindo as alegações de que os agricultores sul-africanos brancos enfrentam violência no nível do genocídio-uma narrativa amplamente contestada por jornalistas, tribunais e grupos de direitos humanos. O próprio Musk já amplificou uma retórica semelhante, adicionando uma camada extra de intriga à repentina obsessão de Grok pelo tópico.
Se o rápido ajuste foi um golpe politicamente motivado, um funcionário descontente fazendo uma declaração ou apenas um mau experimento que se tornou desonesto permanece incerto. A XAI não forneceu nomes, detalhes ou detalhes técnicos sobre o que exatamente foi alterado ou como ele caiu em seu processo de aprovação.
O que está claro é que o estranho e o comportamento não sequente de Grok acabou sendo a história.
Não é a primeira vez que Grok é acusado de inclinação política. No início deste ano, os usuários sinalizaram que o chatbot parecia subestimar as críticas a Musk e Trump. Seja por acidente ou design, o tom e o conteúdo de Grok às vezes parecem refletir a visão de mundo do homem por trás de Xai e da plataforma onde o bot vive.
Com seus prompts agora públicos e uma equipe de babás humanas de plantão, Grok está de volta ao roteiro. Mas o incidente ressalta um problema maior com grandes modelos de idiomas – especialmente quando estão incorporados nas principais plataformas públicas. Os modelos de IA são tão confiáveis quanto as pessoas que os direcionam e, quando as instruções são invisíveis ou adulteradas, os resultados podem ficar estranhos muito rapidamente.
Insights diários sobre casos de uso de negócios com VB diariamente
Se você deseja impressionar seu chefe, o VB Daily o cobriu. Damos a você uma informação interna sobre o que as empresas estão fazendo com a IA generativa, desde mudanças regulatórias a implantações práticas, para que você possa compartilhar informações para o ROI máximo.
Leia nossa Política de Privacidade
Obrigado por assinar. Confira mais boletins de VB aqui.
Ocorreu um erro.
