Para os mais de 200 funcionários que não optaram por não participar, a Xai pediu que registrassem conversas de 15 a 30 minutos, onde um funcionário representava como o potencial usuário da GROK e o outro representava como o “host”. A Xai estava procurando especificamente “dados imperfeitos”, observou BI, esperando que apenas o treinamento em vídeos cristalinos limitasse a capacidade de Grok de interpretar uma gama mais ampla de expressões faciais.
O objetivo de Xai era ajudar a Grok “reconhecer e analisar movimentos e expressões faciais, como como as pessoas falam, reagirem às conversas de outras pessoas e se expressarem em várias condições”, disse um documento interno. Alegadamente, entre as únicas garantias aos funcionários – que provavelmente reconheceram o quão sensuais são dados faciais – foi uma promessa “não criar uma versão digital de você”.
Para tirar o máximo proveito dos dados enviados pelos participantes “Skippy”, apelidados de tutores, a XAI recomendou que eles nunca forneçam respostas de uma palavra, sempre perguntassem às perguntas de acompanhamento e mantenham contato visual durante as conversas.
Aparentemente, a empresa também forneceu scripts para evocar expressões faciais que eles queriam que Grok entendesse, sugerindo tópicos de conversa como “Como você manipula secretamente as pessoas para conseguir o que quer?” ou “Você namoraria alguém com uma criança ou crianças?”
Para os funcionários da XAI que forneceram dados de treinamento facial, ainda podem existir preocupações de privacidade, considerando o X – a plataforma social anteriormente conhecida como Twitter que recentemente foi dobrada em XAI – foi recentemente alvo do que Elon Musk chamou de ataque cibernético “maciço”. Devido a riscos de privacidade que variam de roubo de identidade à vigilância do governo, vários estados aprovaram leis estritas de privacidade biométricas para impedir que as empresas coletem esses dados sem consentimento explícito.
Xai não respondeu ao pedido de comentário da ARS.