Por que Doge não usou Grok?
Parece que Grok, modelo de AI de Musk, não estava disponível para a tarefa de Doge porque estava disponível apenas como modelo proprietário em janeiro. Avançando, o Doge pode confiar com mais frequência na GROK, relatou Wired, pois a Microsoft anunciou que começaria a hospedar os modelos Grok 3 da Xai em sua Foundry Azure AI nesta semana, informou o The Verge, que abre os modelos para mais usos.
Em sua carta, os legisladores instaram a Vought para investigar os conflitos de interesse de Musk, enquanto alerta de violações potenciais de dados e declarando que a IA, como Doge o usava, não estava pronto para o governo.
“Sem proteções adequadas, a alimentação de dados sensíveis em um sistema de IA o coloca na posse do operador de um sistema – uma violação maciça da confiança pública e dos funcionários e um aumento na segurança cibernética riscos em torno desses dados”, argumentaram os legisladores. “Os modelos de IA generativos também cometem erros e mostram vieses significativos-a tecnologia simplesmente não está pronta para uso em tomada de decisão de alto risco sem verificação adequada, transparência, supervisão e corrimãos no local”.
Embora o relatório da Wired pareça confirmar que o DOGE não enviou dados confidenciais do “garfo na estrada” e -mails para uma fonte externa, os legisladores querem muito mais examinar os sistemas de IA para impedir “o risco de compartilhar informações de identificação pessoal ou sensível com os implementadores do modelo de IA”.
Um medo aparente é que Musk possa começar a usar mais seus próprios modelos, beneficiando -se dos dados do governo que seus concorrentes não podem acessar, enquanto potencialmente colocam esses dados em risco de uma violação. Eles esperam que Doge seja forçado a desconectar todos os seus sistemas de IA, mas Vought parece mais alinhado com Doge, escrevendo em sua orientação de IA para uso federal de que “as agências devem remover barreiras à inovação e fornecer o melhor valor para o contribuinte”.
“Embora apoiemos o governo federal que integra novas tecnologias de IA aprovadas que possam melhorar a eficiência ou a eficácia, não podemos sacrificar a segurança, a privacidade e os padrões de uso apropriados ao interagir com dados federais”, disse sua carta. “Também não podemos tolerar o uso de sistemas de IA, muitas vezes conhecidos por alucinações e preconceitos, nas decisões sobre o término do emprego federal ou do financiamento federal sem transparência e supervisão suficientes desses modelos – o risco de perder talentos e pesquisas críticas por causa de tecnologia defeituosa ou usos defeituosos de tal tecnologia é simplesmente alta”.