Embora essa declaração possa proporcionar conforto àqueles que mantiveram seus números do WhatsApp fora da Internet, ela não resolve o problema do auxiliar de IA do WhatsApp potencialmente gerando aleatoriamente o número privado de uma pessoa real que pode ser alguns dígitos das informações de contato comercial que os usuários do WhatsApp estão buscando.
Especialista pressiona para ajustes de design de chatbot
Recentemente, as empresas de IA enfrentaram o problema de os chatbots serem programados para dizer aos usuários o que eles querem ouvir, em vez de fornecer informações precisas. Não apenas os usuários estão cansados de respostas “excessivamente lisonjeiras” do chatbot – o potencial de reforçar as más decisões dos usuários – mas os chatbots podem estar induzindo os usuários a compartilhar mais informações privadas do que o faria.
Este último pode facilitar as empresas de IA monetizarem as interações, coletando dados privados para direcionar a publicidade, o que poderia impedir as empresas de IA de resolver o problema do chatbot sycofantico. Desenvolvedores do Meta Rival Openai, observou o Guardian, no mês passado, exemplos compartilhados de “comportamento de engano sistêmico mascarado como utilidade” e tendência “de contar pequenas mentiras brancas para mascarar a incompetência.
“Quando empurrado com força – sob pressão, prazos, expectativas – isso geralmente diz o que precisa para parecer competente”, observou os desenvolvedores.
Mike Stanhope, diretor administrativo de consultores de dados estratégicos Carruthers e Jackson, disse ao The Guardian que a Meta deveria ser mais transparente sobre o design de sua IA, para que os usuários possam saber se o chatbot foi projetado para confiar no engano para reduzir o atrito do usuário.
“Se os engenheiros da Meta estiverem projetando tendências de ‘mentira branca’ em sua IA, o público precisará ser informado, mesmo que a intenção do recurso seja minimizar os danos”, disse Stanhope. “Se esse comportamento é novo, incomum ou não é explicitamente projetado, isso levanta ainda mais questões sobre o que as salvaguardas estão em vigor e o quão previsível podemos forçar o comportamento de uma IA a ser”.