O Google mentiu sobre a construção de um chatbot mortal? O juiz acha que é plausível.

Publicidade

Juiz não está pronto para governar se as saídas de IA forem discursos

O Google e as tecnologias de caracteres também se mudaram para descartar o processo com base nas reivindicações da Primeira Emenda, argumentando que os usuários da C.AI têm o direito de ouvir as saídas do Chatbot como suposto “discurso”.

Conway concordou que as tecnologias de caráter podem afirmar os direitos da Primeira Emenda de seus usuários neste caso, mas “o Tribunal não está preparado para sustentar que a produção do personagem.

C.Ai tentou argumentar que os resultados do chatbot deveriam ser protegidos como o discurso dos personagens de videogame, mas Conway disse que o argumento não era significativamente avançado. A equipe de Garcia havia recuado, observando que a caixa de diálogo dos personagens de videogame é escrita por humanos, enquanto as saídas do Chatbot são simplesmente o resultado de um LLM prever qual palavra deve vir a seguir.

“Os réus não conseguem articular por que as palavras juntas por um LLM são discursos”, escreveu Conway.

À medida que o caso avança, as tecnologias de caracteres terão a chance de reforçar as reivindicações da Primeira Emenda, talvez expliquem melhor como as saídas do chatbot são semelhantes a outros casos que envolvem falantes não humanos.

O porta -voz de C.Ai forneceu uma declaração à ARS, sugerindo que Conway parece confuso.

“É verdade que a lei leva tempo para se adaptar à nova tecnologia e a IA não é diferente”, disse o porta -voz da C.Ai. “Na ordem de hoje, o Tribunal deixou claro que não estava pronto para governar todos os argumentos do caráter.

A C.Ai também observou que agora fornece uma “versão separada” de seu LLM “para usuários de menores de 18 anos”, juntamente com “insights parentais, caracteres filtrados, notificação de tempo gasto, isenções de isermas atualizadas e muito mais”.

“Além disso, temos várias proteções técnicas destinadas a detectar e prevenir conversas sobre a auto-mutilação na plataforma; em certos casos, isso inclui a superfície de um pop-up específico direcionando os usuários para o suicídio e a crise nacionais”, disse o porta-voz da C.Ai.

Se você ou alguém que você conhece está se sentindo suicida ou em perigo, ligue para o número da linha de salvação da prevenção do suicídio, 1-800-273-fals (8255), que o colocará em contato com um centro de crise local.

Subscribe
Notificar de
guest
0 Comentários
Mais antigo
O mais novo Mais Votados
Feedbacks embutidos
Ver todos os comentários

Publicidade

Publicidade