Mesmo se os chatbots passarem com sucesso no teste de Turing, eles terão que desistir do jogo se estiverem operando na Califórnia. Uma nova conta proposto Pelo senador da Califórnia, Steve Padilla, exigiria chatbots que interagem com as crianças para oferecer lembretes ocasionais de que são, de fato, uma máquina e não uma pessoa real.
A conta, SB 243foi introduzido como parte de um esforço para regular as salvaguardas que as empresas que operam chatbots devem implementar para proteger as crianças. Entre os requisitos que o projeto de lei estabeleceria: proibiria empresas de “fornecer recompensas” aos usuários para aumentar o engajamento ou uso, exigiria que as empresas se reportem ao Departamento de Serviços do Departamento de Saúde do estado com que frequência os menores estão exibindo sinais de ideação suicida e fornecem periódicos periódicos Lembretes de que os chatbots são gerados pela IA e não são humanos.
Esse último bit é particularmente pertinente para o momento atual, pois as crianças demonstraram ser bastante vulneráveis a esses sistemas. No ano passado, uma criança de 14 anos Tragicamente tirou a própria vida Depois de desenvolver uma conexão emocional com um chatbot tornado acessível pelo caractere.ai, um serviço para criar chatbots modelado após diferentes personagens da cultura pop. Os pais da criança têm Caráter processado Durante a morte, acusando a plataforma de ser “irracionalmente perigosa” e sem guardares de segurança suficientes no lugar, apesar de serem comercializados para crianças.
Pesquisadores da Universidade de Cambridge têm encontrado Que as crianças têm mais probabilidade do que os adultos a ver os chatbots da IA como confiáveis, mesmo vendo-os como quase-humanos. Isso pode colocar as crianças em risco significativo quando os chatbots respondem à sua promoção sem qualquer tipo de proteção em vigor. É como, por exemplo, os pesquisadores foram capazes de obter a IA embutida do Snapchat para Forneça instruções para um hipotético usuário de 13 anos de idade sobre como mentir para os pais para se encontrar com uma criança de 30 anos e perder a virgindade.
Há benefícios potenciais Para as crianças, se sentem livres para compartilhar seus sentimentos com um bot, se isso permitir que se expressem em um lugar onde se sentem seguros. Mas o risco de isolamento é real. Pequenos lembretes de que não há uma pessoa do outro lado da sua conversa podem ser úteis e intervir no ciclo de dependência que as plataformas de tecnologia são tão adeptas de prender as crianças por meio de repetidas hits de dopamina é um bom ponto de partida. Não fornecer esses tipos de intervenções quando as mídias sociais começaram a assumir o controle faz parte de como chegamos aqui em primeiro lugar.
Mas essas proteções não abordarão os problemas raiz que levam as crianças a procurar o apoio de chatbots em primeiro lugar. Há uma grave falta de recursos disponíveis para facilitar os relacionamentos da vida real para as crianças. As salas de aula são superficiais e subfinanciadoAssim, depois que os programas escolares estão em declínio“terceiro lugares”Continue desaparecendo e há um escassez de psicólogos infantis Para ajudar as crianças a processar tudo o que estão lidando. É bom lembrar as crianças que os chatbots não são reais, mas seria melhor colocá -las em situações em que não sentem que precisam conversar com os bots em primeiro lugar.