Os mecanismos de busca da IA são como aquele seu amigo que afirma ser um especialista em uma série de tópicos, abrangendo a autoridade, mesmo quando eles realmente não sabem do que estão falando. Um novo Relatório de pesquisa Da Columbia Journalism Review (CJR) descobriu que os modelos de IA de artistas como Openai e Xai, quando perguntados sobre um evento de notícias específico, mais frequentemente do que não, basta inventar uma história ou errar detalhes significativos.
Os pesquisadores alimentaram vários modelos direcionam trechos de notícias reais e depois pediram que identificassem informações, incluindo a manchete, editora e URL do artigo. A perplexidade retornou informações incorretas 37 % das vezes, enquanto estava no extremo, a GROK de Xai fez detalhes em 97 % das vezes. Os erros incluíram oferecer links para artigos que não foram a lugar algum porque o bot até compunhou o próprio URL. No geral, os pesquisadores descobriram que os modelos de IA cuspiram informações falsas para 60 % das consultas de teste.
Às vezes, mecanismos de pesquisa como a perplexidade ignoram os paywalls de sites como National Geographic Mesmo quando esses sites usam texto que não-crawl que os mecanismos de pesquisa normalmente respeitam. A perplexidade ficou em água quente sobre isso no passado, mas argumentou que a prática é um uso justo. Ele tentou oferecer acordos de compartilhamento de receita para aplacar os editores, mas ainda se recusa a encerrar a prática.
Qualquer pessoa que tenha usado chatbots nos últimos anos não deve se surpreender. Os chatbots são tendenciosos para retornar respostas, mesmo quando não estão confiantes. A pesquisa é ativada em chatbots por meio de uma técnica chamada geração de recuperação com agitação, que, como o nome implica, vasculha a Web em busca de informações em tempo real, pois produz uma resposta, em vez de confiar em um conjunto de dados fixo que um criador de modelos de IA forneceu. Isso poderia piorar a questão da imprecisão, pois países como os mecanismos de busca da Rússia com propaganda.
Uma das coisas mais condenatórias que alguns usuários de chatbots notaram é que, ao revisar seu texto de “raciocínio” ou a cadeia de lógica que os chatbots usam para responder a um aviso, eles geralmente admitem que estão inventando as coisas. Claude do Anthropic foi pego inserindo dados de “espaço reservado” quando solicitados a realizar trabalhos de pesquisa, por exemplo.
Mark Howard, diretor de operações em Tempo A revista, expressou preocupação com a CJR sobre a capacidade dos editores de controlar como seu conteúdo é ingerido e exibido nos modelos de IA. Isso pode potencialmente danificar a marca de editores se, por exemplo, os usuários aprenderem que as notícias de que estão recebendo supostamente O guardião estão errados. Este tem sido um problema recente para o BBCque levou a Apple a tarefa sobre seus resumos de notificação de inteligência da Apple que reescreveram alertas de notícias imprecisos. Mas Howard também culpou os próprios usuários. De ARS Technica:
No entanto, Howard também fez vergonha do usuário, sugerindo que é culpa do usuário se não for cético em relação à precisão das ferramentas de IA gratuita: “Se alguém como consumidor está agora acreditando que algum desses produtos gratuitos será 100 % preciso, então vergonha para eles”.
As expectativas devem ser colocadas no chão aqui. As pessoas são preguiçosas e os chatbots respondem às consultas de uma maneira confiante que podem levar os usuários à complacência. O sentimento nas mídias sociais demonstra que as pessoas não querem clicar em links e preferem obter uma resposta imediata de empresas como as visões gerais da IA do Google; A CJR diz que um em cada quatro americanos agora usa modelos de IA para pesquisa. E mesmo antes do lançamento de ferramentas generativas de IA, mais do que Metade das pesquisas do Google eram “clique zero”, o que significa que o usuário obteve as informações necessárias sem clicar em um site. Outros sites como a Wikipedia provaram ao longo dos anos que as pessoas aceitarão algo que pode ser menos autoritário se for gratuito e facilmente acessível.
Nenhuma dessas descobertas da CJR deve ser uma surpresa. Os modelos de idiomas têm um desafio intratável ao entender tudo o que estão dizendo porque são apenas sistemas glorificados de preenchimento automático que tentam criar algo que visual certo. Eles são adquiridos.
Uma outra citação de Howard que se destacou foi quando ele disse que vê espaço para melhorias futuras nos chatbots. “Hoje é o pior que o produto jamais será”, citando todo o investimento que entra no campo. Mas isso pode ser dito sobre qualquer tecnologia ao longo da história. Ainda é irresponsável liberar isso com as informações inventadas no mundo.