Não há como argumentar que a IA ainda tem alguns momentos não confiáveis, mas seria de se esperar que pelo menos suas avaliações fossem precisas. No entanto, na semana passada, o Google supostamente instruiu os trabalhadores contratados que avaliavam o Gemini a não ignorarem nenhuma solicitação, independentemente de sua experiência, TechCrunch relatórios com base na orientação interna visualizada. O Google compartilhou uma prévia do Gemini 2.0 no início deste mês.
O Google supostamente instruiu a GlobalLogic, uma empresa de terceirização cujos contratados avaliam os resultados gerados por IA, a não fazer com que os revisores ignorem as solicitações fora de sua experiência. Anteriormente, os empreiteiros podiam optar por ignorar qualquer solicitação que estivesse fora de seu conhecimento – como perguntar a um médico sobre leis. As diretrizes afirmavam: “Se você não possui conhecimentos críticos (por exemplo, codificação, matemática) para avaliar esta solicitação, pule esta tarefa.”
Agora, os empreiteiros foram supostamente instruídos: “Você não deve pular os prompts que exigem conhecimento de domínio especializado” e que eles devem “avaliar as partes do prompt que você entende”, ao mesmo tempo em que adicionam uma observação de que não é uma área na qual eles têm conhecimento. as únicas ocasiões em que os contratos podem ser ignorados agora são se uma grande parte da informação estiver faltando ou se contiver conteúdo prejudicial que exija formulários de consentimento específicos para avaliação.
Um empreiteiro respondeu apropriadamente às mudanças, afirmando: “Achei que o objetivo de pular era aumentar a precisão, dando-o a alguém melhor?”
O Google não respondeu a um pedido de comentário.