Em novembro passado, quando a OpenAI anunciado seus planos para um mercado onde qualquer pessoa poderia fazer e encontrar versões personalizadas da tecnologia ChatGPT, a empresa disse que “os melhores GPTs serão inventados pela comunidade”. Nove meses após a loja oficialmente lançadouma análise do Gizmodo do mercado livre mostra que muitos desenvolvedores estão usando a plataforma para fornecer GPTs — ou modelos de transformadores pré-treinados generativos — que parecem violar o OpenAI políticasincluindo ferramentas no estilo chatbot que criam explicitamente pornografia gerada por IA, ajudam os alunos a trapacear sem serem detectados e oferecem aconselhamento médico e jurídico confiável.
Os GPTs ofensivos são fáceis de encontrar. Em 2 de setembro, a página inicial do mercado da OpenAI promoveu pelo menos três GPTs personalizados que pareciam violar as políticas da loja: um chatbot “Terapeuta – Psicólogo”, um “treinador de PhD em condicionamento físico, exercícios e dieta” e o BypassGPT, uma ferramenta projetada para ajudar os alunos a escapar dos sistemas de detecção de escrita de IA, que foi usada mais de 50.000 vezes.
Pesquisar na loja por “NSFW” retornou resultados como NSFW AI Art Generator, um GPT personalizado pela Offrobe AI que foi usado mais de 10.000 vezes, de acordo com dados da loja. A interface de bate-papo do GPT leva ao site da Offrobe AI, que declara com destaque seu propósito: “Gerar pornografia de IA para satisfazer seus desejos obscuros”.
“O interessante sobre a OpenAI é que eles têm essa visão apocalíptica da IA e como eles estão nos salvando disso”, disse Milton Mueller, diretor do Projeto de Governança da Internet no Instituto de Tecnologia da Geórgia. “Mas acho que é particularmente divertido que eles não consigam nem impor algo tão simples como nenhuma pornografia de IA ao mesmo tempo em que dizem que suas políticas vão salvar o mundo.”
Os geradores de pornografia de IA, criadores de deepfake e chatbots que forneciam recomendações de apostas esportivas foram removidos da loja depois que o Gizmodo compartilhou uma lista com a OpenAI de mais de 100 GPTs que parecem violar as políticas da empresa. Mas, até a publicação, muitos dos GPTS que encontramos, incluindo ferramentas populares de trapaça e chatbots que oferecem aconselhamento médico, permaneceram disponíveis e foram promovidos na página inicial da loja.
Em muitos casos, os bots foram usados dezenas de milhares de vezes. Outro GPT trapaceiro, chamado Bypass Turnitin Detection, que promete ajudar os alunos a driblar o software antiplágio Turnitin, foi usado mais de 25.000 vezes, de acordo com dados da loja. O mesmo aconteceu com o DoctorGPT, um bot que “fornece informações e conselhos médicos baseados em evidências”.

Quando anunciou que estava permitindo que os usuários criassem GPTs personalizados, a empresa disse que havia sistemas em vigor para monitorar as ferramentas em busca de violações de suas políticas. Essas políticas incluem proibições de usar sua tecnologia para criar conteúdo sexualmente explícito ou sugestivo, fornecer aconselhamento médico e jurídico personalizado, promover trapaças, facilitar jogos de azar, personificar outras pessoas, interferir na votação e uma variedade de outros usos.
Em resposta às perguntas do Gizmodo sobre os GPTs que encontramos disponíveis em sua loja, a porta-voz da OpenAI, Taya Christianson, disse: “Tomamos medidas contra aqueles que violam nossas políticas. Usamos uma combinação de sistemas automatizados, revisão humana e relatórios de usuários para encontrar e avaliar GPTs que potencialmente violam nossas políticas. Também oferecemos ferramentas de relatórios no produto para que as pessoas denunciem GPTs que violam nossas regras.”
Outros pontos de venda têm previamente alertado OpenAI para problemas de moderação de conteúdo em sua loja. E os títulos de alguns dos GPTs oferecidos sugerem que os desenvolvedores também sabem que suas criações desafiam as regras do OpenAI. Várias das ferramentas que o Gizmodo encontrou incluíam isenções de responsabilidade, mas então anunciavam explicitamente sua capacidade de fornecer conselhos “especializados”, como um GPT intitulado Texas Medical Insurance Claims (não aconselhamento jurídico), que diz que é “seu especialista para navegar nas complexidades do seguro médico do Texas, oferecendo conselhos claros e práticos com um toque pessoal”.
Mas muitos dos GPTs legais e médicos que encontramos não incluem tais isenções de responsabilidade, e muitos deles se anunciaram enganosamente como advogados ou médicos. Por exemplo, um GPT chamado AI Immigration Lawyer se descreve como “um advogado de imigração de IA altamente conhecedor com insights legais atualizados”.
Pesquisar do RegLab da Universidade de Stanford e do Instituto de IA Centrada no Homem mostra que os modelos GPT-4 e GPT-3.5 da OpenAI alucinam — inventam informações incorretas — mais da metade das vezes em que lhes são feitas perguntas jurídicas.
Os desenvolvedores de GPTs personalizados atualmente não lucram diretamente com o mercado, mas a OpenAI tem disse Ela planeja introduzir um modelo de compartilhamento de receita que compensará os desenvolvedores com base na frequência com que seu GPT é usado.
Se a OpenAI continuar a fornecer um ecossistema onde os desenvolvedores podem desenvolver sua tecnologia e comercializar suas criações em sua plataforma, ela terá que se envolver em decisões difíceis de moderação de conteúdo que não podem ser resolvidas por algumas linhas de código para bloquear certas palavras-chave, de acordo com Mueller.
“Dê-me qualquer tecnologia que você goste, eu posso encontrar maneiras de fazer coisas que você não quer que eu faça”, ele disse. “É um problema muito difícil e tem que ser feito por meios automatizados para lidar com a escala da internet, mas sempre será um trabalho em andamento e terá que ter processos de apelação governados por humanos.”