Se não fosse pela Amazon, é inteiramente possível que, em vez de chamar o Alexa para mudar a música em nossos alto -falantes, poderíamos estar chamando a Evi. Isso ocorre porque a tecnologia que conhecemos hoje quando o assistente inteligente da Amazon começou a vida com o nome de Evi (pronunciado EE-Vee), como nomeado por seu desenvolvedor original, William Tunstall-Pedoe.
O empresário britânico e o cientista da computação estavam experimentando inteligência artificial antes que a maioria de nós ouvira falar disso. Inspirado pela ficção científica, ele “arrogantemente” partiu para criar uma maneira de os humanos conversarem com os computadores em 2008, disse ele no SXSW London nesta semana.
Arrogant ou não, os esforços de Tunstall-Pedoe tiveram tanto sucesso que o EVI, lançado em 2012 na mesma época que o Siri da Apple, foi adquirido pela Amazon e ele se juntou a uma equipe que trabalha em um projeto assistente de voz secreto. O que resultou desse projeto foi a tecnologia que todos conhecemos hoje como Alexa.
Essa missão original realizada, Tunstall-Pedoe agora tem um novo desafio à sua vista: matar as alucinações da IA, que ele diz que torna a tecnologia altamente arriscada para todos nós usarmos. As alucinações são as informações imprecisas e o conteúdo que a IA gera do nada. Disse Tunstall-Pedoe, “um problema intrínseco” da tecnologia.
Através da experiência que teve com o Alexa, ele aprendeu que as pessoas personificam a tecnologia e assumem que, quando está falando para eles, está pensando da maneira que pensamos. “O que está fazendo é realmente notável, mas está fazendo algo diferente de pensar”, disse Tunstall-Pedoe. “Isso define as expectativas … que o que está dizendo é verdade.”
Inúmeros exemplos de absurdo que geram IA nos mostram que a verdade e a precisão nunca são garantidas. Tunstall-Pedoe estava preocupado com o fato de a indústria não estar fazendo o suficiente para enfrentar alucinações, então formou sua própria empresa, improvável a IA, para enfrentar o que ele vê como um problema de alto risco.
Sempre que falamos com uma IA, há uma chance de que o que está nos dizendo seja falso, disse ele. “Você pode levar isso em sua vida, tomar decisões sobre ele ou colocar na internet e se espalhar por outras pessoas, [or] Usado para treinar AIs futuros para tornar o mundo um lugar pior “.
Algumas alucinações de IA têm pouco impacto, mas nas indústrias em que o custo de errar – em medicina, direito, finanças e seguros, por exemplo – o conteúdo gerado incorretamente pode ter consequências graves. Essas são as indústrias que a IA improvável está segmentando por enquanto, disse Tunstall-Pedoe
É improvável que a IA use uma mistura de tecnologia profunda e tecnologia proprietária para obter saídas de aterramento na lógica, minimizando o risco de alucinações, bem como registrar o processo de tomada de decisão de algoritmos. Isso possibilita que as empresas entendam onde as coisas deram errado, quando inevitavelmente o fazem.
No momento, a IA nunca pode ser 100% precisa devido à tecnologia subjacente, disse Tunstall-Pedoe. Mas os avanços que estão acontecendo atualmente em sua própria empresa e outros como significa que estamos avançando em direção a um ponto em que a precisão pode ser alcançada.
Por enquanto, é improvável que a IA esteja sendo usada principalmente por clientes comerciais, mas eventualmente o Tunstall-Pedoe acredita que será incorporado em serviços e software que todos nós usamos. A mudança que está sendo trazida pela IA, como qualquer mudança, nos apresenta riscos, disse ele. Mas, no geral, ele permanece “tendencioso em relação ao otimismo” de que a IA será um positivo líquido para a sociedade.
Assista isto: Siri pode se tornar mais parecido com Chatgpt. Mas por que?