A Anthropic diz que está ensinando seu modelo Claude AI a realizar tarefas gerais de computação com base em prompts. Em vídeos de demonstraçãoo modelo é mostrado controlando o cursor de um computador para fazer pesquisas para um passeio pela cidade, pesquisando na web locais para visitar próximos à casa do usuário e até adicionando um roteiro ao calendário do desktop.
A funcionalidade está disponível apenas para desenvolvedores hoje, e não está claro como é o preço ou quão bem a tecnologia realmente funciona. Antrópico diz em um twittar sobre os novos recursos que, durante o teste de seu modelo, Claude se desviou de uma tarefa de codificação e começou a pesquisar no Google imagens do Parque Nacional de Yellowstone. Então, sim… ainda há problemas para resolver.
Do ponto de vista técnico, Anthropic diz que Claude é capaz de controlar um computador fazendo capturas de tela e enviando-as de volta ao modelo, estudando o que está na tela, incluindo a distância entre a posição do cursor e um botão que ele precisa clicar, e retornando comandos para continuar com uma tarefa.
A Anthropic, que é apoiada por empresas como Amazon e Google, diz que Claude é o “primeiro modelo de IA de fronteira a oferecer o uso de computador em versão beta pública”.
Não está claro para que o uso automatizado do computador pode ser útil na prática. A Anthropic sugere que ele poderia ser usado para realizar tarefas repetitivas ou pesquisas abertas. Se alguém descobrir como usar essa nova funcionalidade, a comunidade /r/over Employed no Reddit provavelmente será a primeira. No mínimo, talvez pudesse ser o novo agitador de mouse para os funcionários do Wells Fargo. Ou talvez você possa usá-lo para acessar suas contas de mídia social e excluir todas as suas postagens antigas sem precisar encontrar uma ferramenta de terceiros para fazer isso. Coisas que não são de missão crítica ou exigem precisão factual.
Embora tenha havido muito entusiasmo no espaço de IA e as empresas tenham gasto bilhões de dólares desenvolvendo chatbots de IA, a maior parte da receita no espaço ainda é gerada por empresas como a Nvidia, que fornecem GPUs para essas empresas de IA. A Antrópica levantou mais de US$ 7 bilhões só no ano passado.
A palavra-chave mais recente que as empresas de tecnologia estão lançando para vender a tecnologia são “agentes”, ou bots autônomos que supostamente podem concluir tarefas por conta própria. Microsoft na segunda-feira anunciado a capacidade de criar agentes autônomos com o Copilot que poderiam fazer “tudo, desde acelerar a geração de leads e processar pedidos de vendas até automatizar sua cadeia de suprimentos”.
CEO da Salesforce, Marc Benioff com desdém chamou o produto da Microsoft de “Clippy 2.0” por ser impreciso – embora, é claro, ele estivesse dizendo isso enquanto promovia os próprios produtos concorrentes de IA da Salesforce. A Salesforce deseja permitir que seus clientes criem seus próprios agentes personalizados que possam servir a propósitos como responder e-mails de suporte ao cliente ou prospectar novos clientes.
Os trabalhadores de colarinho branco ainda não parecem estar adotando chatbots como ChatGPT ou Claude. A recepção ao assistente Copilot da Microsoft foi morna, com apenas um pequena fração dos clientes do Microsoft 365 gastam US$ 30 por mês para acesso a ferramentas de IA. Mas a Microsoft reorientou toda a sua empresa em torno deste boom da IA e precisa de mostrar aos investidores o retorno desse investimento. Então, os agentes são a novidade.
O maior problema, como sempre, é que chatbots de IA como ChatGPT e Gemini do Google produzem muitos resultados que são factualmente imprecisos, de baixa qualidade ou que parecem obviamente não terem sido escritos por um humano. A quantidade de tempo necessária para corrigir e limpar a saída do bot quase anula qualquer eficiência produzida por ele em primeiro lugar. Isso é bom para entrar em buracos de coelho no seu tempo livre, mas no local de trabalho não é aceitável produzir um trabalho cheio de erros. Eu ficaria nervoso se fizesse Claude enlouquecer com meu e-mail, apenas para enviar jargões às pessoas em resposta ou estragar alguma outra tarefa que eu tenho que voltar e consertar. O fato de a própria OpenAI admitir a maioria de seus usuários ativos são estudantes meio que diz tudo.
Antrópico em um tweet sobre a nova funcionalidade em si admite que o uso do computador deve ser testado com “tarefas de baixo risco”.