IA generativa avança com os agentes de fluxos sofisticados, por Marco Silva e Silva*
A inteligência artificial (IA) viu ganhar corpo nas últimas semanas a sua mais nova onda global: o aparecimento de soluções que vão muito além do bate-papo com um chatbot e começam a executar ações complexas e sofisticadas. São aquelas que trazem informações de outros sistemas e podem tomar decisões. O seu nome: agentes de IA. Não por acaso, as principais companhias de tecnologia do mundo correm para desenvolver os seus modelos.
Ao lado do meu time, tive a oportunidade de ver de perto, durante o evento Dreamforce (realizado em San Francisco, nos Estados Unidos), a iniciativa do gênero que está sendo desenvolvida pela Salesforce, companhia reconhecida mundialmente pelo seu ecossistema em CRM (Customer Relationship Management) e pelos seus softwares on demand. Lá foi apresentado o Agentforce, que é um aplicativo autônomo e proativo que fornece suporte especializado e ativo a funcionários ou clientes.
Esse novo produto da plataforma integra a terceira onda de desenvolvimentos da Salesforce em IA, e segue a IA preditiva (primeira onda), a IA generativa (segunda onda) e antecede uma futura quarta onda, que acena no horizonte com robôs e máquinas ainda mais autônomas. É uma tendência que outras companhias acompanham e trabalham com afinco para atingir. O que o presente mantém como prerrogativa é a integração de produtos dentro de uma mesma plataforma – é algo que o meu colega Jonatas Leandro viu de forma semelhante em outro evento, do Google.
Perante a uma grande audiência que compareceu ao evento presencialmente ou virtualmente (com mais de 143 países representados e mais de 135 mil inscritos que acompanharam as sessões via Salesforce Plus, a plataforma de streaming da empresa), a companhia indicou que construir assistentes virtuais ou automatizar tarefas repetitivas está superado. Na busca por eficiência e produtividade, o próximo passo é possuir agentes de IA que possam combinar recursos de Grandes Modelos de Linguagem (LLMs, na sigla em inglês) com código, fontes de dados e múltiplas interfaces de usuários, executando assim fluxos inteiros de trabalho sem intervenção humana.
Não que o auxílio ao desenvolvimento de ações seja um conceito novo – o termo “copilot” acompanha uma ampla gama de produtos de IA recém-lançados por diversas empresas. Se os copilotos de IA ajudam na criação de códigos, conteúdos, cenários de testes, por exemplo, os agentes de IA querem ir adiante – no caso do Salesforce, com foco no negócio do cliente. Dentro desta equação, porém, mantém-se a direção dada pela voz humana, que direciona o prompt daquilo que a tecnologia deverá buscar ou desenvolver, sejam copilotos ou agentes e quais os guard rails que essas conversas devem obedecer para que as informações sejam sempre precisas e estejam dentro do contexto esperado.
O primeiro contato com o Agentforce já será possível a partir de outubro, quando a Salesforce libera o produto em oito idiomas (português e espanhol estão inclusos). A América Latina, aliás, é vista como um dos mercados mais promissores para a empresa, pois a utilização de produtos da companhia nesta parte do planeta está em alta e com espaço para um avanço ainda maior perante outras regiões do mundo – um sinal de prestígio muito relevante.
Como todo desenvolvimento tecnológico, há alguns pontos a serem pensados e que demandam reflexão. O primeiro aspecto a favor dessa nova onda de IA é a possibilidade de personalização desses agentes, permitindo adaptá-los às necessidades de preferências individuais de clientes e usuários. Com dados íntegros (devidamente tratados, unificados, corrigidos e harmonizados), torna-se possível melhorar significativamente os processos de machine learning, além de possibilitar a identificação de padrões hoje impossíveis para a mente humana, como a execução de funções simultaneamente, sem queda de desempenho.
Por outro lado, construir agentes de IA úteis pode não depender apenas de modelos multimodais mais eficientes. Um desafio fundamental é fazer com que os modelos funcionem de forma mais confiável – como toda a IA, informações enviesadas ou erradas são problema. E isso exige mais avanços nas habilidades de raciocínio da IA. Além disso, existe uma questão ética sobre as responsabilidades em torno de possíveis decisões ruins que uma IA tome, ou ainda a respeito da vulnerabilidade cibernética que demanda ações preditivas de segurança bastante robustas.
O próximo passo pode ser dar a esses agentes de IA maiores habilidades de raciocínio, o que no futuro significaria termos modelos de IA capazes de pensar por conta própria. Pelo andamento das evoluções dessa tecnologia, essa é a tendência natural. No momento, a única certeza que temos é que os humanos seguem muito importantes quando falamos de IA. São eles os agentes decisórios. Até quando? Não sabemos.
*Marco Silva e Silva é diretor-executivo da GFT Technologies no Brasil