Ferramenta da Pegasystems contribui para impedir discriminação nas interações com clientes
Novo recurso contribui com fidelização por meio de cada interação com o consumidor
A Pegasystems Inc. (NASDAQ: PEGA), empresa de software que potencializa a transformação digital nas principais empresas do mundo, anuncia hoje o Ethical Bias Check, um recurso do Pega Customer Decision Hub ™ que ajuda a eliminar vieses ocultos na inteligência artificial (IA) ao impulsionar o envolvimento dos clientes. O recurso sinaliza possíveis ofertas e mensagens discriminatórias geradas pela IA em todos os canais antes que eles cheguem ao cliente.
Feito corretamente, a IA ajuda as empresas a agregarem valor a cada interação com o cliente, o que contribui para a fidelização à marca e, consequentemente, a maiores lucros. Mas, em alguns casos, os modelos de IA podem, sem querer, ‘aprender’ preconceitos ao longo do tempo relacionados a idade, etnia ou gênero.
Se não for detectado, isso pode levar a práticas discriminatórias, como oferecer menos empréstimos, apólices de seguro ou descontos em produtos para populações carentes. No atual cenário econômico, as empresas não podem arriscar a perder a confiança de seus clientes, que já estão mais vulneráveis devido à pandemia.
“Como a IA sendo incorporada em quase todos os aspectos do envolvimento do cliente, certos incidentes tornaram as empresas cada vez mais conscientes do risco de viés não intencional e seu efeito danoso sobre os clientes”, afirma Rob Walker (foto), vice-presidente de decisioning & analytics da Pegasystems.
Com o Ethical Bias Check, a Pega adiciona mais uma capacidade para ajudar as empresas a praticarem IA responsável quando utilizado nas interações com o cliente. Esse recurso detecta discriminação indesejada, por meio de análises preditivas, para simular resultados prováveis de uma determinada estratégia. Depois de definir seus limites de teste, os clientes recebem alertas quando o risco de viés atinge níveis inaceitáveis – como se o público de uma determinada oferta se desviasse ou se afastasse de informações demográficas específicas. As equipes de operações podem identificar o algoritmo ofensivo e ajustar a estratégia para ajudar a garantir um resultado equilibrado e justo para todos.