Conheça três abordagens para o uso responsável da inteligência artificial no seu negócio
O impacto da inteligência artificial no universo corporativo em todo o mundo, para a conquista de mais eficiência operacional e melhor uso de trabalho qualificado, é inquestionável. Mas a crescente popularidade dos modelos generativos de inteligência artificial (IA) tem levantado questões importantes sobre o uso responsável da tecnologia, no que diz respeito à segurança, privacidade de dados e ética. “Temos notado a governança das empresas preocupada com isso e buscando estratégias para assegurar o uso responsável da IA no negócio”, diz Edgar Garcia, vice-presidente regional da UiPath para LATAM.
Este movimento foi fotografado pelo estudo global encomendado pela SAS, Intel e Accenture, intitulado “IA: momento, maturidade e modelos para o sucesso”, realizado com 305 executivos de empresas da Europa, Américas e região da Ásia-Pacífico. Segundo o material, no Brasil 69% das lideranças consultadas investem em programas de capacitação de seus colaboradores para que sejam éticos quanto à utilização da IA. As conclusões do estudo do MIT Sloan Management Review e do Boston Consulting Group, nos EUA, também trazem à tona a preocupação das empresas a esse respeito: 84% dos especialistas e implementadores da IA, conforme os levantamentos, acreditam que o uso responsável da tecnologia deve ser uma prioridade da alta gerência. No entanto, somente pouco mais da metade (56%) acredita que isso está sendo levado a sério o suficiente pelos líderes empresariais.
“Faz todo sentido ter esse tema como prioridade na pauta da governança. Imagine o dano que pode ser causado à empresa e clientes por conta de iniciativas tendenciosas capazes de deformar a tomada de decisão da inteligência artificial ou de espalhar desinformação numa escala maciça?”, diz Edgar.
Segundo ele, a inteligência artificial progride rápido demais para os formuladores de políticas acompanharem. Assim, o uso responsável da tecnologia recai também sobre criadores e usuários.
Ciente dessa responsabilidade, a UiPath lista abaixo três importantes abordagens empresariais que, conforme a experiência global da empresa, são favoráveis à proteção de usuários e clientes, no uso responsável da tecnologia.
- Criando um ecossistema aberto para a excelência da IA
A sigla IA refere-se a uma gama diversificada de diferentes ferramentas e tecnologias. Há o advento da IA generativa, mas também há a IA especializada, que inclui modelos treinados para uma tarefa ou processo de negócios específicos, como processamento de documentos ou análise de sentimentos. Cada modelo tem seu valor para a empresa e nenhum fornecedor pode ser o melhor para todos eles. “Por isso, acreditamos ser importante manter essa diversidade para o benefício de todo o setor. Assim, nossa plataforma segue uma abordagem aberta à IA, para que os usuários possam combinar os melhores modelos. Isso permite que os usuários tomem decisões mais fundamentadas e éticas sobre o uso da tecnologia”, diz Edgar. - IA flexível que se adapta ao usuário, não o contrário
É vital que modelos de IA possam se adaptar às necessidades dos usuários. Não oferecer escolha ao cliente, e obrigá-lo a adotar um modelo de prateleira, que não necessariamente vai ao encontro daquilo que ele precisa, é deixar a porta aberta para acidentes ocorrerem. “Precisão significa muito quando você está usando a IA para tomar decisões que afetam diretamente seus clientes ou que precisam ser compatíveis entre si”, diz Edgar. Segundo ele, o ideal é que a plataforma permita a criação de fluxos de trabalhos personalizados, integrando vários modelos, interfaces de usuário e interfaces de programação de aplicativos. - Guardiões da IA responsável
Os sistemas de IA precisam de dados para melhorar. Mas os usuários têm o direito de saber que seus dados estão protegidos. Assim, a plataforma adotada pela empresa deve assegurar que os dados coletados e usados sejam de boa qualidade, provenientes de fontes legais e gerenciados de maneira segura. “A plataforma precisa ser revisada ativamente no que diz respeito à privacidade, segurança de dados e vieses, para o desenvolvimento da inteligência artificial confiável. Há muitos casos em que modelos imprecisos ou tendenciosos são o resultado de treinamento ruim, e não de más intenções. Pode ser difícil, especialmente para usuários comerciais comuns, saber quando o modelo de IA é suficientemente treinado e equilibrado”, explica Edgar.
Segundo ele, o bom processo de mineração de comunicações resolve esse problema, por meio de recursos de classificação de modelo.