Inteligência Artificial: IBM prega equilíbrio entre regulação e autorregulação
A confiança é o principal elo que une as companhias que desenvolvem Inteligência Artificial (IA) a seus consumidores. Enquanto as primeiras precisam garantir que seus sistemas de IA cheguem a determinadas conclusões de forma ética, transparente e em conformidade com as leis e regulamentos, os consumidores estão mais atentos à forma como a tecnologia é usada e, principalmente, como afeta suas vidas.
Há tempos a IBM defende que os sistemas de IA precisam ser transparentes e explicáveis, o que reforça o nosso endosso aos princípios que vêm sendo construídos por organizações internacionais como a OCDE (Organização para a Cooperação e o Desenvolvimento Econômico), o G-20 e o Fórum Econômico Mundial. A existência de princípios é essencial e ajuda a delinear os compromissos que devem ser assumidos junto aos cidadãos, consumidores e governos.
Entretanto, já passou da hora de partirmos de princípios para políticas. A transparência algorítmica — a habilidade dos sistemas explicarem o racional por trás das suas recomendações -, deve ser a base da construção de qualquer sistema de IA e o esperado de qualquer empresa que os desenvolva, distribua ou comercialize.
Recentemente, nos posicionamos a respeito das tecnologias de reconhecimento facial e reforçamos o nosso compromisso com algoritmos transparentes e explicáveis. Com a Inteligência Artificial é a mesma coisa: os resultados da busca, sejam eles determinísticos ou probabilísticos, devem vir acompanhados da possibilidade de o usuário verificar a origem e as fontes da informação apresentada.
Ao considerarmos que estamos falando de tecnologias cada vez mais difundidas e determinantes de comportamentos e decisões que podem impactar a vida em sociedade, é fundamental que os governos priorizem o debate de maneira técnica e pontual. Neste sentido, recomendamos que os debates públicos e Legislativos para a definição das melhores políticas e estruturas de governança em IA sejam norteados por três pilares:
•Imparcialidade e segurança validadas por sistemas de verificação de viés, especialmente nas aplicações que oferecerem decisões automatizadas e/ou de alto risco;
•Responsabilização proporcional ao perfil de risco da aplicação e à capacidade da organização fornecer, desenvolver ou operar um sistema de IA, bem como controlar e mitigar resultados não intencionais ou prejudiciais para os consumidores; e
•Transparência sobre onde a tecnologia é empregada, como é utilizada e qual o racional por trás do processo de tomada de decisões.
Com isso, será possível identificar e coibir eventuais práticas de organizações descompromissadas com a proteção dos direitos e da privacidade dos seus usuários, sejam eles indivíduos, empresas ou governos.
Acreditamos que abordagens regulatórias baseadas em riscos são os meios ideais para proteger os consumidores, criar confiança do público na Inteligência Artificial e, principalmente, fornecer aos inovadores a flexibilidade necessária para a criação de sistemas cada vez mais precisos e impulsionadores de desenvolvimento social e econômico.
Para além disso, é importante que as empresas se unam na construção de boas práticas no desenvolvimento e na governança desses sistemas, e que essas práticas possam variar de acordo com o potencial de dano de uma determinada solução. E com base nesse exercício de harmonização, recomendamos quatro práticas que, ao serem incorporadas e aceitas pelo mercado, diferenciarão as empresas verdadeiramente comprometidas com a Inteligência Artificial confiável:
1 – Designar um responsável por Ética na IA: essa pessoa seria responsável pelas validações internas e criação de mecanismos de conformidade, como um Conselho de Ética para a IA, supervisionando riscos e desenvolvendo estratégias de mitigação de danos. Um ambiente de mercado que priorize a incorporação de profissionais responsáveis por ética na IA tende a melhorar a aceitação e a confiança do público nestes sistemas, além de reforçar o compromisso das empresas com o desenvolvimento, a implantação e a administração responsável dessa importante tecnologia.
2 – Regras distintas para riscos diferentes: todas as organizações que fornecem ou possuem um sistema de IA devem conduzir dois tipos de avaliação, ambas extremamente criteriosas: uma inicial sobre o potencial de dano da tecnologia, que leve em conta o uso específico da aplicação, os impactos para o usuário final e o nível de automação empregado; e outra, ainda mais aprofundada, focada nas aplicações de alto risco, que devem ser documentadas, auditáveis e armazenadas por um período determinado.
3 – Explique sua IA: qualquer sistema de IA que esteja tomando decisões ou que forneça recomendações com implicações potencialmente significativas para os indivíduos deve ser capaz de explicar e contextualizar como e por qual motivo chegou a uma determinada conclusão. Para isso, é necessário que as organizações mantenham processos de auditoria dos dados que alimentam o sistema, assim como dos seus parâmetros de treinamento.
4 – Teste sua IA. Todas as organizações envolvidas no ciclo de vida da IA necessitam de algum nível de responsabilidade compartilhada para garantir que os sistemas sejam imparciais e seguros. E como em qualquer software de uso comercial, é fundamental a realização de testes contínuos dos mais variados (proteção de dados, compliance, antidiscriminação, proteção do consumidor, segurança, etc.), a fim de identificar e reduzir as chances de que o aprendizado de máquina apresente resultados indesejados.
Tudo isso pode ser feito sem a criação de novos requisitos regulatórios específicos. Pode-se delegar ao mercado a responsabilidade de aprovar ou punir as práticas organizacionais que não estiverem de acordo com as melhores referências para o desenvolvimento e uso da Inteligência Artificial.
De modo complementar, o papel dos governos para apoiar a inovação e a adoção da IA em larga escala e de forma transversal é fundamental. Especialmente para isso, destacamos três pontos a serem considerados por autoridades do Poder Executivo:
•Reconhecer e se aproximar de mecanismos de autorregulação já existentes (como exemplo, o CENELEC na Europa ou o NIST nos EUA), de modo a estimular a colaboração na definição de referências, estruturas e padrões para os sistemas de IA;
•Apoiar o financiamento e a criação de laboratórios multidisciplinares de IA por meio de um trabalho conjunto. Distintos atores desse ecossistema têm melhores condições de recomendar a adoção de critérios de imparcialidade, explicabilidade, transparência, ética, privacidade e segurança em IA.
•Incentivar a adoção de padrões globais, assim como de certificações e regimes de validação internacionalmente reconhecidos.
Por fim, qualquer ação discriminatória, seja ela em um ambiente virtual, automatizado ou físico, deve ser coibida indistintamente. Recomendações ou decisões tendenciosas de qualquer natureza não devem nunca serem consideradas como aceitáveis. Principalmente em sistemas que podem ser aprimorados, testados e corrigidos em modelos estatísticos antes de se tornarem acessíveis.
Uma Inteligência Artificial confiável já está ao alcance de todos. Seu aprimoramento e adoção em larga escala, de forma ética e transparente, está nas mãos das organizações e dos governos, que devem trabalhar juntos para encontrar o equilíbrio entre a autorregulação e uma regulação pontual, precisa e que contribua para que os impactos negativos desta tecnologia não ofusquem o seu potencial transformador e positivo.