Como a LGPD se enquadra aos chatbots
Especialista em programação explica a relação da nova lei de proteção de dados com os robôs, quais devem ser as adaptações e as penalidades
A LGPD (Lei Geral de Proteção de Dados) foi aprovada pelo Senado Federal e passa a valer a partir de 27 de agosto. Até o momento falta apenas a criação da Autoridade Nacional de Proteção de Dados, a ANPD, órgão que ficará responsável por controlar e atuar em defesa e orientação da LGPD.
Diante desse cenário, os profissionais de TI atuam em grande parte dessa nova lei, devido ao processamento de dados pessoais, principalmente na inteligência artificial aplicada ao chatbot. De acordo com o CEO da Ubots, startup especializada em atendimento via apps de mensagens e inteligência artificial, Rafael Souza, a partir de agora os robôs deverão informar qual será o uso dessas informações e para que se destinam, além de pedir o consentimento dos usuários.
“Nesse momento as atenções devem ser redobradas, pois as novas adaptações incluem ajustes dos tipos técnicos da tecnologia utilizada, em códigos, políticas internas, contratos e principalmente o treinamento e a forma de comunicação”, explica.
LGPD aplicado ao Chatbot: canal direto de informações
A segurança das informações é o principal objetivo da nova legislação, com isso, os robôs devem ser ensinados a atuar de maneira que não prejudique a experiência digital do cliente, segundo Rafael. “Existem algumas formas de pedir o aceite do usuário para acessar as informações pessoais. Uma delas é solicitar as permissões logo ao acessar o canal de atendimento”, comenta.
Durante o diálogo, o bot também pode solicitar essa autorização. Ao realizar uma operação o chatbot envia uma mensagem que fala sobre o armazenamento e processamento de tais dados. “É importante frisar que a revogação dessa permissão deve ser tão fácil, quanto a concessão da mesma”, explica Souza.
Penalidades aplicadas as empresas
Abaixo, Rafael Souza explica cada uma das penalidades:
Há dois tipos de penalidades para as empresas que não seguirem as medidas da LGPD, a administrativa e judicial.
A penalidade administrativa se refere a autoridade de proteção de dados em âmbito nacional, com entidades como o Procon ou o Ministério Público. Entre as penalidades estão as advertências e multas com o valor de até 2% do faturamento da empresa no último ano.
Já a penalidade judicial tem a ver com as punições cumulativas, ou seja, se uma empresa toma uma punição administrativa, todas as pessoas que tiveram seu direito violado podem entrar com uma ação contra a empresa. A indenização por dano moral pode ser de 4 a 10 mil reais por pessoa, e se houver um dano material pode aumentar o valor da indenização.
Análise dos dados para a evolução dos procedimentos durante o atendimento
A maioria dos chatbots trabalha com o modelo de aprendizagem supervisionada, ou seja, é necessário que alguém treine os robôs, com sentenças para que compreendam a linguagem humana, explica o CEO da Ubots.
“Em geral, o formato e a estrutura do dado são os mais importantes. Desta forma, no momento de treino com o bot é possível substituir dados reais por fictícios, para realizar esse processamento”, explica Souza.
Caso o chatbot precise utilizar um dado do usuário, ele será instruído conforme os termos autorizados pelo cliente.
Medidas técnicas de segurança nos chatbots
Os bots em geral são desenvolvidos com base nos conceitos de privacy by design e privacy by default, conhecidos como privacidade por padrão, no qual o produto ou serviço deve conter as configurações de privacidade e o usuário libera o acesso a mais informações, caso seja necessário. “Os conceitos estão relacionados a proteção de dados e privacidade digital, no qual se adequam a LGPD e são utilizados por empresas de tecnologia, como a Ubots”, completa Rafael.