Qual é o principal problema das inteligências artificiais?
Modelos generativos, como o ChatGPT, sempre respondem perguntas com tom de autoridade sobre o assunto, mesmo que a resposta seja errada
O quanto você pode confiar em uma inteligência artificial? A resposta parece simples, mas não é. Os modelos generativos, como é chamada a tecnologia por trás do ChatGPT, são treinados para gerar conteúdo que pareça ter sido escrito por uma pessoa, e não para dar respostas 100% corretas. Por isso, são famosos por errarem com autoridade, ou seja, por emitir respostas incorretas de uma forma que elas pareçam, para um leitor desavisado, verdadeiras. E essa falha acontece com mais frequência exatamente nas perguntas que necessitam de mais profundidade e conhecimento, que são exatamente aquelas em que o usuário vai ter mais dificuldade de detectar um erro.
Segundo Thoran Rodrigues, CEO da BigDataCorp e especialista em inteligência artificial, é impossível utilizar de forma benéfica os modelos generativos sem antes entender como eles funcionam e, principalmente, saber suas limitações. “Utilizar essas tecnologias aceitando cegamente em todas as respostas retornadas é o prelúdio de um potencial desastre social na humanidade,” comenta o especialista.
Os modelos generativos não aprendem como as pessoas. Eles são capazes de analisar bilhões de textos, artigos, imagens, códigos de computador, fórmulas matemáticas e outros tipos de conteúdo, e imitar a forma de escrita deles, mas não existe pensamento por parte da máquina. Ela não está preocupada com o conteúdo ser ou não correto, apenas com a força da associação entre os conteúdos. Se a correlação é forte, o tom é de autoridade, independente do conteúdo ser ou não correto, e a forma como a resposta é escrita, por sua vez, passa para o usuário a percepção de que existe um embasamento por trás do que foi retornado.
Para o especialista é importante que essas limitações e problemas sejam deixados muito claros pelas empresas que estão construindo esses modelos. “A tendência natural das pessoas é antropomorfizar a tecnologia, ou seja, tratar a inteligência artificial como uma outra pessoa. E não podemos esperar que todas as pessoas do mundo entendam como esses algoritmos funcionam, e os riscos associados. É importante que os desenvolvedores deixem explícitas as limitações de suas ferramentas.”
Ainda para Thoran, uma inteligência artificial que fala com um tom de autoridade, combinada com o leitor médio – que é totalmente desavisado – é uma mistura extremamente perigosa. “Esses modelos aprendem com o conteúdo que consumiram, e também com as novas interações com os usuários. Se o usuário assume que a resposta está correta e não corrige a IA, ele reforça a associação, aumentando a propagação de informações falsas de maneira não intencional e até mesmo despercebida.”