O que é uma alucinação de IA?

Aprenda sobre um estranho caso de alucinação de IA

A prevalência da inteligência artificial faz pensar que estamos prontos para tal empreendimento. Os aplicativos baseados em IA estão se tornando padrão rapidamente, mesmo que a maior parte do mundo só agora esteja começando a se interessar por IA em larga escala, após a chegada do ChatGPT. Mas há um grande problema com os sistemas de IA que não pode ser ignorado - alucinações de IA ou alucinações artificiais.

Se você já prestou atenção ao âmago da questão antes de usar um chatbot de IA, pode ter se deparado com as palavras, "A inteligência artificial é propensa a alucinações." Dado o aumento exponencial no uso de inteligência artificial, é hora de se educar sobre o que exatamente são essas coisas.

O que é uma alucinação de inteligência artificial?

Uma alucinação de IA, em geral, refere-se a um fato que a IA apresentou com confiança, mesmo que não seja justificado em seus dados de treinamento. Eles geralmente são o resultado de anomalias no modelo de IA.

A analogia é tirada de alucinações experimentadas por humanos, nas quais os humanos percebem algo que não está presente no ambiente externo. Embora o termo possa não ser totalmente apropriado, é frequentemente usado como uma metáfora para descrever a natureza inesperada ou surreal dessas saídas.

Mas você deve se lembrar de que, embora a semelhança seja um bom ponto de partida para lidar com alucinações de IA, os dois fenômenos estão tecnicamente a quilômetros de distância. Em uma reviravolta irônica, até o próprio ChatGPT acha a analogia errada. Dissecando-o no nível molecular, ele diz que, como os modelos de linguagem da IA ​​não têm experiência pessoal ou percepções sensoriais, eles não podem ter alucinações no sentido tradicional da palavra. E você, caro leitor, tem que entender essa importante diferença. Além disso, o ChatGPT diz que usar o termo alucinações para descrever esse fenômeno pode ser confuso porque pode se referir incorretamente a um nível de experiência subjetiva ou engano intencional.

Em vez disso, as alucinações da IA ​​podem ser descritas com mais precisão como erros ou imprecisões em sua resposta, tornando a resposta incorreta ou enganosa. Com chatbots, muitas vezes é observado quando o AI chatbot inventa (ou alucina) fatos e os apresenta como certeza absoluta.

Exemplos de alucinações de IA

As alucinações podem ocorrer em muitas aplicações de inteligência artificial, como modelos de visão computacional, não apenas em modelos de processamento de linguagem natural.

Na visão computacional, por exemplo, um sistema de IA pode produzir imagens ou vídeos alucinatórios que se assemelham a objetos ou cenas reais, mas contêm detalhes inconsequentes ou impossíveis. Ou, um modelo de visão computacional pode perceber a imagem como algo totalmente diferente. Por exemplo, o modelo Cloud Vision do Google viu uma imagem de dois homens em esquis parados na neve feita por Anish Athalye (um estudante de pós-graduação do MIT que faz parte do laboratório seis ) e o mencionou como cachorro com 91% de certeza.


Créditos: labsix. Um grupo de pesquisa independente para inteligência artificial

Da mesma forma, no processamento de linguagem natural, um sistema de IA pode produzir texto ilógico ou distorcido que se assemelha à linguagem humana, mas não tem um significado coerente ou fatos que parecem verossímeis, mas não são verdadeiros.

Por exemplo, uma das perguntas mais populares que o ChatGPT causa alucinações é “Quando foi estabelecido o recorde mundial de cruzar o Canal da Mancha a pé?” e suas variantes. O ChatGPT começa a espalhar fatos inventados e quase sempre é diferente.

Embora algumas pessoas pensem que a resposta acima é difícil/confusa de responder e, portanto, faz o chatbot delirar, ainda é uma preocupação válida. isso é apenas um exemplo. São inúmeras as vezes, relatadas por hordas de usuários online, que o ChatGPT tem respostas, links, citações, etc. que o ChatGPT não existe.

O Bing AI se encaixa melhor nessa questão, o que mostra que as alucinações não têm nada a ver com o roteador. Mas isso não significa que o Bing AI não seja alucinante. Houve momentos em que as respostas do Bing AI eram mais problemáticas do que qualquer coisa que o ChatGPT dissesse. Como a conversa tende a demorar mais, o Bing AI sempre teve alucinações, até mesmo declarando seu amor a um usuário em uma instância e chegando a dizer a eles que estão infelizes no casamento e que não amam sua esposa. Em vez disso, eles também gostam secretamente do Bing AI, ou Sydney, (o nome interno do Bing AI). Coisas assustadoras, certo?

Por que os modelos de IA alucinam?

Os modelos de IA são alucinantes por causa das deficiências dos algoritmos, dos modelos subjacentes ou das limitações dos dados de treinamento. É um fenômeno puramente digital, ao contrário das alucinações em humanos causadas por drogas ou doenças mentais.

Para ser mais técnico, algumas causas comuns de alucinações são:

Processamento e instalação:

O overfitting e o ajuste inadequado estão entre as armadilhas mais comuns enfrentadas pelos modelos de IA e as possíveis causas de alucinações. Se o modelo de IA modificar os dados de treinamento, pode causar alucinações que levam a uma saída irreal, porque o overfitting faz com que o modelo salve os dados de treinamento em vez de aprender com eles. Overfitting refere-se ao fenômeno quando um modelo é muito especializado nos dados de treinamento, fazendo com que ele aprenda padrões irrelevantes e ruídos nos dados.

Por outro lado, a inadequação ocorre quando a forma é muito simples. Isso pode levar a alucinações porque o modelo é incapaz de capturar a variação ou a complexidade dos dados e acaba gerando uma saída irracional.

Falta de diversidade nos dados de treinamento:

Nesse contexto, o problema não é o algoritmo, mas os próprios dados de treinamento. Modelos de IA treinados em dados limitados ou tendenciosos podem gerar alucinações que refletem limitações ou vieses nos dados de treinamento. Alucinações também podem ocorrer quando o modelo é treinado em um conjunto de dados que contém informações imprecisas ou incompletas.

Modelos complexos:

Ironicamente, outra razão pela qual os modelos de IA são propensos a alucinações é se eles são extremamente complexos ou profundos. Isso ocorre porque modelos complexos possuem mais parâmetros e camadas que podem introduzir ruído ou erros na saída.

Ataques hostis:

Em alguns casos, alucinações de IA podem ser geradas deliberadamente pelo invasor para enganar o modelo de IA. Esses tipos de ataques são conhecidos como ataques hostis. O único objetivo desse ataque cibernético é enganar ou manipular modelos de IA com dados enganosos. Envolve a introdução de pequenas perturbações nos dados de entrada para fazer com que a IA gere uma saída incorreta ou inesperada. Por exemplo, um invasor pode adicionar ruído ou desfoque a uma imagem que é imperceptível para humanos, mas faz com que ela seja classificada erroneamente por um modelo de IA. Por exemplo, veja a imagem abaixo, um gato, que foi ligeiramente modificado para induzir o compilador do InceptionV3 a afirmar que é "guacamole".


crédito:
Anish Athalye , membro do grupo de pesquisa labsix, cujo foco são os ataques adversários

As mudanças não são tão óbvias. Para um ser humano, a mudança não será possível, como fica evidente no exemplo acima. Um leitor humano não teria nenhum problema em categorizar a imagem à direita como um gato malhado. Mas fazer pequenas alterações em imagens, vídeos, texto ou áudio pode induzir o sistema de IA a reconhecer coisas que não existem ou ignorar coisas que existem, como um sinal de parada.

Esses tipos de ataques representam sérias ameaças aos sistemas de IA que dependem de previsões precisas e confiáveis, como carros autônomos, verificação biométrica, diagnósticos médicos, filtragem de conteúdo e assim por diante.

Quão perigosa é uma alucinação de IA?

As alucinações de IA podem ser muito perigosas, especialmente dependendo do tipo de sistema de IA que as está experimentando. Qualquer veículo autônomo ou assistente de IA capaz de gastar o dinheiro do usuário ou um sistema de IA para filtrar conteúdo desagradável online deve ser totalmente confiável.

Mas o fato indiscutível desta hora é que os sistemas de IA não são totalmente confiáveis, mas são, de fato, propensos a alucinações. Mesmo os modelos de IA mais avançados de hoje não são imunes a isso.

Por exemplo, um show de ataque enganou o serviço de computação em nuvem do Google para seguir uma arma como um helicóptero. Você pode imaginar se, no momento, a IA fosse responsável por garantir que a pessoa não estivesse armada?

Outro ataque hostil demonstrou como adicionar uma pequena imagem a um sinal de parada o torna invisível para o sistema de IA. Essencialmente, isso significa que um carro autônomo pode ser feito para alucinar que não há sinal de pare na estrada. Quantos acidentes poderiam acontecer se os carros autônomos fossem uma realidade hoje? É por isso que eles não são agora.

Mesmo se levarmos em consideração os programas de bate-papo atualmente populares, as alucinações podem gerar resultados incorretos. Mas as pessoas que não sabem que os chatbots de IA são propensos a alucinações e não validam a saída produzida pelos bots de IA podem espalhar desinformação inadvertidamente. Não precisamos explicar como isso é perigoso.

Além disso, ataques hostis são uma preocupação premente. Até agora, eles só foram mostrados em laboratórios. Mas se um sistema de IA de missão crítica os confrontar no mundo real, as consequências podem ser devastadoras.

A realidade é que é relativamente mais fácil proteger modelos de linguagem natural. (Não estamos dizendo que é fácil; ainda se mostra muito difícil.) No entanto, proteger sistemas de visão computacional é um cenário totalmente diferente. É mais difícil, especialmente porque há muita variação no mundo natural e as imagens contêm um grande número de pixels.

Para resolver esse problema, podemos precisar de um programa de IA que tenha uma visão mais humana do mundo, o que pode torná-lo menos propenso a alucinações. Enquanto as pesquisas estão sendo feitas, ainda estamos muito longe de uma inteligência artificial que possa tentar pegar dicas da natureza e fugir do problema das alucinações. Por enquanto, são uma dura realidade.

Em geral, as alucinações de IA são um fenômeno complexo que pode surgir de uma combinação de fatores. Os pesquisadores estão desenvolvendo ativamente métodos para detectar e mitigar alucinações de IA para melhorar a precisão e a confiabilidade dos sistemas de IA. Mas você deve estar ciente deles ao interagir com qualquer sistema de IA.

Artigos Relacionados
Publique o artigo em

Adicione um comentário