Hoje quando alguém fala sobre uso de Inteligência Artificial, provavelmente se refere a LLM, “large language model”. São programas capazes de gerar textos usando modelos preditivos – a grosso modo, conhecem as probabilidades de um grupo de palavras vir em sequência de outro grupo. Alguns desses modelos são muito eficazes – GPT, Gemini, LLama… Há diversos e são difíceis de montar, por isso não há muitos, esses que existem depois de montados são facilmente utilizados.
São surpreendentemente eficazes e úteis nas tarefas que executam. Mas quando olhamos para os resultados não parecem muito “inteligentes”, seja lá qual o significado do termo. São modelos linguísticos impressionantemente sofisticados que produzem textos gramaticalmente corretos, mas não têm muita noção de certo ou errado, de verdade ou mentira.
Nesses sentido me lembram o Noam Chomsky, não havia pensado nisso antes.
Servem como auxiliar para redigir textos. Dessa forma quem iguala atividade intelectual a produzir uma certa quantidade de textos com uma certo tamanho pode ter seu serviço substituído. Por exemplo um pesquisador com uma quota de papers anual, ou um professor que exige redações de um certo número de páginas e linhas e toques.
Mas os LLM não servem para tomar decisões. É fácil engambelar um chatbot que usa LLM, porque eles não têm compreensão da realidade atrás do texto.
É mais fácil ainda engambelar a si próprio, como advertia Feynman. É da natureza humana olhar para um texto, achar que gostaria que fosse verdadeiro, aceitar como dogma, e continuar acreditando. O difícil não é engambelar o chatbot; mas sim encontrar a engambelação. Os testes com problemas simples são reveladores, mas com textos mais complexos pode ser menos óbvio detectar que o chatbot está alucinando.
Fenômeno que guarda semelhanças e relações com a propagação de desinformação através de blogs sujos. “Ah, o blog é contra as maracutaias do congresso, falou de chorinho em Poços de Caldas, portanto é uma pessoa honesta, como é que eu vou saber que está propagando desinformação em um assunto que eu desconheço”. Para desinformação, como para produção de textos inúteis, os chatbots são ferramentas destrutivas.
Palpito que se alguém escreveu “assistência de uma IA” ou foi meramente descuidado, ou não tem noção do que está falando. Inteligência Artificial designa toda a área de estudo.
O produto da Ciência da Computação são programas; cabe a pergunta “será que um determinado programa apresenta inteligência artificial”? Cabe a curiosidade; mas não dá para saber exatamente o que a pergunta significa. Muita gente exalta as possibilidade e as ameaças da IA mas não entende o que os programas fazem, não testou para examinar possibilidades e limitações.