domingo, 7 de dezembro de 2025

A AI ainda é um autocomplete Glamorizado como nos ensina Chomsky?

 

A AI está em uma fase de treinamento ativo, o que significa que não podemos confiar cegamente em seus resultados. As respostas geradas por qualquer AI não tem fundamento em raciocínio lógico, crítico, empático, mas na probabilidade de qual será a próxima palavra, combinada com informações coletadas de blogs e outras buscas na web. Essa abordagem estatística, inerente aos Grandes Modelos de Linguagem (LLMs), é o que torna suas respostas não confiáveis ​​para informações no geral. A change de incorrer em alucinação é grande e um tanto arriscoso permitir tamanho poder sobre nós.

Embora versões como o Gemini 3.0, possam oferecer uma ligeira vantagem em precisão por aproveitarem os recursos sofisticados de busca do Google, uma área que rivais estão tentando copiar, mas com dificuldades para igualar, a AI apresenta uma alta taxa de erros. Ela é melhor utilizada para obter uma noção de direção ou uma ideia geral, em vez de como uma fonte definitiva. Claro para automatizar processos manuais que seriam enfadonhos e repetitivos além de outras atividades podem e devem ser usadas sempre com o humano conferindo a qualidade.

E, sinceramente, como preditor eu duvido que chegue ao ponto de precisão. Por que cada pergunta é única ainda que seja a mesma, mas formulada por seres diferentes e necessitados de respostas específicas para contextos totalmente não relacionados.

Se um assunto é crítico e a precisão fundamental, você deve consultar fontes oficiais. Por exemplo, para regras definitivas sobre a língua portuguesa, você deve consultar sempre a ABL (Academia Brasileira de Letras); para informações médicas, consulte páginas oficiais ou uma mais amigável como a do Drauzio Varella.

Noam Chomsky cunhou AI como um mero "autocomplete glamourizado", porque tudo o que uma AI produz já foi dito ou criado por outra pessoa anteriormente. Além disso, se os dados de treinamento que são a base preditiva da AI incluírem uma publicação tendenciosa ou que não tenha passado por uma verificação de fatos adequada, a AI não hesitará em reproduzir essa resposta incorreta induzindo o usuário ao erro. Isso significa que os modelos priorizam os dados, o que pode reforçar vieses e apresentar uma falsa sensação de resposta. Mas não é uma resposta é um chute e se a AI pode chutar, confie mais na sua intuição e busque uma fonte verossímil.

 

Aqui uma fonte verossímil que você deveria consultar!

Chomsky, N., Roberts, I., & Watumull, J. (8 de março de 2023). A falácia da IA ​​como um 'autocompletar glamourizado'. The New York Times

Nenhum comentário: