A AI está em uma fase de treinamento ativo, o que significa que não podemos confiar cegamente em seus resultados. As respostas geradas por qualquer AI não tem fundamento em raciocínio lógico, crítico, empático, mas na probabilidade de qual será a próxima palavra, combinada com informações coletadas de blogs e outras buscas na web. Essa abordagem estatística, inerente aos Grandes Modelos de Linguagem (LLMs), é o que torna suas respostas não confiáveis para informações no geral. A change de incorrer em alucinação é grande e um tanto arriscoso permitir tamanho poder sobre nós.
Embora
versões como o Gemini 3.0, possam oferecer uma ligeira vantagem em precisão por
aproveitarem os recursos sofisticados de busca do Google, uma área que rivais estão
tentando copiar, mas com dificuldades para igualar, a AI apresenta uma alta
taxa de erros. Ela é melhor utilizada para obter uma noção de direção ou uma
ideia geral, em vez de como uma fonte definitiva. Claro para automatizar processos
manuais que seriam enfadonhos e repetitivos além de outras atividades podem e
devem ser usadas sempre com o humano conferindo a qualidade.
E,
sinceramente, como preditor eu duvido que chegue ao ponto de precisão. Por que
cada pergunta é única ainda que seja a mesma, mas formulada por seres
diferentes e necessitados de respostas específicas para contextos totalmente
não relacionados.
Se
um assunto é crítico e a precisão fundamental, você deve consultar fontes
oficiais. Por exemplo, para regras definitivas sobre a língua portuguesa, você
deve consultar sempre a ABL (Academia Brasileira de Letras); para informações
médicas, consulte páginas oficiais ou uma mais amigável como a do Drauzio
Varella.
Noam
Chomsky cunhou AI como um mero "autocomplete glamourizado", porque
tudo o que uma AI produz já foi dito ou criado por outra pessoa anteriormente. Além
disso, se os dados de treinamento que são a base preditiva da AI incluírem uma
publicação tendenciosa ou que não tenha passado por uma verificação de fatos
adequada, a AI não hesitará em reproduzir essa resposta incorreta induzindo o
usuário ao erro. Isso significa que os modelos priorizam os dados, o que pode
reforçar vieses e apresentar uma falsa sensação de resposta. Mas não é uma
resposta é um chute e se a AI pode chutar, confie mais na sua intuição e busque
uma fonte verossímil.
Aqui uma fonte verossímil que você
deveria consultar!
Chomsky, N., Roberts, I., & Watumull,
J. (8 de março de 2023). A falácia da IA como um
'autocompletar glamourizado'. The New York Times