Vários utilizadores deram por isso nos últimos dias. Um artigo sobre a nova consola da Valve, que nem sequer tinha preço anunciado, apareceu com o título “Preço da Steam Machine revelado”. Outro texto, sobre tecnologia Qi2, foi transformado numa manchete alarmista que insinuava que a tecnologia “abranda Pixels mais antigos”, algo que o artigo não dizia. E o caso mais chocante envolve um artigo sobre videojogos que acabou resumido pela IA como “Jogadores de BG3 exploram crianças”, o que levou alguns leitores a acreditarem em algo completamente falso.
Os jornais e sites de tecnologia estão furiosos. Alegam que perdem o controlo sobre como o seu trabalho é apresentado e que estão a ser responsabilizados por títulos que nunca escreveram. Para piorar, o aviso de que o título foi criado por IA está escondido atrás de um botão “See more”, o que significa que a maioria das pessoas nem sequer percebe que está a ler um texto reescrito por algoritmos.
Especialistas alertam que esta experiência pode estar a abrir a porta a mais confusão, mais desinformação e mais descredibilização do jornalismo. Se um leitor vê um título enganador no Discover, acaba por achar que a culpa é do jornal, mesmo que este nunca tenha escrito nada do género. E há ainda o risco de o tráfego cair, porque as pessoas acabam por ler apenas o que aparece no Google, sem clicar no artigo original.
O Google diz que tudo não passa de um pequeno teste com alguns utilizadores, feito para melhorar a experiência. Mas perante a onda de críticas, a empresa está agora sob pressão para explicar melhor como é que estes títulos são criados e porque é que tantos deles estão a falhar de forma tão evidente.
No centro da polémica está uma pergunta que muitos profissionais fazem agora: até onde pode ir a inteligência artificial antes de começar a reescrever a informação de forma a pôr em causa a própria noção de notícia?