Início Mundo Biden diz que pandemia de covid-19 ‘terminou’ nos EUA

Biden diz que pandemia de covid-19 ‘terminou’ nos EUA

AFP

O presidente americano, Joe Biden, disse este domingo, que a pandemia de covid-19 terminou nos Estados Unidos

“A pandemia terminou”, disse em entrevista à TV.

“Ainda temos um problema com a covid. Ainda estamos trabalhando muito nisso… Mas a pandemia acabou. Se prestarem atenção, ninguém usa máscaras. Todo mundo parece estar em boa forma. E por isso, acredito que está mudando”, afirmou.

No entanto, o presidente deu estas declarações apenas algumas semanas depois de sua administração ter pedido ao Congresso bilhões de dólares em financiamento para manter seus programas de testagem e vacinação com vistas a uma possível nova onda no outono.

Contate-nos

Meio de comunicação social generalista, com foco na relação entre os Países de Língua Portuguesa e a China

Plataforma Studio

Newsletter

Subscreva a Newsletter Plataforma para se manter a par de tudo!