The Walking Dead finalmente mostra o que está acontecendo fora dos EUA
Desde sua estreia em 2010, The Walking Dead sempre evitou, propositalmente, dar explicações sobre o que havia acontecido com o mundo fora dos Estados Unidos depois do apocalipse zumbi. No entanto, o spin-off The Walking Dead: Um Novo Universo dá uma dica importante quanto ao status de outros países. O surto de zumbis do universo …