
angeljavier
Dseda
Redactor
Definitivamente pienso que la serie The Walking Dead ha perdido el rumbo que la convirtió en una de las series televisivas mas exitosas de los últimos años, ya que se han centrado absolutamente en la lucha entre bandos de seres vivientes, dejando a los zombies en un segundo plano.
¿y ustedes que piensan?
¿y ustedes que piensan?