Nennt mir mal alle Filme, die ihr kennt, in denen Aliens auf die Erde kommen, um diese zu kolonisieren bzw. die Menschheit auszurotten, zu versklaven oder was sie sonst noch vorhaben.
Es ist egal, ob der Film ein Hollywood-Blockbuster oder mieser C-Movie ist, gerne auch Fernsehserien, sofern es welche gibt.
Lesezeichen