Tras la Primera Guerra Mundial, Alemania experimenta cambios vertiginosos. Nace la república de Weimar y Berlín se convierte en el centro cultural de Europa. Pero la Gran Depresión proporciona un terreno fértil para que el fascismo se afiance, y entre 1933 y 1935 el control de Hitler sobre el poder se vuelve absoluto. La bandera nazi ondea por todas partes, el saludo nazi es obligatorio, la nazificación de la sociedad alemana es completa. Contenido disponible hasta el 31 de agosto de 2024.