Deutschland. Es macht Angst. Die Rechten werden immer

Deutschland. Es macht Angst.
Die Rechten werden immer stärker. Die Linken drohen allen mit Gewalt die nicht links sind, zerstören Eigentum, und es wird toleriert.
Die Parteien der Mitte zerfleischen sich selber, und keiner will sehen was an den politischen extremen passiert…