und alle Fortschritte, die gemacht wurden, die werden gar nicht wahrgenommen? Selbstverständlich kann man immer alles noch viel besser machen. Aber rechtfertigt das ALLES schlecht zu reden.
Ich, wo ich schon immer hier lebe und fast 60 Jahre Zeitgeschehen in Deutschland überschauen kann, frage mich immer, wo ist denn dieses Deutschland, welches heute in den Medien und von vielen so schlecht geredet wird? Ist das überhaupt das selbe Deutschland, das ich kenne?
Es klafft eine riesen große Lücke zwischen dem Deutschland so wie es heute dargestellt wird, als ob da nur Rassisten, Nazis, Antisemiten, Sexisten, Machos, Homophobe, usw. leben würden und dem Deutschland, in dem ich lebe.
Jetzt frage ich mich, ist das vielleicht dem geschuldet, dass ich auf dem Land lebe und diese ganzen Rassisten, Nazis, Antisemiten, Sexisten, Machos, Homophobe, leben vielleicht alle in der Stadt?
Oder frage ich mich, ob das vielleicht an den Bundesländern liegt. Vielleicht gibt es ja bestimmte Bundesländer, in denen diese ganzen Rassisten, Nazis, Antisemiten, Sexisten, Machos, Homophobe, leben und in anderen eben nicht.
Aber warum wird das dann immer so dargestellt, als ob in GANZ Deutschland nur noch Rassisten, Nazis, Antisemiten, Sexisten, Machos, Homophobe, leben. Wenn ich mich bei uns umschaue, dann finde ich keine dieser Leute.
Also warum wird Deutschland als ein Land dargestellt, was es nicht ist?
Und vor allem, hat sich denn wirklich nicht viel getan in den letzten 60 Jahren?
Heute haben doch ALLE Minderheiten mehr Rechte als in meiner Kindheit
Heute werden weniger Menschen diskriminiert als in meiner Kindheit
Heute dürfen Homosexuelle Männer heiraten in meiner Kindheit wurden sie noch bestraft.
Heute haben die Frauen gleiche Rechte und sind kein Eigentum des Mannes mehr, wie in meiner Kindheit.
Auch die Gewalt in der Ehe, die früher völlig normal war, (sogar Vergewaltigung war ein Recht des Mannes) gibt es heute so gut wie nicht mehr. Und wenn, dann hat es heute eine Frau viel leichter, sich von ihrem gewalttätigen Mann zu trennen. Sie wird vom Staat finanziert. Früher konnten Frauen nicht aus einer Ehe ausbrechen, weil sie dann kein Geld hatten und kein Ansehen. Heute gibt es viele ledige (alleinerziehende) Frauen mit Kindern, das ist heute völlig normal. Früher waren diese Frauen als "Flittchen" verunglimpft worden.
Auch in der Arbeitswelt hat sich sooooo viel verändert. Heute sind Frauen Chefinnen und niemand nimmt daran Anstoß. In den 60er war das ein Unding. Aber auch in den 90ern war das noch nicht üblich. Ich erinnere mich noch, als wir in den 90ern in unserer Firma die erste Chefin bekamen, da dachte man, die Männer drehen gleich durch. Eine Frau die ihnen was zu sagen hat unvorstellbar. Heute ist das völlig normal, auch für die Männer.
Frauen haben heute das Recht überall tätig zu sein. Selbst in die Bundeswehr haben sie sich eingeklagt. Frauen ist heute kein Beruf verwehrt. Allerdings entscheiden sich immer noch viele Frauen für einen sogenannten Frauenberuf. Aber auch das ist doch ihr Recht. Wenn Frauen lieber in der Kita arbeiten als auf dem Bau, dann sollte man das nicht schlechtreden. Schließlich haben wir ja freie Berufswahl für Frauen und Männer. Und man sollte auch die jeweiligen selbst entscheiden lassen, welche Tätigkeiten sie ausüben wollen. Und niemand sollte sich rechtfertigen müssen, weil er diesen oder jenen Beruf ausüben will.
Heute lassen sich z.B. zwei meiner Neffen als Kindergarten-Erzieher ausbilden. Auch dieser Beruf scheint heute Männern zu gefallen. Auch in der Altenpflege oder der Krankenpflege findet man heute überall Männer. Auf der anderen Seite gibt es Automechanikerinnen ohne dass man das heute seltsam findet.
Leute mit anderer Hautfarbe wurden früher auch diskriminiert. Oft wurde sich über sie lustig gemacht. (z.B. der war wohl zu lange im Backofen) Und sie konnten sich nicht dagegen beschweren. Auch da hat sich etwas verbessert.
Heute gibt es Stellen, da kann man solche Diskriminierungen melden. Auch gegen Beleidigungen kann heute gut vorgegangen werden. Überall gibt es Diskriminierungsbeauftragte, und es wird auch heute den Fällen nachgegangen. Früher waren die Leute auf sich allein gestellt.
In den Betrieben gibt es überall Ansprechpartner für Menschen die sich nicht so angenommen fühlen, wie es sein sollte. Auch da hat sich viel getan.
Auch gegen sexistische Übergriffe kann man sich heute überall wehren. Es gibt Stellen, wo man sich hinwenden kann. Niemand muss das heute erdulden, so wie das früher mal war.
Menschen sollen nicht wegen ihrer Hautfarbe, Herkunft, Religion oder Sexuellen Orientierung ausgegrenzt werden. Und Frauen sind keine Sexobjekte sondern gleichberechtigte Partner.
Ich haben einen großen Entwicklungssprung seit den 60ern bis heute miterlebt und dieser Entwicklungssprung wird ja auch hoffentlich noch weiter gehen. Deshalb verstehe ich nicht, dass man heute das so darstellt, als ob sich überhaupt gar nichts in Deutschland verändert hat, das ist doch völlig falsch.
Aber irgendwie scheinen manche diese Entwicklung, die da stattgefunden hat, gar nicht zu bemerken. Sie schimpfen und schimpfen und zeigen mit dem Finger auf die bösen Weißen. Sie gehen auf die Straßen und fordern immer mehr Veränderungen.
Wenn Deutschland aber wirklich so schrecklich ist, ein Land in dem man als Minderheit nicht gut leben kann. Warum wollen dann eigentlich so viele Leute gerade nach Deutschland?
Müsste es denn nicht so sein, wenn Deutschland wirklich so schrecklich wäre, und da so viele Rassisten, Nazis, Antisemiten, Sexisten, Machos, Homophobe, leben würden, dass da kein Fremder hin will?
Andere Frage: Gibt es überhaupt viele Länder, in denen es besser zugeht als bei uns? In denen Frauen, Schwarze, Ausländer, Religiöse, Homosexuelle, mehr Rechte haben, als hier bei uns in Deutschland?
Also wenn ich neugeboren würde, vielleicht als Frau, mit schwarzer Hautfarbe, die lesbisch werden würde, dann hätte ich doch wohl in Deutschland die besten Voraussetzungen, ein glückliches Leben zu führen.