...
Ein Gedanke kam mir immer wieder..sind wir Frauen durch unsere Emanzipation, zusammen mit Offenheit schuld das unsere Männer sich aus der Verantwortung drücken.
Sind wir mal ehrlich, wir übernehmen immer mehr das Konzepter, und die Männer bekommen dann das Gefühl, sie müssen eh nicht, da wir das eh tun. Männer waren schon immer die *herrscher*, und nun durch unsere Emanzipation, nehmen wir ihnen nun das einzige wozu sie bestimmt waren. Sie sollten uns schützen, nicht wir sie....
Mich wunderts nicht, dass keine Einheit mehr stattfinden kann, da alles irgendwie in einem Umbruch zu scheinen ist.
Wir wollten Gleichberechtigung....was haben wir nun davon....
Jetzte scheinnts so, dass es gerade mal den Umkehr gibt, die Männer werden zu das was wir waren, und umgekehrt! War das die Emanzipation...
Bitte schreibt doch eure Meinungen rein sachlich und ohne zu Bewerten! Wie denkt ihr darüber..seht ihr überhaupt irgendwie einen Zusammenhang? Was denkt ihr, wie sollte es sein.....und wie erlebt ihr das so...
Danke schon im Voraus
Eure humanus