Um mal etwas zur Ausgangsfrage zurück zu kehren. Warum ist in Deutschland das Frauenbild so konservativ. Vermutlich weil Deutschland sehr traditionsverbunden ist? Man sich generell mit allem Neuen und Fremden hierzulande schwer tut? Weil Deutschland als ganzes mit dem Modell ganz gut gefahren ist und deswegen politisch gesehen da keine Notwendigkeit zu einer Veränderung besteht?
Mittlerweile wäre es wohl Zeit für einige Änderungen, insbesondere am Rollenbild, darüber herrscht wohl weitestgehend Konsens. Bei den wenigen rühmlichen Ausnahmen bin ich schon oft ein wenig neidisch. Allerdings sehe ich das, vermutlich wegen des anfangs verlinkten Artikels, ebenfalls zu sehr auf das Thema Kinder und deren Erziehung beschränkt.
Was immer so nett als "Care Arbeit " bezeichnet wird, ist doch in Wahrheit überwiegend die "Drecksarbeit", in dem Sinne, dass da eigentlich die wenigsten drauf Lust haben und das in den meisten Fällen - sorry - wie Hundekacke an Schuhsohlen der Frauen klebt. Und da zeigt sich meiner Meinung nach das konservative Frauenbild in aller ungeschönten Deutlichkeit.
Wie sich das ändern lässt, wüsste ich auch gerne, vermutlich am ehesten noch durch Erziehung der eigenen Kinder, wenn z.B. gerade die Jungs frühzeitig mit im Haushalt helfen lernen. Am besten mit dem Papa zusammen. So und das nehm ich mir jetzt mal fest vor. Ändern kann man ja meistens nur bei sich selbst was. Und wenn ich es hier in meinem Haushalt nicht mal gebacken bekomme, brauch ich mich über die rückständige Gesellschaft nicht wundern.