Diese Frage habe ich deshalb gestellt, weil ich, sowohl aus Literatur, Erfahrungsberichten im TV und auch von einer Freundin, die auch mal in der Sexbranche gearbeitet hat, weiß, dass viele - vor allem durch die Sexbranche - geschädigten Frauen den Respekt und das Gefühl für Männer verlieren und dadurch immer mehr die Qualität von Frauen zu schätzen wissen, diese mehr wahrnehmen und mit der Zeit "einen Versuch" starten.
Ich für mich selbst kann auch sagen, dass ich immer mehr den Respekt vor Männern verliere. Vielleicht habe ich mir immer nur die Falschen ausgesucht, oder ich habe ein Händchen für absolute Looser, aber meine Erfahrungen mit Männern sind frustrierend.
Wenn ich mir hingegen einige Geschichten von Frauen anhöre, von wegen alleinerziehend + berufliche Selbständigkeit + Hausbau, dann habe ich extreme Hochachtung vor diesen Frauen und fange Sie immer mehr zu schätzen an.
Frauen sind auch nicht so leicht rumzukriegen wie Männer.
Bei Männern muß man bloß ein wenig Titten zeigen, sich ein wenig an sie ranschmeißen - und schon ist er zu allen Schandtaten bereit.
Bei Frauen ist das anders, die überlegen genau und überprüfen erst mal, ob sich die Sache überhaupt lohnt.
Männer sind so einfach und oft so dumm, sobald Sex im Spiel ist, das langweilt und frustriert mich!