Pregunta médica

porque los hombres te dicen que quiere hacer el amor contigo

Preguntado por Mujer de 17 años

visibility4.918 vistas
Nuestro profesional de la salud responde

Respecto al sexo las mujeres lo vemos diferentes respecto a los hombres. Los hombres por su educación y por su instinto natural tienden a verlo de una forma más fuerte, salvaje y en algunos casos hasta agresiva.


En muchas ocasiones se saltan la parte de la conquista, de la seducción y de la sensualidad, por lo que quieren llegar al acto del sexo de una vez.


Es por esta razón que existen tantos abusos a las mujeres alrededor del mundo.


Por lo que, puede ser algo esperable por parte de ellos.


Recuerda decirles cuando no te sientas cómoda con una propuesta de estas. No hay que tener sexo por obligación o por presión, únicamente cuando en realidad tu lo quieras y te sientas segura.


Espero haberte podido ayudar.

Contenido Relacionado

¿Qué hacemos?

Logo 1doc3

1DOC3 es la plataforma en la que doctores verificados responden tus inquietudes de salud online las 24 horas del día. Tus preguntas son anónimas.