Contratos de trabajo: todo lo que necesitas saber

Contratos de trabajo: todo lo que necesitas saber
Por definición, el contrato de trabajo es el acuerdo que se prescribe entre el patrono, empresario o dueño de alguna empresa con cualquiera de los trabajadores que vaya a desempeñar algún cargo o función en dicha compañía.

Generalmente son entre personas naturales, las cuales se obligan a prestar un servicio a otra persona natural o jurídica a cambio de una remuneración sujeta a una dependencia y subordinación ante el contratante. 

Ir arriba