jueves, 29 de octubre de 2009

Definicion del Derecho

La mayoria del tiempo cuando se habla acerca de el derecho las personas no saben realmente que significa pero es importante empezar con que significa el derecho:

Definicion: En general se entiende por derecho todo conjunto de normas eficaces para regulas la conducta de los hombres siendo su clasificación mas importante la de positivo y derecho natural.
(De la Piña Vara Rafael,Diccionario de Derecho, p. 228)


La palabra "DERECHO" proviene del vocablo latino directum, que significa no apartarse del buen camino, seguir el sendero señalado por la ley, lo que se dirige o es bien dirigido.

El derecho es una forma para regular la convivencia de los hombres en sociedad,
de las partes que destacan del derecho esta la norma y la ley que son lo mas importante.

No hay comentarios:

Publicar un comentario