Definición de Derecho Positivo

- Definista

El derecho positivo es aquel grupo de normas o leyes jurídicas escritas que se hallan vigentes en un Estado dispuestas por sus órganos competentes; es decir se habla de una agrupación de leyes elementales pronunciadas por una administración para que cumplan un determinado fin, que deben estar carentes de los valores y principios básicos de índole universal e inalterable que derivan del derecho natural para ratificar su validez.

El derecho positivo en ciertos casos puede ponerse en vigencia o no dependiendo si la ley rige para una determinada población, o si por su parte ha sido derogada por una dada promulgación de una posterior. Cabe destacar que no solo a la ley como tal se le considera derecho positivo, sino que también a toda la normativa jurídica que se halla escrita como los decretos, reglamentos, acuerdo, etc. En un sentido general el Poder Legislativo, Parlamento o Congreso, de aplicación apremiante referente a sus habitantes y que estos deben consumar, sin la posibilidad de poder desconocerla, debido a que se publican previamente de entrar en vigencia.

En sus inicios el derecho positivo se opuso rotundamente al derecho natural puesto que se interpretó como algo universal y permanente, tal como una normativa histórica y relacionada a la realidad política-social particular y concreta; el derecho natural se regía por las normas divinas en cambio el derecho positivo se constituía por la voluntad procedente por la voluntad del hombre.

Hoy en día el derecho positivo es propio de una soberanía que emana de la actividad legislativa en las órdenes jurídicas de tradición romanista, siempre y cuando la misma se realice conforme al reglamento constitucional que normaliza la producción de la ley escrita.

Otros conceptos: