Escolar Documentos
Profissional Documentos
Cultura Documentos
Trabalho Direito
Trabalho Direito
viés em que o Estado cria e impõe as normas, o qual se contrapõem ao direito natural,
que é aquele que é derivado da lei da natureza, assimilado pela razão e seguido pelos
homens. Norberto Bobbio em seu estudo O Positivismo Jurídico: lições de filosofia do
direito, explica que o Direito positivo imposto pela autoridades estatais funcionaria
como regulamentador das condutas humanas, além de afirmar que o direito natural não
é direito, somente o positivo o é.