Definição Direito

A faculdade de Direito forma profissionais aptos a interpretar e aplicar as leis, defender direitos, resolver conflitos e atuar na construção de uma sociedade mais justa.

Rolar para cima