O ensino do direito nas universidades brasileiras
A universidade enquanto organização social tem um papel de extrema importância na democratização do ensino no Brasil. Para desenvolver tal função a mesma dispõe de certa autonomia em relação às outras instituições, de forma que, está estruturada com base em normas e regras internas a ela. Não necessitando, em um Estado republicano e democrático, manter relações de subalternização à religião ou mesmo ao próprio Estado. Porém, nos últimos anos, sobretudo devido ao modelo atual de capitalismo, a Universidade vem atravessando certas crises. Como qualquer outra organização, ela teve que “render-se” perante as exigências da vida moderna. Com a expansão do mercado, tornou-se necessário formar profissionais cada vez mais rápido, sendo assim, diminuiu-se o tempo para essa formação. Sobrecarregando alunos e professores, o ensino superior tende a perder gradativamente sua qualidade. Com enfoque principal nos cursos de Direito, temos que, antes de qualquer coisa, compreender sua história de criação e de consolidação no Brasil. No período em que o Brasil foi colonizado não era interessante para os portugueses o desenvolvimento de qualquer curso superior em solo brasileiro, isto nos fazia dependentes de Portugal em mais um aspecto. Com a vinda da família real surgem os primeiros cursos superiores, criados, obviamente, para atender aos interesses das elites, visando basicamente formar burocratas para ocupar os altos cargos políticos. Burocratas esses que, posteriormente, atuariam no processo de emancipação do Brasil em relação à metrópole, visando claramente interesses próprios. Tempos depois, já no período da ditadura militar, houve um aumento significativo de estudantes nas universidades brasileiras. Considerando que este foi um período de grande expansão econômica havia a necessidade de formar profissionais para o mercado de trabalho, e de certa forma, também preencher quadros na administração pública. Houve,