Categoria: Direito do Trabalho

Direito do trabalho é o conjunto de normas jurídicas que regem as relações entre empregados e empregadores, são os direitos resultantes da condição jurídica dos trabalhadores.

Estas normas, no Brasil, estão regidas pela Consolidação das Leis do Trabalho (CLT), Constituição Federal de 1988 e várias leis esparsas.

Surge como autêntica expressão do humanismo jurídico e instrumento de renovação social.

Constitui atitude de intervenção jurídica em busca de um melhor relacionamento entre o homem que trabalha e aqueles para os quais o trabalho se destina.

Visa também a estabelecer uma plataforma de direitos básicos.

Portanto, a definição de direito do trabalho é o conjunto de normas e princípios que regulamentam o relacionamento entre empregado e empregadores.

Fique à vontade para entrar em contato conosco, pois nosso objetivo é assegurar seu Direito!
Leia nossas noticias e se inscreva no newsletter para receber as novas notícias em seu e-mail.

Atenciosamente,

O empregador não contribuiu para o INSS e, agora?

1. Introdução O artigo tem como fim auxiliar aqueles que desejam se aposentar, mas não conseguem, pois em um período o empregador não fez a devida contribuição previdenciária. 2. Inscrição e filiação no Regime...

Sofreu acidente do trabalho? Fique por dentro

1. Dano material, dano moral e dano estético decorrentes de acidente de trabalho O acidente do trabalho, nos termos do artigo 19 da Lei 8.213/91, é o o evento ocorrido com o segurado a...

Empregado receberá R$ 214 mil por causa de acidente de trabalho

Acidente de trabalho Um empregado vai ser indenizado, pois ocorreu um acidente de trabalho, onde houve a perda parcial de três dedos da mão direita ao tentar laçar um boi na propriedade. O fazendeiro recorreu...