Responsabilidade social: conheça os benefícios desse compromisso para sua empresa
A responsabilidade social envolve ações desenvolvidas pelas empresas com o intuito de contribuir para uma sociedade mais justa e minimizar impactos ambientais e sociais por meio de atitudes sustentáveis. Apesar de o conceito de responsabilidade social estar muito em voga nos últimos anos, o termo começou a ser abordado no Brasil já entre as décadas