Em Pauta
Recentes
Imds apoia o RS na estruturação do sistema de monitoramento da Política de Proteção à Trajetória do Estudante
O monitoramento e a avaliação da Política de Proteção à Trajetória do Estudante têm orientado a agenda do Imds nos últimos meses. Em outubro, a colaboração com equipes da Secretaria de Educação do Rio Grande do Sul resultou na primeira oficina conjunta entre as instituições. O encontro teve como objetivo discutir formas de apoiar a implementação da política, cujo desenho foi subsidiado pelo diagrama de causas do abandono e da evasão escolar elaborado a partir dessa parceria.
Comprometido em apoiar políticas públicas capazes de reduzir barreiras à mobilidade social, o Imds avançou para a etapa de continuidade da Teoria de Mudança (TdM), ferramenta essencial para orientar o desenvolvimento do plano de monitoramento. Na última semana de novembro, a equipe do instituto voltou a se reunir com a Secretaria de Educação para acompanhar a implementação da política e avaliar seus primeiros resultados.
O primeiro dia da oficina começou com a construção geral do plano de monitoramento, desde a definição dos indicadores até como esses dados serão utilizados pela gestão. Partiu-se do que já havia sido produzido anteriormente a partir da TdM, com a cadeia lógica organizada em insumos, atividades, produtos, resultados e impacto final. Portanto, um ponto central foi destacar como o monitoramento existe para identificar onde possíveis falhas estão, de que tipo são e como corrigi-las rapidamente para evitar que a política perca ou reduza efetividade.
Com os conceitos já compreendidos, a oficina avançou para uma discussão sobre a escolha do quê monitorar. Nessa etapa, os participantes foram divididos em três grupos para revisar 13 atividades previamente priorizadas. A equipe do instituto introduziu, então, o conceito das “questões avaliativas”, responsáveis por orientar toda a lógica do sistema. Elas estabelecem a ordem de definir a pergunta, o indicador que melhor a representa, entender como interpretá-lo e, por fim, quais ações tomar.
Em conjunto, os dois grupos chegaram à conclusão de que um bom indicador deve ser específico, mensurável, viável, atribuível à política e ter periodicidade definida. Por isso, indicadores muito genéricos, como “professores preparados” ou “estudantes infrequentes”, precisam ser detalhados, apresentando numerador, denominador e critérios claros, para que o monitoramento se configure da melhor forma possível.
O primeiro dia foi finalizado com os grupos elaborando as próprias questões avaliativas relacionadas às atividades e riscos. A partir desse primeiro passo, os participantes deveriam cruzar suas questões com os indicadores existentes e decidir se era preciso criar novos indicadores ou remover os que soaram desconectados.
No dia seguinte, as equipes abriram a oficina revisitando a importância das questões avaliativas como guias de todo o processo. Foi discutido como muitas das perguntas formuladas no dia anterior eram amplas demais, e que seria necessário trazer mais precisão. A partir dessas indagações, uma das respostas formuladas foi que a medição de engajamento, adesão e qualidade de implementação da política são absolutos e precisam ser traduzidos para comportamentos observáveis e mensuráveis.
Outra questão que auxilia o monitoramento é definir os períodos, unidades, frequência de coleta, critérios de corte e a forma exata de cálculo de cada indicador, de modo que ele exista em seu maior nível de precisão. Indicadores que dependem de informações inexistentes, ou indicadores que parecem simples, mas não têm definição operacional, por exemplo, dificultam a organização precisa do monitoramento.
De forma paralela, o desafio vai além de medir os dados, mas envolve construir uma rotina institucional que olhe e analise os resultados obtidos, identificando possíveis gargalos e propondo ajustes. Isso implica também em garantir que escolas e órgãos regionais entendam e usem as informações de maneira correta. Depois disso, o grupo trabalhou diretamente no material, revisando os indicadores listados para cada atividade, ajustando nomenclaturas e discutindo se cada um realmente respondia às perguntas avaliativas.
A parte final do segundo dia foi dedicada à organização do que viria depois. Uma vez consolidado o entendimento de que muitos indicadores ainda precisariam ser especificados tecnicamente em uma etapa posterior, a equipe do Imds pediu que os grupos finalizassem suas perguntas avaliativas e os indicadores correspondentes. Também reforçaram que o processo não termina ali: o sistema de monitoramento é contínuo, sofre ajustes e evolui conforme a implementação é iniciada e novas necessidades aparecem.
Ao término da oficina colaborativa, os grupos se depararam com uma sequência lógica de questões e indicadores, um entendimento mais aprofundado dos desafios e uma perspectiva mais tangível de como o sistema de monitoramento da política funciona. Apesar de exigir um tempo considerável para coleta, análise e ação, a iniciativa é o fator que diferencia políticas bem-sucedidas daquelas que não alcançam o impacto desejado.