Vous recherchez des ressources sur le Fonds de finance sociale ? Commencez ici.

ConnaissanceRessources

Pratiques essentielles   Articles, Notes de recherche

L’auto-évaluation : Atteindre les 100%

Les Pratiques essentielles établissent une norme minimale pour le « comment » de la mesure d’impact. Composés de cinq pratiques essentielles, les fondements décrivent les processus et pratiques fondamentaux qu’une organisation devrait avoir mis en place pour pouvoir dire en toute confiance : « Nous mesurons l’impact ».

Lors de l’élaboration de la version 2.0 des Pratiques essentielles, l’objectif était de transmettre les éléments essentiels de la mesure d’impact sur la base des pratiques communes aux nombreux outils et approches disponibles à l’échelle mondiale. Nous avons fait preuve de rigueur – nous avons examiné plus de 500 outils et ressources !

Nous nous sommes également fixé comme objectif que les Pratiques essentielles rencontrent les organisations à vocation sociale (OVS) là où elles se trouvent. L’indicateur que nous avons choisi pour cette mesure : 60 % des OVS devraient être en mesure d’obtenir un score de 100 % lors de l’auto-évaluation des Pratiques essentielles.

Jusqu’à présent, nous n’avons pas atteint cet objectif. Bien moins de 60 % des organisations qui participent à l’auto-évaluation répondent « oui » à chaque question. Cependant, question par question, aucune question n’a un taux de réponse « oui » inférieur à 82%. Il n’y a donc pas une sous-pratique qui fait clairement trébucher la plupart des organisations.

Les Pratiques essentielles constituent une norme minimale – elles ne sont pas censées être difficiles ou excessivement rigoureuses. En examinant les soumissions jusqu’à présent, nous constatons que des organisations que nous connaissons bien et dont nous savons qu’elles ont de bonnes pratiques en matière de mesure d’impact ont répondu « non » à des questions auxquelles nous pensons qu’elles pourraient répondre « oui ».

Nous nous posons donc des questions : Les organisations qui se soumettent à l’évaluation sont-elles trop dures envers elles-mêmes ?

Voici ce que nous constatons :

  • Les sept questions les moins bien notées de l’auto-évaluation étaient réparties dans quatre des cinq sous-pratiques (toutes sauf la première, « Décrivez le changement que vous envisagez »).
  • Ces questions n’ont suscité qu’une réponse négative de la part de 15 à 18 % des organisations qui ont procédé à l’auto-évaluation.
  • La plupart des organisations qui n’obtiennent pas un score de 100 % en sont très proches ! Moins de 20 % des organisations ont enregistré des scores inférieurs à 50 %.

Examinons de plus près les 7 questions qui suscitent le plus de réponses négatives et étudions ce qu’il faut faire pour pouvoir répondre par l’affirmative.

icon

2.3 Affiner les indicateurs de manière à ce qu’ils soient spécifiques dans le temps et qu’ils puissent être observés ou mesurés. Nos indicateurs qualitatifs et/ou quantitatifs sont assortis d’échéances claires et se concentrent sur des changements qui peuvent être observés ou mesurés.

(17% des OVS ont répondu « non »).

Sous-pratique de « l’utilisation des indicateurs », la question 2.3 demande aux OSP s’ils ont pris le temps d’évaluer et d’ajuster leurs indicateurs pour s’assurer qu’ils sont utiles. Un bon indicateur doit clairement indiquer le changement qu’il mesure, et sur quelle période. Démontrer la valeur explique cela ici à la page 18 ; Better Evaluation fournit également des conseils utiles ici.

Si vous avez pris le temps de réfléchir aux indicateurs que vous utilisez et que vous pensez qu’il s’agit des meilleurs indicateurs que votre organisation puisse utiliser à l’heure actuelle, vous pouvez répondre « oui » à cette question.

icon

3.3 Disposer d’un plan clair pour la collecte des données. Nous planifions notre collecte de données, en précisant qui collecte les données, comment nous les collectons, auprès de qui et quand.

(15 % des OVS ont répondu « non »).

Sous le titre « Collecter des informations utiles », cette sous-pratique demande aux organisations de disposer d’un plan ou d’un processus clairement articulé sur la manière dont les données seront collectées. Il n’est pas nécessaire que ce plan soit élaboré ou compliqué ; il s’agit simplement de s’assurer que la collecte des données se fait de manière cohérente et réfléchie. Exemples :

  • Un coordinateur de programme mènera de brefs entretiens d’admission avec tous les nouveaux participants au programme. Les réponses sont transcrites dans une feuille de calcul pendant l’entretien, ou écrites et saisies par la suite.
  • L’équipe chargée de la communication envoie une enquête annuelle à notre base de données chaque année en juillet. Les questions restent en grande partie les mêmes chaque année, ce qui nous permet de suivre les changements. Les données sont stockées dans notre outil d’enquête en ligne et exportées dans une feuille de calcul que nous téléchargeons dans notre logiciel de mesure d’impact.
  • Notre personnel sur place procède au comptage des participants lors de chaque session et l’inscrit dans les registres quotidiens. Le coordinateur administratif saisit ces données dans notre logiciel de mesure d’impact chaque semaine.

Si vous avez mis en place ce type de processus de collecte de données (même s’il ne s’agit que d’un point de départ et que vous savez que vous allez vous en inspirer), vous pouvez répondre par l’affirmative à cette question.

Les trois questions suivantes relèvent toutes de la pratique « Évaluer la performance et l’impact ».

icon

4.2 Rassemblez, organisez et examinez vos informations. Nos données sont stockées de manière à être utiles et accessibles à ceux qui apprennent à connaître et à améliorer l’organisation. Elles font l’objet d’un examen périodique (mensuel, annuel et selon les besoins).

(16% des OVS ont répondu « non »).

Cette question vise à déterminer si vous êtes en mesure d’examiner les données collectées et stockées. Avez-vous mis en place un processus de vérification périodique pour vous assurer que vos données sont accessibles et utiles à ceux qui en ont besoin ?
Il peut s’agir de s’assurer que votre logiciel de mesure d’impact dispose d’un système de reddition de comptes permettant de vérifier d’un coup d’œil vos principales mesures. Ou encore, un membre de l’équipe peut utiliser périodiquement la fonctionnalité d’Excel pour générer des tableaux ou des graphiques afin de représenter les données collectées dans un format plus digeste.

Si vous redditionnez régulièrement vos données à l’intention de la direction ou des organismes bailleurs de fonds, vous pouvez répondre par l’affirmative à cette question.

icon

4.3 Analyser les données. Nous analysons nos données pour comprendre si et comment les changements se produisent.

(15 % des OVS ont répondu « non »).

Cette question vise à déterminer si vous allez au-delà de la simple observation de vos données. Constatez-vous des tendances ? Réfléchissez-vous activement à leur signification et à la manière dont vous pourriez utiliser ces informations pour améliorer vos produits ou vos services ?

Si vous comparez vos données à un résultat souhaité, à un objectif idéal ou à des performances passées, vous pouvez répondre par l’affirmative à cette question.

icon

4.5 Fonder les conclusions relatives à l’impact sur des hypothèses raisonnables. Nous avons examiné les changements qui auraient pu se produire même sans notre travail et nous modérons nos affirmations si nécessaire.

(15 % des OVS ont répondu « non »).

Ici, l’auto-évaluation vous demande si vous avez identifié les points sur lesquels vos données pourraient être erronées. Évitez-vous activement de surestimer l’impact de votre organisation ? Vos résultats sont-ils présentés de manière à donner à vos lecteurs une image honnête et nuancée de la qualité de vos données ? Si vous incluez une ou deux phrases sur les limites des données que vous avez collectées lorsque vous les présentez à un public (par exemple, en soulignant que d’autres facteurs ont pu contribuer au changement ou aux difficultés rencontrées lors de la collecte des données), vous pouvez répondre par l’affirmative à cette question.

Les deux dernières questions que nous examinons relèvent de la rubrique « Communiquer et utiliser les résultats ».

icon

5.2 Choisissez des méthodes de rapport et des styles de communication adaptés aux besoins des différents groupes de personnes concernés par votre travail. Nous créons quelques redditions de comptes différentes (longueur, détail, niveau de lecture et langue différents) afin qu’elles soient accessibles aux groupes concernés par notre travail.

(18% des OVS ont répondu « non »).

Cette section vous demande d’examiner la manière dont vos résultats sont communiqués et utilisés. Dans cette question, l’auto-évaluation demande : « êtes-vous attentif à la manière dont vous atteignez votre (vos) public(s) cible(s) ? » Par exemple, nous avons observé que la plupart des organisations partagent les informations relatives à l’impact sur un site web convivial, dans un rapport plus détaillé et lors de conversations avec les clients.

Si vous produisez un rapport détaillé pour des publics spécifiques (comme votre conseil d’administration), mais que vous partagez ensuite les principales conclusions sur les médias sociaux, ou que vous incluez les apprentissages dans d’autres communications publiques, vous pouvez répondre par l’affirmative à cette question.

En fait, si votre organisation partage les résultats et les apprentissages de différentes manières pour atteindre différentes personnes, vous pouvez répondre « oui » à cette question.

icon

5.3 Rendre compte régulièrement des performances et de l’impact. Nous publions régulièrement des mises à jour sur les principales réalisations (ou non) et modifications (ou non) de notre organisation.

(15 % des OVS ont répondu « non »).

Votre organisation a-t-elle mis en place des processus pour communiquer régulièrement avec votre communauté ? Si vous disposez d’une lettre d’information destinée aux donateurs, d’une plateforme de médias sociaux que vous entretenez ou d’un site web qui est périodiquement mis à jour, il est probable que vous fassiez régulièrement le point sur les réalisations de votre organisation.

Si votre organisation a les moyens de communiquer régulièrement avec les personnes que vous servez et vos sympathisants, vous pouvez probablement répondre « oui » à cette question.

Compte tenu de ce contexte supplémentaire, votre organisation répondrait-elle différemment à l’une ou l’autre de ces questions ?

Si c’est le cas, nous vous encourageons à refaire l’auto-évaluation ! Vous pouvez également passer en revue les questions relatives aux cinq sous-pratiques hors ligne avec votre équipe à l’aide de cette feuille de travail PDF.

Si vous pouvez maintenant répondre « oui » à chaque question, votre organisation a adopté avec succès les Pratiques essentielles !

S’il reste des questions auxquelles vous ne pouvez pas répondre par l’affirmative, nous espérons que ces informations vous aideront à mieux gérer les étapes nécessaires pour obtenir une réponse positive.

Vous avez des questions, des suggestions ou un retour d’information général sur l’auto-évaluation ? Nous serions ravis de vous entendre ! N’hésitez pas à nous contacter.

Ne manquez pas les nouvelles, les mises à jour et les ressources de l’Approche commune de la mesure d’impact – inscrivez-vous à notre lettre d’information ci-dessous et suivez-nous sur LinkedIn, YouTube et BlueSky.