Processus de conception des ressources pédagogiques électroniques

By 22 October 2012

B. LES PROCESSUS DE CONCEPTION DES Ressources Pédagogiques Electroniques

Sont décrites ici les phases qui se rapportent à la création à proprement parler des RPE, mais aussi les phases très proches, très liée à cette création. Ces processus de conception sont parfois regroupés sous la désignation de « chaîne éditoriale » [INSA, 2002], ou « learning authoring process » [Kirsch Pinheiro et al., 2002].

1. Acteurs, compétences et systèmes collaboratifs

Pour amorcer la description de ces processus de création, et avant de nous focaliser sur les problématiques qu’ils sous-tendent, il nous parait nécessaire de tirer au clair « qui intervient ? », et « dans quel environnement ? ». En effet, la mise à disposition des ressources pédagogiques électroniques apparaît de manière récurrente, comme étant la résultante du travail d’un collectif d’acteurs, ces acteurs ayant des compétences spécifiques, et les exprimant au sein d’un système collaboratif organisé.

a) Quelles compétences, pour quelles catégories d’acteurs ?

Les auteurs de [Kirsch Pinheiro et al., 2002] estiment que « de toute évidence, la conception des RPE est l’affaire d’une équipe ». Qui plus est, ils pensent que les processus de conception de ressources pédagogiques électroniques (ce qu’ils désignent par « the e-learning authoring process ») requièrent l’interaction d’une équipe multidisciplinaire. Tentons donc d’abord de distinguer les « catégories d’acteurs » impliquées :
– Les enseignants. L’étude [Kirsch Pinheiro et al., 2002] préconise qu’ils soient plusieurs, pour l’élaboration d’une RPE.
– Les documentalistes.
– Les bibliothécaires.
– Les experts en multimédia.
– Les personnels administratifs.
– Les techniciens (Web designers, administrateurs de bases de données, etc.).

Quelles sont leurs compétences spécifiques ? Qu’est ce que chacun apporte de particulier ? Pour aller plus loin : existe-t-il, pour l’heure, un professionnel pour chacune des tâches à exécuter ? Quels sont les nouveaux besoins professionnels ? C’est ce qu’il faudra étudier.

Recentrons-nous maintenant plus spécifiquement sur les compétences nécessaires au traitement du contenu intellectuel des ressources pédagogiques électroniques. Pour les auteurs de [Mermet et al., 2003], « savoir décrire un contenu ne s’improvise pas, c’est le métier des bibliothécaires et des documentalistes ». Ils estiment d’autre part que « les BU sont trop peu impliquées dans les projets d’utilisation des technologies de l’information et de la communication pour améliorer l’enseignement universitaire. Or l’indexation de contenu informationnel est une mission historique des bibliothèques et centres de documentation universitaires ». Dans une autre étude [Kreczanik T., 2003], nous partagions cet avis. Certains sont également d’avis que le travail de caractérisation des documents par des métadonnées doit revenir aux bibliothécaires :
« Les métadonnées sont comme leur nom l’indique des données sur les données ce qui équivaut dans la pratique millénaires des bibliothécaires à savoir distinguer l’information primaire de l’information secondaire » [Gemme, 2003].

Mais comme remarque [Bourda Y., 2002], « bien que les techniques d’indexation soient maîtrisées par les documentalistes, le problème qui se pose ici est différent, car il s’agit d’indexer non seulement un livre entier, mais aussi ses chapitres, voire ses paragraphes. De toute évidence, le potentiel existe déjà, mais il convient de le réajuster, puis de l’orchestrer.

b) Dans quels systèmes organises ?

Pour assurer la qualité des RPE, il est nécessaire d’en organiser l’élaboration collaborative. Ceci passe par la définition et la conception de systèmes collaboratifs organisés. La définition et la conception de ces systèmes collaboratifs organisés fait l’objet de nombreux travaux, qui se déroulent principalement dans les lieux même où l’on utilise les RPE, c’est-à-dire les universités, et les écoles d’ingénieurs (INSA23 et UTC24 notamment). Les sociétés informatiques se sont, elles aussi, lancées dans le développement de tel outils.

Commençons d’abord par les solutions commerciales. Jacques Perriault [Perriault, 2002] rappelle que « la question de mettre sur le marché des « logiciels coquilles », c’est-à-dire des logiciels qui permettraient aux auteurs de cours de ne pas se préoccuper des formats d’enregistrement des diverses composantes de leurs cours, s’est très vite posée. Cela a donné naissance à des outils logiciels appelés « plates-formes », qui gèrent les supports, les formats des cours, et les environnement pédagogiques ». Ces plateformes, elles peuvent être de plusieurs types : on distingue les LCMS (Learning Content Management System), les LMS (Learning Management System), et les CMS (Content Management System). « Le LMS, considéré dans bien des cas comme le cœur du dispositif e-formation, a pour but la gestion et l’organisation de la formation. Le CMS a pour but de simplifier la création et la gestion du contenu en ligne ». Quant au LCMS, il cumule les fonctionnalités des LMS et des CMS. Il convient finalement de noter que de plus en plus, on voit apparaître des plateformes issues du monde « libre ».

Continuons maintenant par les solutions « ouvertes ». L’étude de [Kirsch Pinheiro et al., 2002] détaille le fonctionnement d’un environnement collaboratif de conception de ressources pédagogiques électroniques. L’environnement collaboratif qu’il propose, est fondé sur la base d’un système de workflow. [Mingasson, 2002] rappelle que l’outil worflow, au même titre que l’outil groupware, constitue ce que l’on appelle le « Computer Supported Cooperative Work » ou CSCW, ce qui peut se traduire par « travail coopératif assisté par ordinateur ». L’objectif de ces outils est de « faire mieux et plus vite ». De notre point de vue, le workflow est un système intégré de ressource à la fois informatiques et humaines, qui définie clairement toutes les activités d’un processus – de création de ressources pédagogiques électroniques, dans notre cas –, leur relation, leur coordination, leur synchronisation, leur exécution et leur contrôle. Une fois le workflow défini, et mis en place, il se régule, s’exécute et se contrôle lui-même. Le modèle de workflow défini dans [Kirsch Pinheiro et al., 2002] comporte deux étapes phares : la phase de pré- conception (des RPE), où le coordinateur défini et met en place le workflow, et la phase de conception (des ressources pédagogiques électroniques), où le workflow initialement défini est exécuté. La résultante de l’exécution du workflow est la génération d’une nouvelle RPE. Ces étapes sont à renouvelées pour toutes nouvelles ressources pédagogiques électroniques à produire. D’un point de vue plus technique, le modèle de workflow qu’ils présentent se base sur le WEB, utilise des standards du WEB tels XML, SMIL, SVG et WEBDAV, ainsi que des logiciels ouverts.

2. Caractérisation – Indexation.

Deux mots qui désignent la même activité ? Pas exactement. Le terme « caractérisation », qui est employé par certains chercheurs, en étant plus général, est aussi plus vague. Nous lui préférons celui d’« indexation », car il réfère à une pratique professionnelle ancestrale, assise, robuste : celle des bibliothécaires. Dans la tradition bibliothéconomique, l’indexation consiste à déterminer les concepts thématiques prépondérants des ouvrages que l’on ajoute au fonds documentaire. Pour cette raison, il nous semble que le terme indexation est à la fois plus précis, et plus universel.

L’indexation des ressources pédagogiques électroniques se fait via des métadonnées : « l’indexation des objets pédagogiques est une nécessité absolue si l’on veut les retrouver. Pour cela, il faut leur ajouter des informations de nature sémantique. Ces informations sont des métadonnées ». [Bourda, 2002]

a) Indexation suivant les métadonnées du LOM

Nous dressons ici une présentation, et une rapide critique des métadonnées du LOM dans sa version v1.0. Nous nous appuyons sur [Gemme, 2003] et sur [Michel et al., 2003, 1].

Les métadonnées du LOM se répartissent en 9 catégories de bases, également appelées « facettes » de base. On distingue ensuite des sous-catégories. Chacune peut admettre soit une valeur – c’est alors une « instance unique » –, soit plusieurs.

1/ général : instance unique, cette catégorie regroupe l’information générale qui décrit la ressource dans son ensemble. On y trouve des données sur l’identifiant de l’objet, son titre, sa description, la liste des langues utilisées, une liste de mots clés, l’étendue de la ressources (géographie, culture), le type de structure (collection, linéaire, hiérarchiqu e, etc.), son niveau de granularité (de 1 à 4, 1 désignant un cours entier).

2. CycleDeVie : Cette catégorie décrit d’une part l’historique de la ressource, et d’autre part les personnes qui ont affecté cette ressource durant son évolution (instance unique). Toutes les sous catégories sont fondamentales pour pouvoir faire fonctionner un système d’information structurée avec métadonnées. La plupart de ces catégories sont bien connues des bibliothécaires, mais doivent être modifiées en conséquence.

3. MétaMétaDonnées : Cette facette décrit l’information spécifique à l’enregistrement des métadonnées : la date de contribution, les différents contributeurs à l’établissement des métadonnées, etc. Il est à souligner que la non confusion entre création des métadonnées et création de ressources doit être soulignée comme primordiale. Cette catégorie est également fondamentale pour pouvoir faire fonctionner un système d’information structurée avec métadonnées. Les sous- ensembles que contient cette catégorie étaient pour la plupart inconnus des bibliothécaires qui y ont été confrontés lorsqu’ils ont construit des bibliothèques numériques.

4. Technique : Cette catégorie définit les exigences techniques en terme de navigateur, de système d’exploitation, ou des caractéristiques comme le type des données, le format, la taille de l’objet pédagogique (en octets), sa localisation physique (URL Uniform Ressource Locator ou URI Uniform Ressource Identifier), sa durée, etc.

5. Pédagogie : cette catégorie se décline en onze sous-catégories : type d’interactivité, types de ressources pédagogiques, niveaux d’interactivité, densité sémantique, rôle présumé de l’utilisateur final, contexte, tranche d’âge, difficulté, temps d’apprentissage moyen, description et langage. C’est souvent par ces sous-catégories que l’on améliore l’exploitation du contenu pédagogique. Il est par contre fondamental de bien comprendre que les deux items densité sémantique et description ne sont pas destinés à décrire la ressource pour la retrouver ultérieurement ou la classer.

6. Droits : Cette catégorie concerne les droits (copyright) liés à la ressource, éventuellement son coût. A priori, il semble qu’il s’agit là d’un bricolage normatif qui a de fortes chances d’être remis en cause par les normes du e-commerce et de la couche MPEG 21 qui décriront les conditions d’échange de l’information multimédia.

7. Relation : cette catégorie couvre les relations ou lies avec d’autres objets pédagogiques en précisant le type de relation (« …est requis par… », « …est une partie de… »).

8. Annotation : Cette partie regroupe les annotations ou commentaires.

9. Classification : la classification est une facette importante du modèle des métadonnées puisque c’est elle qui permet la description et la requête sémantique d’une ressource. Cette partie prévoit qu’il peut y avoir plusieurs instances de classifications référencées pour une même ressource (en principe limité à 10 entrées non ordonnées). Nous allons détailler plus finement cette catégorie, puisqu’elle a directement trait à l’une de nos entrées de recherche. L’item classification se subdivise donc en 4 sous-items :
9.1 Objectif qui se décline selon un vocabulaire ouvert mais avec des usages conseillés de 3 à 10 : discipline, idée, prérequis, objectifs pédagogiques, restriction d’accessibilité, niveau pédagogique, niveau de compétence, niveau de sécurité.
9.2 chemintaxum : organisation d’une taxinomie selon une hiérarchie de termes (taxa).
9.2.1 Source : décrit le nom du système de classification
9.2.2 Taxum : ce sont les éléments constitutifs du chemin taxinomique ou plutôt de l’escalier taxinomique partant de l’entrée générale pour conduire à une entrée particulière. Le nombre de taxum (nœuds ou marches) est compris de 1 à 9, les valeurs normales allant de 2 à 4
9.2.2.1 id : l’identifiant du taxum
9.2.2.2 l’étiquette texte du taxum
9.3 Description est relative à la classification : objectif, idée, niveau de compétence.
9.4 Mots-clefs (relatifs eux aussi à la classification). Cet item doit aussi être très sérieusement discuté entre pédagogues et documentalistes, à la fois sur le plan technique et sur le plan des usages.

Le rapport [Gemme, 2003] conclue son analyse critique, en soulignant l’extrême difficulté de l’utilisation du LOM. En l’état, ces normes font donc plutôt office d’un « super » catalogage de ressources, que d’une réelle aide à la mise en place de dispositifs efficaces de transferts de savoirs. Toutefois, il reconnaît que le LOM est incontournable.

b) Indexation automatique, semi-automatique, et conceptuelle

Voyons maintenant les aspects techniques et informatiques de l’indexation. Commençons par le courant linguistique. Grâce aux progrès récemment réalisés en terminologie computationnelle, il est désormais possible d’extraire des unités signifiantes à partir de textes. Dans sa thèse de doctorat, Fidelia Ibekwe [Ibekwe, 1997] insiste bien sur le fait qu’« il existe de véritables méthodes pour traiter automatiquement des masses de corpus textuels ». Les différents outils et méthodes ainsi mis au point peuvent se mettre au service de l’indexation. Parmi ces outils, on peut notamment citer SPIRIT, TINA et CLARIT, qui retiendrons davantage notre attention dans la poursuite de nos travaux. Nous estimons capitale, pour notre étude, la prise en compte du potentiel de ces outils et méthodes. Toutefois, notons bien qu’il ne s’agit pas pour nous de développer un nouvel outil de traitement, ni d’en retenir un en particulier parmi ceux qui existent. Il s’agit plutôt de capitaliser un certain nombre de savoir-faire que ces outils et méthodes ont générés, et d’intégrer ces savoir-faire dans le dispositif de traitement plus global que nous proposons de modéliser.

A bien des égards, l’indexation totalement automatique est intéressante. Elle serait notamment une réponse au problème de subjectivité que pose l’indexation manuelle. En effet, dans le LOM il existe des descripteurs que l’on peut qualifier d’« objectifs » (« titre », « auteur », « langue », etc.), et d’autre « subjectifs » (« densité sémantique » notamment). Yolaine Bourda [Bourda, 2002] remarque d’ailleurs que ce sont justement ces descripteurs « subjectifs » qui apportent une véritable plus-value à l’indexation des ressources pédagogiques électroniques. En confiant la tâche d’indexation à une machine, on évincerait alors ce problème. Toutefois, certains estiment que les processus intellectuels impliqués dans une activité d’indexation sont tellement complexes, qu’il est impossible de les automatiser totalement. A l’inverse, d’autres considèrent qu’ils seraient entièrement automatisables, mais reconnaissent que les traitements nécessaires sont d’une grande complexité.

Présentons très succinctement les principes de fonctionnement de l’indexation automatique. Pour extraire les thèmes importants des documents, l’indexation automatique doit être fondée sur un modèle, et sur une méthode. Parmi les modèles existants, on peut citer le modèle statistique, le modèle linguistique et le modèle conceptuel. Pour nombre de chercheurs en traitement automatique des langues (TAL), et notamment [Ibekwe, 1997], l’amélioration de la performance des systèmes d’indexation passe par l’intégration des modèles linguistiques et statistiques. De nombreux systèmes d’indexation automatique allient donc ces deux approches, linguistique pour extraire des SN (syntagmes nominaux), et statistiques pour sélectionner parmi ces SN, ceux qui sont aptes à être des descripteurs.

En parallèle à ces outils de traitement reposant sur la linguistique, Yolaine Bourda [Bourda Y., 2003] rappelle que « des logiciels peuvent prendre en charge automatiquement une partie des descripteurs et peuvent aider à la saisie des autres descripteurs ». On paramètrerait ainsi un logiciel, qui, en fonction du contexte, incrémenterait des valeurs dans certaines catégories de métadonnées. Mais il s’agit avant tout d’interfaces, entre les systèmes de représentation, et l’indexeur. En l’état, nous estimons donc que l’utilité de ces logiciels est assez limitée, et uniquement adaptable dans des systèmes pédagogiques très ciblés, ets homogènes.

Il existe une autre alternative, aux méthodes totalement informatiques, et purement manuelles. On a vu en effet se développer des « systèmes mixtes », que l’on appelle également « processus supervisés », ou encore « systèmes d’indexation assistée ». C’est alors le système informatique qui propose des descripteurs, et ensuite, c’est l’utilisateur qui décide de les valider ou non. Une doctorante, proche du projet Doc’CISMeF, travaille justement sur l’automatisation des taches des documentalistes, pour aboutir à un PreCISMEF comme il existe à ce jour un PreMEDLINE. L’indexation qu’elle prévoit serait ainsi automatique dans un premier temps, puis évalué dans un second temps par un documentaliste de l’équipe CISMEF. PreCISMEF UMVF s’appuie sur XML [Douyère et al., 2003].

Il existe pour finir une autre piste : celle de l’indexation conceptuelle. Yannick Prié [Prié Y., 2000] la définie comme « recouvrant toute connaissance symbolique ajoutée à un document pouvant servir dans le cadre de « calculs » sous-tendus par l’exploitation de ces documents, pourvue que cette connaissance soit utilisable aussi bien par l’homme que par la machine ». Il conviendra de creuser ultérieurement cette piste, résolument orientée « informatique ».

3. Formalisation des métadonnées

Le recours à un ensemble de métadonnées standardisées, pour indexer les ressources pédagogiques électroniques, ne résout malheureusement pas tous les problèmes. « Celui-ci étant élaboré, il faut alors passer à son codage, c’est-à-dire à la représentation formelle des descripteurs » [Bourda, 2002].

a) Ressource description framework (rdf)

Pour Yolaine Bourda, « la solution qui permet de représenter la sémantique et qui s’impose est RDF » [Bourda Y., 2002]. C’est également RDF qui est utilisé dans le cadre du projet Doc’CISMeF [Douyère et al., 2003]. RDF, issu des travaux du W3C, propose un modèle pour la représentation des métadonnées sur le WEB.

b) Cartes de topiques (Topic Maps)

Pour [Abel et al., 2003] « un formalisme candidat intéressant pour la représentation d’ontologies dans le cadre de mémoire organisationnelle est sans nul doute celui des cartes de topiques ». Les cartes de topiques ont été crées au début des années 1990 par le groupe de documentalistes Davenport pour répondre à une problématique d’échange de documents électroniques, et plus particulièrement celui de leur index. Elles sont devenues un standard au début des années 2000. Elles se basent essentiellement sur 3 notions : les topiques (qui sont les représentations informatique d’un sujet plongé sans un contexte particulier), les associations (qui existent entre topiques), et les occurrences (qui permettent de décrire l’accès aux ressources, à proprement parlé).

4. Structuration des ressources pédagogiques électroniques

Pour ce qui est de la structuration des RPE, les principaux développements s’appuient sur XML (eXtensible Markup Langage). Il s’agit d’un langage de description de données. Il est issu de SGML (Standart Generalized Markup Language), qui est une norme ISO. XML représente un bon compromis entre la « lourdeur » de SGML et le « peu de rigueur » de HTML, à la fois en termes de fonctionnalités, de robustesse de structuration, et de facilité de programmation. On peut aussi l’envisager comme « un SGML destiné au Web ».

XML fournit une information structurée, s’auto-décrivant. Chaque document XML peut en effet revêtir une structure particulière, mais contient la grammaire (une « DTD », ou bien un « schéma XML ») nécessaire pour décoder et comprendre cette structure. Il est à ce sujet important de savoir qu’avec XML, les parties « données » et « structure » sont séparées (à la différence de HTML, où elles sont intimement liées). Son extensibilité (c’est à dire la possibilité de rajouter des balises) est illimitée. Un document XML ne décrit pas en soit la représentation visuelle d’un document ; cette tâche est confiée aux feuilles de styles. Ce principe de feuille de style est très souple ; on peu en effet à partir d’un document XML, déclarer l’utilisation de feuilles de styles spécifiques, et ainsi générer autant de formats d’affichage, d’impression, de diffusion, etc. que l’on souhaite.

XML permet de stocker et d’échanger des données structurées, indépendamment des programmes et systèmes qui produisent et utilisent ces données. Il a vocation à devenir le format d’échange universel des données structurées qui transitent sur le Web.

Cette première série de processus a permis d’aboutir à des ressources pédagogiques électroniques « prêtes à l’emploi ». Nous allons maintenant étudier les processus qui visent à « manipuler » ces ressources nouvellement produites.

Lire le mémoire complet ==> (Vers une rationalisation de l’indexation des ressources pédagogiques électroniques…)
Mémoire De DEA – Ingénierie de l’Information et de la Documentation
Université JEAN-MOULIN LYON 3 – Sciences de l’Information et de la Communication