Projets
Patrimoine philosophique du Québec
Jean-Claude Simard
simard.jean-claude@uqam.ca
Il n’existe actuellement aucun ouvrage de référence sur l’ensemble de la philosophie au Québec, discipline dont les origines pédagogiques remontent pourtant à la Nouvelle-France du XVIIe siècle et qui a contribué à façonner durablement le visage culturel québécois. Si l’histoire de la musique et de la littérature québécoises, par exemple, sont fort bien documentées, force est de constater qu’il n’en est pas de même pour la philosophie. Mis à part quelques textes de base sur son historiographie (Lamonde, 1972 ; Houde, 1979), son enseignement (Lamonde, 1980) ou des penseurs isolés (Beaudry sur Lavigne, 1985 et Houde, 1986), c’est presque le désert. Le récent bilan sur la pensée francophone, dirigé par Klibansky et Ayoub (1998), a bien comblé une partie de ce vide, mais il a aussi montré l’immensité du travail qui reste à accomplir. L’objectif du projet Patrimoine philosophique du Québec consiste justement à remédier à ce manque flagrant, en mettant sur pied un site Internet de référence sur la philosophie québécoise, son histoire et ses multiples manifestations.
1. Objectifs du projet
Dire que notre tradition philosophique est méconnue constitue un euphémisme : beaucoup de gens ignorent jusqu’à son existence ou, s’ils la connaissent, s’interrogent sur sa valeur réelle. Il existe pourtant une création philosophique importante au Québec. Nous croyons qu’il faut y donner accès.
Le projet poursuit six objectifs :
- accréditer l’existence d’une philosophie québécoise;
- sauver de l’oubli et préserver les différentes manifestations de la pensée philosophique au Québec, au moment où de nombreuses sources sur papier disparaissent;
- permettre au grand public d’avoir accès à ce patrimoine philosophique;
- offrir aux chercheurs le matériel nécessaire à la mise en marche ou à la poursuite de leurs travaux;
- offrir aux enseignants et aux étudiants, de tous les niveaux d'enseignement mais principalement des collèges et des universités, un outil pédagogique de premier ordre;
- rassembler les acteurs et les amis de la philosophie au Québec autour d’un projet commun lié aux humanités numériques.
2. Pourquoi un site Internet?
S’il n’existe pas d’ouvrages présentant dans son ensemble les textes de la tradition québécoise en philosophie, il n’existe pas non plus de logiciels ou de sites aptes à jouer ce rôle. Or, nous assistons présentement à l’arrivée d’une nouvelle génération étudiante, celle de la réforme, rompue à l’utilisation intensive d’Internet et profondément marquée par la culture informatique. Pour elle, le concept d’humanités numériques fait sens. De sorte qu’un support interactif multimédia répond parfaitement à ses besoins et peut, pour elle ou pour ses enseignants, jouer le rôle d’un lieu d’animation sur la philosophie québécoise et son histoire. Bref, ne serait-ce que du strict point de vue pédagogique, le moment semble particulièrement propice pour mettre en place un tel site Internet.
3. Une mémoire vive du Québec philosophique
Actuellement, les outils en histoire de la philosophie québécoise sont notoirement insuffisants. Aussi est-il particulièrement difficile d’obtenir une vue d’ensemble de la richesse et de la diversité de la production québécoise en ce domaine. L’impact d’un tel projet est immense, car en ciblant les auteurs pertinents, en mettant en ligne leurs textes, en offrant une documentation exhaustive et de qualité et en proposant en outre des dossiers pédagogiques, le site offrira un panorama évolutif de notre tradition, une sorte de mémoire vive du Québec philosophique, apte à se bonifier avec les années. Il deviendra ainsi un pôle de référence et de recherche en ce domaine.
À l'heure de la mondialisation, les nations ont intérêt à bien identifier et préserver les œuvres qui ont façonné leur identité au fil des siècles. De plus, la conservation du patrimoine philosophique québécois, tant francophone qu’anglophone, ouvrira la voie à des études comparatives avec différents corpus (canadien, américain, européen…), ce qui permettra d’identifier d’éventuelles valeurs communes, voire universelles.
4. Partenariats
- Bibliothèque et Archives nationales du Québec (BAnQ)
- Société de philosophie du Québec (SPQ)
- Laboratoire d'analyse cognitive de l'information (LANCI, UQAM).
Direction
Jean-Claude Simard
Collaborateurs
Pierre Bard
Ludovic Chevalier
Julien Vallières
LATAO
Lecture et Analyse de Textes Assistés par Ordinateur (LATAO)
Jean-Guy Meunier
meunier.jean-guy@uqam.ca
Projet : Le forage conceptuel de textes assisté par ordinateur
Chercheur principal : Jean-Guy Meunier
Période : 2012-2017
Organisme subventionnaire : Conseil de recherches en sciences humaines du Canada (CRSH)
Titre du programme : Subvention savoir
Résumé :
Contexte et objectifs généraux du projet.
Secteur d’activité le plus dynamique du commerce mondial actuel, l’économie numérique et la technologie informatique qui lui est associée pénètrent et transforment l’univers des lettres, des sciences humaines et sociales ainsi que différents domaines professionnels comme le journalisme, le droit, l’édition, la bibliothéconomie. Au cœur de ces changements, opère une modification radicale du rapport de ces différents experts au texte, principalement due à l’ampleur de sa numérisation. Sur le plan de la recherche, cette modification s’est notamment manifestée par l’émergence d’une famille de méthodes appelée la lecture et l’analyse de texte assistées par ordinateur (LATAO).
Le présent projet vise à contribuer à la compréhension, au développement et à la validation de cette famille de méthodes informatiques. Il propose une nouvelle méthode originale de lecture et d’analyse conceptuelle de textes assistées par ordinateur (LACTAO 2.0), basée sur une fonction de forage conceptuel.
Volet I: Étudier les fondements théoriques de l’analyse conceptuelle.
L’analyse conceptuelle désigne un processus d’interprétation de l’organisation et de la dynamique internes d’un concept au sein d’un corpus de texte. Elle est essentielle au travail intellectuel des experts du monde académique et professionnel. Elle s’avère cependant être une pratique polymorphe, qui varie en fonction des théories du concept interpellées pour la fonder. Cela, notamment, dans la compréhension que ces théories ont de la relation entre le concept et son expression linguistique dans un texte.
Volet II: Développer une méthode de forage conceptuel.
Cette méthode a pour objectif d’extraire automatiquement d’un corpus les expressions linguistiques et les énoncés dans lesquels un concept cible se manifeste et d’en modéliser l’organisation interne sous la forme d’un réseau. Cette méthode permet d’assister le processus interprétatif qu’un lecteur met en œuvre dans son analyse d’un concept cible dans un corpus. Elle prend la forme d’une chaîne de traitement informatique modulaire. Plusieurs études de cas empiriques sont prévues pour valider la méthode.
Volet III : Implémenter un prototype informatique.
La LACTAO 2.0 nécessite une plate-forme informatique où seront implémentés, exécutés et évalués les différents algorithmes nécessaires à l’étude : segmentation de texte, d’indexation, classification automatique, etc. Ceci est réalisable sur une plate-forme flexible avec inter-opérationnalité des modules. On peut ainsi construire rapidement et expérimenter différentes stratégies de forage conceptuel, et si possible, les mettent à la disposition de la communauté.
Portée de la recherche.
- Il apporte une solution technologique originale qui, d’une part, va au-delà des technologies traditionnelles d’assistance à lecture et d’analyse de textes et, d’autre part, s’avère beaucoup plus sensible aux besoins et usages du traitement des données textuelles que d’autres grandes plates-formes de fouille de données (WEKA, RapidMiner, Orange, etc.).
- Il vise à encourager l’utilisation de l’informatique par la communauté des experts lecteurs des sciences humaines en leur offrant une technologie très proche de leur pratique interprétative effective.
- Il cherche à rendre la méthode accessible aux étudiants, tant à des fins de formation que de recherche. La plate-forme construite dans le projet permettra aux étudiants de s’approprier un univers technologique incontournable dans le contexte de l’économie numérique où l’information circule sous forme textuelle.
En somme, dans le contexte de l’économie numérique, les solutions théoriques, méthodologiques et technologiques proposées par le projet apparaissent tout aussi importantes qu’urgentes.
Projet : Lecture et analyse conceptuelle de textes assistées par ordinateur
Chercheur principal : Jean-Guy Meunier
Période : 2008-2012
Organisme subventionnaire : Conseil de recherches en sciences humaines du Canada (CRSH)
Titre du programme : Subventions ordinaires de recherche
Résumé :
Ce projet s’inscrivait en continuité avec le programme de recherche développé depuis une dizaine d’années dans le domaine de la lecture et de l’analyse de texte assistées par ordinateur (LATAO). Ce programme de recherche s’articule sur deux volets. Le premier vise l’étude des fondements théoriques et des opérations impliquées dans les différentes méthodes de lecture et d’analyse de texte dans les Lettres et les Sciences Humaines. Le second volet vise le développement de technologies informatiques capables d’émuler ces opérations et d’assister le lecteur et analyste expert à l’aide de différents algorithmes.
Le présent projet portait sur une problématique particulière de ce domaine. Son premier volet visait l’étude des fondements théoriques et des opérations impliquées dans l’une des pratiques classiques de la lecture et de l’analyse de textes : la lecture et l’analyse conceptuelle. Son deuxième volet portait sur le développement et l’expérimentation de différents algorithmes capables d’assister computationnellement cette lecture et analyse conceptuelle de texte.
Retombées du volet 1 :
La recherche liée à ce premier volet consistait à fonder théoriquement les opérations (formelles et cognitives) réalisées dans la pratique effective de l’analyse conceptuelle experte. La recherche a consisté à recenser, comparer et déconstruire cette pratique telle qu’elle est pratiquée dans différentes disciplines comme la philosophie, la littérature, la théologie, la philologie, la linguistique, la psychologie, la sociologie, l’anthropologie, l’ingénierie des connaissances en informatique. La compréhension technique de cette pratique dans ces nombreuses disciplines a mis en lumière les variations complexes que peut prendre la relation entre la théorie du concept et son expression linguistique dans un texte.
À partir des différentes théories du concept, le concept a été défini comme un ensemble d’opérations cognitives; dont certaines sont endogènes (notamment la généralisation, la schématisation, la synthèse et la singularisation); d’autres sont exogènes (notamment la référentialité, l’inférentialité, la décision, la perception, la communication); et qui s’exprime dans des formes sémiotiques, en particulier le langage naturel. Dans le contexte d’une telle définition, l’analyse conceptuelle apparait alors comme une méthode pour identifier dans une de ses formes langagières — le texte — les divers types d’opérations cognitives et linguistiques mises en œuvre par l’énonciateur d’un texte.
Retombées du volet 2 :
La recherche liée à ce deuxième volet était expérimentale. Les expérimentations étaient à la fois informatiques et empiriques. Les expérimentations informatiques consistaient à évaluer la pertinence et la portée de certains algorithmes issus de domaines tels la fouille de données, la recherche d’informations, la reconnaissance de formes et l’apprentissage machine, à des fins de lecture et d’analyse conceptuelle de textes. L’objectif était de traduire en algorithmes, c’est-à-dire sous la forme de chaînes de traitement, certains des opérations internes à une analyse conceptuelle de texte et à implémenter celles-ci dans différents prototypes informatiques. Plusieurs algorithmes ont été évalués : des algorithmes liés à l’indexation lexicale, la lemmatisation et la racinisation (en français et en anglais); des algorithmes liés à différents calculs de similarités dans un espace vectoriel (métrique euclidienne, cosinus, jaccard, etc.); des algorithmes liés à la réduction dimensionnelle dans un espace vectoriel (analyse factorielle, analyse en composante principale, analyse sémantique latente, etc.); des algorithmes liés à la classification mathématique (k-means, réseaux neuronaux ART, carte topologique SOM, classification hiérarchique, etc.); et plusieurs autres algorithmes liés à la catégorisation, l’annotation, l’extraction de règles et de motifs fréquents.
Les expérimentations empiriques consistaient à étudier des concepts spécifiques dans des corpus de textes de différents horizons (philosophiques, journalistiques, web, etc.). L’objectif consistait à évaluer la valeur heuristique de la méthode de lecture et d’analyse conceptuelle de texte assistées par ordinateur (LACTAO) sur des données textuelles réelles. Parmi les études menées, il y a eu l’analyse du concept D’ACCOMMODEMENT RAISONNABLE dans la presse du Québec, le concept de LANGAGE et le concept D’ÉVOLUTION chez dans les écrits du philosophe Henri Bergson, le concept de MIND dans les écrits de Peirce, le concept d’ÉVOLUTION dans Les origines de l’espèce de Darwin, le concept d’ÉDUCATION chez Rousseau. La recherche se poursuit actuellement sur l’analyse du concept d’ÉTUDIANT dans la presse du Québec lors du conflit étudiant de 2012, l’analyse du concept de l’ALTÉRITÉ dans les médias écrits du Canada, le concept de l’ÉPISTÉMÉ dans les écrits de Foucault.
Réseautage, formations, communications et publications :
Ce projet de recherche s’inscrit dans un programme scientifique qui s’étale sur une dizaine d’années. Il a permis de construire un réseau de collaborateurs au Canada et à l’étranger, de former plusieurs dizaines de doctorants des sciences humaines et de l’informatique et générer des communications et des publications à la fois locales et internationales.
Projet : Les textes, les documents visuels, le son et la technologie
Chercheur principal : Jean-Guy Meunier
Période : 2007-2008
Organisme subventionnaire : Conseil de recherches en sciences humaines du Canada (CRSH)
Titre du programme : Subvention de recherche stratégique
Résumé :
Depuis une cinquantaine d’années, la technologie informatique a pénétré les méthodes de lecture et d’analyse effectuées par la communauté des chercheurs de plusieurs disciplines des sciences humaines. Ce projet visait deux objectifs interreliés A) identifier les modules logiciels utilisables dans la lecture et l’analyse de texte lorsqu’elle est assistée par ordinateur (LATAO) et B) de construire le prototype d’une plateforme informatique pouvant gérer et appliquer ces modules.
Relativement au premier objectif, de multiples modules de LATAO ont été identifiés. Cependant, au fur et à mesure des recherches d’importantes limites à la forme classique de LATAO furent découvertes. En effet, celle-ci demeurait trop générale pour les lecteurs experts. Aussi, le projet a-t-il raffiné la méthodologie et les outils pour la transformer en Lecture et analyse conceptuelle assistée par ordinateur (LACTAO). Au lieu de fouiller un texte dans sa globalité, cette méthode ciblait une thématique ou un concept spécifique pour en révéler comment dans un texte se développaient ses multiples contenus informationnels. Par exemple comment se déploie le concept d’EVOLUTION dans l’Origine des espèces de Darwin? Une telle approche plus ciblée sur une problématique et un concept impliquait l’identification de nouveaux modules et une transformation importante de sa chaine de traitement. Ceci exigeait notamment l’introduction d’analyseurs linguistiques, de concordanciers et d’itération de classifieurs, etc. Plusieurs publications ont démontré la pertinence d’une telle approche.
Relativement au deuxième objectif, un prototype de la plateforme modulaire pouvant recevoir, gérer et appliquer les divers modules pour LATAO et LACTAO fut développé et mis sur un site web (www. SATIM.com). Mais ce site n’est plus fonctionnel.
Cette plate-forme était disponible aux chercheurs travaillant en LATAO. Cette plateforme contenait deux composantes :
- Un atelier. Celui-ci est le reposoir des données et une boîte à outils. On y trouve des modules pouvant être intégrés dans des chaînes de traitement. Pour permettre la communication et l’interaction entre ceux-ci, des passerelles furent construites. L’effort de recherche a consisté à concevoir formellement et à implémenter informatiquement cette architecture.
- Un laboratoire. Celui-ci est surtout destiné au créateur de méthodologies en LATAO. En raison des limites du financement, seul un ensemble de fonctions très ciblées a été créé. Il portait sur l’assemblage et les interfaces pour la création, l’exploration et l’expérimentation d’une chaîne de traitement : l’assistance à l’extraction du vocabulaire pertinent à la maintenance des concepts dans une ontologie.
Pour que cette plateforme soit accessible à un grand public, il aurait fallu la rendre plus robuste, en expérimenter la validité sur de nombreux corpus et enfin développer des interfaces plus ergonomiques. Le financement réduit de 50% ne permettait pas un tel développement. Pour assurer la réalisation effective des objectifs, le projet les a associés avec les autres projets de recherche (CRSH et FQRSC) liés à des problématiques similaires, mais où la dimension informatique était moins présente. Le projet a permis la formation de plusieurs étudiants doctorants dans le domaine de cette haute technologie
Projet : Catégorisation et analyse thématique de documents textuels
Chercheur principal : Jean-Guy Meunier
Période : 2005-2008
Organisme subventionnaire : Conseil de recherches en sciences humaines du Canada (CRSH)
Titre du programme : Subventions ordinaires de recherche
Résumé :
Le projet de recherche portait sur l’exploration de méthodes d’assistance à la lecture et l’analyse expertes des textes dans l’horizon émergente de la numérisation systématique des livres. Le premier objectif, et le plus important de ce projet, visait à dépasser la manipulation informatique classique des textes (numérisation, édition, rappel, concordance, description statistique, etc.) pour assister les analyses thématiques d’un texte de haut niveau théorique. Ce type d’analyse présentait des difficultés spécifiques en raison des phénomènes linguistiques relevant tant de la textualité (processus discursif, pragmatique, etc.) que de l’organisation et la structure d’un corpus numérique. Pour atteindre cet objectif, le projet a effectué un transfert de concepts et de méthodologies provenant de la linguistique sur l’analyse thématique et de l’intelligence artificielle (classification automatique, apprentissage machine, réseau de neurones, forage de textes, etc.). Ce transfert a permis de développer une méthodologie de lecture et d’analyse des textes assistées par ordinateur (LATAO), qui se déploie en une chaine de traitement qui comprend a) la préparation des données, b) leur sélection à des fins d’analyse, c) la classification thématique, d) la représentation visuelle, e) l’interprétation. Cette méthodologie est devenue une référence pour plusieurs chercheurs dont la pratique de lecture et d’analyse experte doit être appliquée sur des données textuelles numérisées. Et elle a été expérimentée sur des données textuelles de haut niveau théorique (philosophique, littéraire, journalistique, etc.).
Le second objectif était de type informatique. Il visait à dépasser une technologie qui, à ce moment, n’offrait qu’un ensemble fermé et limité de fonctionnalités. Il s’inscrivait ainsi dans une nouvelle génération de systèmes d’assistance à la construction de chaines de traitement adaptée aux traitements de données textuelles (WEKA, PROVALIS, GATES, T2K, etc.). Ainsi, le projet a permis de construire un prototype de plateforme modulaire (NUMEXCO). Celle-ci a servi à de nombreuses expérimentations. Elle a permis aussi de révéler la portée et les limites de ces types de plateformes. Cette plateforme est devenue l’embryon de la plateforme SATIM. Les résultats de cette recherche ont été publiés dans les conférences locales (ACFAS, Sociétés Savantes du Canada), mais surtout au plan international (Digital Humanities, JADT, FLAIRS, etc.). Elle a permis à l’équipe d’instaurer une dynamique très forte avec la communauté canadienne anglophone de TAPOR œuvrant dans ce même paradigme. Des mémoires de maitrise, des thèses de doctorat et plusieurs sous-projets de recherche subventionnés en ont émergé.
Projet : Forage de texte, catégorisation et analyse de contenu
Chercheur principal : Jean-Guy Meunier
Période : 2000-2001
Organisme subventionnaire : Conseil de recherches en sciences humaines du Canada (CRSH)
Titre du programme : Initiatives de développement de la recherche
Résumé :
Le projet « Forage de texte, catégorisation et analyse de contenu » a généré des résultats de recherche importants à plusieurs niveaux.
Premièrement, ce projet a permis d’effectuer un recensement des principales approches et des principaux logiciels dans le domaine de la Lecture et de l’Analyse de Texte Assistées par Ordinateur (LATAO). Au-delà du simple travail de recension, ce volet a permis une meilleure compréhension des forces et des limites des approches classiques d’analyse de contenu assistées par ordinateur et, surtout, de confirmer le besoin et la pertinence des approches de pointe fondées sur les opérations de classification et de catégorisation automatiques.
Deuxièmement, au niveau technique, ce projet a permis d’explorer et de valider plusieurs techniques, très souvent issues de travaux dans les domaines de l’intelligence artificielle et de l’apprentissage machine, de classification et de catégorisation automatiques, dans leur application au traitement des documents textuels (dans une optique d’analyse de contenu). A cet égard, ce travail a été mis à contribution afin de valider une des hypothèses principales du projet selon laquelle les analyses de contenu assistées par ordinateur peuvent être réalisées à l’aide de classifieurs et catégoriseurs numériques. Ainsi, dans le cadre du projet, nous avons exploré la pertinence de différentes approches (réseaux de neurones artificiels, approches hybrides neuro-floues, algorithmes d’induction de règles, etc.) dans leur application à la catégorisation de textes à des fins d’analyse de contenu.
Finalement, le projet a contribué à la conception et à la validation de méthodologies d’analyse et de chaînes de traitement (progiciels) adaptées à l’analyse de contenu de textes théoriques. En effet, en nous basant sur les travaux mentionnés précédemment, nous avons développé et validé plusieurs méthodologies d’analyse et certaines chaînes de traitement destinées à l’analyse de contenu assistée par ordinateur. Ainsi, le projet a permis de valider une méthodologie d’analyse originale fondée sur la catégorisation automatique permettant d’identifier les principaux thèmes présents dans des corpus théoriques et philosophiques.
MUSE LOGIQUE
Système tutoriel intelligent pour l'apprentissage du raisonnement logique
Serge Robert
serge.robert@uqam.ca
Roger Nkambou
nkambou.roger@uqam.ca
CLIC
Compétence Logique, Inférences et Cognition (CLIC)
Serge Robert
robert.serge@uqam.ca
FIASCCO
Fondements de l’Intelligence Adaptative et des Systèmes Culturels et Cognitifs (FIASCCO)
Luc Faucher
faucher.luc@uqam.ca
Groupe Cognition Distribuée
Pierre Poirier
poirier.pierre@uqam.ca