Liste des ateliers de la conférence Ingénierie des connaissances :

  • D3KODE (Tutoriel) : Define, Discover and Disseminate Knowledge from Observation to Develop Expertise
  • IN-OVIVE : 3ème Atelier  “INtégration de sources/masses de données hétérogènes et Ontologies, dans le domaine des sciences du VIVant et de l’Environnement” ()
  • Atelier "Qu'est-ce qu'un bon papier de recherche enIngénierie des connaissances ?"
  • RISe : 7ème Atelier Recherche d'Information SÉmantique
  • Soc-IO-Psy : Atelier "L'ingénierie des ontologies au regard des sciences sociales et des psychologies"
  • SIIM : 3ème Symposium Ingénierie de l’Information Médicale

 

D3KODE (Define, Discover and Disseminate Knowledge from Observation to Develop Expertise) - Tutoriel

Organisateur: Olivier CHAMPALLE (LIRIS)

Site web de D3KODE : http://liris.cnrs.fr/d3kode/

Informations sur l'atelier : page dédiée

D3KODE est une application Web de type client léger conçu en 2012 dans le cadre de la thèse d’Olivier Champalle, dirigée par Alain Mille et Karim Sehaba. Cette application permet de stocker, de transformer et de visualiser plusieurs niveaux de traces numériques sur la base du concept de « trace modélisée » développé par l’équipe SILEX du LIRIS.

Les transformations à base de règles ainsi que les modèles de traces représentent des connaissances d’analyse qui peuvent être ainsi réutilisées par d’autres utilisateurs pour abstraire des « observables » de plus hauts niveaux à partir de nouvelles traces de même modèle.

Afin de faciliter l’analyse, la synthèse visuelle est interactive. Il est ainsi possible pour un utilisateur de « cliquer » sur une transformation et d’accéder à son descriptif afin de comprendre quelles sont les connaissances qui ont été mobilisées pour construire un observable de plus haut niveau. Chaque observable possède aussi un lien visuel sur ses origines. De cette manière les utilisateurs peuvent explorer les différents niveaux de l’activité et mieux en comprendre le sens.


D3KODE possède plusieurs fonctionnalités permettant aux utilisateurs en fonction de leur profil, administrateur, expert ou stagiaire, de créer facilement des modèles de traces, des transformations, d’importer des traces, d’exécuter des transformations et de visualiser les résultats.

Les principaux enjeux de D3KODE reposent sur plusieurs objectifs complémentaires :

  • procurer les moyens nécessaires pour exploiter/analyser tout type de données numériques modélisées suivant les principes de la trace modélisée ;
  • faciliter l’inscription des connaissances d’exploitation/d’analyse dans un but de partage et de réutilisation et ce auprès d’un large public non informaticien.

3ème Atelier  “INtégration de sources/masses de données hétérogènes et Ontologies, dans le domaine des sciences du VIVant et de l’Environnement” (IN-OVIVE)

Organisateurs : Juliette Dibie-Bathelemy (AgroParisTech/Inra), P. Buche (Inra), L. Ibanescu (AgroParisTech/Inra), Claire Nédellec (Inra), Pascal Neveu (Inra), Stéphane Dervaux (Inra)

Site web : https://colloque.inra.fr/in_ovive_2015

La société actuelle doit faire face à des évolutions rapides et à des enjeux multiples (environnementaux, sociétaux, économiques). C'est particulièrement vrai pour le monde des sciences du vivant et de l’environnement, soumis en plus aux aléas naturels. Afin de répondre à ces enjeux et évolutions, il est nécessaire de posséder une vue globalisée et intégrée du domaine d’application étudié (e.g. les filières agricoles), tout en étant capable de préconiser des actions à des niveaux assez fins (e.g., parcelle, opération unitaire) et en tenant compte des différents points de vue impliqués.

Pour cela, il faut développer des outils génériques adéquats, or la plupart des études menées jusqu’à présent, soit ont proposé des approches spécifiques à une partie du domaine d’application étudié (e.g. amélioration génétique d’une filière), soit se sont concentrées sur des enjeux bien déterminés (e.g. problèmes sanitaires). Il en a résulté un éparpillement de la connaissance et une séparation des ensembles de données, ce qui s’est traduit par une grande difficulté à faire cohabiter ces connaissances et restituer ces données dans un système unique. Un des facteurs limitant du traitement informatique des données en sciences du vivant et de l’environnement est la difficulté à appréhender les données disponibles. Cette difficulté s’explique par les raisons suivantes :

  • le stockage des données expérimentales suffisamment décrites (par des métadonnées) et sous une forme informatisée homogène est loin d’être systématique dans l’approche analytique classique,
  • les données sont éparses, stockées dans des bases de données de laboratoire, publiées dans des revues scientifiques ou sur des pages de sites Web, mais aussi dans des rapports de projet, des thèses ou des supports de cours,
  • les données sont représentées dans des formats hétérogènes (textes, tableaux, graphiques, spectres, images, ...).
  • les évolutions technologiques rapides, qui permettent une observation de plus en plus fine (nature de l'information, fréquence d’acquisition, géo localisation), nécessitent de s’adapter et de gérer des volumes de données en forte croissante.
  • l’intégration de ces données à différentes échelles, dans des modèles cohérents pose de nouvelles questions de recherche.

La recherche menée aujourd’hui autour de ces problématiques est de plus en plus collaborative, multi-expertes et requiert un usage intensif des données. La gestion automatisée et l’analyse de données scientifiques nécessitent d’intégrer des connaissances du domaine concerné. L’intégration nécessite de confronter les données et les connaissances disponibles et de valider la qualité de ces données et de ces connaissances. Avant de pouvoir combiner, explorer et expliquer les sources de données, il faut être capable de les caractériser et de les relier. Ceci peut être réalisée à l’aide de  méthodes informatiques d’intégration qui consistent à essayer d’établir des correspondances entre les données à l’aide d’une ontologie de domaine qui est une représentation, formalisée et structurée, du vocabulaire spécifique au domaine étudié.
Ces questions d’IC trouvent dans les domaines des sciences du vivant et de l’environnement une résonance importante et particulière qui justifie l’intérêt considérable de l’IC pour ces domaines et le développement de méthodes adaptées.

L'objectif de cet atelier est de dresser un panorama des recherches et expérimentations francophones traitant de l’intégration de sources/masses de données hétérogènes notamment à l’aide d’ontologies, dans le domaine des sciences du vivant et de l’environnement.

Atelier "Qu'est-ce qu'un bon papier de recherche en Ingénierie des connaissances ?"

Organisateur : Alain Mille

Site web :  http://claco.univ-lyon1.fr/icap_website/view/20 (Nécessite une authentification: les informations relatives à l'inscription pour le site se trouvent ici : https://bimestriel.framapad.org/p/accueil_atelier_ic2015)

Cette question s'est posée régulièrement et nous avions déjà discuté ensemble à IC2011 à l'occasion d'une table ronde sur le sujet.

Comme il est difficile de construire un discours, ex nihilo, nous vous proposons une méthode partant des productions scientifiques telles qu'elles sont présentées dans les communications scientifiques et de tenter d'en dégager les invariants par une analyse d'abord ouverte, puis par une vérification plus fermée.

L'atelier permettra de préparer ensemble une contribution scientifique sur la base des résultats du travail de collecte et analyse.

Un document collaboratif sera initié avant l'atelier et donnera lieu à une discussion sur les parties principales (connaissances en IC, méthodes de production de connaissance, méthodes de validation des connaissances produites, méthodes de communication des connaissances produites).

7ème Atelier Recherche d'Information Sémantique (RISe)

Organisateurs : CHEVALLET Jean-Pierre (LIG), ROUSSEY Catherine (IRSTEA), ZARGAYOUNA Haïfa (LIPN)

Site web : http://rise.imag.fr/home/rise-2015

Les avancées du Web Sémantique rendent possible la mise en place de nouvelles méthodes d'accès à l'information sémantique. Les ressources sémantiques mises en ligne permettent de conceptualiser les besoins des utilisateurs et les contenus des documents. En effet les systèmes d'accès à l'information peuvent désormais traiter le contenu informationnel au niveau sémantique et non plus seulement au niveau signal (texte, image, etc). Un des enjeux actuels est de proposer des fonctionnalités sémantiques pertinentes pour exploiter au mieux les ressources sémantiques telles que les ontologies, les bases de données lexicales, les thesaurii.

Le passage au niveau conceptuel permet de s'abstraire du niveau signal ainsi que, dans certains cas, de la langue. Le raisonnement au niveau conceptuel peut être exploité pour la recherche d'information multimédia et multilingue.

Les précédentes éditions de cet atelier ont montré l'intérêt de la recherche d'information sémantique dans des domaines de spécialité tels que le domaine agricole, médical, juridique, environnement, etc.

Cet atelier a pour but de proposer un lieu d'échange entre des chercheurs issus de différentes communautés comme la Recherche d'Information, le Web Sémantique, l’Extraction des Connaissances et le Traitement Automatique des Langues Naturelles et le Multimédia.

Atelier "L'ingénierie des ontologies au regard des sciences sociales et des psychologies" (Soc-IO-Psy)

Organisateurs : AIMÉ Xavier (INSERM), MONNIN Alexandre (Inria)

Site web : http://sociopsy.limics.fr/

L'Ingénierie des Connaissances (IC) a longtemps été un lieu privilégié du point de vue de la mise en œuvre d'une inter- (ou pluri-) disciplinarité, alliant intelligence artificielle (IA), informatique, sociologie, psychologie cognitive, ergonomie et sciences de gestion. En raison de l'augmentation massive des « données » accessibles, traitables et à traiter, l'IC semble plus s'orienter vers la dimension formelle, notamment du point de vue de son enseignement, au détriment d'autres dimensions, sans doute en raison des problèmes liés au volume et à l'hétérogénéité des données qu'elle doit gérer. Ainsi, progressivement, l'ingénieur des connaissances en vient à s'intéresser davantage à la gestion de la quantité qu'à la gestion de la qualité. C'est d’ailleurs une tendance qui se généralise. Le 7 juillet 2014, un rapport sur l'ouverture des données de santé a été remis à la ministre de la Santé dans lequel il est écrit noir sur blanc que « la qualité des données, leur complétude ou leur complexité ne doivent pas déterminer l'ouverture ou non des données de santé anonymes ». Peu importe la qualité, pourvu qu'on ait l'ivresse...

Parallèlement, la figure du data scientist s'impose sans véritable débat scientifique alors qu'une réflexion venant de l'IC, associant méthodiquement l'analyse qualitative aux propriétés des formalismes logiques et informatiques, serait éminemment salutaire dans ce contexte. Le débat traverse d'ailleurs l'IA elle-même, entre son héritage originel, pétri de logique ("GOFAI", pour Good old-fashionned AI) et les développements mathématiques et statistiques qui donnèrent plus tard naissance au data mining (ce qu'il convient souvent d’entendre par l'expression « Big Data »).

L'atelier entend l'envisager selon un double point de vue :

  • Celui de la psychologie sociale, qui tente d'évaluer l'influence exercée par les groupes sociaux
    sur les fonctions physiologiques de l'individu comme la mémoire, la perception ou la
    motivation.
  • Celui de la sociologie et des STS (Science and Technology Studies).

Aujourd'hui, le Web Sémantique fournit à l'IC son terrain privilégié. Avec la multiplication des standards, la charge « technique » s'accroît de manière exponentielle alors même que les questions ouvertes par l'architecture du Web et le Web Sémantique nécessitent plus que jamais de reprendre le dialogue ouvert avec les sociologues et les psychologues, tant au plan théorique que du point de vue de la conception. L’écart, ou la coupure, entre modélisation formelle de connaissances consensuelles et modélisation informée par les travaux sur la cognition sociale pose question. Le récent tournant « ontologique » en anthropologie et en STS (autour des travaux de Mol, Latour, Descola, Piette ou Viveiros de Castro...) interroge également les hypothèses qui fondent la plupart de nos modèles. Parallèlement, anthropologues et sociologues ont superbement ignoré le dialogue nourri entre l'IA, l'IC et la philosophie autour du développement des ontologies informatiques, tout en rejouant les mêmes débats à plus de 30 ans de distance.

À l'heure où les sciences humaines et sociales elles-mêmes se numérisent, il est grand temps, pour toutes ces raison, de remédier à cette ignorance réciproque.

3ème Symposium Ingénierie de l’Information Médicale (SIIM)

Organisateurs : Sandra Bringay (LIRMM), Jean Charlet (APHP), Marie-Christine Jaulent (CRC Jussieu), Lina Soualmia, Nathalie Souf (IRIT), Lynda Tamine (IRIT)

Site web : http://www.irit.fr/SIIM/2015/

Les systèmes d’information en santé connaissent une grande évolution : si certains d’entre eux (hospitaliers, du cabinet, imagerie par exemple) atteignent une certaine maturité pour un usage ciblé (gestion medico-économique, aide à la prescription, etc), ils doivent aujourd'hui être capables de s’interfacer avec d’autres systèmes pour un usage secondaire des données. L’introduction de nouveaux modes de production de données (e-santé, self quantified, capteurs, ..) fait émerger de nouveaux défis relatifs à la gestion de données massives (big data) ou à l’interopérabilité sémantique entre des données de plus en plus complexes, diverses et de qualité variable. Ces défis nous interrogent sur l’évolution et la place de l’ingénierie des Informations Médicales.

L’ingénierie de l’information médicale est au cœur des préoccupations actuelles pour optimiser et donner sens aux nombreux systèmes d’informations fédérant et manipulant des données médicales. Nous pourrons tout au long de cet atelier aborder des aspects tels que :

  • Où en est-on en terme d’’interopérabilité sémantique pour nos systèmes et quels sont les outils (ontologies, entrepôts sémantiques de données) qui se développent actuellement.
  • Que savons-nous faire et comment pour mettre en place fouilles de données et recherches d’information efficientes sur les données médicales
  • Comment intégrons-nous les contraintes d’applications mobiles et distantes aux systèmes d’informations existants.
  • Quelles nouvelles pistes offrent les outils de mesures en continu de paramètres biologiques (quantified self, capteurs à domicile). Qu’apporte le big data aux traitements des données médicales.
  • Comment intègre-t-on des outils informatiques dans les usages en santé, au travers de quelles interfaces et interactions avec quels apports et difficultés, en quoi le développement d’applications de quantified self renouvelle-t-il la question des interfaces et des expériences utilisateurs.

Notre atelier a pour objectif de faire un point sur les travaux menés actuellement par les équipes de recherches sur ces thèmes. L’objectif majeur de débattre des questions évoquées ou connexes à ces problèmes et ce, à travers la présentation des activités de recherche innovantes, des techniques, des technologies et de démonstrateurs développés aussi bien dans le monde académique, dans les laboratoires affiliés aux structures de santé et par des industriels impliqués dans le domaine de l’ingénierie de l’information médicale