AMI
En raison du vieillissement de la population et des progrès médicaux permettant des taux de survie plus élevés des personnes avec troubles moteurs, sensoriels ou cognitifs, les problèmes liés aux handicaps et incapacités sont devenus des préoccupations majeures pour notre système de santé. Au cours de la dernière décennie, les politiques nationales et internationales n’ont eu de cesse de souligner la nécessité de développer des technologies numériques pour aider les personnes avec handicap. Pourtant, l’industrie a encore du mal fournir des technologies adéquates. L’utilisation des technologies numériques pour aider les personnes avec handicap pose de nouveaux défis. Des méthodologies rigoureuses fondées sur les preuves sont nécessaires pour évaluer les aides technologiques, tout en tenant compte de leur immense potentiel d’individualisation. Les modèles informatiques sont également de plus en plus utilisés pour étudier et analyser divers troubles.
Les technologies numériques pour aider la communauté de l’autisme connaissent une prolifération exponentielle, sans aucun mécanisme spécifique par lequel les personnes autistes ou leurs aidants peuvent facilement utiliser et identifier des preuves permettant de déterminer si de telles technologies sont bénéfiques ou pour évaluer les risques potentiels. Le contexte actuel se caractérise comme une situation dans laquelle les technologies numériques disponibles dans le commerce ont rarement des preuves d’efficacité, alors que les technologies dont l’efficacité est étayée sont rarement disponibles dans le commerce. Dans ce projet, nous avons cherché à développer conjointement avec la communauté de l’autisme un cadre méthodologique d’évaluation des informations permettant d’étayer les pratiques basées sur les technologies. Ce projet a reçu un financement de la FIRAHFondation Internationale de la Recherche Appliquée sur le Handicap (Fondation Internationale de la Recherche Appliquée sur le Handicap), la Fondation Orange et la Fondation UEFA pour l’enfance. Il est coordonné avec le CAAR (Centre for Applied Autism Research) de l’Université de Bath (GB). Le projet inclut en outre l’IRTIC (Institute of Robotics and Information and Communication Technologies) de l’Université de Valence (Espagne), le Patrick Wild Centre de l’Université d’Edimbourg (GB) et le Bouvé College of Health Sciences & College of Computer and Information Science de Northeastern University (USA).
Nous avons développé une nouvelle échelle, appelée « User-Centered Design for Support (UCDS) scale », pour évaluer les rapports de recherche sur les aides basées sur les technologies numériques pour l’autisme. Nous avons également conduit une étude Delphi, qui consiste en une technique en ligne de construction de consensus, afin d’extraire des recommandations d’un groupe d’experts sur les aides numériques pour l’autisme. Des adultes autistes, de membres de la famille, des praticiens/cliniciens et des chercheurs ont été consultés de manière itérative jusqu’à ce qu’une liste consensuelle de recommandations soit obtenue. Le cadre méthodologique que nous avons développé peut aider les membres de la communauté de l’autisme à déterminer quelles sont les données probantes étayant une aide technologique avant de l’adopter.
Le regard joue un rôle prépondérant dans le développement des habiletés sociales chez l’homme et ses dysfonctionnements constituent un signe précoce du syndrome d’autisme. En contexte social, le regard contribue à la communication en tant qu’action : Il permet d’orienter l’attention d’autrui sur des éléments de l’environnement et d’aboutir à une situation d’attention conjointe. Nos précédentes études en collaborations avec l’équipe CPUCognition Perception et Usages soulignent les difficultés des personnes avec TSA à adapter leur regard en situation sociale, en particulier lorsqu’elles doivent guider le regard d’autrui. Pour aborder ces questions, nous développons des technologies d’eye-tracking pour induire des interactions par le regard entre les participants et des humains virtuels.
Ce projet mené en collaboration avec le laboratoire Aimé Cotton (LAC) vise à concevoir, mettre en œuvre et évaluer un fauteuil roulant électrique augmenté pour des personnes polyhandicapées souffrant de handicaps moteurs associés éventuellement à des handicaps cognitifs et/ou visuels. Il s’agit d’augmenter le fauteuil d’un dispositif d’assistance par imagerie optique active afin de sécuriser les déplacements des personnes et de le doter d’une interface multimodale adaptable en fonction des capacités sensori-motrices et cognitives de la personne polyhandicapée. Une combinaison de télémètres lasers à triangulation et de caméras à temps de vol permettra de détecter les passages étroits (couloirs, seuils de portes…) et les trajectoires dangereuses (escaliers, descente de trottoirs, obstacles…). Une interface multimodale offrant diverses modalités d’interaction en entrée/sortie (joystick, tablette tactile, contacteurs, commande occipitale, vibreurs, reconnaissance et synthèse vocale, …) permettra d’offrir un large panel de possibilités d’interaction afin de faciliter le contrôle du fauteuil, d’alerter et de prévenir les situations dangereuses et de s’adapter de la meilleure manière possible aux capacités d’interaction de la personne polyhandicapée. En particulier, une interface tactile sur smartphone pour le pilotage du fauteuil a été mise en œuvre. Des collaborations avec la fondation Poidatz, l’AFM-Téléthon ainsi que le centre de rééducation fonctionnelle « Le Brasset » ont été mises en place en vue de l’évaluation auprès des utilisateurs cible de cette interface.
Plus de détails sont accessibles sur la page du projet FREMA.
Ce projet vise à explorer une nouvelle méthode pour l’accès aux documents par les non-voyants permettant de préserver la structure spatiale des informations. Cette méthode repose sur la définition de trois niveaux d’accès à l’information : 1- le niveau spatial qui permet à l’utilisateur de percevoir la structure spatiale globale des informations sans être gêné par les détails ; 2- le niveau typologique qui permet d’avoir accès au type d’information explorée par le doigt (image, tableau, menu, …) ; 3- le niveau substantiel qui permet d’obtenir le contenu détaillé de l’élément exploré. Différentes modalités (affichage graphique tactile dynamique, braille, synthèse vocale) et dispositifs (matrice tactile, souris braille, terminal braille, …) permettant l’accès à ces trois niveaux seront explorées et comparées. Une première étude visant à déterminer le rendu des formes géométriques à utiliser pour le niveau spatial a été menée auprès de 40 utilisateurs voyants (yeux bandés) et a permis de montrer que l’utilisation de rectangles creux pour mettre en évidence les différentes zones clés d’un document était la meilleure solution.