SIGCHI Toulouse Local chapter

Séminaire de Sébastien Crouzet

Conférecier invité: Sébastien Crouzet

Titre: Dynamique de la perception visuelle et machine learning

Date et lieu : jeudi 15/10/2015 à 10h30 en Salle du Conseil -  IRIT

 

Le système visuel humain reste à ce jour un exemple d’efficacité et de rapidité pour traiter et reconnaitre le contenu d’images naturelles. Je présenterai ici plusieurs études dans lesquelles nous avons étudier la dynamique des mécanismes cérébraux permettant une telle performance. Le machine learning tient un rôle central dans ces recherches, étant à la fois un outil d’analyse statistique, mais aussi un modèle théorique du fonctionnement du système visuel.

Site

http://scrouzet.github.io/

Séminaire de Dianne Pawluk

Conférecier invité: Dianne Pawluk, directrice du Rehabilitation Technology and Haptics Laboratory at Virginia Commonwealth University.

Titre: Providing Effective Access to Graphical Information to Individuals who are Visually Impaired

Date et lieu : vendredi 23/10/2015 à 11h00 en Salle des Thèses -  IRIT

 

Increasingly visual graphics are being used as the sole method to convey information in school, at work, and for leisure activities. Unfortunately these graphics are not very easily available to individuals who are visually impaired for a variety of reasons: the most effective graphics are currently made by hand, simply making visual graphics tactile present an overwhelming amount of information to the user, simplifying diagrams effectively requires professional knowledge applied by a sighted individuals, displaying graphical information is slow and cumbersome for the age of web surfing and computer data analysis. In this talk, I will describe work by my laboratory to address making the steps for graphical access automatic and effective: (a) effective tactile diagram representations, (b) automatic visual to tactile diagram translation, including simplification, (c) hardware interfaces for tactile computer interaction, and (d) software support methods for interacting with tactile graphics.

Site

http://biomedical.egr.vcu.edu/faculty/pawluk/

Séminaire de Benjamin Weyers

Conférecier invité: Dr.-Ing. Benjamin Weyers, RWTH Aachen University, Allemagne 

Titre: From Formal Methods in HCI to Neuroscience – Perspectives on User-Driven Adaptation of Interactive Systems

Date et lieu : mardi 13/10/2015 à 14h00 à l'Amphitheatre Herbrand -  IRIT

 

User centered design and user driven adaptation of interaction between human and computer represent research topics, which are relevant for a broad variety of interactive systems and tools. This talk will present various perspectives on user-driven adaptation of interactive systems. The talk will start with a view to a framework for modeling, execution and adaption of formally specified user interface models. It will furthermore present various application scenarios and works that address the aspect of user driven adaptation, such as in the context of accessible computing, industry 4.0, as well as interactive visualization and analysis in neuroscience. The talk will conclude with an overview on planned research topics that address the aspect of user driven adaptation based on formal methods for the specification of user interfaces.

Bio

Benjamin is currently working in the EU flagship project ‘The human brain project’ at the Virtual Reality Group at RWTH Aachen University, co-leading the work package on ‘Interactive Visualization, Analysis, and Control’. Benjamin studied computer science at the University of Duisburg-Essen (2003–2008, Dipl.-Inform.) and went on to obtain his doctoral degree with the Computer Graphics and Scientific Computing group at the University of Duisburg-Essen (2011, Dr.-Ing.). His research interests include human-computer interaction, in specific on formal methods, as well as information visualization and interactive data analysis. During his studies he has closely worked with scientists from various scientific areas, such as collaborative systems, ambient intelligence, scientific visualization, and cognitive psychology.

 

Séminaire de Marianna Obrist

Conférencier invité: Marianna Obrist, University of Sussex, UK

Titre: Human-Computer Interaction based on Touch, Taste, & Smell

Lieu: vendredi 04/09/2015 à 9h45 à l'Amphitheatre Herbrand -  IRIT


Despite the fact that interactive technologies have permeated our environment (e.g., mobile, ubiquitous, social computing) and have become an essential part of our everyday life (e.g., work, leisure, education, health, etc.), the way we interact with them is still limited. Interactive systems stimulate dominantly our senses of vision and hearing, partly our sense of touch (e.g., vibration in mobile phones), while our senses of taste and smell are widely neglected and under-exploited in Human-Computer Interaction (HCI) research. In this talk, Marianna Obrist will talk about her research on multisensory experiences for interactive technologies.

Bio

Marianna Obrist is a Lecturer in Interaction Design at the University of Sussex, UK. She is leading the SCHI /skʌɪ/ Lab (Sussex Computer Human Interaction) integrated in the Creative Technology research group established within the School of Engineering and Informatics. Prior to joining Sussex, she was a Marie Curie Fellow at Culture Lab at the School of Computing Science in Newcastle University and before she worked as an Assistant Professor for Human-Computer Interaction at the Department of Computer Science at the University of Salzburg, Austria.
Her current research focuses on the systematic exploration of touch, taste, and smell experiences as future interaction modalities. More details are available here: http://www.sussex.ac.uk/schi/

 
Homepage

Séminaire Jeunes Chercheurs - "Interaction Tactile"

 

Nous avons le plaisir de vous convier à un séminaire jeunes chercheurs organisé par le chapitre local de l'ACM SIGCHI Toulouse. Trois jeunes chercheurs présenteront leurs travaux autour de la thématique de l'interaction tactile.
Date : Jeudi 5 Février à 16:00
Lieu : Salle des thèses à l'IRIT

Entrée libre

Plan d'accès 



Programme

16h00 : Lilian Genaro Motti (doctorante en 3e année, équipe ELIPSE - IRIT)
"L’interaction tactile des personnes âgées : effets de la taille d’écran et des techniques d’interaction sur la précision du geste drag-and-drop."

Résumé : Les technologies mobiles sont souvent équipées d'écrans tactiles. Améliorer l'utilisabilité de l'interaction tactile est important pour prévenir l'exclusion numérique d'une population vieillissante et permettre le développement de technologies dédiées au maintien de la qualité de vie et de l'autonomie.
L'interaction directe sur l'écran a été recommandée pour les personnes âgées, mais est-elle efficace et précise ? Une étude réalisée à Toulouse avec 24 personnes âgées (65 à 86 ans) évalue la précision du geste drag-and-drop durant la réalisation de puzzles tactiles numériques sur smartphone et tablette, avec doigt et stylet.
Les résultats démontrent des effets significatifs de la technique d'interaction sur le smartphone. Les gestes étaient plus précis avec le stylet sur les deux tailles d'écran. Les effets d'âge ont également été significatifs, mais les personnes âgées de 80 ans ou plus étaient parfois plus précises que les personnes âgées de 70 à 79 ans, principalement avec le stylet. Le contact continu sur l'écran du geste drag-and-drop a permis aux participants d'accomplir l'interaction avec succès même sur le petit écran.

 

16h40 : Zarrin Chua (post-doctorante, ISAE)
"Project Modern Taxiing: Improving airport ground operations through the use of automation and tactile interfaces. "

Résumé : Automated technology is one of many solutions that can help meet the growing air traffic demand at busy airports by assisting air traffic ground controllers maintain efficient and safe operations. In particular, ground controllers can benefit from the services of an automated decision support system that can provide taxiing path suggestion and conflict detection. Additionally, an interactive ground control interface promises the capacity to manage different layers of information, display suggested aircraft trajectories, detect and identify potential collisions, and allow for human-automation interactions (e.g. modification of proposed path, highlight blocked or restricted areas). This presentation provides an overview of Project MoTa (Modern Taxiing), including current and future developments.

 

17h20 : Arnaud Hamon (post-doctorant, équipe ICS - IRIT)
"Une notation formelle outillée pour la description des techniques d’interactions multi-touch pour les systèmes embarqués critiques : application aux cockpits interactifs."

Résumé : Avec l’apparition de nouvelles technologies comme l’iPad, etc., nous rencontrons dans les logiciels grand public des interfaces de plus en plus riches et innovantes. Ces innovations portent à la fois sur la gestion des entrées (e. g. écrans multi-touch) et sur la gestion des sorties (e.g. affichage). Ces interfaces sont catégorisées de type post-WIMP et permettent d’accroitre la bande passante entre l’utilisateur et le système qu’il manipule. Plus précisément elles permettent à l’utilisateur de fournir plus rapidement des commandes au système et au système de présenter plus d’informations à l’utilisateur lui permettant par là-même de superviser des systèmes de complexité accrue. L’adoption par le grand public et le niveau de maturité de ces technos permet d’envisager leur intégration dans les systèmes critiques (comme les cockpits ou de façon plus générale les systèmes de commande et contrôle).
Toutefois les aspects logiciels liés à ces technologies sont loin d’être maîtrisés comme le démontrent les nombreux dysfonctionnements rencontrés par leurs utilisateurs. Alors que ces derniers peuvent être tolérés pour des applications de jeux ou de divertissement elles ne sont pas acceptables dans le domaine des systèmes critiques présentés précédemment.
La problématique des travaux porte précisément sur le développement de méthodes, langages, techniques et outils pour la conception et le développement de systèmes interactifs innovants et fiables.
Cette présentation porte sur l’extension d’une notation formelle : ICO (Objets Coopératifs Interactifs) pour décrire de manières exhaustive et non ambiguë les techniques d’interactions multi-touch et la démonstrabilité de son application dans le cadre des applications multi-touch civils. Cette validation fera l'objet d'une démonstration lors de la présentation.

 


Books!

Main Menu