3-year Fully-funded Phd Fellowship at GREYC (France) and MTU (Ireland) on Multimodal Access to Information in the situation of Textual Blindness

]************************************************

***        ENGLISH VERSION: sorry for cross-postings       ***
************************************************

The research laboratory GREYC UMR 6072 (https://www.greyc.fr/) and the
Munster Technological University (Ireland) are launching a call for
applications for a PhD student position in the field of information
access in text-blind situation.

In the face of the increasingly widespread advent of nomadic and
ubiquitous access to information, and with a view to reducing the
digital divide, it is imperative to allow the greatest number of people
to understand the informational and organizational structure of web
pages, which is at the same time global, naturally interactive and
independent of the support. The Web is characterized by a multi-support,
multi-application, multi-task, multi-object logic that builds a visual
and organizational structuring of the information often complex. When
they are well calibrated, the typographic and layout properties allow a
user to quickly pick up a large number of clues, and to activate
non-linear interactive strategies consistent with reading objectives.
But certain user populations may have difficulties due to pathologies
related to both the perceptual and cognitive spheres; a degradation of
decoding capacities (semantic, logical or visual) of these highly
structured contents is then observed. We group together under the term
of “textual blindness” this inability to easily interpret documents for
perceptive reasons (visual impairment, blindness) or cognitive reasons
(receptive dysphasia, mental handicap). This thesis, at the intersection
of Natural Language Processing and Human-Computer Interaction, aims at
exploiting the results obtained in two projects TactiNET
(https://www.youtube.com/watch?v=jAqYQzfL-is) and TagThunder
(https://www.youtube.com/watch?v=vrET36OcjJs), to develop a multimodal
interaction model in the context of information access in a text-blind
situation. Thus, the results of this work have allowed us to make the
hypothesis that a multimodal platform integrating the two modalities
would substantially improve the perception/action loop for the
interpretation of web documents in a situation of textual blindness.

This thesis will aim at designing an architecture that (1) integrates
haptic and sound modalities, and (2) promotes reading paths based on
multi-grain semantics. The device will propose a multimodal navigation
oriented by (1) textual units belonging to a visual, logic and thematic
organization within the documents and (2) the hierarchical links they
have with each other or with the semantic concepts they convey.

The successful candidate should have a Master's degree or equivalent in
computer science or electronics. A solid background in computer science
is required and knowledge in electronics and natural language processing
would be appreciated.

If you are interested in this position, please send the following
information to Gaël Dias (gael.dias@unicaen.fr), Fabrice Maurel
(fabrice.maurel@unicaen.fr) and Mohammed Hasanuzzman
(mohammed.hasanuzzaman@mtu.ie):

– Detailed CV
– Transcripts of undergraduate and graduate degrees.
– Letters of recommendation (up to 3 maximum)

Applications will be considered until the position is filled or before
July 31, 2022.

For more information, please contact Gaël Dias directly
(gael.dias@unicaen.fr) or Fabrice Maurel (fabrice.maurel@unicaen.fr) or
Mohammed Hasanuzzman (mohammed.hasanuzzaman@mtu.ie).

***********************************************************
***        VERSION FRANCAISE: désolé pour les annonces croisées     ***
***********************************************************

Le laboratoire de recherche GREYC UMR 6072 (https://www.greyc.fr/) et la
Munster Technological University (Irlande) lancent un appel à
candidatures pour un poste de doctorant.e dans le domaine de l'accès à
l'information en situation de cécité textuelle.

Face à l’avènement de plus en plus généralisé de l’accès à l’information
nomade et ubiquitaire, et dans un objectif de réduction de la fracture
numérique, il est impératif de permettre au plus grand nombre une
appréhension de la structure informationnelle et organisationnelle des
pages web, qui soit à la fois globale, naturellement interactive et
indépendante du support. Le Web se caractérise par une logique
multi-support, multi-application, multitâche, multi-objet construisant
une structuration visuelle et organisationnelle de l’information souvent
complexe. Lorsqu’elles sont bien calibrées, les propriétés
typographiques et dispositionnelles permettent à un utilisateur habitué
de prélever rapidement un grand nombre d’indices, et d’activer des
stratégies interactives non linéaires cohérentes avec les objectifs de
lecture. En revanche, certaines populations d’usagers peuvent être mises
en difficulté par des pathologies relevant aussi bien de la sphère
perceptive que cognitive ; il est alors observé une dégradation des
capacités de décodage (sémantique, logique ou visuel) de ces
contenus fortement structurés. Nous regrouperons sous le terme de «
cécité textuelle » cette inaptitude à interpréter facilement les
documents pour des raisons perceptives (malvoyance, non voyance) ou
cognitive (dysphasie réceptive, handicap mental). Cette thèse, orientée
à l’intersection du Traitement Automatique des Langues et de
l’Interaction Humain Machine, a pour ambition d’exploiter les résultats
obtenus dans les deux projets TactiNET (ANR Accès par Retour Tactile Aux
Documents Numériques – ART-ADN – 2013-2016 –
https://www.youtube.com/watch?v=jAqYQzfL-is) et TagThunder (FSN/PIA2 TT
– 2018-2021 – https://www.youtube.com/watch?v=vrET36OcjJs), pour
développer un modèle d’interaction multimodale dans le cadre de l’accès
de l’information en situation de cécité textuelle. Ainsi, les résultats
issus de ces travaux nous ont permis de poser l’hypothèse qu’une
plateforme multimodale intégrant les deux modalités améliorera
substantiellement la boucle perception/action pour l’interprétation des
documents web dans une situation de cécité textuelle.

Cette thèse aura pour but de concevoir une architecture (1) intégrant
les modalités haptiques et sonores, et (2) favorisant des parcours de
lecture qui s’appuient sur une sémantique multigrain. Le dispositif
proposera une navigation multimodale orientée par des unités textuelles
relevant aussi bien d’une organisation visuelle, logique et thématique
au sein des documents que des liens hiérarchiques qu’elles entretiennent
entre elles ou avec les concepts sémantiques qu’elles véhiculent.

Le.la candidat.e retenu.e devra être titulaire d'un master ou d'un
diplôme équivalent en informatique ou électronique. Un solide bagage en
informatique est requis et des connaissances en électronique et
traitement automatique du langage naturel seraient appréciées.

Si vous êtes intéressé.e par ce poste, veuillez envoyer les informations
suivantes à Gaël Dias (gael.dias@unicaen.fr), Fabrice Maurel
(fabrice.maurel@unicaen.fr) et Mohammed Hasanuzzman
(mohammed.hasanuzzaman@mtu.ie):

– CV détaillé
– Relevés de notes des diplômes de licence et de master.
– Lettres de recommandation (jusqu'à 3 maximum)

Les candidatures seront étudiées jusqu'à ce que le poste soit pourvu ou
avant le 31 Juillet 2022.

Pour plus d'informations, vous pouvez contacter directement Gaël Dias
(gael.dias@unicaen.fr) ou Fabrice Maurel (fabrice.maurel@unicaen.fr) ou
Mohammed Hasanuzzman (mohammed.hasanuzzaman@mtu.ie).

Computer Vision and Machine Learning (CVML) email list  www page: https://lists.auth.gr/sympa/info/cvml

1) To post a message (in English) to CVML please: send an email to cvml@lists.auth.gr with subject: [Topic] Your_subject
[Topic] should be one of the following ones: [Jobs], [Conferences], [Journals], [Courses], [Studies], [News].
2) To subscribe (for free) to this Computer Vision and Machine Learning (CVML) email list and send/receive scientific messages/news, please:
send an empty email to sympa@lists.auth.gr with subject: subscribe cvml@lists.auth.gr  your_name
3) To unsubscribe any time, send an empty email to sympa@lists.auth.gr with subject: unsubscribe cvml@lists.auth.gr
4) If you have any questions related to CVML list please contact: koroniioanna@csd.auth.gr List moderation is supervised by Prof. I.Pitas (pitas@csd.auth.gr).

Both comments and pings are currently closed.

Comments are closed.

Design by 2b Consult