Smooth pursuit eye movements and learning : role of motion probability and reinforcement contingencies

Un défi majeur pour les organismes vivants est leur capacité d’adapter constamment leurs comportements moteurs. Dans la première étude de cette thèse, nous avons étudié le rôle des régularités statistiques et du conditionnement opérant sur la poursuite lisse d’anticipation (PLA). Nous avons démontré...

Full description

Bibliographic Details
Main Author: Damasse, Jean-Bernard
Other Authors: Aix-Marseille
Language:en
Published: 2018
Subjects:
Online Access:http://www.theses.fr/2018AIXM0223/document
id ndltd-theses.fr-2018AIXM0223
record_format oai_dc
spelling ndltd-theses.fr-2018AIXM02232019-06-13T03:22:43Z Smooth pursuit eye movements and learning : role of motion probability and reinforcement contingencies Mouvements oculaires de poursuite lisse et apprentissage : rôle des contingences probabilistes et de renforcement Poursuite oculaire lisse Renforcement Modélisation Conditionnement opérant Anticipation Biais-Directionnel Smooth pursuit eye movements Reinforcement Modeling Operant conditioning Anticipation Direction-Bias Un défi majeur pour les organismes vivants est leur capacité d’adapter constamment leurs comportements moteurs. Dans la première étude de cette thèse, nous avons étudié le rôle des régularités statistiques et du conditionnement opérant sur la poursuite lisse d’anticipation (PLA). Nous avons démontré que la PLA est générée de manière cohérente avec la probabilité du mouvement attendu. De plus, nous avons montré pour la première fois que la PLA peut être modulée par les contingences de renforcement.Dans une seconde étude, nous avons créé un paradigme de poursuite, inspiré par l’Iowa Gambling Task (IGT), impliquant un choix entre deux cibles associées à différentes récompenses. Nous avons testé ce paradigme chez des patients Parkinson (PP), ainsi que des contrôles âgés ou jeunes. Seulement chez les participants jeunes, la latence du choix oculomoteur est fortement réduite quand celui-ci est associé à une règle de renforcement. Pour les PP le choix est fortement retardé dans toutes les conditions et cet effet n’est pas simplement attribuable à un déficit moteur. Autrement, la stratégie de choix s’avère de mauvaise qualité dans tous les groupes suggérant des différences avec les résultats de l’IGT classique.La dernière contribution de cette thèse fut de modéliser l’effet du biais directionnel sur la PLA que nous avons observé dans la première étude. Nous avons testé deux modèles incluant une mémoire de type intégrateur à fuite de la séquence d’essais, ou l’estimation Bayesienne adaptative de la taille optimale de mémoire. Nos résultats suggèrent que les modèles adaptatifs pourraient contribuer dans le futur à mieux comprendre l’apprentissage statistique et par renforcement. One of the main challenges for living organisms is the ability to constantly adapt their motor behavior. In the first study of this thesis, we investigated the role of statistical regularities and operant conditioning on anticipatory smooth eye movements (aSPEM), in a large set of healthy participants. We provided evidence that aSPEM are generated coherently with the expected probability of motion direction. Furthermore, by manipulating reinforcement contingencies our findings demonstrated for the first time that aSPEM can be considered an operant behavior. In a second study, we designed a novel two-targets choice-tracking task, where a choice-contingent reward was returned, inspired by Iowa Gambling Task (IGT). We administered this new paradigm to Parkinson’s disease (PD) patients as well as age-matched control participants and young adult controls. For young participants, choice latency was clearly shortened in the IGT-pursuit task compared to the control-task. For PD patients choice latency was overall delayed and this difference could not be attributed to pure motor deficits. Overall the choice strategy performance was poor in all groups suggesting some possible differences between the standard IGT task and our IGT-pursuit task in probing decision-making. The last contribution of this thesis is an attempt to model the relation between aSPEM velocity and local direction-bias. Two models were tested to account for the trial-sequence effects, including either a decaying memory, or a Bayesian adaptive estimation of the efficient memory size. Our results suggest that adaptive models could be used in the future to better assess statistical and reinforcement learning. Electronic Thesis or Dissertation Text en http://www.theses.fr/2018AIXM0223/document Damasse, Jean-Bernard 2018-06-11 Aix-Marseille Montagnini, Anna Perrinet, Laurent
collection NDLTD
language en
sources NDLTD
topic Poursuite oculaire lisse
Renforcement
Modélisation
Conditionnement opérant
Anticipation
Biais-Directionnel
Smooth pursuit eye movements
Reinforcement
Modeling
Operant conditioning
Anticipation
Direction-Bias

spellingShingle Poursuite oculaire lisse
Renforcement
Modélisation
Conditionnement opérant
Anticipation
Biais-Directionnel
Smooth pursuit eye movements
Reinforcement
Modeling
Operant conditioning
Anticipation
Direction-Bias

Damasse, Jean-Bernard
Smooth pursuit eye movements and learning : role of motion probability and reinforcement contingencies
description Un défi majeur pour les organismes vivants est leur capacité d’adapter constamment leurs comportements moteurs. Dans la première étude de cette thèse, nous avons étudié le rôle des régularités statistiques et du conditionnement opérant sur la poursuite lisse d’anticipation (PLA). Nous avons démontré que la PLA est générée de manière cohérente avec la probabilité du mouvement attendu. De plus, nous avons montré pour la première fois que la PLA peut être modulée par les contingences de renforcement.Dans une seconde étude, nous avons créé un paradigme de poursuite, inspiré par l’Iowa Gambling Task (IGT), impliquant un choix entre deux cibles associées à différentes récompenses. Nous avons testé ce paradigme chez des patients Parkinson (PP), ainsi que des contrôles âgés ou jeunes. Seulement chez les participants jeunes, la latence du choix oculomoteur est fortement réduite quand celui-ci est associé à une règle de renforcement. Pour les PP le choix est fortement retardé dans toutes les conditions et cet effet n’est pas simplement attribuable à un déficit moteur. Autrement, la stratégie de choix s’avère de mauvaise qualité dans tous les groupes suggérant des différences avec les résultats de l’IGT classique.La dernière contribution de cette thèse fut de modéliser l’effet du biais directionnel sur la PLA que nous avons observé dans la première étude. Nous avons testé deux modèles incluant une mémoire de type intégrateur à fuite de la séquence d’essais, ou l’estimation Bayesienne adaptative de la taille optimale de mémoire. Nos résultats suggèrent que les modèles adaptatifs pourraient contribuer dans le futur à mieux comprendre l’apprentissage statistique et par renforcement. === One of the main challenges for living organisms is the ability to constantly adapt their motor behavior. In the first study of this thesis, we investigated the role of statistical regularities and operant conditioning on anticipatory smooth eye movements (aSPEM), in a large set of healthy participants. We provided evidence that aSPEM are generated coherently with the expected probability of motion direction. Furthermore, by manipulating reinforcement contingencies our findings demonstrated for the first time that aSPEM can be considered an operant behavior. In a second study, we designed a novel two-targets choice-tracking task, where a choice-contingent reward was returned, inspired by Iowa Gambling Task (IGT). We administered this new paradigm to Parkinson’s disease (PD) patients as well as age-matched control participants and young adult controls. For young participants, choice latency was clearly shortened in the IGT-pursuit task compared to the control-task. For PD patients choice latency was overall delayed and this difference could not be attributed to pure motor deficits. Overall the choice strategy performance was poor in all groups suggesting some possible differences between the standard IGT task and our IGT-pursuit task in probing decision-making. The last contribution of this thesis is an attempt to model the relation between aSPEM velocity and local direction-bias. Two models were tested to account for the trial-sequence effects, including either a decaying memory, or a Bayesian adaptive estimation of the efficient memory size. Our results suggest that adaptive models could be used in the future to better assess statistical and reinforcement learning.
author2 Aix-Marseille
author_facet Aix-Marseille
Damasse, Jean-Bernard
author Damasse, Jean-Bernard
author_sort Damasse, Jean-Bernard
title Smooth pursuit eye movements and learning : role of motion probability and reinforcement contingencies
title_short Smooth pursuit eye movements and learning : role of motion probability and reinforcement contingencies
title_full Smooth pursuit eye movements and learning : role of motion probability and reinforcement contingencies
title_fullStr Smooth pursuit eye movements and learning : role of motion probability and reinforcement contingencies
title_full_unstemmed Smooth pursuit eye movements and learning : role of motion probability and reinforcement contingencies
title_sort smooth pursuit eye movements and learning : role of motion probability and reinforcement contingencies
publishDate 2018
url http://www.theses.fr/2018AIXM0223/document
work_keys_str_mv AT damassejeanbernard smoothpursuiteyemovementsandlearningroleofmotionprobabilityandreinforcementcontingencies
AT damassejeanbernard mouvementsoculairesdepoursuitelisseetapprentissageroledescontingencesprobabilistesetderenforcement
_version_ 1719204241168400384