Mes intérêts de recherche actuels incluent : Mes activités de recherches sont financées par le CRSNG et MITACS. Je vous invite à me contacter si vous êtes intéressés à collaborer sur un projet.

Modélisation de la toxicité dans les communautés en-ligne
  Les communautés en-ligne abondent aujourd’hui, que ce soit à travers les réseaux sociaux, les sites web de communautés réelles tels des écoles ou des clubs, les forums de discussion, les outils de conversation intégrés aux jeux vidéo, ou dans les fils de commentaires sur les sites de nouvelles ou les blogs. La majorité de ces communautés sont « en santé » et mènent à des conversations respectueuses entre les participants. Mais certaines deviennent « toxiques » et dégénèrent en chicanes virulentes, cyberharcèlement, fraudes, menaces verbales, et pire encore, à l’incitation au suicide, à la radicalisation, ou à la prédation sexuelle sur les mineurs. La détection de ces messages toxiques et des utilisateurs toxiques est un défi important. Un premier défi vient du volume de messages à traiter; des milliards de nouveaux messages sont envoyés à chaque jour. La notion de toxicité elle-même peut être subjective, et certains messages peuvent sembler toxiques à une personne mais innocent à une autre qui a une perspective différente, une compréhension différente de certains termes, ou une connaissance différente du contexte de la conversation. Finalement, l’utilisateur toxique de qui origine les messages est une autre source de défi : c’est un adversaire qui, loin de coopérer avec notre système, cherche plutôt à le déjouer, à en découvrir les failles et à les exploiter.

La compagnie privée Two Hat Security offre actuellement le logiciel Community Sift pour assister les modérateurs de communautés à trouver les messages toxiques dans les conversations en-ligne. Dans ce projet, nous allons nous allier avec cette compagnie afin de réaliser cinq objectifs généraux : (1) Implémenter des améliorations aux algorithmes d’analyse de conversations et aux métriques de toxicité du logiciel Community Sift; (2) Créer de nouvelles techniques et méthodologies pour la détection de toxicité dans les conversations en-ligne; (3) Développer des algorithmes innovateurs pour agréger différents éléments de preuve en une évaluation unifiée du niveau de toxicité et de risque; (4) Développer des implémentations de ces méthodologies pouvant traiter un flux massif de messages en temps réel; (5) Étudier la nature des comportements toxiques, des impacts sur les utilisateurs et les communautés, et les mécanismes pour les combattre.

Assistant intelligent de recherche incrémentale
  La gestion du personnel technique et scientifique dans une compagnie multinationale est un défi majeur. Premièrement, un employé non-technique, tel un administrateur ou un employé des ressources humaines, pourra difficilement connaître tous les domaines d'expertise du personnel de la compagnie et comprendre les différences entre plusieurs sujets techniques connexes. Deuxièmement, un employé d'une branche de la compagne va rarement être familier avec les experts travaillant à d'autres branches se trouvant dans d'autres villes, d'autres pays, ou même d'autres continents. La conséquence de cette situation est un manque de coordination à l'intérieur de la compagnie : des experts scientifiques ne se font pas offrir des projets qui leurs seraient très intéressants, et des projets sont assignés à des équipes moins qualifiées pour les réaliser, simplement parce que l'employé en charge de l'assignation n'était pas au courant des meilleures options disponibles. Il s'agit là d'un problème auquel est régulièrement confrontée la compagnie multinationale de R&D Thales. Dans ce projet, nous allons investiguer une solution possible, soit de développer un assistant intelligent capable de converser en langage naturel avec un employé non-technique afin de déterminer graduellement ses besoins et de recommander les experts appropriés parmi tout le personnel de la compagnie.

Forage de données d'assurance : techniques, éthique, et sécurité
  La compagnie d'assurances canadienne La Capitale Assurance et Services Financiers a accumulé, à travers le temps, plusieurs bases de données massives traitant de leurs clients dans leurs divers programmes d'assurances. Ils recherchent actuellement un moyen d'exploiter ces données afin de mieux comprendre leur clientèle, et ainsi personnaliser leur offre de produits d'assurance aux besoins de chaque individu. Ceci doit être réalisé dans le respect de normes éthiques strictes et des contraintes que les utilisateurs eux-même peuvent vouloir mettre sur l'utilisation de leurs données. Et, considérant la nature personnelle des informations qui seront obtenues sur les individus, la sécurité des données se doit d'être extrêmement robuste.

Ce programme de recherche s'oriente donc autour de trois axes fondamentaux. L'axe de forage des données vise à développer de nouveaux algorithmes pour inférer des informations sur les clients à partir de données d'interactions avec la compagnie. L'axe d'éthique et de l'acceptabilité sociale étudie les attentes des clients face à ce forage de données, tant du point de vue des bénéfices qu'ils veulent en tirer que de la protection de leurs vies privées. Et l'axe de sécurité des données développe de nouvelles techniques pour garantir la confidentialité, l'intégrité, la disponibilité, et la traçabilité de ces données.

L'industrie de l'assurance vaut plusieurs milliards de dollars dans l'économie canadienne, et la protection des informations personnelles est un sujet d'une grande importance pour la majorité de la population canadienne. Les outils de gestion d'information et de découverte de connaissance que nous allons développer vont donner aux compagnies canadiennes un avantage important dans ce marché international compétitif, tout en garantissant à la population canadienne un contrôle et une protection de ses informations personnelles.