Formations en Informatique de Lille
Portail pédagogique
Vous êtes ici : FIL > Portail > Master Info > Machine Learning > PJE
Projet Encadré (UE: Projet Encadré)

Objectifs

Les étudiants en formation initiale auront l’occasion de développer un projet interdisciplinaire tout au long du premier semestre.

Programme succinct

Les sujet sont imposés. Il faut choisir parmi les 6 sujets mis à disposition. Les étudiants seront encadrés pendant le développement du projet.

Compétences

Apprendre à gérer un projet en petit groupe.



dernière modification : 09/11/2021 à 07:44:01

Projet Encadré A : Génération de code Android par IDM

DESCRIPTION

dernière modification : 09/11/2021 à 07:44:01

Projet Encadré B : IA au service de la qualité de l’air et assistance ambiante

DESCRIPTION

dernière modification : 09/11/2021 à 07:44:01

Projet Encadré C : Analyse de sentiments sur Twitter

DESCRIPTION

dernière modification : 09/11/2021 à 07:44:01

Projet Encadré D : Réalité augmentée par marqueurs et Interaction

Objectif

L'objectif est de réaliser une application qui incruste des modèles 3D dans une image (qui peut être une image fixe, une vidéo, ou le flux d'une webcam). La position de ces modèles 3D, dans l'image, est déterminée gràce à la reconnaissance de marqueurs (ce sont des "tags" imprimés spécifiques). En interagissant avec ces modèles 3D, on peut alors imaginer des applications qui "augmentent" la "réalité".

Les étapes de développement proposées sont :

  • Reconnaitre les marqueurs dans l'image (un identifiant associé au cadre du marqueur)
  • Extraire la localisation 2D du marqueur dans l'image. On peut en déduire une "pseudo-localisation" 3D (non exacte).
  • Incruster, sur le cadre du marqueur, une autre image ou un modèle 3D
  • Interagir avec les éléments incrustés (par l'intermédiaire de marqueurs ou avec la souris) pour offrir des fonctionnalités
  • L'application finale s'appuiera sur la manipulation de sons

Langage et librairies

  • Le langage utilisé est Javascript (exécution sur navigateur)

Des librairies sont exploitées. Nous présenterons uniquement les notions et fonctionnalités qui nous sont strictement nécessaires pour notre application :

Référence

ArUco: a minimal library for Augmented Reality applications based on OpenCV

Documents

Notes cours et tps

Evaluation

Moyenne de 3 notes : évaluation du code produit pour chaque "module" principal :

  • Reconnaissance des marqueurs
  • Position 3D et inscrustation 3D
  • Interaction et application (son)

Le projet n'a pas de rattrapage (ni seconde chance, ni seconde session)

Intervenants


dernière modification : 09/11/2021 à 07:44:01

Projet Encadré E : Guidage gestuel de robots

Dernières informations

  • La première séance de projet aura lieu le lundi 13 septembre 2021, à 9h00.

Objectif

L'objectif du projet est de programmer des robots Turtlebot3 pour reconnaître et exécuter une commande gestuelle donné par un humain.

Les robots sont équipés de :

  • Une carte NVidia Jetson Nano, avec un quad-core ARM Cortex-A57, une GPU Maxwell, 4Gb RAM ;
  • Une camera raspberry ;
  • Moteurs ;
  • Différent types de capteurs (Laser, odomètrie, etc.).

Le système d'exploitation disponible sur la carte embarquée est Linux avec le middleware ROS qui fourni des librairies pour interagir avec les capteurs et les actionneurs. Les langages de programmation à utiliser seront principalement C/C++ et Python. Il est toutefois possible d'utiliser d'autres langages.

La reconnaissance de gestes se basera sur des méthodes d'"IA" (analyse d'images, vision par ordinateur, apprentissage automatique) qui seront introduites au début du projet. L'implémentation sera essentiellement faite en Python, à l'aide de bibliothèques standard du domaine (OpenCV, Scikit-learn, Numpy, etc.). L'utilisation d'autres langages et bibliothèques sera également possible.

Compétition

Les étudiants travailleront en équipe. Chaque équipe est composé de 4 étudiants maximum. Les groupes sont en compétition pour mieux réussir dans leur objectif. Ils seront évalués sur :

  1. le temps que les robots passe à accomplir leur tache ;
  2. la precision dans l'exécution de la tache ;
  3. (optionnel) la consommation énergétique (niveau de la batterie des robots).

Intervenants

  • Giuseppe Lipari (responsable)
  • Pierre Tirilly (vision)
  • Gerald Dhebormez (ROS)

Guided Project: Commanding robots with gestures

Latest News

  • First session will be on monday 13 september 2021 9h00.

Goal

The objective of this project is to program Turtlebot3 robots to recognize and execute commands given by a human via hand gestures.

The robots are equipped with

  • An NVidia Jetson Nano, card with a quad-core ARM Cortex-A57, a GPU Maxwell, and 4Gb RAM ;
  • A raspberry camera;
  • Engines ;
  • Different types of sensors (Laser, odometry, etc.).

The OS available on the platform is Linux and the ROS middleware, which provides libraries to interact with sensors and actuators. The main programming languages will be C++ and Python.

Hand gestures recognition is based on "AI" methods (image analysis, computer vision, machine learning) that will be introduced at the start of the project. The implementation will be mainly in Python with standand libraries of the application domain, like OpenCV, Numpy, etc. The utilization of other languages and libraries is possible.

Competition

Students will work in teams of 4 people each. The teams will compete to better achieve their objectives. They will be evaluated on :

  1. The time the robot will spend achieving the task ;
  2. The precision in achieving the task ;
  3. The quality of the code and the architecture of their application.

Teachers

  • Giuseppe Lipari (responsable)
  • Pierre Tirilly (vision)
  • Gerald Dhebormez (ROS)

dernière modification : 09/11/2021 à 07:44:01

Projet Encadré F : Réseaux de caméras

DESCRIPTION

dernière modification : 09/11/2021 à 07:44:01