v2.7.0 (4173)

Enseignement scientifique & technique - SI221-B : Bases de l'apprentissage : théorie et algorithmes

Domaine > Image-Données-Signal.

Descriptif

Ce cours est recommandé aux élèves suivant la filière IMA ou IGR et à tout étudiant voulant acquérir les fondamentaux mathématiques de l'apprentissage.

Ce cours aborde certains aspects fondamentaux de l'apprentissage et de l'inférence statistique. Il traite dans un premier temps les questions "Que veut dire apprendre?", "Que peut être appris?", "Qu'est-ce qu'un apprentissage efficace?" d'un point de vue mathématique et unifié. Dans un deuxième temps, on aborde des aspects algorithmiques pour des problématiques centrales en apprentissage supervisé et non-supervisé. 

24 heures en présentiel
réparties en:
  • Contrôle de connaissance : 1.5
  • Travaux pratiques : 12
  • Travaux dirigés : 1.5
  • Leçon : 9

effectifs minimal / maximal:

/35

Diplôme(s) concerné(s)

Parcours de rattachement

Format des notes

Numérique sur 20

Littérale/grade européen

Pour les étudiants du diplôme Echange international non diplomant

L'UE est acquise si Note finale >= 10
  • Crédits ECTS acquis : 2.5 ECTS

La note obtenue rentre dans le calcul de votre GPA.

Pour les étudiants du diplôme Diplôme d'ingénieur

Vos modalités d'acquisition :

TP notés et examen final

L'UE est acquise si Note finale >= 10
  • Crédits ECTS acquis : 2.5 ECTS
  • Crédit d'UE partagées acquis : 2.5

La note obtenue rentre dans le calcul de votre GPA.

Pour les étudiants du diplôme Information processing: machine learning, communications and security

L'UE est acquise si Note finale >= 10
  • Crédits ECTS acquis : 2.5 ECTS

La note obtenue rentre dans le calcul de votre GPA.

Pour les étudiants du diplôme Programme de mobilité des établissements français partenaires

L'UE est acquise si Note finale >= 10
  • Crédits ECTS acquis : 2.5 ECTS

La note obtenue rentre dans le calcul de votre GPA.

Programme détaillé

- Why ML? ML and the broader landscape, ML vs. AI 

- PAC/APAC model of learning, supervised and unsupervised learning as special cases, ERM, No Free Lunch Theorem 

- Learning through uniform convergence, shattering, VC dimension 

- What can/cannot be learned, statistical vs. computational complexity of learning 

- Linear separators 

- Linear regression, logistic regression 

 

Veuillez patienter