Glossaire

Ressources-Glossaire

Acronymes utilises dans CheMoocs

Acronyme

Signification

FR

EN

 

 

 

 

ACP

PCA

analyse en composantes principales

AFD

FDA, LDA

analyse factorielle discriminante

CAH

 

classi cation ascendente hierarchique

 

CART

arbre de classi cation et de regression

 

CV

validation croisee

kppv

knn

k plus proches voisins

 

MLR

regression lineaire multiple

PIR

NIR

proche infra-rouge

SPIR

 

spectroscopie proche infra-rouge

 

PCR

régression sur composantes principales

 

PLSR

régression moindres carres partiels

 

 

ou projection sur structures latentes

 

PRESS

somme des carres des erreurs de prediction

 

 

en validation croisee leave-one-out

 

RMSEC

racine-carree de l’erreur d’etalonnage

 

RMSECV

racine-carree de l’erreur de validation croisee

 

RMSEP

racine-carree de l’erreur de prediction

 

SVD

decomposition en valeurs singulieres

 

 

 

Base d’un espace vectoriel

Une base d’un espace vectoriel de dimension P est constituee de P vecteurs : fu1; u2; :::uP g lineairement independant, c’est a dire qu’aucun ne peut ^etre ecrit comme une combinaison lineaire des autres. De m^eme, on de nit une base d’un sous-espace vectoriel de RP , de dimension A, par A vecteurs  de nis dans RP et lineairement independants.

Une base n’est pas unique : de tres nombreuses bases (une in nite) peuvent ^etre utilisees pour de nir

le m^eme espace vectoriel. Une base orthonormee ne contient que des vecteurs de norme 1 et tous orthogonaux entre eux. Si la matrice P de dimensions (P A) contient en colonne les vecteurs d’une base orthonormee, alors P P = IA. Les loadings de l’ACP forment une base orthonormee.

Carte factorielle

La carte factorielle ou score plot en Anglais represente les coordonnees des observations sur le

plan forme par deux axes principaux, generalement les axes 1 et 2.

Dans cette representation, chaque point represente une observation. Les points sont donc distincts les uns des autres, comme le sont les echantillons qu’ils representent.

Cercle des correlations

Le cercle des correlations est utilise en ACP. Il consiste a representer les correlations de chacune des variables initiales sur un plan forme de deux composantes principales, souvent les deux premieres.

Figure 1 { Le cercle des correlations pour 4 variables : Var1, Var2, Var3 et Var4 representees sur le plan des composantes principales 1-2, ou axes 1-2.

Selon l’exemple de la gure 1, Var1 est bien expliquee par l’axe 1, avec une forte correlation positive ; Var2 est bien expliquee par l’axe 2, avec une forte correlation negative ; Var3 est bien expliquee par les axes 1 et 2, du fait de sa proximite avec le cercle ; en n Var4 n’est pas du tout expliquee par les deux premieres composantes, elle doit l’^etre par d’autres composantes.

 

Coefficient de corrélation

Le coe cient de correlation selon Pearson permet, comme la covariance, de mesurer comment deux variables representees ici par les vecteurs x et y varient dans le m^eme sens, ou pas. Il est note r et sa valeur est comprise entre 1 (forte correlation positive) et 1 (forte correlation negative). Une valeur de 0 indique que les variables varient independamment l’une de l’autre. La correlation entre une variable et elle-m^eme est 1.

Soient x et y les moyennes de x et y, xi et yi leurs valeurs pour l’indice i.

Le coe  cient de determination R2, compris entre 0 et 1, est le carre du coe  cient de correlation.

Rx2;y = r2(x; y)

Coefficient de determination

Voir corrélation

 

Coefficients de régression

Soit une matrice de spectres X de dimensions (N P ) et une grandeur quantitative Y (ex : gluten) dont les valeurs predites a partir de X donneront yb. Les coe cients de regression, ou b-coe cients, forment un vecteur de dimension (P 1) note b qui veri e :

yb = Xb + E

E etant l’erreur. La formule s’ecrit aussi avec   et   au lieu de b et E :

yb = X  +

Combinaison lineaire

Des vecteurs fu1; u2; :::uP g sont relies par une combinaison lineaire s’il existe les nombres fa1; a2; :::aP g tels que :

a1u1 + a2u2 + ::: + aP uP = 0

!0 etant le vecteur nul. Dans le cas contraire, les vecteurs sont dits independants.

Colinearité  de vecteurs

Deux vecteurs x1 et x2 sont colineaires si on peut trouver un nombre k tel que : x1 = kx2. Deux vecteurs colineaires pointent la m^eme direction de l’espace, mais pas necessairement le m^eme sens.

 

Cosinus

Le cosinus est utilise pour mesurer l’angle entre deux vecteurs. Il est compris entre 1 (deux vecteurs colineaires dans des sens opposes) et 1 (deux vecteurs colineaires dans le m^eme sens). Il vaut 0 pour deux vecteurs orthogonaux.

La mesure du cosinus est illustree avec la gure 2. Les deux vecteurs u et v sont utilises pour donner deux directions, sur lesquelles appuient deux cotes d’un triangle rectangle ABC, rectangle en B.

 

 

 

 

 

 

 

 

 

AB

AC

 

Notons d(A; B) et d(A; C) les distances respectives entre A et B et entre A et C. !

et!

sont

 

AB

AB

 

 

d

A; B

AB

d

A; C

 

AC

 

aussi des vecteurs dont les normes k! k et

k! k veri ent :

 

(

 

) = k! k et

(

 

 

) = k! k.

 

Le cosinus entre u et v est calcule ainsi :

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

d(A; B)

 

AB

 

 

 

 

 

 

 

 

 

cov(u; v) =

=

k!

 

k

 

 

 

 

 

 

 

 

d(A; C)

k!

 

k

 

 

 

 

 

 

 

 

 

 

 

AC

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 ...