Guide Méthodologique · Statistiques Avancées

Comprendre et interpréter une analyse PLS-SEM

Du modÚle de mesure aux liens structurels : un guide exhaustif illustré par des résultats réels, conçu pour les non-spécialistes.

1

La logique d’ensemble du PLS-SEM

Avant de plonger dans les indicateurs, il faut comprendre ce qu’on cherche Ă  faire avec une analyse PLS-SEM. Imaginez que vous souhaitez Ă©tudier un phĂ©nomĂšne complexe — par exemple, comprendre pourquoi un client accepte ou refuse d’interagir avec un robot dans un hĂŽtel. Ce phĂ©nomĂšne n’est pas directement observable : on ne peut pas mesurer “l’intention d’usage” comme on mesure la tempĂ©rature. On peut en revanche poser plusieurs questions Ă  des rĂ©pondants, et synthĂ©tiser leurs rĂ©ponses en un score global.

Ces scores synthĂ©tiques sont appelĂ©s variables latentes (ou “construits”). Le PLS-SEM (Partial Least Squares – Structural Equation Modeling), traduit en français par « modĂ©lisation par Ă©quations structurelles par moindres carrĂ©s partiels », fait deux choses simultanĂ©ment (Hair et al., 2019) :

  • Il mesure si vos questions reflĂštent fidĂšlement les concepts qu’elles sont censĂ©es capturer (modĂšle de mesure).
  • Il teste si ces concepts exercent bien des effets les uns sur les autres, conformĂ©ment Ă  vos hypothĂšses (modĂšle structurel).
🎓 Analogie

Pensez Ă  un mĂ©decin qui mesure la santĂ© d’un patient. Il ne peut pas “voir” la santĂ© directement — il prend la tension, analyse les prises de sang, mesure le pouls. Chaque mesure est un indicateur du concept “santĂ©”. Le PLS-SEM vĂ©rifie d’abord que vos indicateurs sont bons (modĂšle de mesure), puis que vos concepts sont bien reliĂ©s entre eux (modĂšle structurel).

Dans notre Ă©tude, on cherche Ă  expliquer l’Intention d’usage d’un robot humanoĂŻde. Les variables explicatives sont : l’Anthropomorphisme, l’UtilitĂ© perçue, le Plaisir perçu, le Risque Vie PrivĂ©e, le Risque Psychologique, le Risque de DĂ©shumanisation et le Risque pour l’Emploi. Chacune de ces variables est mesurĂ©e par plusieurs questions (items) sur une Ă©chelle de 1 Ă  5.

ModÚle PLS testé
📐 Le modĂšle conceptuel testĂ©

L’analyse se dĂ©roule en deux grandes phases, elles-mĂȘmes subdivisĂ©es en plusieurs Ă©tapes :

Phase 1 ModĂšle de mesure

On vĂ©rifie que les questions posĂ©es mesurent bien les bons concepts. C’est comme vĂ©rifier que votre thermomĂštre mesure bien la tempĂ©rature et non autre chose.

Phase 2 ModĂšle structurel

On teste les liens de causalitĂ© entre les concepts. C’est comme vĂ©rifier que la fiĂšvre est bien causĂ©e par une infection, et non l’inverse.


2

Étape 1 — Les saturations (Loadings)

La premiĂšre question Ă  se poser est : chaque question (item) est-elle bien reprĂ©sentative du concept qu’elle est censĂ©e mesurer ? En PLS-SEM, on rĂ©pond Ă  cette question en calculant les saturations factorielles (ou loadings en anglais), notĂ©es λ (lambda).

Un loading mesure la corrélation entre une question et le score global du concept auquel elle appartient. Il prend une valeur entre -1 et 1. Plus il est proche de 1, plus la question est une bonne représentante du concept (Hair et al., 2019 ; Fornell & Larcker, 1981).

📐 Ce que ça mesure

Le loading rĂ©pond Ă  cette question : si je prends la rĂ©ponse d’un individu Ă  cette question, dans quelle mesure est-elle reprĂ©sentative de son score global sur ce concept ? Un loading de 0,85 signifie que la question “partage” 85% de son information avec le concept global.

✅ RĂšgle d’or

Un loading est acceptable s’il est ≄ 0,70 (Hair et al., 2019). Certains auteurs tolĂšrent 0,60 dans des recherches exploratoires (Churchill, 1979). En dessous de 0,40, l’item doit ĂȘtre supprimĂ© du modĂšle car il apporte plus de bruit que d’information.

Nos rĂ©sultats — Loadings des items

Construit Item Loading (λ) Évaluation
AnthropomorphismeANT10,871✓ Excellent
ANT20,866✓ Excellent
ANT30,813✓ Trùs bon
ANT40,824✓ Trùs bon
ANT50,712✓ Acceptable
UtilitĂ© perçueUTIL10,799✓ Bon
UTIL20,841✓ Trùs bon
UTIL30,793✓ Bon
UTIL40,825✓ Trùs bon
UTIL50,711✓ Acceptable
UTIL60,753✓ Bon
UTIL70,641⚠ Limite
Plaisir perçuPLAIS10,863✓ Excellent
PLAIS20,836✓ Trùs bon
PLAIS30,793✓ Bon
PLAIS40,915✓ Excellent
Risque Vie PrivĂ©eRCONTETH10,865✓ Excellent
RCONTETH20,767✓ Bon
RCONTETH30,873✓ Excellent
RCONTETH40,766✓ Bon
Risque PsyRPSY10,883✓ Excellent
RPSY20,879✓ Excellent
RPSY30,902✓ Excellent
Risque DĂ©shumanisationRDEHUM10,839✓ TrĂšs bon
RDEHUM20,856✓ Excellent
RDEHUM30,798✓ Bon
RDEHUM40,882✓ Excellent
RDEHUM50,836✓ Trùs bon
Risque EmploiRPEMP10,770✓ Bon
RPEMP20,860✓ Excellent
RPEMP30,787✓ Bon
RPEMP40,801✓ Bon
RPEMP50,885✓ Excellent
Intention d’usageINT10,918✓ Excellent
INT20,856✓ Excellent
INT30,888✓ Excellent
INT40,883✓ Excellent

Tableau 1 — Saturations factorielles (loadings) de tous les items. Seuil requis : ≄ 0,70.

✅

Verdict : La quasi-totalitĂ© des items prĂ©sente un loading ≄ 0,70. L’item UTIL7 (loading = 0,641) se situe en dessous du seuil recommandĂ© mais reste acceptable dans un contexte exploratoire. Le modĂšle de mesure est solide. Chaque question est bien reprĂ©sentative du concept qu’elle mesure.


3

Étape 2 — La fiabilitĂ© (Alpha de Cronbach & FiabilitĂ© Composite)

Une fois que chaque question est bien reprĂ©sentative de son concept, on vĂ©rifie que l’ensemble des questions d’un mĂȘme bloc forment un tout cohĂ©rent. C’est ce qu’on appelle la fiabilitĂ© de l’Ă©chelle. On utilise deux indicateurs complĂ©mentaires.

L’Alpha de Cronbach (α)

ProposĂ© par Cronbach en 1951, l’Alpha est l’indicateur de fiabilitĂ© le plus connu. Il mesure l’homogĂ©nĂ©itĂ© interne d’un groupe de questions : est-ce que toutes les questions du bloc mesurent bien la mĂȘme chose, dans le mĂȘme sens ? ConcrĂštement, il regarde si les rĂ©pondants ont tendance Ă  rĂ©pondre de maniĂšre similaire Ă  toutes les questions d’un mĂȘme bloc (Cronbach, 1951).

📐 InterprĂ©tation

L’Alpha varie de 0 Ă  1. Un Alpha de 0,90 signifie que 90% de la variabilitĂ© des rĂ©ponses est due au concept mesurĂ© (et seulement 10% Ă  des erreurs de mesure). En pratique : α ≄ 0,70 = acceptable · α ≄ 0,80 = bon · α ≄ 0,90 = excellent (Nunnally, 1978).

La Fiabilité Composite (CR)

La FiabilitĂ© Composite (Composite Reliability, CR) est un indicateur plus moderne, recommandĂ© par Hair et al. (2019) en complĂ©ment de l’Alpha. Contrairement Ă  l’Alpha qui traite toutes les questions de la mĂȘme façon, la CR accorde plus d’importance aux questions qui ont un loading plus Ă©levĂ© (c’est-Ă -dire aux questions les plus reprĂ©sentatives du concept). Elle est donc plus prĂ©cise et moins sensible au nombre d’items dans le bloc (Ringle et al., 2015).

✅ Seuils requis

Alpha de Cronbach : ≄ 0,70 (minimum), idĂ©alement ≄ 0,80 — FiabilitĂ© Composite (CR) : ≄ 0,70 (minimum), idĂ©alement ≄ 0,80. Un CR supĂ©rieur Ă  0,95 peut toutefois signaler que les items sont redondants (Hair et al., 2019).

Nos rĂ©sultats — FiabilitĂ© des construits

Construit Alpha de Cronbach (α) Éval. Alpha FiabilitĂ© Composite (CR) Éval. CR
Anthropomorphisme0,876✓ Bon0,910✓ Excellent
UtilitĂ© perçue0,883✓ Bon0,910✓ Excellent
Plaisir perçu0,874✓ Bon0,914✓ Excellent
Risque Vie PrivĂ©e0,839✓ Bon0,891✓ Bon
Risque Psy0,867✓ Bon0,918✓ Excellent
Risque DĂ©shumanisation0,898✓ Bon0,924✓ Excellent
Risque Emploi0,882✓ Bon0,912✓ Excellent
Intention d’usage0,909✓ Excellent0,936✓ Excellent

Tableau 2 — FiabilitĂ© des construits. Seuil minimum : Alpha ≄ 0,70 · CR ≄ 0,70.

✅

Verdict : Tous les construits dĂ©passent largement les seuils minimaux requis. L’Alpha de Cronbach varie de 0,839 Ă  0,909 et la FiabilitĂ© Composite de 0,891 Ă  0,936. La fiabilitĂ© interne de l’ensemble des Ă©chelles est excellente : chaque groupe de questions forme un bloc cohĂ©rent mesurant bien son concept.


4

Étape 3 — La validitĂ© convergente (AVE)

On sait maintenant que les questions d’un mĂȘme bloc sont cohĂ©rentes entre elles. Mais il faut aller plus loin : le concept capture-t-il bien l’essentiel de l’information contenue dans ses questions ? C’est l’objet de la validitĂ© convergente, mesurĂ©e par l’AVE (Average Variance Extracted — Variance Moyenne Extraite).

L’AVE calcule, en moyenne, quelle proportion de la variabilitĂ© des rĂ©ponses aux questions est expliquĂ©e par le concept latent, et quelle proportion est due Ă  des erreurs de mesure (Fornell & Larcker, 1981). C’est un peu comme demander : “Parmi tout ce que mesurent ces questions, quelle part est vraiment ce qu’on veut mesurer (signal), et quelle part est du bruit ?”

📐 La formule intuitive

AVE = moyenne des loadingsÂČ de toutes les questions du bloc. Si AVE = 0,67, cela signifie que 67% de la variance des items est expliquĂ©e par le concept, et seulement 33% est due Ă  des erreurs de mesure. Le signal domine le bruit.

✅ Rùgle de Fornell & Larcker (1981)

L’AVE doit ĂȘtre ≄ 0,50. En dessous de ce seuil, plus de la moitiĂ© de la variance des items est due aux erreurs de mesure plutĂŽt qu’au concept : l’Ă©chelle capte plus de bruit que de signal.

Nos rĂ©sultats — ValiditĂ© convergente

ConstruitAVEÉvaluationInterprĂ©tation
Anthropomorphisme0,671✓ Bon67,1% du signal capturĂ©
UtilitĂ© perçue0,591✓ Acceptable59,1% du signal capturĂ©
Plaisir perçu0,727✓ Excellent72,7% du signal capturĂ©
Risque Vie PrivĂ©e0,671✓ Bon67,1% du signal capturĂ©
Risque Psy0,789✓ Excellent78,9% du signal capturĂ©
Risque DĂ©shumanisation0,710✓ Bon71,0% du signal capturĂ©
Risque Emploi0,675✓ Bon67,5% du signal capturĂ©
Intention d’usage0,786✓ Excellent78,6% du signal capturĂ©

Tableau 3 — Variance Moyenne Extraite (AVE). Seuil requis : ≄ 0,50.

✅

Verdict : Tous les construits dĂ©passent largement le seuil de 0,50. L’AVE varie de 0,591 (UtilitĂ©) Ă  0,789 (Risque Psy). La validitĂ© convergente est Ă©tablie pour l’ensemble du modĂšle : les questions mesurent bien les concepts auxquels elles appartiennent.


5

Étape 4 — La validitĂ© discriminante (Fornell-Larcker & HTMT)

On a vĂ©rifiĂ© que chaque concept est bien mesurĂ© par ses propres questions. Il faut maintenant s’assurer que les diffĂ©rents concepts sont bien distincts les uns des autres. Si “Plaisir” et “UtilitĂ©” sont trop similaires dans l’esprit des rĂ©pondants, ils ne constituent pas vraiment deux concepts sĂ©parĂ©s, et le modĂšle perd sa signification.

C’est l’objet de la validitĂ© discriminante. On utilise deux critĂšres complĂ©mentaires et de rigueur croissante (Henseler, Ringle & Sarstedt, 2015).

Le critĂšre de Fornell-Larcker

ProposĂ© en 1981, ce critĂšre compare, pour chaque variable, la racine carrĂ©e de son AVE aux corrĂ©lations qu’elle entretient avec les autres variables. La logique est simple : un concept doit partager plus de variance avec ses propres items qu’avec n’importe quel autre concept. En d’autres termes, √AVE doit ĂȘtre supĂ©rieur Ă  toutes les corrĂ©lations inter-construits de la colonne (Fornell & Larcker, 1981).

Dans la matrice ci-dessous, les valeurs en diagonale reprĂ©sentent la racine carrĂ©e de l’AVE de chaque construit (ce sont les valeurs les plus grandes de chaque colonne, ce qui est bon signe). Les valeurs hors diagonale reprĂ©sentent les corrĂ©lations entre construits.

ConstruitANTUTILPLAISRVPRPSYRDEHREMPINT
Anthropomorphisme0,8190,6730,720-0,230-0,306-0,197-0,0970,684
Utilité perçue0,6730,7690,760-0,276-0,392-0,196-0,1700,786
Plaisir perçu0,7200,7600,853-0,297-0,503-0,295-0,2080,866
Risque Vie Privée-0,230-0,276-0,2970,8190,6860,6650,672-0,392
Risque Psy-0,306-0,392-0,5030,6860,8880,6630,615-0,533
Risque Déshumanisation-0,197-0,196-0,2950,6650,6630,8430,768-0,308
Risque Emploi-0,097-0,170-0,2080,6720,6150,7680,822-0,282
Intention d’usage0,6840,7860,866-0,392-0,533-0,308-0,2820,887

Tableau 4 — Matrice Fornell-Larcker. Les valeurs en vert (diagonale) sont les √AVE. Elles doivent ĂȘtre supĂ©rieures Ă  toutes les corrĂ©lations de leur colonne/ligne.

Le critĂšre HTMT (Heterotrait-Monotrait Ratio)

Le HTMT est le test le plus rigoureux et le plus rĂ©cent de la validitĂ© discriminante (Henseler et al., 2015). Il est dĂ©sormais recommandĂ© en prioritĂ© dans la littĂ©rature PLS-SEM. Son principe : si deux concepts sont vraiment distincts, alors la corrĂ©lation entre eux (hĂ©tĂ©rotraits) doit ĂȘtre significativement plus faible que la corrĂ©lation interne Ă  chacun d’eux (monotraits).

✅ Seuils HTMT

Un HTMT < 0,85 est le critĂšre strict (Gold, Malhotra & Segars, 2001). Certains auteurs tolĂšrent jusqu’Ă  < 0,90 pour des construits conceptuellement proches (Henseler et al., 2015). Au-delĂ , les deux concepts se confondent dans l’esprit des rĂ©pondants.

ConstruitANTUTILPLAISRVPRPSYRDEHREMPINT
Anthropomorphisme1,0000,7580,8150,2600,3450,2160,1050,764
Utilité perçue0,7581,0000,8530,3010,4420,2060,1690,868
Plaisir perçu0,8150,8531,0000,3280,5760,3220,2120,968
Risque Vie Privée0,2600,3010,3281,0000,7870,7580,7450,432
Risque Psy0,3450,4420,5760,7871,0000,7500,6820,599
Risque Déshumanisation0,2160,2060,3220,7580,7501,0000,8550,338
Risque Emploi0,1050,1690,2120,7450,6820,8551,0000,294
Intention d’usage0,7640,8680,9680,4320,5990,3380,2941,000

Tableau 5 — Matrice HTMT. Seuil strict : < 0,85. Seuil tolĂ©rĂ© : < 0,90. Les valeurs en orange sont Ă  surveiller.

⚠ Points d’attention HTMT

Deux valeurs HTMT mĂ©ritent attention. Le HTMT entre Plaisir et Intention atteint 0,968, ce qui suggĂšre que ces deux construits sont trĂšs proches — le plaisir ressenti lors de l’interaction avec un robot est fortement associĂ© Ă  l’intention de l’utiliser, Ă  tel point que les frontiĂšres conceptuelles s’amincissent. De mĂȘme, le HTMT entre Risque DĂ©shumanisation et Risque Emploi est de 0,855, lĂ©gĂšrement au-dessus du seuil strict de 0,85. Ces rĂ©sultats invitent Ă  la prudence dans l’interprĂ©tation, et suggĂšrent que des Ă©tudes futures pourraient explorer la fusion potentielle de ces construits ou leur clarification conceptuelle. Dans le cadre de cette Ă©tude, ces valeurs restent tolĂ©rĂ©es au regard de la proximitĂ© thĂ©orique attendue.


6

Étape 5 — La colinĂ©aritĂ© (VIF)

Avant de tester les liens entre les concepts, il faut s’assurer qu’aucun prĂ©dicteur ne fait “double emploi” avec un autre. Quand deux variables explicatives sont trop corrĂ©lĂ©es entre elles, le modĂšle ne parvient plus Ă  dĂ©mĂȘler leurs effets respectifs sur la variable dĂ©pendante. C’est le problĂšme de la multicolinĂ©aritĂ© (Hair et al., 2019).

On la mesure par le VIF (Variance Inflation Factor), ou Facteur d’Inflation de la Variance. Intuitivement, le VIF indique de combien de fois la variance estimĂ©e du coefficient d’un prĂ©dicteur est “gonflĂ©e” par sa corrĂ©lation avec les autres prĂ©dicteurs (O’Brien, 2007).

📐 Analogie

Imaginez deux tĂ©moins qui ont tout vu ensemble et racontent la mĂȘme histoire. Impossible de savoir ce que chacun apporte de nouveau. Le VIF mesure Ă  quel point chaque variable “raconte une histoire dĂ©jĂ  racontĂ©e” par une autre variable du modĂšle.

✅ Seuil VIF

VIF < 5 : pas de problĂšme (Hair et al., 2019). VIF < 3 : idĂ©al. VIF ≄ 10 : problĂšme sĂ©vĂšre, les rĂ©sultats ne sont pas fiables. Un VIF = 1 signifie qu’il n’y a aucune colinĂ©aritĂ©.

Nos rĂ©sultats — VIF du modĂšle structurel

Variable dĂ©pendantePrĂ©dicteurVIFÉvaluation
UtilitĂ© perçueAnthropomorphisme1,000✓ Parfait (pas de colinĂ©aritĂ©)
Plaisir perçuAnthropomorphisme1,000✓ Parfait
Intention d’usagePlaisir perçu2,778✓ Acceptable
UtilitĂ© perçue2,429✓ Acceptable
Risque Vie PrivĂ©e2,432✓ Acceptable
Risque Psy2,713✓ Acceptable
Risque DĂ©shumanisation2,968✓ Acceptable
Risque Emploi2,825✓ Acceptable

Tableau 6 — VIF des prĂ©dicteurs. Seuil requis : < 5. IdĂ©alement < 3.

✅

Verdict : Tous les VIF sont infĂ©rieurs Ă  3, avec un maximum de 2,968 (Risque DĂ©shumanisation). Il n’y a aucun problĂšme de multicolinĂ©aritĂ© dans ce modĂšle. Chaque prĂ©dicteur apporte une contribution distincte et les coefficients estimĂ©s sont stables et fiables.


7

Étape 6 — Les liens structurels (ÎČ, t-value, p-value)

On entre maintenant dans le cƓur du modĂšle structurel : les liens de causalitĂ© entre les concepts. Pour chaque flĂšche du modĂšle (ex : “Anthropomorphisme → UtilitĂ© perçue”), on estime trois indicateurs : le coefficient path (ÎČ), la t-value et la p-value.

Le coefficient path (ÎČ)

Le coefficient ÎČ (bĂȘta standardisĂ©) est la mesure de l’intensitĂ© et du sens du lien entre deux variables. Un ÎČ positif indique que quand le prĂ©dicteur augmente, la variable dĂ©pendante augmente aussi. Un ÎČ nĂ©gatif indique l’inverse. Plus ÎČ est proche de ±1, plus le lien est fort (Hair et al., 2019).

📐 InterprĂ©tation de ÎČ

|ÎČ| > 0,50 = lien fort · 0,20 ≀ |ÎČ| ≀ 0,50 = lien modĂ©rĂ© · |ÎČ| < 0,20 = lien faible (Chin, 1998). Un ÎČ nĂ©gatif signifie un effet d’inhibition (plus X augmente, moins Y est Ă©levĂ©).

La t-value et le bootstrapping

En PLS-SEM, on ne peut pas calculer directement la significativitĂ© statistique d’un coefficient par des formules analytiques (contrairement Ă  la rĂ©gression classique). On utilise une technique de rééchantillonnage appelĂ©e bootstrapping : le modĂšle est rĂ©estimĂ© des centaines de fois sur des sous-Ă©chantillons alĂ©atoires de vos donnĂ©es (ici 500 fois). Cette procĂ©dure gĂ©nĂšre une distribution empirique des coefficients, qui permet de calculer un Ă©cart-type et donc une t-value (Hair et al., 2019).

La t-value est le ratio entre le coefficient ÎČ et son Ă©cart-type bootstrap. Plus elle est grande, plus le rĂ©sultat est stable et reproductible. Une t-value ≄ 1,96 correspond Ă  un niveau de confiance de 95% (seuil habituel en sciences sociales).

La p-value

La p-value est la probabilitĂ© d’obtenir un rĂ©sultat au moins aussi extrĂȘme si le lien Ă©tait en rĂ©alitĂ© nul. Une p-value de 0,03 signifie qu’il y a seulement 3% de chances que ce rĂ©sultat soit dĂ» au hasard (Cohen, 1992). On accepte gĂ©nĂ©ralement : p < 0,05 (significatif au seuil de 5%), p < 0,01 (trĂšs significatif), p < 0,001 (hautement significatif).

✅ CritĂšres de significativitĂ©

Une hypothĂšse est validĂ©e si t-value ≄ 1,96 ET p-value < 0,05 (Hair et al., 2019). Ces deux critĂšres doivent ĂȘtre remplis simultanĂ©ment.

Nos rĂ©sultats — Coefficients structurels

Hyp.Lien testĂ©ÎČt-valuep-valueSignificatif ?
H1 Anthropomorphisme → UtilitĂ© +0,673 14,885 1,53e-28 ✓ Oui (p<0,001)
H2 Anthropomorphisme → Plaisir +0,720 17,469 3,40e-34 ✓ Oui (p<0,001)
H3 Plaisir → Intention +0,599 10,006 4,90e-24 ✓ Oui (p<0,001)
H4 UtilitĂ© → Intention +0,281 4,559 2,38e-08 ✓ Oui (p<0,001)
H5 Risque Vie PrivĂ©e → Intention -0,104 2,087 0,033 ✓ Oui (p<0,05)
H6 Risque Psy → Intention -0,068 1,206 0,185 ✗ Non (p=0,185)
H7 Risque DĂ©shumanisation → Intention +0,087 1,661 0,105 ✗ Non (p=0,105)
H8 Risque Emploi → Intention -0,065 1,161 0,215 ✗ Non (p=0,215)

Tableau 7 — Coefficients structurels bootstrappĂ©s (n=500). Seuils : t > 1,96 et p < 0,05.

🔎

Lecture des rĂ©sultats : Les quatre premiĂšres hypothĂšses sont solidement validĂ©es. L’Anthropomorphisme est un prĂ©dicteur trĂšs fort de l’UtilitĂ© (ÎČ=+0,673) et du Plaisir (ÎČ=+0,720). Le Plaisir est le prĂ©dicteur dominant de l’Intention (ÎČ=+0,599), suivi de l’UtilitĂ© (ÎČ=+0,281). Le Risque Vie PrivĂ©e a un effet nĂ©gatif significatif mais faible (ÎČ=-0,104). En revanche, les risques psychologique, de dĂ©shumanisation et d’emploi ne parviennent pas Ă  dĂ©montrer un effet significatif sur l’intention d’usage une fois contrĂŽlĂ©s les autres facteurs.


8

Étape 7 — La taille de l’effet (fÂČ)

Un rĂ©sultat peut ĂȘtre statistiquement significatif sans ĂȘtre pratiquement important. La significativitĂ© dĂ©pend notamment de la taille de l’Ă©chantillon : avec un trĂšs grand Ă©chantillon, mĂȘme un effet infinitĂ©simal sera significatif. La taille de l’effet fÂČ (f-carrĂ©) permet de rĂ©pondre Ă  la question : “Quand on retire ce prĂ©dicteur du modĂšle, dans quelle mesure la capacitĂ© explicative du modĂšle se dĂ©grade-t-elle ?” (Cohen, 1988).

ConcrĂštement, fÂČ compare le RÂČ du modĂšle avec et sans chaque prĂ©dicteur. Plus le fÂČ est Ă©levĂ©, plus le prĂ©dicteur contribue substantiellement Ă  expliquer la variable dĂ©pendante.

✅ Seuils de Cohen (1988)

fÂČ â‰„ 0,02 = effet petit · fÂČ â‰„ 0,15 = effet moyen · fÂČ â‰„ 0,35 = effet large.

Variable dĂ©pendantePrĂ©dicteurfÂČTaille de l’effet
UtilitĂ© perçueAnthropomorphisme0,828✓ TrĂšs large
Plaisir perçuAnthropomorphisme1,076✓ Trùs large
Intention d’usagePlaisir perçu0,674✓ TrĂšs large
UtilitĂ© perçue0,170✓ Moyen
Risque Vie PrivĂ©e0,023→ Petit
Risque Psy0,009→ NĂ©gligeable
Risque DĂ©shumanisation0,013→ NĂ©gligeable
Risque Emploi0,008→ NĂ©gligeable

Tableau 8 — Taille de l’effet fÂČ. InterprĂ©tation selon Cohen (1988).

📊

Verdict : L’Anthropomorphisme exerce un effet trĂšs large sur l’UtilitĂ© (fÂČ=0,828) et le Plaisir (fÂČ=1,076). Le Plaisir a un effet trĂšs large sur l’Intention (fÂČ=0,674). L’UtilitĂ© a un effet moyen (fÂČ=0,170). En revanche, les quatre variables de risque ont des effets pratiquement nĂ©gligeables Ă  petits sur l’Intention d’usage, ce qui confirme et nuance les rĂ©sultats sur la significativitĂ©.


9

Étape 8 — Le pouvoir explicatif du modĂšle (RÂČ)

Le RÂČ (coefficient de dĂ©termination) mesure la proportion de variance d’une variable dĂ©pendante que le modĂšle parvient Ă  expliquer. Si RÂČ = 0,808 pour l’Intention d’usage, cela signifie que 80,8% des variations d’Intention entre les rĂ©pondants sont expliquĂ©es par les variables incluses dans le modĂšle. Les 19,2% restants sont dus Ă  des facteurs non pris en compte (Hair et al., 2019).

✅ Seuils indicatifs de RÂČ

RÂČ â‰„ 0,75 = substantiel · RÂČ â‰„ 0,50 = modĂ©rĂ© · RÂČ â‰„ 0,25 = faible (Hair et al., 2019). En sciences sociales, un RÂČ de 0,50 est dĂ©jĂ  considĂ©rĂ© comme trĂšs satisfaisant, car le comportement humain est intrinsĂšquement complexe et variable.

Variable endogĂšneRÂČ (In-Sample)Évaluation
UtilitĂ© perçue0,453→ ModĂ©rĂ© Ă  bon
Plaisir perçu0,518✓ ModĂ©rĂ© (bon)
Intention d’usage0,808✓ Substantiel

Tableau 9 — Coefficient de dĂ©termination RÂČ. Seuils : > 0,25 faible · > 0,50 modĂ©rĂ© · > 0,75 substantiel.

✅

Verdict : Le modĂšle explique 80,8% de la variance de l’Intention d’usage — un rĂ©sultat exceptionnel pour une Ă©tude comportementale en sciences de gestion. L’Anthropomorphisme explique 45,3% de l’UtilitĂ© et 51,8% du Plaisir, ce qui confirme son rĂŽle pivot dans le modĂšle.


10

Étape 9 — La pertinence prĂ©dictive (QÂČ et PLSpredict)

Le RÂČ mesure Ă  quel point le modĂšle s’ajuste aux donnĂ©es observĂ©es. Mais un modĂšle peut trĂšs bien “apprendre par cƓur” les donnĂ©es sans ĂȘtre capable de prĂ©dire de nouvelles observations. La pertinence prĂ©dictive mesure cette capacitĂ© de gĂ©nĂ©ralisation (Shmueli et al., 2019).

Le QÂČ (Relevance PrĂ©dictive Structurelle)

Le QÂČ est calculĂ© par validation croisĂ©e (10-fold cross-validation) : on divise les donnĂ©es en 10 blocs, on entraĂźne le modĂšle sur 9 blocs et on teste sur le 10Ăšme, puis on recommence pour chaque bloc. Le QÂČ compare l’erreur de prĂ©diction du modĂšle Ă  une prĂ©diction naĂŻve (qui prĂ©dirait simplement la moyenne pour tout le monde). Si QÂČ > 0, le modĂšle prĂ©dit mieux que la moyenne — il a donc une vraie valeur prĂ©dictive (Stone, 1974 ; Geisser, 1975).

✅ InterprĂ©tation du QÂČ

QÂČ > 0 = pertinence prĂ©dictive Ă©tablie · QÂČ > 0,25 = pertinence moyenne · QÂČ > 0,50 = pertinence Ă©levĂ©e (Hair et al., 2019).

Variable endogĂšneRÂČ (In-Sample)QÂČ (Out-of-Sample)Évaluation
UtilitĂ© perçue0,4530,437✓ Pertinence Ă©levĂ©e
Plaisir perçu0,5180,511✓ Pertinence Ă©levĂ©e
Intention d’usage0,8080,791✓ Pertinence trĂšs Ă©levĂ©e

Tableau 10 — RÂČ et QÂČ comparĂ©s. La faible diffĂ©rence entre RÂČ et QÂČ indique un modĂšle robuste sans sur-ajustement.

PLSpredict — PrĂ©diction au niveau des items

PLSpredict va encore plus loin : il Ă©value la capacitĂ© prĂ©dictive item par item pour la variable cible (ici l’Intention). Pour chaque item de la variable Intention, il compare l’erreur de prĂ©diction du modĂšle PLS (RMSE PLS) Ă  celle d’un modĂšle de rĂ©fĂ©rence qui prĂ©dirait simplement la moyenne (RMSE naĂŻf). Si RMSE PLS < RMSE naĂŻf, le modĂšle prĂ©dit mieux que la prĂ©diction par la moyenne (Shmueli et al., 2019).

Item cibleRMSE ModĂšle PLSRMSE NaĂŻf (moyenne)QÂČ_predictPouvoir prĂ©dictif
INT10,7591,2110,607✓ Fort
INT20,9091,3090,518✓ Fort
INT30,7881,1340,517✓ Fort
INT40,6171,3740,799✓ Fort

Tableau 11 — PLSpredict sur les items d’Intention. RMSE ModĂšle < RMSE NaĂŻf pour tous les items = pouvoir prĂ©dictif fort.

🔼

Verdict : Le modĂšle prĂ©sente une pertinence prĂ©dictive trĂšs Ă©levĂ©e. Le QÂČ de l’Intention (0,791) est trĂšs proche du RÂČ (0,808), ce qui indique une gĂ©nĂ©ralisation excellente et l’absence de sur-apprentissage. PLSpredict confirme que les 4 items de l’Intention sont tous mieux prĂ©dits par le modĂšle que par la simple moyenne : le modĂšle a donc une rĂ©elle valeur prĂ©dictive, et pas seulement descriptive.


11

Étape 10 — Le fit global du modùle (SRMR)

Tous les indicateurs vus jusqu’ici Ă©valuent des aspects spĂ©cifiques du modĂšle. Le SRMR (Standardized Root Mean Square Residual) est un indicateur global qui Ă©value dans quelle mesure la structure de corrĂ©lations prĂ©dite par le modĂšle correspond Ă  la structure de corrĂ©lations rĂ©ellement observĂ©e dans les donnĂ©es (Henseler et al., 2014).

Il calcule la diffĂ©rence moyenne entre les corrĂ©lations observĂ©es (ce que disent vraiment les donnĂ©es) et les corrĂ©lations implicites du modĂšle (ce que le modĂšle “dit” qu’elles devraient ĂȘtre). Plus cette diffĂ©rence est petite, meilleur est l’ajustement global.

✅ Seuils SRMR

SRMR < 0,08 = ajustement excellent · SRMR < 0,10 = ajustement acceptable · SRMR ≄ 0,10 = ajustement insuffisant (Hu & Bentler, 1999 ; Henseler et al., 2014).

IndicateurValeur obtenueSeuil idéalSeuil acceptableStatut
SRMR Global 0,063 < 0,08 < 0,10 ✓ Excellent

Tableau 12 — Fit global SRMR. Une valeur de 0,063 indique un ajustement excellent du modĂšle aux donnĂ©es.

✅

Verdict : Avec un SRMR de 0,063, bien en dessous du seuil critique de 0,08, le modÚle présente un ajustement global excellent. La structure théorique proposée correspond trÚs bien à la réalité observée dans les données.


12

SynthÚse globale des résultats

Bilan du modĂšle de mesure

CritÚreSeuil requisRésultatVerdict
Loadings (items)≄ 0,700,641 – 0,918 (1 item limite)✓ Satisfaisant
Alpha de Cronbach≄ 0,700,839 – 0,909✓ Excellent
FiabilitĂ© Composite≄ 0,700,891 – 0,936✓ Excellent
AVE (validitĂ© convergente)≄ 0,500,591 – 0,789✓ Excellent
Fornell-Larcker√AVE > corr.RespectĂ© sur tous les construits✓ ValidĂ©
HTMT< 0,85 – 0,902 paires Ă  surveiller (≀0,968)⚠ Globalement acceptable

Bilan du modĂšle structurel

H1✓
Anthropomorphisme → UtilitĂ© perçue (ÎČ=+0,673)
t=14,885 · p<0,001 · fÂČ=0,828 (trĂšs large)
VALIDÉE
H2✓
Anthropomorphisme → Plaisir perçu (ÎČ=+0,720)
t=17,469 · p<0,001 · fÂČ=1,076 (trĂšs large)
VALIDÉE
H3✓
Plaisir perçu → Intention d’usage (ÎČ=+0,599)
t=10,006 · p<0,001 · fÂČ=0,674 (trĂšs large)
VALIDÉE
H4✓
UtilitĂ© perçue → Intention d’usage (ÎČ=+0,281)
t=4,559 · p<0,001 · fÂČ=0,170 (moyen)
VALIDÉE
H5✓
Risque Vie PrivĂ©e → Intention d’usage (ÎČ=-0,104)
t=2,087 · p=0,033 · fÂČ=0,023 (petit)
VALIDÉE
H6✗
Risque Psychologique → Intention d’usage (ÎČ=-0,068)
t=1,206 · p=0,185 · fÂČ=0,009 (nĂ©gligeable)
REJETÉE
H7✗
Risque DĂ©shumanisation → Intention d’usage (ÎČ=+0,087)
t=1,661 · p=0,105 · fÂČ=0,013 (nĂ©gligeable)
REJETÉE
H8✗
Risque Emploi → Intention d’usage (ÎČ=-0,065)
t=1,161 · p=0,215 · fÂČ=0,008 (nĂ©gligeable)
REJETÉE
Indicateur globalValeurÉvaluation
RÂČ Intention d’usage0,808✓ Substantiel
QÂČ Intention d’usage0,791✓ TrĂšs Ă©levĂ©
SRMR Global0,063✓ Excellent fit
PLSpredict (4 items INT)Tous supĂ©rieurs au naĂŻf✓ Pouvoir prĂ©dictif fort

Tableau 13 — Synthùse des indicateurs globaux du modùle structurel.

💡 InterprĂ©tation managĂ©riale

Ces rĂ©sultats indiquent que l’acceptation des robots humanoĂŻdes est avant tout une affaire de perception Ă©motionnelle : le plaisir ressenti lors de l’interaction est le moteur principal de l’intention d’usage. Ce plaisir est lui-mĂȘme trĂšs fortement alimentĂ© par la perception d’attributs humains chez le robot (anthropomorphisme). L’utilitĂ© est un prĂ©dicteur complĂ©mentaire, mais secondaire. Les risques perçus — Ă  l’exception du risque vie privĂ©e — n’exercent pas d’influence significative sur l’intention une fois contrĂŽlĂ©s les effets des bĂ©nĂ©fices perçus, ce qui suggĂšre que dans ce contexte, les Ă©motions positives “court-circuitent” les apprĂ©hensions rationnelles.


Bibliographie — Format APA 7e Ă©dition
  1. Chin, W. W. (1998). The partial least squares approach to structural equation modeling. In G. A. Marcoulides (Ed.), Modern methods for business research (pp. 295–336). Lawrence Erlbaum Associates.
  2. Cohen, J. (1988). Statistical power analysis for the behavioral sciences (2nd ed.). Lawrence Erlbaum Associates.
  3. Cohen, J. (1992). A power primer. Psychological Bulletin, 112(1), 155–159.
  4. Cronbach, L. J. (1951). Coefficient alpha and the internal structure of tests. Psychometrika, 16(3), 297–334.
  5. Churchill, G. A. (1979). A paradigm for developing better measures of marketing constructs. Journal of Marketing Research, 16(1), 64–73.
  6. Fornell, C., & Larcker, D. F. (1981). Evaluating structural equation models with unobservable variables and measurement error. Journal of Marketing Research, 18(1), 39–50.
  7. Geisser, S. (1975). The predictive sample reuse method with applications. Journal of the American Statistical Association, 70(350), 320–328.
  8. Gold, A. H., Malhotra, A., & Segars, A. H. (2001). Knowledge management: An organizational capabilities perspective. Journal of Management Information Systems, 18(1), 185–214.
  9. Hair, J. F., Risher, J. J., Sarstedt, M., & Ringle, C. M. (2019). When to use and how to report the results of PLS-SEM. European Business Review, 31(1), 2–24.
  10. Hair, J. F., Sarstedt, M., Ringle, C. M., & Gudergan, S. P. (2018). Advanced issues in partial least squares structural equation modeling (PLS-SEM). SAGE Publications.
  11. Henseler, J., Ringle, C. M., & Sarstedt, M. (2015). A new criterion for assessing discriminant validity in variance-based structural equation modeling. Journal of the Academy of Marketing Science, 43(1), 115–135.
  12. Henseler, J., Ringle, C. M., & Sinkovics, R. R. (2014). The use of partial least squares path modeling in international marketing. Advances in International Marketing, 20, 277–319.
  13. Hu, L. T., & Bentler, P. M. (1999). Cutoff criteria for fit indexes in covariance structure analysis: Conventional criteria versus new alternatives. Structural Equation Modeling, 6(1), 1–55.
  14. Nunnally, J. C. (1978). Psychometric theory (2nd ed.). McGraw-Hill.
  15. O’Brien, R. M. (2007). A caution regarding rules of thumb for variance inflation factors. Quality & Quantity, 41(5), 673–690.
  16. Ringle, C. M., Wende, S., & Becker, J.-M. (2015). SmartPLS 3. SmartPLS GmbH. http://www.smartpls.com
  17. Shmueli, G., Sarstedt, M., Hair, J. F., Cheah, J. H., Ting, H., Vaithilingam, S., & Ringle, C. M. (2019). Predictive model assessment in PLS-SEM: Guidelines for using PLSpredict. European Journal of Marketing, 53(11), 2322–2347.
  18. Stone, M. (1974). Cross-validatory choice and assessment of statistical predictions. Journal of the Royal Statistical Society: Series B, 36(2), 111–147.