Siden egenvektorene indikerer retningen til hovedkomponentene (nye akser), vil vi multiplisere de opprinnelige dataene med egenvektorene for å reorientere dataene våre til de nye aksene. Disse reorienterte dataene kalles en poengsum.
Hva forteller egenvektorer oss?
Kort svar. Egenvektorer gjør forstå lineære transformasjoner enkelt. De er "aksene" (retningene) langs hvilke en lineær transformasjon virker ganske enkelt ved å "strekke/komprimere" og/eller "vippe"; egenverdier gir deg faktorene som denne komprimeringen skjer med.
Hva indikerer egenvektorene i PCA?
Egenvektorene og egenverdiene til en kovarians- (eller korrelasjons-) matrise representerer "kjernen" til en PCA: Egenvektorene (hovedkomponenter) bestemmer retningene til det nye funksjonsrommet, og egenverdiene bestemmer størrelsen deres.
Hvorfor bruker vi egenvektorer?
Eigenverdier og egenvektorer tillate oss å "redusere" en lineær operasjon for å skille, enklere, problemer For eksempel, hvis en spenning påføres et "plastisk" fast stoff, vil deformasjonen kan dissekeres i "prinsippretninger" - de retningene der deformasjonen er størst.
Hva er forskjellen mellom egenverdier og egenvektorer?
Eigenvektorer er retningene som en spesiell lineær transformasjon virker ved å snu, komprimere eller strekke seg. Egenverdi kan refereres til som styrken for transformasjonen i retning av egenvektor eller faktoren som kompresjonen skjer med.