CATEGORII DOCUMENTE |
Astronomie | Biofizica | Biologie | Botanica | Carti | Chimie | Copii |
Educatie civica | Fabule ghicitori | Fizica | Gramatica | Joc | Literatura romana | Logica |
Matematica | Poezii | Psihologie psihiatrie | Sociologie |
Pentru precizarea ideiilor sa consideram o multime de date dintr-un spatiu bidimensional. Valorile caracteristicilor C1 si C2 ale datelor sunt date de proiectiile norului pe axele de coordonate x1 si x2. Structura de clusteri a lui X se poate in acest caz detecta prin simpla inspectie vizuala. Diferiti observatori pot indica diferite moduri de grupare a datelor in clasa. Acesta releva faptul ca puterea ca puterea de discriminare a caracteristicilor este slaba pentru datele considerate. Exista doua posibilitati:
fie nu s-au ales cele mai bune caracteristici ale datelor;
fie ca datele prin natura lor sunt foarte asemanatoare.
Este de dorit in acest caz sa determinam un nou sistem de coordonate fata de care structura de clusteri a norului sa fie mai evidenta decat in sistemul initial. Axele noului sistem au deci o putere de discriminare a claselor din superioara celei a axelor initiale. In unele situatii este suficient sa determinam o singura axa discriminanta, astfel incat proiectiile norului de obiecte pe acesta axa sa conste din clase compacte si bine separate.
Marimea puterii discriminante a axelor poate fi asadar reclamata de datele problemei, pentru a putea 'vedea' o anumita structura a datelor. Determinarea axelor discriminante poate servi si ca o tehnica de reducere a dimensiunii spatiului caracteristicilor, prin aceea ca cunt selectate cele mai relevante caracteristici. Reducerea dimensiunii poate fi impusa si de necesitatea vizualizarii claselor intr-un spatiu cu una sau doua dimensiuni. In acest caz cerinta fundamentala este ca prin proiectarea datelor intr-un spatiu de dimensiune redusa, la clasele compacte si bine separate din spatiul initial sa corespunda clase compacte si bine separate din noul spatiu. In acelasi timp informatiile legate de imprastierea datelor servesc si la construirea unor criterii de clasificare.
Ne propunem:
Fie multimea datelor ( este o forma care este definita printr-un numar de d caracteristici- atribute). Dorim sa determinam o dreapta care trece prin originea spatiului astfel incat proiectiile punctelor norului pe aceasta dreapta sa formeze clase bine separate. In plus cerem ca structura de clusteri a lui sa nu fie prea mult alterata prin proiectarea norului pe acesta dreapta.
Fie vectorul unitar al dreptei cautate. Proiectiile punctului pe dreapta de directie este:
(1)
Sa consideram ca in sunt prezente clasele si . Admitem ca proiectiile pe ale punctelor clasei formeaza o clasa B1 iar punctele din se proiecteaza pe in clasa B2. Fie pi numarul de puncte din clasa Ai si
(2)
media (centrul de greutate) clasei . Media clasei este
(3)
care se mai poate scrie
(3a)
Se defineste imprastierea a clasei ca fiind data de
Se observa ca imprastierea clasei este proportionala cu dispersia clasei .
Imprastierea intra-clase a proiectiilor datelor se defineste ca fiind
(5)
Separarea a claselor si se poate masura prin patratul distantei 'centrilor' si ai acestor clase
(6)
Ne intereseaza determinarea directiei pentru care :
separarea claselor este cat mai mare ;
imprastierea fiecarei clase in directia este cat mai mica
Se impune deci sa cautam maximul functiei criteriu
(7)
Definitie
Directia care realizeaza maximul functiei J se numeste axa discriminanta. Rescriem J astfel ca aceasta sa apara ca o functie explicita de astfel:
de unde
(8)
Dar matricea de impastiere a clasei este
(9)
Ca urmare matricea de impastiere a clasei este
(10)
Utilizand (10) imprastierea intra-clase este:
(11)
sau
unde este matricea de impriastierea intra-clase
Momentan am rezolvat numitorul functiei criteriu (7).
Numaratorul se va putea scrie
Matricea
(12)
se numeste matricea de imprastiere inter-clase.
Cu aceasta notatie obtinem
(13)
si deci functia criteriu J poate fi scrisa sub forma:
(14)
Determinarea maximului functiei criteriu. Din conditia de extrem
se obtine ecuati:
de unde
rezulta ca:
(15)
Admitind ca matricea nu este singulara , obtinem ca
(16)
Asadar este un vector propriu al matricei corespunzator valorii proprii
In concluzie determinarea directiei se reduce la determinarea vectorului propiu a matricei
OBSERVATIE
Pentru determinarea maximului functiei J nu este necesar sa calculam vectorii si valorile proprii ale matricei .
Pentru aceasta sa observam ca:
vectorul propriu a lui se poate scrie
(17)
unde este un scalar
concluzia care apare imediat este ca si au intodeauna directia vectorului
din relatia (16)
rezulta ca
(18)
si deci ca
(19)
Deoarece raportul nu are importanta pentru directiea lui , rezulta ca maximul functiei criteriu este:
(20)
Directiei discriminanta serveste la definirea unei functii de decizie unde
(21)
numita functia de decizie a lui Fisher. Hiperplanul de separare a celor 2 clase determinat de aceasta functie este
pe axa discriminanta.
Admitem acum ca in multimea a datelor sunt prezente clasele . Clasa are elemente. Daca este media clasei :
(22)
atunci vectorul medie total pentru toate obiectele din se va scrie:
(23)
Matricea de imprastiere a clasei in jurul centrului ei de greutate este data de:
(24)
si in aceste conditii putem defini:
1) Matricea de imprastiere intraclase ca fiind:
(25)
2) Matricea de imprastiere totala a obiectelor din X fata de centrul m , ca fiind:
(26)
3) Matricea de imprastiere interclase se noteaza cu si este prin definitie
(27)
Tinand cont de aceste definitii putem enunta urmatorul rezultat:
Propozitia 1. Matricea de imprastiere totala se poate scrie sub forma
(28)
se scrie sub forma :
rezulta ca:
ultimele 2 sume sunt 0. Sa consideram spre exemplificare ultima suma unde calculam componenta a acestei matrici
Ca urmare matricea se poate scrie:
In cazul a n clase (n>2) sunt necesare n-1 axe discriminante. Problema gasirii acestora revine la determinarea unui spatiu n-1 dimensional, astfel incat proiectiile punctelor in noul spatiu sa prezinte o imprastiere cat mai mica.
Fie u1, u2, . . . ,un-1 directiile cautate. Proiectia yi a punctului x pe directia ui este:
yi =uiT x , i =1,,n-1 (29)
Sa notam cu U matricea formata din componentele vectorilor u1,u2, ,un-1. Avem:
U=( u1,u2, . . . ,un-1)= (30)
Proiectiile vectorului x pe directiile u1,u2, ,un-1 formeaza un vector y de forma:
y= (31)
care se poate scrie y=UTx (32)
Admitem ca punctele clasei Ai se proiecteaza in clasa Bi avand vectorul medie .
(33)
Vectorul mediu al proiectiilor este :
(34)
Cu aceste notatii se pot construi :
Matricea de imprastiere interclase a datelor proiectate
(35)
Matricea de imprastiere intraclase
(36)
Deoarece
rezulta ca
(38)
Avem deci
(39)
Se observa ca fiecare termen diagonal al matricii Si este proportional cu dispersia datelor din clasa Ai in directia respectiva. Rezulta deci ca elementele diagonale ale matricii SW de imprastiere intraclase reprezinta dispersiile multimii X a obiectelor in directiile axelor de coordonate.
Propozitie
Valoarea proprie l corespunzatoare vectorului propriu v a lui Si reprezinta o masura a imprastierii punctelor clasei Ai in directia vectorului unitar v.
Demonstratie
Fie v un vector propriu unitar al matricei Si corespunzator valorii proprii. Proiectia vectorului x in directia vectorului v este:
x =vTx
iar proiectia vectorului mi este :
m'i=vTmi
Imprastierea proiectiilor clasei Ai in directia v este data de:
Si'=
Adica
Rezulta ca marimea imprastierii (dispersiei) obiectelor clasei Ai in directia v este data de:
vTSi v = vTlv v 2=l
Cand datele nu se prezinta sub forma unor nori sferici in spatiul Rd cunoasterea directiilor de extindere a norilor constituie o informatie utila. Vom numi componentele principale ale unui nor directiile in care alungirea norului este cea mai marcata. Determinarea directiilor principale poate servi pentru scopuri de clasificare (detectarea substructurii norului), descrierea datelor cat si pentru selectarea preliminara a caracteristicilor. Caracteristicile cele relevante, adica realizand cea mai buna discriminare a datelor, vor corespunde directiilor pe care proiectiile punctelor au cea mai mare dispersie. Utilizand componentele principale putem obtine o descriere geometrica a norului, care poate fi utila in aplicatii.
Fie X= o multime de puncte formand un nor in spatiul Rd. Ne propunem sa detectam directiile u1, u2, de dispersie maxima a norului. Aceasta inseamna ca norul X este format din puncte ce adera strans la dreptele L1, L2, care trec prin centrul sau de greutate si au directiile u1, u2,
Fie dj distanta de la un punct xj la o dreapta L. Problema noastra este de a gasi dreapta pentru care
(1)
Problema determinarii dreptelor care aproximeaza cel mai bine, norul este considerabil simplificata daca vom arata mai intai ca orice dreapta ce minimizeaza cantitatea Y trece prin centrul de greutate al norului de puncte. Pentru inceput vom stabilii acest rezultat in cazul cand X este o multime de puncte din plan, urmand apoi sa demonstram ca rezultatul este adevarat pentru orice dimensiune finita a spatiului.
Fie V-W un nou sistem de coordonate, astfel incat axa W este paralela cu dreapta L (vezi figura urmatoare)
Fig. 4.4‑ Reprezentarea intr-un nou sistem de coordonate.
In sistemul de coordonate (V,W) ecuatia dreptei L este
v = v0 (2)
iar ale punctelor xj sunt (vj,wj). Distanta de la xj la L este
dj = d(xj, L)= |vj-v0 (3)
In acest caz minimizarea sumei patratelor distantelor revine la minimizarea functiei criteriu J: R R, data de:
J(v0)= (4)
de unde rezulta ca
J(v0)= (5)
a carui minim este
v0= (6)
S-a observa ca punctul v0 care determina dreapta L este media aritmetica a proiectiilor punctelor pe axa V, adica proiectia centrului de greutate a norului pe aceasta axa. Deoarece L este paralela cu axa W, intersectia lui L cu axa V coincide cu proiectia v0 a centrului de greutate daca si numai daca centrul de greutate se afla pe L. Am aratat deci ca dreapta optima L trece prin centrul de greutate al norului de puncte.
In continuare vom arata ca acest rezultat este valabil si pentru un nor dintr-un spatiu de dimensiune finita Rd, d > 2.
In acest scop consideram un hiperplan H perpendicular pe dreapta L. Fie s punctul de intersectie pe dreapta L cu hiperplanul H. Notam cu x'j proiectia punctului xj al norului pe hiperplanul H.
Fig. 4.4‑ Proiectia punctului xj pe hiperplanul H
Deoarece d(xj,L) = d(x'j,s) functia criteriu devine o functie de variabila s si deci avem:
J(s) = (7)
Deoarece suntem intr-un spatiu euclidian patratul distantei este
d2(xj, s)= xj - s 2=[xj - s]T[xj - s] (8)
asa incat
J(s)=
Functia J admite un minim local, dat de solutia ecuatiei
ÑJ(s) = 0
de unde se obtine
-2
ceea ce implica ca
si deci avem s = (10)
Consideram un sistem ortogonal de coordonate, avand axa K paralela cu dreapta L. Rezulta ca dreapta xjx'j (paralela cu L si cu axa K) este perpendiculara pe planul format de oricare doua dintre axele diferite de K. Asadar, in sitemul considerat xj si x'j vor avea aceleasi componente, cu exceptia celor corespunzatoare axei K.
Fig. 4.4‑ Sistemul ortogonal de coordonate.
Rezulta ca
si= (11)
Am aratat asadar ca dreapta L trece prin punctul s, unde si i¹k este componenta i a centrului de greutate. Axa k fiind paralela cu L, rezulta ca centrul de greutate se afla pe L deoarece in caz contrar L nu ar putea trece prin componentele si, i¹k ale centrului de greutate.
Deoarece dreapta optima trece intotdeauna prin centrul de greutate al norului de puncte, putem considera ca datele sunt totdeauna normalizate astfel incat sa aiba media 0.
O astfel de normalizare revine la o translatie
x'=x-m xIX (12)
unde m este valoarea medie a punctelor din X. Prin aceasta translatie centrul de greutate al norului este adus in originea sistemului de coordonate. Se va nota cu X' norul format din datele transformate.
Problema determinarii directiilor principale devine
Fiind data o multime X' de puncte din Rd, avand media 0, sa se gaseasca dreapta care trece prin origine si minimizeaza functia criteriu J.
Fie u vectorul care ne da directia dreptei cautate si fie . Patratul distantei de la punctul xj la dreapta de directie u este:
d2(xj, u) = - ( xj, u) (13)
Pentru simplitate am notat datele normalizate tot cu xj, j = 1,.,p. Datele fiind normalizate, problema determinarii liniei realizand cea mai buna aproximare a norului revine la determinarea directiei u care minimizeaza functia J:Rd R data de:
J(u)= (14)
inlocuind cu (13) avem:
J(u)=
Primul termen fiind constant, minimizarea lui J implica maximizarea celui de-al doilea termen
I(u)= (15)
Cum , rezulta ca trebuie sa determinam pentru forma patratica
I(u)= (16)
maximul pe vectorii sferei unitate.
Se poate observa ca matricea
[S]= (17)
este patratica de ordinul d, fiind matricea de imprastiere a norului pentru cazul cand media norului este 0 (datele au fost normalizate).
Valorile extreme ale formei patratice
I(u)=[u]T[S][u]
pe vectorii sferei unitate corespund vectorilor proprii ai matricei S. Directia pentru care I(u) are valoare maxima, este data de vectorul propriu corespunzator celei mai mari valori proprii ale lui S.
Fie u1,u2,,ud, vectorii proprii ai lui S, luati in ordine descrescatoare a valorilor proprii corespunzatoare. Acesti vectorii proprii indica directiile de alungire ale norului si din acest motiv se numesc directiile principale sau componentele principale ale norului. Cea mai accentuata extindere a norului este in directia lui u1 (vectorul propriu principal). Revenind la norul initial (datele nenormalizate), rezulta ca norul X este format din puncte grupate in jurul liniilor L1, L2, ,Ld, care trec prin centrul de greutate al norului si sunt paralele cu vectorii u1, u2, , ud (deoarece vectorii proprii corespunzatori la valori proprii distincte sunt ortogonali, rezulta ca directiile principale sunt ortogonale).
Algoritm pentru determinarea componentelor pricipale
P1. Se standardizeaza datele efectuand transformarea
x'j=xj-m unde m=
P2. Se determina vectorii proprii ai matricei de imprastiere
[S]=
si se noteaza cu u1,u2, ,ud
P3. Dreptele de cea mai buna aproximare a norului X sunt dreptele prin media m a lui X paralele cu directiile principale u1, u2,, ud.
Important
Fie [A] matricea schimbarii de baza care realizeaza diagonalizarea matricei [S] de imprastiere a datelor normalizate.
Avem
[A]-1[S][A]=
In baza formata de vectorii proprii ai lui S punctele norului X devin
yj=[A]-1xj, j=1,.,p
Aceasta transformare se numeste transformarea la axele principale. Vom nota Y norul de puncte raportat la axele principale, deci Y=. Componenta i a lui yi se obtine proiectand xj pe axa ui adica
yij=(ui, xj)=[ui]T[xj]
Dispersia norului Y in directia axei ui este , unde li este valoarea proprie corespunzatoare vectorului propriu ui a matricei S.
Politica de confidentialitate | Termeni si conditii de utilizare |
Vizualizari: 1290
Importanta:
Termeni si conditii de utilizare | Contact
© SCRIGROUP 2024 . All rights reserved