Mësimi i algoritmeve të grupimit duke kryer eksperimente të thjeshta

Grumbullimi ka zbatim të rëndësishëm në të gjithë domenet e aplikacioneve për të kuptuar strukturën e përgjithshme të ndryshueshmërisë së të dhënave. Qoftë grupimi i klientëve, studentëve, gjeneve, sinjaleve EKG, imazheve, çmimeve të aksioneve. Edhe në epokën e të mësuarit të thellë, grupimi mund t'ju japë njohuri të paçmueshme për shpërndarjen e të dhënave, gjë që mund të ndikojë në vendimin tuaj të projektimit. Këtu, ne ju japim një përmbledhje rreth pesë algoritmeve të grupimit dhe lidhjeve të fletores Kaggle ku kemi bërë disa eksperimente.

K- Do të thotë: — Është më i thjeshti nga të gjithë algoritmet që funksionojnë bazuar në distanca. Është një algoritëm ndarjeje. Disa nga çështjet janë a) ne duhet të dimë vlerën e 'k' b) ajo ndikohet nga vlerat e jashtme. Disa eksperimente janë bërë në fletoren e mëposhtme të Kaggle.

https://www.kaggle.com/saptarsi/kmeans-dbs-sg

Ne fillojmë duke shpjeguar se si funksionon k-means, pastaj me shembull përshkruajmë pse kërkohet shkallëzimi. Ne diskutojmë gjithashtu se si zbatohet shuma e gabimit në katror të grafikuar duke përdorur grafikun e bërrylit për të gjetur vlerën optimale të k. Një shembull i thjeshtë vijon me "irisin"

Videot përkatëse:

Teori: https://www.youtube.com/watch?v=FFhmNy0W4tE

Praktikisht: https://www.youtube.com/watch?v=w0CTqS_KFjY

K-Medoid:K-Means nuk është i qëndrueshëm ndaj vlerave të jashtme. Kalojmë në median dhe kur kemi më shumë se një atribut dhe duam të gjejmë një mesatare të përgjithshme, që quhet medoid. Disa eksperimente bëhen duke përdorur fletoret e mëposhtme.

https://www.kaggle.com/saptarsi/kmedoid-sg

Gjëja kryesore që diskutojmë është se si të matim cilësinë e grupimeve kur kemi etiketa të padisponueshme (Gjerësia e siluetit) dhe kur ato janë të disponueshme (Pastërtia). Një shembull i shkurtër me vëzhgime ekstreme (Outliers) që krahasojnë k-means dhe K-Medoid vijon.

Videot përkatëse:

Teori: https://www.youtube.com/watch?v=q3plVFIgjGQ

Praktikisht: https://www.youtube.com/watch?v=L1ykPtlonAU

DBSCAN:Gjëja më premtuese e DBSCAN është se identifikon disa pika si pika zhurme, pika të cilat po të përfshiheshin në ushtrimin e grupimit do të kishin shtrembëruar grupimet e përgjithshme. DBSCAN, K-Medoid, K-Means krahasohen në hëna dhe rrathët koncentrikë. Fletorja e mëposhtme përmban eksperimente të thjeshta.

https://www.kaggle.com/saptarsi/dbscan-sg

Videot përkatëse:

Teori: https://www.youtube.com/watch?v=RZg51WH7caQ

Praktikisht: https://www.youtube.com/watch?v=A8OnRH42hWE

Klusterimi aglomerativ: Tre të mësipërmet janë grupim i bazuar në ndarje, ndërsa ky është një grupim hierarkik që zbulon më shumë semantikë rreth strukturës së përgjithshme përmes një dendrogrami. Një nga konsideratat e rëndësishme në grupimin hierarkik është se cila distancë duhet të merret parasysh kur bashkohet me grupe është ajo minimale, ajo maksimale ose ajo mesatare. Eksperimente të ndryshme janë bërë në Rrethin Koncentrik, Gjysmë Hënën, të dhënat Gaussian dhe grupin e të dhënave të farave. Një fletore që përmban disa nga eksperimentet është si më poshtë:

https://www.kaggle.com/saptarsi/agglomarative-clustering-sg

Videot përkatëse:

Teori: https://www.youtube.com/watch?v=RZg51WH7caQ

Praktikisht: https://www.youtube.com/watch?v=z7jXh_RzL_k

Maksimizimi i pritshëm:Mënyra se si zbatohet është përmes modelimit të përzierjes Gaussian. Në thelb, çdo grup mund të mendohet se vjen nga një shpërndarje normale e ndryshme me shumë variacione. Kjo është një metodë e butë grupimi, krahasuar me të 4 metodat. Më poshtë është një fletore që përmban eksperimente të thjeshta më poshtë

https://www.kaggle.com/saptarsi/gmm-sg

Videot përkatëse:

Teori: https://www.youtube.com/watch?v=LaL0BfvUurs

Pranoni: https://www.youtube.com/watch?v=A8OnRH42hWE