-
Notifications
You must be signed in to change notification settings - Fork 0
/
Clusterization.py
52 lines (43 loc) · 1.45 KB
/
Clusterization.py
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
from sklearn.cluster import KMeans
from sklearn.decomposition import PCA
from sklearn.preprocessing import StandardScaler
from sklearn.pipeline import make_pipeline
from yellowbrick.cluster import KElbowVisualizer
# Cargar datos
compras = pd.read_csv('compras.csv')
# Seleccionar variables de interés
X = compras[['Val_compras', 'Num_compras', 'Categorias']]
# Transformar la variable categórica a numérica con one-hot encoding
X = pd.get_dummies(X)
# Normalizar datos
scaler = StandardScaler()
X_scaled = scaler.fit_transform(X)
# Reducir dimensionalidad con PCA
pca = PCA()
pipeline = make_pipeline(scaler, pca)
pipeline.fit(X_scaled)
explained_variances = pca.explained_variance_ratio_
plt.plot(np.cumsum(explained_variances))
plt.xlabel('Número de componentes')
plt.ylabel('Varianza explicada acumulada')
plt.show()
# Elegir número de componentes
pca = PCA(n_components=2)
X_pca = pca.fit_transform(X_scaled)
# Encontrar número óptimo de clusters con el método del codo
model = KMeans()
visualizer = KElbowVisualizer(model, k=(1,10))
visualizer.fit(X_pca)
visualizer.show()
# Entrenar modelo con número óptimo de clusters
k = visualizer.elbow_value_
model = KMeans(n_clusters=k)
model.fit(X_pca)
# Graficar resultados
plt.scatter(X_pca[:, 0], X_pca[:, 1], c=model.labels_, cmap='Set1')
plt.xlabel('PCA 1')
plt.ylabel('PCA 2')
plt.show()