Aprendizaje No Supervisado: Una Aplicación A La Compresión de Imágenes Usando K-Means
Aprendizaje No Supervisado: Una Aplicación A La Compresión de Imágenes Usando K-Means
Aprendizaje No Supervisado: Una Aplicación A La Compresión de Imágenes Usando K-Means
● Codificación de Huffman
● Codificación Aritmética
● Compresión RLE
(Run-length encoding)
Con pérdida
Pixel x
Pixel y
sklearn.cluster.KMeans
https://colab.research.google.com/drive/1xO7VJEaPWs-RTZ20TsgyRMUzmv_p
OnBB#scrollTo=-7uKBLjULeHK
Resumen y Conclusiones
● A.N.S no requiere etiquetas
● A.N.S infiere las etiquetas
● K-means usa centroides para construir clusters
● Hay agrupaciones mejores que otras (inicialización aleatoria)
● Criterios para escoger: matemática (distorsión) ó no matemática
● K-means: algoritmo de compresión con pérdidas de imágenes basado en
percepción visual.
● Python ofrece librerías listas para implementar k-means y otros
algoritmos de A.N.S
Existe vida más allá de k-means?
● K-means++ (una manera inteligente de inicializar centroides)
● Clustering no lineal
● Clustering jerárquico
● Clustering espectral
● ...
Referencias
1. W3schools, “RGB Calculator”. https://www.w3schools.com/colors/colors_rgb.asp
2. Satyam Kumar, “Image Compression using K-Means”
https://towardsdatascience.com/image-compression-using-k-means-clustering-aa0c91bb0eeb
3. Andrew Ng, “Machine Learning”. Stanford University on Coursera.
4. Emily Fox & Carlos Guestrin. “Machine Learning Specialization”. University of Washington on
Coursera.
5. SKlearn, K-Means, https://scikit-learn.org/stable/modules/generated/sklearn.cluster.KMeans.html
6. Christopher Bishop, “Pattern Recognition and Machine Learning”, Springer, 2006.