Lecturas Big Data C
Lecturas Big Data C
Lecturas Big Data C
El responsable del área de gobierno de datos y analítica de una empresa de telefonía que tiene más de 8
millones de líneas activas, está necesitando un número mayor de información de los clientes para
realizar campañas de fidelización y retención.
Como el volumen de los datos es muy grande y el procesamiento de los mismos va a ser muy lento, se
está evaluando utilizar big data.
En esta lectura podrás entender a qué nos referimos cuando hablamos de big data.
Referencias
Descarga en PDF
LECCIÓN 1 de 3
El término big data, es una palabra que significa muchas cosas diferentes, y que ha dejado de estar limitado al mundo
de la tecnología. Las empresas ven al big data como una prioridad empresarial debido a “su capacidad para
influenciar profundamente en el comercio de una economía integrada a escala global". Además de proporcionar
soluciones a antiguos retos empresariales, inspira nuevas formas de transformar procesos, empresas, sectores enteros
e incluso la propia sociedad” (IBM, 2012, https://bit.ly/2VyvocW). Las empresas utilizan big data para obtener
resultados centrados en el cliente principalmente, así como también aprovechan los datos internos y crean un mejor
ecosistema de información.
Hoy en día, el término “big data” es muy utilizado aunque muchas veces no quede claro a que se refiere. Al respecto:
Esta palabra se ha utilizado para trasladar al público todo tipo de conceptos entre los que se
incluyen grandes cantidades de datos, analítica de redes sociales, herramientas de última
generación para gestionar los datos, datos en tiempo real y mucho más. Independientemente de la
etiqueta que le colguemos, las empresas comienzan a comprender y explorar cómo procesar y
analizar de nuevas formas una amplia variedad de información. Al hacerlo, un pequeño pero
creciente grupo de pioneros está logrando resultados empresariales importantísimos.
En sectores de todo el mundo los directivos reconocen la necesidad de aprender más acerca de
cómo explotar big data (IBM, 2012, https://bit.ly/2VyvocW).
Gracias al gran avance que existe en las tecnologías de la información, las organizaciones empresariales se han
tenido que enfrentar al desafío de encontrar nuevos medios que:
… les permitan analizar, descubrir y entender más allá de lo que sus herramientas tradicionales
reportan sobre su información, al mismo tiempo que, durante los últimos años, el gran
crecimiento de las aplicaciones disponibles en internet (geo-localización, redes sociales, etc.) han
sido parte importante en las decisiones de negocio de las empresas (Tech BI, 2016,
https://bit.ly/2KyelkN).
La primera pregunta que posiblemente llegue a su mente en este momento es ¿qué es big data y por qué se ha vuelto
tan importante? Para responderla, podríamos entonces referirnos al big data en términos generales como la tendencia
en el avance de la tecnología que ha abierto las puertas hacia un nuevo enfoque de entendimiento y toma de
decisiones, la cual es utilizada para describir enormes cantidades de datos (estructurados, no estructurados) que de
otra forma, tomaría demasiado tiempo y serían muy costosos de cargar a un base de datos relacional para su análisis.
De manera que, el concepto de big data aplica para toda aquella información que no puede ser procesada o analizada
utilizando procesos o herramientas tradicionales.
Ahora bien, big data no se refiere a alguna cantidad en específico, sino que el término es usualmente utilizado
cuando se habla de petabytes y exabytes de datos. Entonces, ¿cuánto es demasiada información de manera que sea
elegible para ser procesada y analizada utilizando big data? Analicemos esto primeramente en términos de bytes:
Si hablamos de las características principales de una oportunidad para big data, podemos comenzar diciendo que
mucho se habla del gran volumen de información, pero además, que este existe en una gran variedad de datos que
pueden ser representados de diversas maneras en todo el mundo, por ejemplo, dispositivos móviles, audio, video,
sistemas GPS, incontables sensores digitales en equipos industriales, automóviles, medidores eléctricos, veletas,
anemómetros, etc., los cuales pueden medir y comunicar el posicionamiento, movimiento, vibración, temperatura,
humedad y hasta los cambios químicos que sufre el aire, de tal forma que las aplicaciones que analizan estos datos
requieren que la velocidad de respuesta sea lo más rápida posible para lograr obtener la información correcta en el
momento preciso.
Los seres humanos estamos creando y almacenando información constantemente y cada vez más
en cantidades astronómicas. Se podría decir que si todos los bits y bytes de datos del último año
fueran guardados en CD's, se generaría una gran torre desde la Tierra hasta la Luna y de regreso.
(Barranco Fragoso, 2012, https://bit.ly/2KuOt9w).
Un concepto que todos deberíamos entender, según Barranco Fragoso (2012), es que las bases de datos
convencionales son una parte importante y relevante para una solución analítica, que incluso se vuelve vital cuando
se usa en conjunto con la plataforma de big data. Al respecto, explica:
Pensemos en nuestras manos izquierda y derecha, cada una ofrece fortalezas individuales para
cada tarea en específico. Por ejemplo, un beisbolista sabe que una de sus manos es mejor para
lanzar la pelota y la otra para atraparla; puede ser que cada mano intente hacer la actividad de la
otra, sin embargo, el resultado no será el más óptimo (Barranco Fragoso, 2012,
https://bit.ly/2KuOt9w).
1 quintillón = 1 000 000 000 000 000 000 000 000 000 000
De acuerdo con un estudio realizado por Cisco, entre el 2011 y el 2016 donde refleja que la
cantidad de tráfico de datos móviles crecerá a una tasa anual de 78%, así como el número de
dispositivos móviles conectados a Internet excederá el número de habitantes en el planeta. Las
naciones unidas proyectan que la población mundial alcanzará los 7.5 billones para el 2016 de tal
modo que habrá cerca de 18.9 billones de dispositivos conectados a la red a escala mundial, esto
conllevaría a que el tráfico global de datos móviles alcance 10.8 Exabytes mensuales o 130
Exabytes anuales. Este volumen de tráfico previsto para 2016 equivale a 33 billones de DVDs
anuales o 813 cuatrillones de mensajes de texto.
Pero no solamente somos los seres humanos quienes contribuimos a este crecimiento enorme de
información, existe también la comunicación denominada máquina a máquina (M2M machine-to-
machine) cuyo valor en la creación de grandes cantidades de datos también es muy importante.
Sensores digitales instalados en contenedores para determinar la ruta generada durante una
entrega de algún paquete y que esta información sea enviada a las compañías de transportación,
sensores en medidores eléctricos para determinar el consumo de energía a intervalos regulares
para que sea enviada esta información a las compañías del sector energético. Se estima que hay
más de 30 millones de sensores interconectados en distintos sectores como automotriz,
transportación, industrial, servicios, comercial, etc. y se espera que este número crezca en un 30%
anualmente (Barranco Fragoso, 2012, https://bit.ly/2KuOt9w).
Para concluir, es importante destacar que la big data “no solo produce un cambio radical en la gestión empresarial,
pues además de ofrecer un gran servicio informático a negocios de todo el mundo, ha conseguido cambiar muchos
aspectos de nuestra vida cotidiana” (Linkeit, s.f., https://bit.ly/34XBiHN)
Si ya terminaste esta lectura, ahora puedes reunirte con tus pares y explicarles con claridad qué es big data y cómo
beneficiaría a una compañía.
LECCIÓN 2 de 3
Referencias
Fernández, E. P. (2017). Big data: eje estratégico en la industria audiovisual. Barcelona, España: Editorial UOC
IBM. (2012). Analytics: el uso de big data en la vida real [pdf]. Recuperado de
https://www.fundacionseres.org/Lists/Informes/Attachments/951/IBM%20Analytics%20el%20uso%20de%20big%2
0data%20en%20el%20mundo%20real%20-%20Como%
20las%20empresas%20mas%20innovadoras%20extraen%20valor%20de%20datos%20inciertos.pdf
Linke IT. (S.f.). Cambios y aplicaciones SAP HANA Big Data [entrada de blog]. Recuperado de
https://www.linkeit.com/es/blog/cambios-y-aplicaciones-sap-hana-big-data
The Unbelievable Machine. (s.f.). What is Big Data? – A definition with five Vs [entrada de blog]. Recuperado de
https://blog.unbelievable-machine.com/en/what-is-big-data-definition-five-vs
LECCIÓN 3 de 3
Descarga en PDF
El gerente de la compañía para la cual te contrataron, luego de entender qué es el big data, te cita para autorizar el presupuesto. En este momento debes explicarle
cuáles son las características y las ventajas de utilizar big data para procesar los volúmenes de información que generan los clientes.
A continuación, justamente, desarrollaremos las características del big data y las ventajas de implementarlo.
Referencias
LECCIÓN 1 de 2
Las características del big data pueden resumirse en las 3V: volumen, variedad y velocidad.
Por un lado, el gran volumen de información; por otro, la variedad de datos, que pueden ser representados de diferentes maneras en el mundo; y finalmente, la velocidad con
la cual estos datos se generan.
Usualmente las empresas se preguntan qué información es la que se debe analizar. Sin embargo, el cuestionamiento debería estar enfocado hacia el problema que se está
intentando resolver.
Como sabemos, existe una amplia variedad de tipos de datos a analizar. En este sentido, una buena clasificación nos ayudaría a entender mejor su representación. Sin embargo,
debemos considerar que estas categorías puedan extenderse con el avance tecnológico.
2 Machine-to-Machine [máquina a máquina] (M2M): M2M se refiere a las tecnologías que permiten conectarse a otros dispositivos. M2M utiliza
dispositivos como sensores o medidores que capturan algún evento en particular (velocidad, temperatura, presión, variables meteorológicas, variables
químicas como la salinidad, etc.) los cuales transmiten a través de redes alámbricas, inalámbricas o híbridas a otras aplicaciones que traducen estos
eventos en información significativa.
3 Big Transaction Data [grandes datos transaccionales]: Incluye registros de facturación, en telecomunicaciones registros detallados de las llamadas
(CDR), etc. Estos datos transaccionales están disponibles en formatos tanto semiestructurados como no estructurados.
4 Biometrics [datos biométricos]: Información biométrica en la que se incluye huellas digitales, escaneo de la retina, reconocimiento facial, genética, etc.
En el área de seguridad e inteligencia, los datos biométricos han sido información importante para las agencias de investigación.
5 Human Generated [datos generados por humanos]: Las personas generamos diversas cantidades de datos como la información que guarda un call
center al establecer una llamada telefónica, notas de voz, correos electrónicos, documentos electrónicos, estudios médicos, etc. [MG1] (Barranco Fragoso,
2012, https://ibm.co/3eQdfiD).
Son muchos los beneficios que aporta el big data al sector empresarial. Particularmente, las áreas más beneficiadas son las de conocimiento del cliente, marketing, operaciones
y gestión del riesgo.
Las empresas que desarrollen una adecuada estrategia de big data obtendrán cinco ventajas competitivas:
1 Implementación de mejoras tecnológicas que posibilitan la adquisición de datos y permiten descubrir las necesidades y puntos de mejora en la compañía.
2 Inmersión de nuevas variables en la toma de decisiones a través de algoritmos automatizados. Los análisis de los datos pueden mejorar sustancialmente la
toma de decisiones dentro de una compañía reduciendo al mínimo los riegos. La toma de decisiones no es igual en todas las organizaciones, hay algunas
que optimizan sus decisiones mediante el análisis de datos de clientes, empleados, o incluso sensores incorporados en los productos.
3 Innovación en la creación de productos y servicios. Hay que tener en cuenta que el big data permite que las compañías evalúen sus productos. Mediante el
análisis de datos, las empresas obtienen información muy valiosa que les permite crear nuevos productos o rediseñar los ya existentes.
4 Segmentación de los clientes para personalizar acciones. De esta forma las empresas pueden orientar sus servicios y satisfacer las necesidades de sus
consumidores de forma específica. La personalización de productos y servicios es una de las tendencias que pisa más fuerte actualmente.
Mejora de la accesibilidad y la fluidez de la información dentro de la propia empresa. Las empresas que digitalicen los datos y habiliten herramientas para
facilitar la búsqueda de información crearán una dinámica de trabajo más rápida y eficaz (Womenalia, 2017, https://bit.ly/2yGCfYE).
Anteriormente mencionamos las 3V del big data, que son las características que lo definen. Sin embargo, el avance tecnológico y los nuevos usos que se da a la información,
han obligado en un corto tiempo a considerar nuevos factores a la hora caracterizar al big data. Así es como a las famosas de 3V se le agregan otras 3V:
VERACIDAD: VISUALIZACIÓN: VA L O R :
La abundancia de información moviéndose a gran velocidad no tiene valor si no es correcta. De hecho, para que los análisis arrojen resultados adecuados los datos
deben ser verdaderos. Es importante considerar que los datos inadecuados pueden causar problemas a las organizaciones y a los consumidores.
La veracidad cobra mayor relevancia en los casos en que el análisis de datos genera toma de decisiones automatizadas, es decir, en donde las personas no
intervienen.
VERACIDAD: VISUALIZACIÓN: VA L O R :
Uno de los desafíos de quienes realizan análisis de datos es encontrar la manera de representar la información de forma sencilla y entendible. De todas formas,
visualización no es sinónimo de gráficos sencillos, por el contrario, se trata de lograr que extensas listas de variables sean fáciles de leer y entender.
VERACIDAD: VISUALIZACIÓN: VA L O R :
Dependiendo de cada industria, el big data posee diferente valor. Al mismo tiempo, la información por sí misma no tiene ningún valor. Este valor está dado por el
análisis de los datos y cómo estos se convierten en información y, eventualmente, en conocimiento.
El big data es una herramienta que brinda importantes soluciones a las organizaciones. Estas soluciones pueden agruparse en cinco grupos principales:
Extensión de la seguridad/inteligencia
–
Mecanismos para localizar anomalías y prevenir ataques. Este tipo de soluciones permite discernir entre cantidades masivas de datos (tanto internos como externos) posibles relaciones ocultas,
detectar patrones de conducta y prevenir amenazas a la seguridad. También posibilita descubrir un fraude mediante la comprobación en tiempo real del historial de actividad de una cuenta, con lo
que es factible desenmascarar un comportamiento anormal de un usuario o una transacción sospechosa.
También permite examinar nuevas fuentes y variedades de datos como pruebas de una actividad criminal, por ejemplo, internet.
Las tres aplicaciones principales son:
Visión mejorada de inteligencia y vigilancia: análisis de datos en movimiento y en reposo para encontrar asociaciones o descubrir patrones. Esta información en tiempo real puede
incluso salvar vidas
Previsión y atenuación de ataques cibernéticos en tiempo real: analizando el tráfico de la red, las compañías pueden descubrir amenazas nuevas y prevenir ataques de hackers, intrusos,
espionaje, fraude cibernético e incluso ciberterrorismo.
Predicción y prevención del crimen: la capacidad para analizar datos de la red de telecomunicaciones y de redes sociales permite detectar amenazas y adelantarse a los criminales antes de
que actúen.
Análisis de operaciones
–
Permite obtener visibilidad en tiempo real de las operaciones, la experiencia del cliente, transacciones y comportamiento. Dinamiza el plan para incrementar la eficiencia de las operaciones,
identifica e investiga las anomalías, y monitoriza la infraestructura end-to-end para evitar de forma preventiva la degradación o apagones en el servicio.
Con un acelerador de datos permite ingerir y procesar grandes volúmenes de datos para proporcionar un conocimiento detallado del estado de la compañía. Los machine data pueden ser
correlacionados con otros datos de la empresa como información del cliente o del producto, aunque el gran volumen de datos esté en formatos distintos que, sin la solución, no son compatibles
con los demás.
Esta combinación es de gran utilidad para los encargados de tomar las decisiones operativas, a la vez que aumenta la inteligencia y la eficiencia de las operaciones. Estos responsables de la toma
de decisiones pueden visualizar los datos a través de distintos sistemas para obtener la visión más informada posible y poder reaccionar de forma rápida ante cualquier imprevisto.
Pre-Processing Hub (núcleo de preprocesamiento): proporciona un área de montaje o “zona de aterrizaje” de los datos antes de decidir cuáles se incorporan al almacén de datos.
Discovery/Analytics (descubrimiento-análisis): da la capacidad de realizar análisis que deberían haberse hecho antes en el Data Warehouse, para así optimizar el almacén de datos y
posibilitar nuevos tipos de análisis.
Query-able Data Store (almacén de datos de consulta): descarga datos que se consultan con poca frecuencia o de una antigüedad considerable del data warehouse mediante software y
herramientas de integración de información, y los almacena en un espacio de almacenamiento de bajo coste, pero manteniéndolos aún accesibles desde la solución [MG1] (Logicalis, 2014,
https://bit.ly/2xSbpwS).
Ahora sí estás listo para ir a la reunión con el gerente de la compañía y explicarle qué características, ventajas y usos tiene big data.
LECCIÓN 2 de 2
Referencias
David López García. Universidad de Cantabria (2013). Análisis de las posibilidades de uso de Big Data en las organizaciones. Recuperado de https://repositorio.
unican.es/xmlui/bitstream/handle/10902/4528/TFM%20-%20David%20L%C3%B3 pez%20Garc%C3%ADaS.pdf?sequence=1
Logicalis, (2014). Big Data y las cinco aplicaciones principales. Recuperado de: https: //blog.es.logicalis.com/analytics/las-cinco-principales-aplicaciones-de-big-data
Womenalia, (2017). Big Data, qué es y qué beneficios aporta a la empresa. Recuperado de: https://www.womenalia.com/es/hoy-en-womenalia/135-actualidad/ 4023-big-data-
que-es-y-que-beneficios-aporta-a-la-empresa
Perfiles profesionales del Big Data
En esta lectura conocerás los profesionales que forman parte de un área de big data.
Referencias
LECCIÓN 1 de 2
Cada vez es más frecuente encontrar ofertas de empleo que buscan especialistas en la gestión de
grandes volúmenes de datos o, lo que es lo mismo, expertos en big data. Considerada una de las
profesiones con más futuro del siglo XXI, el experto en big data se alza como la nueva
especialidad más demandada por las empresas para convertir los datos en conocimiento.
Teniendo en cuenta que el 90 % de todos los datos del mundo se han creado sólo en los últimos 3
años, los expertos en big data se precisan más que nunca (https://bit.ly/2XRa04i).
Siempre hay variación en el tipo de trabajo y rol que desempeñan los empleados en las empresas,
el mismo avance tecnológico hace evolucionar las distintas disciplinas. En este sentido, Juan
(2016) sostiene:
Es así como muchos son los puestos de trabajo que, como consecuencia de la crisis, las empresas
no precisan. Sin embargo, hay otros nuevos que surgen a raíz de las necesidades que demanda la
transformación digital. En un entorno que evoluciona tan rápido tecnológicamente, las compañías
buscan ahora a especialistas capaces de trabajar con los grandes volúmenes de datos que se
almacenan día a día. Esos datos, debidamente analizados y procesados, son en realidad
información muy útil para las empresas y representan nuevas oportunidades de negocio, mejoras
en la toma de decisiones, conocimiento más preciso del público objetivo (https://bit.ly/2XRa04i).
Por otra parte, retomando lo que se menciona en el párrafo anterior, Juan (2016) agrega:
¿El problema? La falta en el mercado actual de personas especializadas en Big Data que puedan
ofrecer estos servicios. ¿La ventaja? Aquellas personas que estén formadas en esta área tienen
ante sí una oportunidad única y una clara ventaja en el ámbito profesional.
(https://bit.ly/2XRa04i).
Se ofrece puesto de trabajo para especialista en big data. Si abrimos LinkedIn u otros portales de
búsqueda trabajo cada vez es más frecuente encontrar ofertas laborales dirigidas a especialistas en
gestión de grandes volúmenes de datos. Los datos así lo confirman: Infojobs clasifica los
desarrolladores de soluciones big data entre las 6 primeras profesiones con más oportunidades
laborales y la consultora. Gartner estima que en 2018 la mitad de las grandes corporaciones
utilizarán los recursos del big data; un porcentaje similar dispondrán de algoritmos propios. Las
empresas necesitan gestionar sus datos y requieren perfiles multidisciplinares para convertir la
información en tiempo real en oportunidades de negocio. (https://bit.ly/2XXT1gv).
Por otra parte, Eurecat (2016) realizó una lista de los roles esenciales que deberían incorporar las distintas empresas:
¿Cuáles son los perfiles que deben integrar estos equipos? ¿Cómo podemos determinar los roles y
las responsabilidades? El Centro de Excelencia en Big Data de Eurecat identifica en el primer
número de la colección Big Data Insights, que publicará regularmente el centro de excelencia en
Big Data de Barcelona, los 7 roles fundamentales a incorporar en empresas:
1 Chief Data Officer (CDO): es el responsable de asegurar que la organización es data driven.
Lidera la gestión de datos y analítica asociada por el negocio y, por tanto, es responsable de los
diferentes equipos especialidades en datos.
2 Data Scientists (científico de los datos): son los miembros clave del equipo de ciencia de datos.
Permiten extraer conocimiento e información valiosa de los datos. Tienen visión general del
proceso de extremo a extremo y pueden resolver problemas de ciencias datos, la construcción de
modelos analíticos y algoritmos. Combinan diversas habilidades relacionadas con las matemáticas,
la estadística, la programación y visualización, pero también deben tener habilidades
comunicativas, para explicar los resultados obtenidos en la organización.
3 Citizen Data Scientist: es la persona dentro de la organización que típicamente no está formada
específicamente para ser Data Scientist, pero que puede extraer valor, a través de su experiencia,
explorando los datos, desde las unidades de negocio. Pueden ejecutar una serie simple de tareas
analíticas utilizando herramientas de descubrimiento de datos.
4 Data Engineer (ingeniero de datos): Se encarga de proporcionar los datos de una manera
accesible y apropiada a los usuarios y Deata scientists. Es un perfil especializado en infraestructura
big data. Desarrolla y explota técnicas, procesos, herramientas y métodos que deben servir para el
desarrollo de aplicaciones big data. Tiene un gran conocimiento en gestión de bases de datos,
arquitecturas de clusters, lenguajes de programación y sistemas de procesamiento de datos.
5 Data Steward (administrador de datos): es responsable de mantener la calidad, disponibilidad y
seguridad de los datos. Persigue mejorar el almacenamiento y presentación de los datos en toda la
empresa. Tiene conocimientos de los procesos de negocio y de cómo los datos se utilizan dentro de
estos procesos.
6 Business Data Analyst (analista de datos): participa en las iniciativas y proyectos de análisis de
datos. Es la persona que recoge las necesidades de los usuarios de negocio para los Data Scientist
y presenta resultados obtenidos.
7 Data Artist: son expertos en Business Analytics y son los responsables de crear los gráficos,
infografías y otras herramientas visuales para ayudar a las diferentes personas de la organización a
comprender datos complejos (https://bit.ly/2XXT1gv).
Cada vez surgen más especializaciones de Big Data, ya que la revolución digital crece a pasos
agigantados y los complejos volúmenes de datos también. Las empresas demandan estos perfiles
para poder introducirse en los procesos de transformación digital, tan necesarios actualmente
(https://bit.ly/2XRa04i).
Ya conoces todos los perfiles que pueden intervenir para llevar adelante big data.
Ahora, ponte a buscar a los profesionales que consideras que harán falta para dar soporte a los objetivos de tu
organización.
LECCIÓN 2 de 2
Referencias
Juan, C. (2016). Los perfiles profesionales más buscados de Big Data. Recuperado de
https://www.iebschool.com/blog/profesionales-mas-buscados-big-data/
Eurecat. (2016). Los 7 perfiles clave de los profesionales del Big Data. Recuperado de https://eurecat.org/es/los-7-
perfiles-clave-de-los-profesionales-del-big-data/
Presente y futuro del Big Data
El big data es muy nombrado, sin embargo, se conoce muy poco sobre qué es, para qué se
usa y qué aplicaciones tiene en la vida real, fuera de las empresas. Supongamos que te
llaman de un colegio secundario con orientación en informática para que les des una charla
con el objetivo de que los estudiantes puedan conocer de qué se trata el big data.
Referencias
Video conceptual
Actualmente el big data ha dejado de ser un tema técnico para convertirse en una necesidad comercial. Lo primordial
es lograr un óptimo uso del mismo, lo que permitirá generar cambios significativos en el comercio, finanzas, salud,
asuntos gubernamentales, política y servicios a la sociedad, entre otros. Es fundamental para las empresas conocer y
explorar todos los datos que dispone. Hay una gran cantidad de conocimiento en la información sin explotar, que
puede proporcionar respuestas y nuevas metodologías para incrementar la productividad y la eficacia, mientras se
disminuyen los gastos innecesarios (IDATHA, 2014).
Google Flu Trends: utilizando los términos de búsqueda de los usuarios, Google predice cómo se
esparce el virus de la gripe por el mundo.
Seguros Santam: la mayor aseguradora de Sudáfrica, utiliza big data junto el análisis predictivo para
mejorar la detección de fraude y agilizar la gestión de siniestros.
Bank of America: la segunda entidad bancaria más importante de los Estados Unidos utilizó big data
para entender por qué muchos de sus clientes comerciales se estaban yendo a bancos más pequeños.
UPS: la empresa internacional de logística y reparto ha estado utilizando big data para recolectar y
analizar información de más de 46.000 camiones de su flota de transporte. Gracias al uso inteligente
de los datos tomados, la compañía ha reducido en 32 millones de litros el gasto en combustible y
acortado en 137 millones de kilómetros sus rutas de reparto (IDATHA, 2014,
https://bit.ly/2VWTL2W).
Es muy difícil ser competitivo en la actual economía de escala global, ya que es indispensable que las empresas
posean un gran entendimiento de los mercados, los clientes, los productos, los competidores y todo lo que rodea al
negocio. El uso de técnicas de big data es clave para entender lo que sucede, como así también es muy importante la
inteligencia de negocio, la inteligencia analítica y la información (IDATHA, 2014).
Gracias a la fuerte adopción y desarrollo del big data, ahora las organizaciones de todo el mundo
están descubriendo nuevas formas de competir, mejorar y ganar. Su actual proceso de cambio les
permite sacar ventaja del amplio abanico de información disponible con el fin de enriquecer sus
decisiones y acrecentar el rendimiento de la empresa. Organizaciones de diferentes tamaños ya
han optado por usar de forma inteligente los datos disponibles, brindado a cada uno de los
sectores de la compañía las herramientas necesarias para que estos tomen las mejores y más
oportunas decisiones (IDATHA, 2014, https://bit.ly/2VWTL2W).
El big data es para todo tipo de organizaciones, cada empresa “sin importar su tamaño, puede verse beneficiada en la
utilización de nuevas herramientas de análisis que generen valor y brinden acceso a mejores oportunidades para su
negocio” (IDATHA, 2014, https://bit.ly/2VWTL2W). Existen muchos proveedores de macrodatos, es fundamental
tener claro el objetivo de big data que persigue la organización para poder evaluar los proveedores de estas
soluciones. Una amplia variedad de empresas proporciona productos y servicios acorde a las necesidades del cliente,
de este modo permiten desarrollar de forma eficiente la estrategia de la empresa. Entender correctamente la
información es la clave para el crecimiento y evolución de los negocios (IDATHA, 2014).
Big Data: presente y futuro para las empresas
[Un] frente abierto por los investigadores y fabricantes de tecnología es adecuar el análisis de
grandes datos («big data») para favorecer al desarrollo de la sociedad. Ese gran yacimiento de
información digital es cada vez más grande y, por ende, más difícil de procesar.
Los expertos lo confirman: las empresas se sumergirán en el futuro en el universo del big data. El
reto consiste en capturar, almacenar, buscar, compartir y poner en valor «datos hasta fecha
infrautilizados o inaccesibles». La revolución de los datos masivos no es tendencia: «siempre ha
existido» pero todavía no ha explotado. (https://bit.ly/2Vx1Mge).
Es cierto que en los últimos años, derivado de la digitalización de los negocios y de su gestión así
como de la explosión de dispositivos móviles, el crecimiento está siendo exponencial año a año.
Asimismo, la proliferación de las redes sociales, del intercambio de sentimientos, ideas y
opiniones en la red, está generando más datos que nunca. Lo cual supone una oportunidad para
todos.
El hecho de no ser capaz de analizar y obtener un valor de los datos que se está generando
responde a la volatilidad de los datos. Lo importante es que siempre se analice o aplicar analítica
para saber qué queremos responder, qué buscamos o, incluso, encontrar cosas que no sabíamos
(https://bit.ly/3cGOtQ0).
Gordino continua “actualmente, se estima que el 90 % de los datos creados en los últimos dos años -de los que el 80
% están sin estructurar- son acrónimos o tienen ironía, es decir, «llevan asociados sentimientos»” (2013,
https://bit.ly/3cGOtQ0).
Siguiendo la misma línea de reflexión, Godino (2013, https://bit.ly/3cGOtQ0) agrega: “Las empresas españolas
incorporarán en menos de dos años, big data a una velocidad del 304 % con respecto a este año, según datos de la
consultora IDC. Pero, ¿las empresas saben aprovechar sus posibilidades?”.
Las empresas cada vez son más conscientes de las posibilidades que ofrece [el big data] y las
empiezan a aprovechar. El verdadero reto no es tanto crear la arquitectura que sea capaz de
recoger y almacenar todo ese volumen ingente de datos sino en ser capaz de separar lo relevante
de lo que no lo es y de explotarlo con las técnicas analíticas precisas en el menor tiempo posible
de respuesta. El foco está puesto en entender lo que nos dicen los datos y en sacar partido a todo
su valor para las organizaciones (https://bit.ly/3cGOtQ0).
Por ejemplo, para gestionar mejor la relación con los clientes mejorando su satisfacción y
fidelización se busca desarrollar aquellos productos que el mercado demanda, detectar el fraude y
evitar grandes pérdidas económicas o predecir el comportamiento de los consumidores para
realizar acciones comerciales más efectivas.
Entre los beneficios que aporta el análisis de datos masivos a la sociedad se encuentran, por
ejemplo, adelantarse a futuras conductas de actuación o gestión de expectativas de los ciudadanos.
Y de ahí surgen los comportamientos y publicaciones que los internautas envían a los diferentes
canales de internet como redes sociales, «fuentes de información que nos permite adelantarnos a
futuras conductas de actuación» (https://bit.ly/3cGOtQ0).
Ventajas a la sociedad
El big data nos lleva a hacer preguntas y encontrar respuestas, no solo para la empresa, sino
también para la sociedad. Por ejemplo, con analítica avanzada de big data es posible ayudar a
evitar la extinción de animales tan representativos como el oso polar o los rinocerontes blancos, a
través de un seguimiento de los ejemplares que hay en libertad y el estudio en las zonas en las que
habita. Otras soluciones de big data ayudan a los bomberos de Londres para establecer la
disponibilidad de efectivos dentro de la ciudad dependiendo de qué zonas sean más propensas a
sufrir incendios, y ayudar así a prevenirlos (https://bit.ly/3cGOtQ0).
La clave del big data -explica- es contar con personas y socios que tengan talento analítico, así
como capacidad de reflexionar sobre dónde quiero ir y qué tipo de respuestas necesito para
mejorar mis decisiones hoy y, entonces, anticiparme (https://bit.ly/3cGOtQ0).
En relación a las ventajas de una correcta administración de la información en las empresas, Merco (citado en
Godino, 2012) afirma lo siguiente:
La gestión correcta de los datos en las compañías está generando una corriente en los consejos de
administración de las compañías, que cada vez son más conscientes de que los datos y su analítica
como un activo donde hay que invertir. Y son necesarios nuevos tipos de perfiles que hay que
desarrollar o encontrar en el mercado para cuidar y sacar el máximo de esos activos
(https://bit.ly/3cGOtQ0).
Ante el fenómeno del big data, Merco (citado en Godino, 2013) se pregunta:
¿Cómo imaginan los expertos el futuro de esta tendencia? Big data es una realidad, da igual que el
término en sí suene en ocasiones a sobrevendido en los últimos años. Ya es una realidad en
muchas empresas que empiezan en el mundo del big data analizando lo que más les importa: sus
clientes. Las experiencias en “big data marketing” son las más innovadoras, las más reales, y las
capacidades que entregan están al nivel de películas de ciencia ficción.
El análisis de datos masivos es el eje central del modelo de negocio de las grandes compañías. El
volumen de publicidad que algunas de estas empresas venden es tan alto gracias a la existencia de
estos datos masivos que, gracias a la capacidad de dar un mensaje relevante a cada persona o a la
audiencia en cada momento. Del mismo modo, los motores de búsquedas relacionadas que
suponen un gran volumen de ventas para compañías como Amazon, no son más que el resultado
del tratamiento de los datos masivos. Analizarlos permite ofrecer a los clientes una oferta que, con
un alto porcentaje de probabilidad será de su interés, lo que provoca que se disparen las ventas.
La clave está en conectar puntos, patrones y hacerlo de modo que el cliente sienta que lo que le
ofreces solo está disponible en ese momento, en tiempo real, y para él. (https://bit.ly/3cGOtQ0).
Con todo este material, arma tu charla y ve a la escuela y comparte tus conocimientos con los alumnos.
LECCIÓN 2 de 4
Referencias
Video conceptual
VIMEO
Verify to continue
We detected a high number of errors from your
connection. To continue, please confirm that
you’re a human (and not a spambot).
02- Características
–
Las características del big data pueden resumirse en las 3V: volumen, variedad y velocidad.
Por un lado, el gran volumen de información; por otro, la variedad de datos, que pueden ser representados de
diferentes maneras en el mundo;y finalmente, la velocidad con la cual estos datos se generan. Producto del avance
tecnológico se agregan “otras 3V”: veracidad, visualización y valor.
Te contratan en una empresa del rubro de ventas de mercaderías minorista porque necesitan mejorar las compras para reabastecimiento y no quedase con
mercadería de alta estacionalidad, ni tampoco quedarse sin stock por adquirir una menor cantidad de lo que demanda la clientela.
Para realizar esto tienes acceso a la información de volúmenes de ventas históricas de los últimos cinco años.
Referencias
Descarga en PDF
LECCIÓN 1 de 3
El término descubrimiento de conocimiento en bases de datos, o KDD (del inglés knowledge discovery in databases) para abreviar, se refiere al amplio proceso de búsqueda
de conocimiento en los datos y hace hincapié en la aplicación de alto nivel de determinados métodos de minería de datos. Es de interés para los investigadores en aprendizaje
automático, reconocimiento de patrones, bases de datos, estadísticas, inteligencia artificial, adquisición de conocimientos para sistemas expertos y visualización de datos (Galán
Montaño, 2013).
El objetivo unificador del proceso KDD es extraer un conocimiento de datos en el contexto de una gran base de datos.
Se utilizan métodos de minería de datos (algoritmos) para extraer (identificar) lo que se considera conocimiento, de acuerdo con las especificaciones de medidas y umbrales.
Esto se produce al combinar una base de datos con cualquier preprocesamiento, submuestreo y transformaciones requeridas de dicha base.
Fuente: [imagen sin título sobre proceso de descubrimiento del conocimiento en base de datos], 2016, https://bit.ly/3cD24HY
El proceso general para encontrar e interpretar patrones a partir de datos implica la aplicación repetida de los siguientes pasos:
2 Creación de un conjunto de datos de destino: selección de un grupo de datos o enfoque en un subconjunto de variables o muestras de datos en las que se
debe realizar el descubrimiento.
a. Encontrar características útiles para representar los datos dependiendo del objetivo de la tarea.
b. Utilizar métodos de reducción de la dimensionalidad o de transformación para achicar el número efectivo de variables bajo consideración o para
encontrar representaciones invariantes para los datos.
c. Emparejar un método particular de minería de datos con los criterios generales del proceso KDD.
7 Extracción de datos.
a. Búsqueda de patrones de interés en una forma representacional particular o un conjunto de representaciones tales como reglas de clasificación o
árboles, regresión, agrupación, etcétera.
La minería de datos se refiere a la aplicación de algoritmos para extraer patrones de datos sin los pasos adicionales del proceso KDD.
El descubrimiento de conocimientos en bases de datos es el proceso no trivial de identificar patrones válidos, nuevos, potencialmente útiles y, en última instancia, comprensibles
en los datos.
KDD es un proceso de varios pasos que incluye la preparación de datos, la búsqueda de patrones, la evaluación
Procesos
de conocimientos y el refinamiento con iteración después de la modificación.
Los patrones descubiertos deben ser verdaderos en los nuevos datos con cierto grado de certeza. Generalizar al
Válidos
futuro (otros datos).
Novedosos Los patrones deben ser nuevos (no deben conocerse previamente).
Útiles Procesables; los patrones deberían conducir potencialmente a algunas acciones útiles.
El proceso debe conducir a la comprensión humana. Los patrones deben hacerse simples para facilitar una mejor
Comprensibles
comprensión de los datos subyacentes.
El interés es una medida general del valor del patrón, combinando validez, novedad, utilidad y simplicidad (Berlanga Rivera, 2010). El conocimiento es valor, por eso, en base a
los datos históricos pueden analizar el movimiento de los productos y así optimizar las compras.
LECCIÓN 2 de 3
Referencias
[Imagen sin título sobre proceso de descubrimiento del conocimiento en base de datos]. (2016). Recuperado de http://ediciones.ucc.edu.co/index.php/ucc/catalog/
download/36/40/220-1?inline=1
Berlanga Rivera, F. J. (2010). Aprendizaje de sistemas basados en reglas difusas compactos y precisos con programación genética. Recuperado de:
https://digibug.ugr.es/bitstream/handle/10481/5547/1875241x.pdf?sequence=1&is Allowed=y
Galán Montaño, F. J. (2013). Metodología para el análisis de ocurrencias de terremotos de gran magnitud. Recuperado de: https://studylib.es/doc/7714420/
metodolog%C3%ADa-para-el-an%C3%A1lisis-de-terremotos-de-gran-magnitud
LECCIÓN 3 de 3
Descarga en PDF
El primer trabajo que te encomiendan como consultor consiste en explicarles a tus potenciales clientes
qué es un data warehouse, qué ventajas brida y qué se puede hacer a partir de esto.
En esta lectura abordaremos todos estos conceptos.
Almacenes de datos
Referencias
Descarga en PDF
LECCIÓN 1 de 3
Almacenes de datos
Un almacén de datos es un repositorio para todos los datos que recogen los diversos sistemas empresariales de una
organización. El repositorio puede ser físico o lógico. Un almacenamiento de datos es una tecnología que agrega
información estructurada de una o más fuentes con el fin de que pueda ser comparada y analizada para lograr una
mayor inteligencia de negocios.
El almacenamiento hace hincapié en la captura de datos de diversas fuentes para el análisis y acceso útiles. Sin
embargo, generalmente no se empieza desde el punto de vista del usuario final, que puede necesitar acceso a bases de
datos especializadas, a veces locales. Esta última idea se conoce como data mart.
Hay dos enfoques para el almacenamiento de datos: de arriba hacia abajo y de abajo hacia arriba. El enfoque de
arriba hacia abajo crea los data marts para grupos específicos de usuarios después de que se haya creado el almacén
de datos completo. El enfoque de abajo hacia arriba construye primero los data marts y luego los combina en un solo
y completo almacén de datos.
Normalmente, un almacén de datos se aloja en un servidor de mainframe corporativo o en la nube. Los datos de
varias aplicaciones de procesamiento de transacciones en línea (OLTP) y otras fuentes se extraen selectivamente para
su uso por aplicaciones analíticas y consultas de usuarios.
El término almacén de datos fue acuñado por William H. Inmon, que es conocido como el padre de data
warehousing. Inmon lo describió como una colección de datos orientada a temas, integrada, con variante de tiempo y
no volátil, que soporta el proceso de toma de decisiones de la administración.
¿Qué necesito saber sobre el almacenamiento de datos?
Los almacenes de datos se usan típicamente para correlacionar los datos comerciales generales y así proporcionar
una mayor visión ejecutiva del desempeño corporativo.
Los almacenes de datos utilizan un diseño diferente de las bases de datos operativas estándar. Estas últimas se
optimizan para mantener una exactitud estricta de los datos en el momento, actualizando en tiempo real. Los
almacenes de datos, por el contrario, están diseñados para proporcionar una visión de largo alcance en el tiempo.
Cambian el volumen de transacciones y se especializan en la agregación de datos.
Muchos tipos de datos empresariales se analizan a través de almacenes de datos. La necesidad de un almacén de
datos a menudo se hace evidente cuando los requisitos analíticos están en contradicción con el funcionamiento
continuo de las bases de datos operacionales. Ejecutar una consulta compleja en una base de datos requiere que esta
ingrese un estado fijo temporal. Esto es, a veces, insostenible para las bases de datos transaccionales. Un almacén de
datos se emplea para hacer el trabajo analítico, dejando la base de datos transaccional libre para centrarse en las
transacciones.
Otros beneficios de un almacén de datos son la capacidad de analizar datos de múltiples fuentes y negociar
diferencias en el esquema de almacenamiento mediante el proceso ETL.
Los almacenes de datos son caros a escala y no sobresalen en el manejo de datos crudos, no estructurados o
complejos. Sin embargo, siguen siendo una herramienta importante en la era de los grandes datos.
LECCIÓN 2 de 3
Referencias
[Imagen sin título sobre almacén de datos]. (2011). Recuperada de https://image. slidesharecdn.com/sesion2-
111026002141-phpapp01/95/sistemas-de-informacion-12-728.jpg?cb=1319685816
LECCIÓN 3 de 3
Descarga en PDF
El gerente del área de sistemas convoca a una reunión porque la compañía en la que te
desempeñas profesionalmente ha decidido implementar un data warehouse y se debe definir
la arquitectura y cada uno de los componentes.
Referencias
LECCIÓN 1 de 2
¡Qué momento tan emocionante para ser un implementador de inteligencia de negocios o almacén de datos! ¡Hay
tanta tecnología nueva y revolucionaria para elegir! No obstante, con la innovación tecnológica surge la inevitable
interrupción de las arquitecturas, técnicas y tradiciones existentes. Almacenamiento de datos y entornos de BI no son
inmunes a eso.
Un almacén de datos y una arquitectura de BI de próxima generación están emergiendo de todo el tumulto. Esta
nueva arquitectura incluye la necesidad de:
1 capacidades analíticas avanzadas, como análisis estadísticos y predictivos, análisis de datos en tiempo
real y visualización sofisticada de datos;
2 gestión de fuentes de datos nuevas e inusuales a través de nuevos conceptos, tales como refinerías de
datos (lagos de datos o hubs) y el uso de herramientas de virtualización o mezcla de datos para
aumentar los enfoques estándares de extracción, transformación, integración y carga de datos;
3 nuevas opciones de implementación, entre ellas la nube, dispositivos móviles y dispositivos integrados
de hardware y software.
Frente a la necesidad de nuevas tecnologías se suma la creciente presión en las empresas para generar ideas
comerciales más inmediatas y, al mismo tiempo, reducir el costo total de estos entornos en expansión.
No es de extrañar que muchos tecnólogos estén confundidos acerca de cómo y dónde estas nuevas capacidades
encajan en sus contextos existentes de BI y data warehouse. ¿El almacén de datos de la empresa (EDW) todavía
tiene un papel? ¿Cómo pueden satisfacer la creciente necesidad de la empresa de análisis en tiempo real? Para
responder a estas preguntas, nuevas metodologías están surgiendo. Así, una constante actualización es necesaria para
estar siempre a la vanguardia de la tecnología.
Los almacenes de datos pueden parecer un poco monótonos, especialmente en comparación con las nuevas
tecnologías como las bases de datos Hadoop y NoSQL. En la era de los grandes datos, la construcción de una
arquitectura de almacén de datos empresarial no tiene el mismo nivel que la creación de un almacén de datos basado
en Hadoop. Sin embargo, el EDW y su pariente más pequeña, el data mart, siguen teniendo un lugar destacado en la
mesa de TI ya que proporcionan datos confiables a los usuarios de inteligencia de negocios y análisis.
Una arquitectura de almacén de datos consta principalmente de tres capas. Dentro de la primera, se crea un
repositorio de documentos para almacenar informes estándares de la empresa. La segunda es una capa de inteligencia
empresarial global que soporta múltiples aplicaciones, incluye informes de ventas, análisis de ventas, análisis de la
cadena de suministro y de adquisiciones, etcétera. Y por último, debajo de estas dos primeras se encuentra el propio
EDW. La mayoría de las empresas de primera línea trabajan con tecnología SAP para administración de datos
maestros y extracción de funciones de transformación y carga.
En todo el mundo se habla de un tema que sigue siendo el centro de los equipos de TI, BI y analítica: cómo expandir
una arquitectura tradicional de data warehouse para incorporar tecnologías como clústeres Hadoop en tiempo real.
La aparición de nuevas tecnologías ha desgarrado la arquitectura a la que estamos tan acostumbrados, aquella que
tiene un almacén de datos y data marts dependientes. Hay una necesidad de almacenes de datos empresariales y de la
información estática e histórica típicamente almacenada en ellos. En la era de los grandes datos, la computación en la
nube y las aplicaciones móviles ya no son suficientes.
Una de las tendencias actuales es una arquitectura de data warehouse extendida que añade nuevas capas para la
administración de big data, análisis exploratorios y análisis de datos en tiempo real. Sin embargo, no hay un solo
camino a seguir para todas las organizaciones. Lo importante sigue siendo el problema que el negocio está tratando
de resolver y luego pensar en una arquitectura que coincida en tecnología con ese problema de negocio.
De esta manera, ya tienes argumentos para entender cada componente y aportar sugerencias acerca de la arquitectura
que mejor se adapte a las necesidades de tu negocio.
LECCIÓN 2 de 2
Referencias
Sotolongo León, A. R., y Hernández Ramírez, M. D. (2012). Modelo de descripción de arquitectura de almacenes
de datos para ensayos clínicos del Centro de Inmunología Molecular. En Revista Cubana de Ingeniería, 3(1).
Recuperado de http://rci.cujae.edu.cu/index.php/rci/article/view/62/html
Minería de datos
En esta lectura aprenderás cómo funciona la minería de datos y cómo puede ayudar a la empresa a
encontrar patrones ocultos.
Antes de comenzar, imagina la siguiente situación.
Te contratan de una cadena de empresas que se dedica a la venta de ropa femenina y masculina y tiene
sucursales en cinco provincias. Tu tarea consiste en analizar los datos históricos de ventas para detectar
las combinaciones de prendas que, usualmente, compran los clientes según la época del año. Esta
información le permitirá a la empresa diseñar campañas publicitarias en torno a lo que los clientes
buscan; vestir a los maniquíes con las combinaciones más vendidas; y no comprar grandes cantidades de
prendas que se no se venden.
Minería de datos
Referencias
Minería de datos
El proceso de hurgar en los datos para descubrir conexiones ocultas y predecir tendencias futuras
tiene una larga historia. Conocido algunas veces como "descubrimiento de conocimientos en
bases de datos", el término "minería de datos" no se acuñó sino hasta la década de 1990. Pero su
base comprende tres disciplinas científicas entrelazadas: estadística (el estudio numérico de
relaciones de datos), inteligencia artificial (inteligencia similar a la humana exhibida por software
y/o máquinas) y machine learning [o aprendizaje automático] (algoritmos que pueden aprender de
datos para hacer predicciones). Lo que era antiguo es nuevo otra vez, ya que la minería de datos
continúa evolucionando para igualar el ritmo del potencial sin límites del big data y poder de
cómputo asequible.
En la última década, los avances en el poder y la velocidad de procesamiento nos han permitido
llegar más allá de las prácticas manuales, tediosas y que toman mucho tiempo al análisis de datos
rápido, fácil y automatizado. Cuanto más complejos son los conjuntos de datos recopilados,
mayor es el potencial que hay para descubrir insights relevantes. Los comerciantes detallistas,
bancos, fabricantes, proveedores de telecomunicaciones y aseguradoras, entre otros, utilizan la
minería de datos para descubrir relaciones entre todas las cosas, desde precios, promociones y
demografía hasta la forma en que la economía, el riesgo, la competencia y los medios sociales
afectan sus modelos de negocios, ingresos, operaciones y relaciones con clientes (SAS Institute,
s.f., https://bit.ly/3eJDreE).
Porque el volumen de datos producidos se duplica cada dos años. Los datos no estructurados por
sí solos conforman el 90 % del universo digital. Pero más información no significa
necesariamente más conocimientos.
La minería de datos permite (…) entender qué es relevante y luego hacer un buen uso de esa
información para evaluar resultados probables [y] acelerar el ritmo de la toma de decisiones
informadas (SAS Institute, s.f., https://bit.ly/3eJDreE).
La minería de datos está en el centro de los esfuerzos analíticos de diferentes industrias y disciplinas. Entre estas
podemos encontrar las siguientes.
Comunicaciones
–
En un mercado sobrecargado donde la competencia es cerrada, las respuestas se encuentran a menudo en los datos
de sus consumidores. Las compañías de multimedia y telecomunicaciones pueden utilizar modelos analíticos para
entender montañas de datos de clientes, ayudándoles así a predecir el comportamiento de sus clientes y ofrecer
campañas altamente dirigidas y relevantes.
Seguros
–
Con conocimientos analíticos, las compañías de seguros pueden resolver problemas complejos concernientes a
fraude, cumplimiento, gestión de riesgo y separación de clientes. Las compañías han utilizado técnicas de minería
de datos para asignar precios a productos con mayor eficacia en líneas de negocios y hallar nuevas formas de
ofrecer productos competitivos a su base de clientes existente.
Educación
–
Con vistas unificadas basadas en datos del progreso de los estudiantes, los educadores pueden predecir el
desempeño de sus alumnos antes de que pongan un pie en el salón de clases – y desarrollar estrategias de
intervención para mantenerlos en curso. La minería de datos ayuda a los educadores a acceder a datos de los
estudiantes, a predecir niveles de logro y a detectar estudiantes o grupos de estudiantes que necesitan atención extra.
Manufactura
–
La alineación de planes de suministro con pronósticos de demanda es esencial, como lo es también la detección
temprana de problemas, garantía de calidad e inversión en equidad de marca. Los fabricantes pueden predecir el
desgaste de activos de producción y anticipar su mantenimiento, lo cual puede maximizar el tiempo en operación y
mantener la línea de producción acorde a lo programado.
Bancos
–
Los algoritmos automatizados ayudan a los bancos a entender a su base de clientes y también los miles de millones
de transacciones en el corazón del sistema financiero. La minería de datos ayuda a las compañías de servicios
financieros a tener una mejor vista de los riesgos del mercado, a detectar el fraude en menos tiempo, a gestionar las
obligaciones de cumplimiento de las regulaciones y a obtener retornos óptimos de sus inversiones en marketing.
Retail
–
Grandes bases de datos de clientes contienen insights ocultos que le pueden ayudar a mejorar las relaciones con
clientes, optimizar campañas de marketing y pronosticar ventas. A través de modelos de datos más precisos, las
compañías detallistas pueden ofrecer campañas más enfocadas – y encontrar la oferta que tenga el mayor impacto
en el cliente (Instituto SAS, s.f., https://bit.ly/3eJDreE).
LECCIÓN 2 de 3
Referencias
Instituto SAS (s.f.). Minería de datos. Qué es y por qué es tan importante. Recuperado de
https://www.sas.com/es_es/insights/analytics/data-mining.html
LECCIÓN 3 de 3
En un importante shopping center de esta ciudad, están preocupados por los numerosos
reclamos que reciben de los locatarios de los locales comerciales por las bajas ventas que se
producen. A raíz de esto, te contratan para analizar el comportamiento de los clientes, sugerir
promociones, enviar mensajes de fidelización y desarrollar distintas acciones para atraer más
personas a los negocios y que realicen compras.
Referencias
LECCIÓN 1 de 2
La analítica de clientes es el proceso que brinda a las organizaciones un conocimiento más profundo sobre el
comportamiento del cliente y puede usarse para tomar decisiones comerciales. Este proceso permite convertir los
datos de clientes en algo que es de valor para la organización: una herramienta de marketing que ayudará a convertir
todos sus obstáculos en oportunidades.
La analítica de clientes sirve como columna vertebral de todas las actividades de marketing, como el modelado
predictivo, la visualización de datos, la gestión de la información y la segmentación.
El uso de la analítica de clientes es cada vez más importante en el mundo de hoy. Esto se debe a que los clientes se
vuelven más poderosos y están más conectados que nunca. Ahora, cuentan con mucha información y tienen acceso a
ella en cualquier lugar y en cualquier momento. Esto hace que la organización use los análisis de clientes.
Los comportamientos de los clientes están cambiando rápidamente en el mundo de hoy. Si las empresas comprenden
sus hábitos de compra, pueden predecir su comportamiento futuro. Esto las ayudará a lanzar los productos relevantes
en el momento correcto y también aumentará las ganancias de su negocio.
Beneficios del customer analytics
La analítica de clientes llevará a una mayor lealtad de los clientes y, por lo tanto, aumentará el retorno de la
inversión.
Además, reduce los costos de la campaña de la organización al dirigirse a los clientes adecuados en el momento
indicado.
También, ayuda a disminuir la tasa de desgaste al predecir las expectativas del cliente y entregarles el producto
exacto.
Por último, segmenta a los clientes de manera más efectiva y ayuda a entenderlos mejor.
Comprender cómo se usan los datos para averiguar el comportamiento del cliente.
Descubrir cuáles son las mejores prácticas para usar los datos para crear estrategias comerciales más
efectivas.
Descubrir la tasa de éxito de las estrategias comerciales utilizando los datos actuales.
Seguir las necesidades del cliente y entregar lo que espera en el momento adecuado.
Tomar mejores decisiones comerciales sobre los datos relacionados con los clientes del negocio.
Como hemos mencionado anteriormente, la analítica de clientes es un proceso mediante el cual se pueden
transformar los datos en perspectivas predictivas para adquirir clientes, retener aquellos en riesgo de alejarse, mejorar
la lealtad y la promoción del cliente.
Con los avances recientes en tecnología, se pueden encontrar en el mercado herramientas analíticas fáciles de usar y
disponibles tanto para grandes como para pequeñas empresas. Estas herramientas permiten recopilar y analizar los
datos del cliente y permiten hacer predicciones sólidas sobre su comportamiento.
Las empresas que necesitan una ventaja competitiva buscan en los datos de sus clientes un factor diferenciador.
Muchas organizaciones han comenzado a explorar el valor del análisis en el compromiso con sus clientes.
Analicemos las siguientes preguntas:
¿Has logrado el conocimiento del cliente y el compromiso que te propusiste?
¿Puedes usar esto para vender de manera efectiva a existentes y futuros clientes?
La facilidad con la que se dispone de información junto con la gran cantidad de empresas de consumo que ofrecen
presencia en línea hacen que tengamos consumidores informados y expertos en tecnología.
Este cambio masivo significa que debe asegurarse no solo la alineación tradicional de las personas, el proceso y la
tecnología, sino también esa cultura empresarial para atraer y retener a los consumidores.
Analizar el comportamiento de nuestros clientes de una forma tradicional ya no es una opción. El nuevo desafío del
mundo moderno es hacer ese análisis teniendo toda la información disponible de las redes sociales y de las empresas.
LECCIÓN 2 de 2
Referencias
Referencias
LECCIÓN 1 de 2
Las metodologías en proyectos de customer analytics están vinculadas a las metodologías de proyectos de minería de datos.
Un poco de historia
A principios de la década de 1990, la minería de datos estaba evolucionando. Por ese entonces, se empleaba mucho tiempo preparando los datos, ya que las herramientas y la
computación eran bastante limitadas. Rara vez había más de uno o dos “científicos de datos” en la misma sala y era mucho más probable que se los llamara “modeladores
predictivos”, ya que ese tipo de modelado era lo último en su época.
A medida que progresaron los años 90, hubo un flujo natural que llevó a estandarizar las lecciones aprendidas en una metodología común. Esfuerzos como este comenzaron al
preguntar en voz alta si existiría un enfoque común, dado que los problemas se veían tan diferentes. Como resultado, hubo una nueva metodología llamada CRISP-DM.
Los principales proveedores de herramientas de análisis de minería de datos, junto con algunas corporaciones, formaron un grupo de interés especial en 1996 y, en el transcurso
de menos de un año, se logró codificar el proceso CRISP-DM: Proceso Estándar de la Industria para la Minería de Datos.
CRISP-DM no fue realmente el primero. El SAS Institute, que ha existido durante más tiempo de lo que cualquiera puede recordar, tenía su propia versión llamada SEMMA
(Sample, Explore, Modify, Model, Assess).
¿Qué es CRISP-DM?
El modelo estándar Cross Industry Standard Process for Data Mining o CRISP-D, como se lo conoce, es un marco de procesos para diseñar, crear, construir, probar y desplegar
soluciones de aprendizaje automático.
El proceso está organizado en seis fases. Estas se pueden ver en el siguiente diagrama:
Entendimiento empresarial:
–
Se enfoca en la comprensión de los objetivos y requisitos del proyecto desde una perspectiva comercial y, luego, convierte este conocimiento en una definición de problema de minería de datos y
en un plan preliminar.
Comprensión de datos:
–
Comienza con una recopilación inicial de datos y procede con actividades para familiarizarse con estos, identificar problemas de calidad, descubrir primeros conocimientos o detectar
subconjuntos interesantes para formar hipótesis sobre información oculta.
Preparación de datos
–
La fase de preparación de datos abarca todas las actividades para construir el conjunto de datos final, a partir de los datos brutos iniciales.
Modelado:
–
Las técnicas de modelado se seleccionan y aplican. Dado que algunas técnicas, como las redes neuronales, tienen requisitos específicos con respecto a la forma de los datos, puede haber un bucle
para la preparación de estos.
Evaluación:
–
Una vez que se han construido uno o más modelos que parecen tener alta calidad en relación con las funciones de pérdida seleccionadas, es necesario probarlos para garantizar que se generalicen
frente a los datos no vistos y que todos los problemas comerciales clave se hayan considerado suficientemente. El resultado final es la selección del/de los modelo/s campeón/es.
Despliegue
–
Generalmente, esto significa desplegar una representación de código del modelo en un sistema operativo para calificar o categorizar nuevos datos no vistos, a medida que surjan, y crear un
mecanismo para el uso de esa nueva información en la solución del problema comercial original. Es importante destacar que la representación del código también debe incluir todos los pasos de
preparación de datos previos al modelado. De este modo, el modelo trata nuevos datos brutos de la misma manera que durante su desarrollo.
¿Se puede usar CRISP-DM para proyectos de modelado no tradicionales como el big data o el análisis de sentimientos?
La ciencia de los datos ha ido más allá del modelado predictivo. Esta metodología puede ser utilizada en otros tipos de proyectos. De hecho, todos estos proyectos comienzan
con la comprensión del negocio, con datos que deben recopilarse, explorarse y prepararse de alguna manera. Todos estos proyectos aplican un conjunto de algoritmos de ciencia
de datos al problema. Y todos estos proyectos deben evaluarse por su capacidad de generalización en el mundo real. Entonces, sí, CRISP-DM proporciona una guía sólida
incluso para las actividades más avanzadas de las ciencias de la información actuales.
Para poder aplicarlo con éxito, un estudio de data mining debe considerarse un proceso que sigue una metodología estándar en lugar de un conjunto de técnicas y herramientas
de software de forma automática. Además de CRISP-DM, existe otra metodología conocida desarrollada por el SAS Institute que se llama SEMMA. La sigla SEMMA significa
muestra, explora, modifica, modela y evalúa.
A partir de las muestras de datos que se consideran estadísticamente representativos, SEMMA facilita la aplicación de técnicas de visualización y estadísticas que buscan o
exploran, eligen y transforman las variables de predicción más significativas, modelan variables para predecir diversos resultados y descargan una confirmación de la precisión
de los resultados. La presentación de SEMMA en forma de imágenes puede verse a continuación:
Figura 2. Data/conocimiento
Fuente: [Imagen sin título sobre Data/conocimiento], 2013, https://bit.ly/2KGOOWF
Al evaluar los resultados en cada etapa del proceso SEMMA, el modelador puede determinar cómo se modelan nuevas preguntas desencadenadas por los resultados del proceso
anterior y, por lo tanto, retornan a la fase de exploración, a la detección avanzada de los datos. Al igual que el CRISP -DM, SEMMA es un ciclo altamente iterativo de
experimentación. La principal diferencia entre CRISP-DM y SEMMA es que el primero tiene un enfoque de proyecto DM para una comprensión más completa del negocio e
incluye datos relevantes, mientras que el segundo supone implícitamente que las metas y objetivos del proyecto DM y sus fuentes de datos ya fueron definidas con anterioridad.
El término knowledge discovery in data bases, o KDD para abreviar, se refiere al amplio proceso de búsqueda de conocimiento en datos y enfatiza la aplicación de "alto nivel"
de métodos particulares de extracción de datos. Es de interés para los investigadores en aprendizaje automático, reconocimiento de patrones, bases de datos, estadísticas,
inteligencia artificial, adquisición de conocimiento para sistemas expertos y visualización de datos (Turmero, 2011).
El objetivo unificador del proceso KDD es extraer conocimiento de los datos en el contexto de grandes bases de datos.
Lo hace mediante el uso de métodos de extracción de datos (algoritmos) para extraer (identificar) lo que se considera conocimiento, de acuerdo con las especificaciones de
medidas y umbrales, utilizando una base de datos junto con cualquier preprocesamiento requerido, submuestreo y transformaciones de esa base de datos.
El proceso general de encontrar e interpretar patrones a partir de datos implica la aplicación repetida de los siguientes pasos (Molina López y García Herrero, 2004):
el dominio de la aplicación;
2 Crear un conjunto de datos de destino: seleccionar un conjunto de datos o concentrarse en un subconjunto de variables o muestras de datos en las que se
realizará el descubrimiento.
encontrar funciones útiles para representar los datos según el objetivo de la tarea;
y usar métodos de reducción o transformación de dimensionalidad para reducir el número efectivo de variables bajo
consideración, o para encontrar representaciones invariantes para los datos.
5 Elegir la tarea de minería de datos: significa decidir si el objetivo del proceso de KDD es la clasificación, regresión, agrupación, etcétera.
y hacer coincidir un método de minería de datos en particular con los criterios generales del proceso de KDD.
7 Minería de datos: buscar patrones de interés es una forma de representación particular o un conjunto de representaciones tales como reglas de clasificación
o árboles, regresión, agrupación, etcétera.
Por último, pero no menos importante, hay una diferencia importante entre los términos descubrimiento de conocimiento y extracción de datos.
KDD se refiere al proceso general de descubrimiento de conocimiento útil a partir de datos. Implica la evaluación y posiblemente la interpretación de los patrones para tomar la
decisión de lo que califica como conocimiento. También incluye la elección de esquemas de codificación, preprocesamiento, muestreo y proyecciones de los datos antes del
paso de extracción de datos (Molina López y García Herrero, 2006).
La extracción de datos se refiere a la aplicación de algoritmos para extraer patrones de datos sin los pasos adicionales del proceso KDD.
Ahora ya puedes transformar los datos de entrada en información y, con esta información, puedes realizar acciones para mejorar el negocio en el que te desempeñas.
LECCIÓN 2 de 2
Referencias
[Imagen sin título sobre diagrama de proceso del modelo CRISP-DM]. (2012). Recuperada de https://commons.wikimedia.org/wiki/File:CRISP-DM_Process_ Diagram.png
[Imagen sin título sobre KDD process]. (s.f.). Recuperada de http://smlsolutions. blogspot.com.ar/p/methodology.html
Molina López, J. M., García Herrero, J. (2006). Técnicas de Análisis de Datos, Aplicaciones prácticas usando Microsoft Excel y WEKA. Madrid, España: Universidad
Carlos III
Turmero, I. (2011). Minería de datos. El arte de sacar conocimiento de grandes volúmenes de datos. Recuperado de https://docplayer.es/851569-Mineria-de-datos-el-arte-de-
sacar-conocimiento-de-grandes-volumenes-de-datos-puerto-ordaz-marzo-del-2011-elaborado-por.html
Tipos de análisis
Te contratan desde una empresa de telefonía para hacer campañas de fidelización y retención por
segmento. Además, antes de comenzar el trabajo, te piden que colabores en la partición de estos
segmentos.
Para armar la segmentación debes tener en cuenta las características de los clientes y los atributos que se
les asocian.
Referencias
LECCIÓN 1 de 2
Este análisis se refiere a la disponibilidad de acceso completo a un cliente desde todos los aspectos (en línea y en la
tienda). Aunque es difícil obtener acceso completo a todos los canales, una selección que comprende los puntos de
contacto principales que unen los almacenes de datos permite que una organización represente los atributos del
cliente bajo una única entidad, y forme una conexión virtual. Este subconjunto selectivo comprende datos internos
generados a través de la aplicación y forman la primera vista 360º, asimismo la disponibilidad de información de
usuario enriquecida de las redes sociales se abre camino para el otro 360º. Combinar datos estructurados,
semiestructurados y no estructurados disponibles gracias a las aplicaciones CRM, las órdenes y facturas, los registros
de servicio al cliente y de llamadas, calificaciones y comentarios proporcionados en la compra, publicaciones y
tweets a través de las redes sociales, la ubicación demográfica y los detalles del censo, presentan una imagen general
del cliente. La expansión de cada canal ofrece una mejor perspectiva.
Se puede acceder a un cliente conectado a través de las aplicaciones actualmente suscritas, lo que promueve
estrategias como anuncios publicitarios que son comunes en los sitios de redes sociales. Esta conexión también
aumenta la posibilidad de realizar ventas cruzadas de productos de interés que el mismo cliente expresó por otros
medios. El uso de técnicas de procesamiento del lenguaje natural (PNL) ayuda a identificar los términos clave y los
puntajes de similitud con el enfoque de la organización. Asimismo, el análisis de sentimiento brinda una opinión de
la expresión de interés del cliente. Puede ser a través de reseñas o incluso de una publicación social después de la
compra.
Segmentación de clientes
La segmentación de clientes tiene como objetivo tratar a cada cliente por separado y proporcionar
una vista personalizada de las ofertas. Uno de los enfoques más comunes incluye la agrupación de
la población del cliente en diferentes niveles según sus acciones (Hidalgo Solís, 2011,
https://bit.ly/3bvYgZ0).
En un entorno big data donde hay miles de millones de clientes, se prefieren los modelos de propensión porque
pueden manejar grandes cantidades de datos y ser precisos. Se logra un sentido de categorización de alto nivel
agrupando los datos en subconjuntos más pequeños. Las recomendaciones de productos (basadas en
Collaborative/Content filtering o un enfoque híbrido) son más efectivas cuando se conoce una imagen clara en la
segmentación. Con la información obtenida se puede proporcionar una mejor elección de preferencias.
También es posible identificar a los clientes a medida que llegan a la puerta. De este modo, se puede hacer un
seguimiento de los nuevos clientes para lograr la segmentación en tiempo real.
Compromiso y retención de clientes
El mejor ejemplo de compromiso proviene de los juegos. La encuesta de Boston Retail Partners sugiere que
alrededor del 87 % de los encuestados optaron por el plan de emplear la gamificación para mejorar la participación
de los clientes. Las comparaciones dinámicas de productos también harán que los clientes obtengan una sensación de
satisfacción en las compras.
Al igual que los modelos de propensión, los modelos de elevación ayudan a determinar si es probable que un cliente
vuelva si se envían cupones de descuento u ofertas especiales (el típico buy-3-get-1-free). El análisis de la población
y la selección de los clientes están dirigidos a aquellos que tienen la máxima probabilidad de estar interesados. Esto
también puede ayudar a los minoristas a impulsar la relación con el cliente si lanzan esquemas únicos una semana
antes de eventos especiales (como cumpleaños, aniversarios, festivales, etcétera).
Otro factor que es crucial para las empresas es el cálculo de la rotación. El churn/predicción de desgaste determina si
es probable que el cliente se agote (es decir, deje). Las decisiones sucesivas tomadas por un cliente (acción/inacción)
se modelan y en el siguiente paso se puede predecir si es probable que el cliente sea retenido o perdido.
La vinculación de los datos generados a través de las interacciones cliente-producto (pedidos, revisiones, clics a
páginas, etcétera) y las transacciones generadas por proveedores pueden ser utilizadas por los sistemas de gestión
para controlar el pedido y la distribución de productos a lo largo de la cadena de suministro extendida de una
compañía. Por medio de los análisis predictivos es posible observar las correlaciones y las relaciones entre los
elementos de datos y las decisiones de la cadena de suministro. De esta manera, se pueden tomar decisiones en base a
la demanda actual de un producto, la localidad de compras frecuentes, etcétera.
Los modelos que se crean mediante entrenamiento supervisado, generalmente, predicen la incertidumbre de la
demanda futura. Los modelos se mejoran de manera iterativa al reducir las tasas de error entre las realizaciones
predichas y reales de las demandas de los clientes. Las técnicas de reglamentos de asociación conducen a un mejor
control de inventario.
Los datos ya recopilados a lo largo de los años (o incluso, actualmente, en segundos) están a la espera de ser
analizados.
La disponibilidad de marcos y paquetes, tanto de propiedad como de código abierto, cuyo enfoque está aumentando
actualmente, proporciona una gestión y análisis eficientes de las cantidades masivas de datos. Esto implica:
Simplificación y desarrollo rápido de soluciones analíticas avanzadas utilizando tecnologías modernas
de generación de informes y aprendizaje automático / modelos;
La necesidad de más analistas de datos y científicos que ha llevado a muchos individuos a tomar
cursos de ciencias de datos, y que ahora están lo suficientemente equipados para la tarea;
Hasta hace una década, en las organizaciones la mayor parte del tiempo era dedicado al desarrollo del producto, la
configuración y el mantenimiento de la infraestructura para la implementación de aplicaciones y la recopilación de
datos. Sin embargo, actualmente la infraestructura está disponible en un minuto (gracias a los servicios basados en la
nube), el desarrollo y la implementación tienen un tiempo mínimo y los datos generados constantemente por los
clientes ahora se almacenan de forma segura.
Expandir y acomodar terabytes de datos ya no es una preocupación de costos debido a la disminución de los precios
de almacenamiento. Muchas organizaciones prefieren migrar a la arquitectura distribuida para que la velocidad
supere el almacenamiento.
LECCIÓN 2 de 2
Referencias
A lo largo de esta lectura se analizarán todos los aspectos relativos a la visualización de la información.
Para ello, será necesario que antes imagines la siguiente situación hipotética.
Una gran cadena de supermercados solicita tus servicios para crear todo el sistema de gestión de
informes necesario para llevar adelante sus tareas. Se necesitan tanto informes gerenciales como reportes
del nivel operativo. Debes tener en cuenta que la información se debe llevar en tiempo y formato
necesarios, según el nivel organizacional al que va dirigido.
Referencias
Visualización
Cada área de una empresa querrá acreditarse los logros cuando los cambios implementados den como resultado
mayores ventas, mayores tasas de conversión y clientes más felices. El equipo de marketing atribuirá el crédito a su
reciente campaña, el equipo de I+D a los nuevos productos que acaban de lanzar, y los ingenieros de redes sociales
creerán firmemente que su éxito se relaciona de manera directa con sus esfuerzos de desarrollo.
El examen, los resultados y el determinar quién realmente está contribuyendo al éxito del negocio, es información
importante si se quiere mantener la racha. Al descubrir quién contribuye más a los objetivos y cuáles de las campañas
está haciendo el truco, se podrán concentrar los esfuerzos en los equipos que obtienen mejores resultados y otorgarles
un trato preferencial sobre los recursos que necesitan.
Antes de los días de Internet, era muy difícil determinar qué funcionaba y qué no funcionaba en el negocio, y eso se
debía a que no se podían aislar variables al medir el éxito. No se podría decir, con la máxima seguridad, que la
"campaña de marketing X" resultó en un aumento del 30 % en las ventas o el "lanzamiento del producto Y" fue 50 %
mejor de lo que esperábamos debido a su nueva "característica Z".
Ahora, con Internet, se pueden aislar variables utilizando este nivel de precisión, ya que la web permite recopilar una
cantidad masiva de datos analíticos del cliente que pueden desglosarse, segmentarse y aislarse de acuerdo a cualquier
variable. Utilizando datos de análisis de clientes en línea, ampliamente disponibles y de bajo costo adquiridos, se
podrá:
Comparar rápidamente los datos acumulados con los datos históricos para identificar tendencias y
ubicar nuevos datos en contexto. Los números en bruto no cuentan toda la historia: sin datos históricos
nunca se sabrá si las ventas representan buenas o malas noticias, o si están alineadas con las
proyecciones de la empresa.
Determinar de dónde provienen los datos. Por ejemplo, definir si las ventas se distribuyen de manera
bastante uniforme entre un gran número de clientes, o si la mayor parte de las ventas se derivan de un
pequeño puñado de grandes consumidores. Al identificar a los principales clientes, no solo es posible
centrar los esfuerzos en retenerlos, sino que también se puede hacer un perfil de sus datos
demográficos y cambiar los esfuerzos de marketing para atraer a más personas como ellos.
Saber si una campaña de marketing particular produjo una tasa de conversión desproporcionadamente
grande (o pequeña) en comparación con otras. Una vez que se sepa cuál de los mensajes de marketing
produce el mayor rendimiento de la inversión, se pueden canalizar todos los recursos a esa campaña en
lugar de perder el tiempo, el dinero y la atención, impulsando los esfuerzos de bajo rendimiento.
Saber en qué punto se pierden clientes durante el embudo de ventas. Si se descubre que la mayoría de
los clientes potenciales perdidos están en la misma página de nuestro sitio web, se sabrá que la
optimización de esa página aumentará la tasa de conversión general.
Conocer si ciertas campañas de mercadeo resultan en mayores ventas de un producto sobre otro. Por
ejemplo, a menudo, una campaña de marketing atraerá a clientes que buscan comprar el producto X
pero no el producto Y. Esta forma de datos de análisis de clientes permitirá enfocar aun más las
campañas de marketing y embudos de ventas para maximizar la producción
Recolectados y utilizados adecuadamente, los datos, y el posterior análisis de clientes, permiten administrar y
desarrollar los esfuerzos de marketing con una gran cantidad de precisión. De este modo, se podrá conocer qué área
contribuye al éxito del negocio. Sino también a mejorar la salida del empleado de una manera previamente
impensable.
Figura 1. Customer analytics
Las herramientas de descubrimiento de datos basadas en la visualización permiten a los usuarios empresariales
mezclar fuentes de datos dispares para crear vistas analíticas personalizadas, con flexibilidad y facilidad de uso que,
simplemente, no existían antes. Los análisis avanzados se integran en las herramientas para respaldar la creación de
procesos interactivos, gráficos animados, así como en dispositivos móviles potentes como teléfonos inteligentes y
computadoras portátiles.
Los usuarios finales pueden ver los gráficos en los mismos dispositivos o, incluso, en dispositivos móviles más
pequeños como tabletas o, en casos limitados, teléfonos inteligentes.
Debido a su facilidad de uso e interfaces intuitivas, las herramientas de descubrimiento de datos, basadas en la
visualización, tienen como efecto facilitar el acceso a la información de las empresas.
Avanzar hacia un modelo de autoservicio para BI (business inteligence) puede reducir los costos y permitir que TI
(tecnología informática) pase más tiempo enfocándose en la construcción de soluciones innovadoras y desafíos
complejos de datos.
El autoservicio BI también permite a las empresas aprovechar las fuerzas de trabajo cada vez más móviles. Por
ejemplo, miembros de un equipo de desarrollo de productos pueden trabajar en remoto, y en el sitio pueden ver y
compartir fácilmente visualizaciones que exploran posibles defectos de productos o preferencias de los clientes.
La tendencia de trabajar con dispositivos propios permite que los usuarios puedan explorar fácilmente los datos,
descubrir tendencias y patrones y comunicar sus hallazgos a otros miembros del equipo y otras audiencias.
Permiten a los usuarios finales interactuar con los datos, a menudo en dispositivos móviles;
Compresión de datos en la memoria para permitir el manejo de grandes conjuntos de datos sin
aumentar los costos de hardware.
Optimización de soluciones para usar con dispositivos móviles con capacidad táctil.
LECCIÓN 2 de 3
Referencias
[Imagen sin título sobre customer analytics], (2013). Recuperado de http://www. coveridapp.com/?page_id=93
[Imagen sin título sobre diseño elegante e intuitivo], (2013). Recuperado de http:// www.coveridapp.com/?
page_id=93
LECCIÓN 3 de 3
Si tú eres el analista de front end y tu función es la de preparar una serie de informes para la
alta dirección debes conocer que ésta no tiene tiempo para ver tablas con números y analizar
su comportamiento. Debe ver información resumida, gráfica, altamente intuitiva.
Esta lectura es una introducción a la presentación de información.
Referencias
LECCIÓN 1 de 2
La idea de utilizar imágenes para comprender datos ha existido durante siglos, desde mapas y gráficos en el siglo
XVII hasta la invención del gráfico circular a principios del siglo XIX. Varias décadas más tarde, uno de los ejemplos
más citados de gráficos estadísticos es el que tuvo como protagonista a Charles Minard cuando trazó un mapa de la
invasión de Napoleón a Rusia. El mapa mostraba el tamaño del ejército, así como el camino de la retirada de
Napoleón de Moscú, y relacionaba esa información con las escalas de temperatura y tiempo para una comprensión
más profunda del evento.
Sin embargo, fue la tecnología la que realmente transformó la visualización de datos. Las computadoras permitieron
procesar grandes cantidades de datos a velocidades vertiginosas. Hoy en día, la visualización de datos se ha
convertido en una ciencia de rápida evolución que seguramente cambiará el panorama corporativo en los próximos
años.
¿Por qué es importante la visualización de datos?
Debido a la forma en que el cerebro humano procesa la información, usar diagramas o gráficos para visualizar
grandes cantidades de datos complejos es más fácil que leer detenidamente hojas de cálculo o informes.
La visualización de datos es una manera rápida y sencilla de transmitir conceptos de forma universal; se puede
experimentar con diferentes escenarios haciendo pequeños ajustes.
¿Cuál es el impacto que la visualización de datos ha tenido en el mundo corporativo y qué está reservado para el
futuro?
La visualización de datos va a cambiar la forma en que nuestros analistas trabajan con los datos. Se espera que a
través de ella se pueda responder a los problemas más rápidamente. Los analistas tendrán que ser capaces de buscar
más información: ver los datos de forma diferente, con más imaginación. La visualización de datos promoverá esa
exploración de datos creativos.
Independientemente de la industria o el tamaño, todos los tipos de empresas están utilizando la visualización de datos
para ayudar a dar sentido a su información.
Referencias
[Imagen sin título sobre Equipo de BI trabajando en visualización de datos]. (2016b). Recuperada de
http://www.ingeniovirtual.com/wp-content/uploads/trabajando-con-datos.jpg
[Imagen sin título sobre Una serie de iconografías representativas de diferentes tipos de diagramas]. (2016c).
Recuperada de http://www.ingeniovirtual.com/wp-content/uploads/iconografias-de-diagramas.jpg
Referencias
LECCIÓN 1 de 4
La visualización de datos es un término general que describe cualquier esfuerzo para ayudar a las
personas a comprender la importancia de los datos, colocándolos en un contexto visual. Los
patrones, las tendencias y las correlaciones que pueden pasar desapercibidos en los datos basados
en texto pueden exponerse y reconocerse más fácilmente con el software de visualización de
datos.
Las herramientas de visualización de datos actuales van más allá de los gráficos y cuadros
estándares utilizados en las hojas de cálculo de Microsoft Excel, y muestran los datos de formas
más sofisticadas con infografías, tacómetros, mapas geográficos, mapas de calor y gráficos
detallados de barra o torta. Las imágenes pueden incluir capacidades interactivas, lo que le
permite a al usuario manipularlas o profundizar en los datos para consultas y análisis. También se
pueden incluir indicadores diseñados para alertar al usuario cuando se actualizan los datos o se
producen condiciones predefinidas.
Las herramientas de visualización de datos han sido importantes para democratizar los datos y el
análisis, y poner a disposición de los trabajadores las ideas basadas en datos para toda la
organización. Por lo general, son más fáciles de usar que el software de análisis estadístico
tradicional.
Las herramientas de visualización de datos se pueden usar de varias formas. El uso más común
hoy en día es como herramienta de informes de inteligencia empresarial (Business Intelligence,
BI). Los usuarios pueden configurar herramientas de visualización para generar paneles de control
automáticos que rastrean el rendimiento de la empresa a través de indicadores clave de
rendimiento (Key Performance Indicators o KPIs) e interpreten visualmente los resultados.
(Rouse, 2020, https://searchdatacenter.techtarget.com/es/definicion/Visualizacion-de-datos).
Un panel de inteligencia empresarial es una herramienta de visualización de datos que muestra el estado actual de las
métricas y los indicadores claves de rendimiento (KPI) para una empresa. Los paneles consolidan y organizan
números, métricas y, en ocasiones, tablas de puntuación de rendimiento en una sola pantalla. Se pueden adaptar para
un rol específico y mostrar métricas dirigidas a un único punto de vista o departamento. Las características esenciales
de un producto de tablero de BI incluyen una interfaz personalizable y la capacidad de extraer datos en tiempo real
de múltiples fuentes.
SAP, Oracle y Microsoft se encuentran entre los proveedores de paneles de inteligencia empresarial. Los paneles de
BI también se pueden crear a través de otras aplicaciones comerciales como Excel.
Referencias
Visual discovery
Referencias
LECCIÓN 1 de 4
Visual discovery
La visualización y el análisis exploratorio de datos para usuarios empresariales (conocido como descubrimiento de
datos) se han convertido en el tema de inteligencia empresarial y análisis más novedoso en el mercado actual.
Los profesionales de BI califican la importancia de esta tendencia y su creciente adopción en los últimos años.
El descubrimiento de datos no es una herramienta; se constituye como un proceso empresarial orientado al usuario
que permite detectar valores y patrones atípicos a través de la navegación visual de datos o de la aplicación de
análisis avanzados guiados. El descubrimiento es un proceso iterativo que no requiere una amplia creación de
modelos iniciales. Lo agrupamos en tres categorías principales:
preparación de datos;
análisis visual;
análisis avanzados.
El descubrimiento de datos requiere habilidades para comprender las relaciones de datos y el modelado de datos, así
como también para utilizar el análisis de datos y las funciones de análisis avanzadas guiadas para revelar ideas.
La integración de datos y la preparación de datos (es decir, la integración de datos para usuarios comerciales) ayudan
a los usuarios empresariales a conectarse a fuentes de datos externas y empresariales relevantes (por ejemplo, las
proporcionadas por los socios). Como los datos se vuelven cada vez más complejos, los usuarios requieren funciones
flexibles para poder acceder de manera eficiente y preparar los datos para su análisis.
Las visualizaciones hacen uso de las capacidades de reconocimiento de patrones de nuestro cerebro para digerir
información de un vistazo o, incluso, de manera previa. Los usuarios son mejores para encontrar ideas y detectar
valores atípicos si los datos se presentan en cuadros, y gráficos en una página, en lugar de enterrarse en tablas de
datos que abarcan varias páginas.
El análisis visual es una característica importante que buscan cada vez más las empresas que requieren formas más
eficientes para que los responsables de la toma de decisiones puedan absorber y actuar sobre los datos.
Además, las funciones analíticas avanzadas guiadas proporcionan información estadística sobre los datos que los
usuarios pueden emplear para un análisis de datos más sofisticado y orientado a patrones. Es un desafío proporcionar
funciones estadísticas avanzadas listas para usar para usuarios comerciales y ofrecer resultados adecuados sin la
necesidad de escribir código.
La guía que los usuarios pueden esperar de las principales herramientas de descubrimiento de datos actuales no solo
ha permitido el acceso a funciones avanzadas, sino también a sugerencias automáticas de algoritmos adecuados para
abordar ciertos problemas de negocios y evaluaciones de los resultados de diferentes algoritmos.
Esta área ha recibido mucha inversión, tanto de vendedores como de clientes, en los últimos años. Los resultados de
investigación de mercado confirman la importancia del descubrimiento de datos.
Figura 1: Data Discovery.
Sorprendentemente, los usuarios de TI, los consultores y los proveedores otorgan más importancia al descubrimiento
de datos que los usuarios comerciales reales.
El porcentaje de encuestados que dijo usar el descubrimiento de datos experimentó un aumento significativo entre
2012 y 2016. Otro porcentaje planea implementar casos de uso de descubrimiento de datos en el futuro, lo que lleva a
la conclusión de que un gran porcentaje del mercado dependerá de su herramienta de inteligencia comercial para
abordar este caso de uso en los próximos años.
La segmentación de clientes tiene como objetivo tratar a cada cliente por separado y proporcionar una vista
personalizada de las ofertas. Uno de los enfoques más comunes incluye la agrupación de la población del cliente en
diferentes niveles según sus acciones.
Comúnmente, se cree que el descubrimiento de datos es el petróleo del futuro ya que proporciona un alto valor para
la innovación y el éxito.
Este nuevo enfoque basado en datos pretende ir más allá de la mera presentación de informes y la supervisión del
rendimiento de la organización, que ha sido el núcleo de las iniciativas tradicionales de BI. El objetivo es explotar el
valor total de los datos para no solo mejorar la toma de decisiones, sino también para tener un impacto directo en la
optimización de los procesos comerciales y para alimentar nuevos modelos comerciales.
La gran demanda de herramientas de descubrimiento de datos refleja un gran cambio en el mundo de BI hacia un
mayor uso de datos y la extracción de conocimientos, y patrones a partir de los datos.
Esto significa que las decisiones operativas y la planificación a largo plazo se basan en datos y perspectivas. Para que
esto funcione, los empleados necesitan información relevante y confiable de manera oportuna.
La digitalización exige la democratización del uso de datos para permitir que tantos empleados como sea posible
revelen información sobre datos corporativos o externos. Para garantizar un ciclo cerrado de uso de la información,
las herramientas de descubrimiento de datos deben considerarse, en primer lugar, como complementarias del BI
tradicional.
Conceptos tales como la gobernanza son importantes para garantizar la reutilización de los conocimientos adquiridos
a partir del proceso de descubrimiento de datos y las soluciones orientadas al usuario son necesarias para
proporcionar a los usuarios comerciales un kit de herramientas adecuado para el análisis de datos.
Debido a que el software de descubrimiento de datos cumple estas
demandas mucho mejor que la mayoría de los paquetes de software de
inteligencia de negocios tradicionales, no sorprende que actualmente
esté captando la atención de los profesionales de BI y que las
principales suites de BI ahora se estén ampliando para satisfacer estos
requisitos.
LECCIÓN 4 de 4
Referencias
http://www.informationbuilders.com/products/webfocus/data-discovery
https://www.platfora.com/wp-content/uploads/2015/06/Top-Panel-image-1.png
Visual analytics y big data
La empresa en la que te desempeñas como analista de datos contrata a un proveedor para que
haga predicciones acerca del comportamiento de sus clientes. El proveedor te devolverá un
set de datos con las probabilidades de que el cliente regrese y efectúe una compra. Es tu tarea
segmentar las bases y presentar esta información gráficamente para que los altos mandos de
la compañía tomen las acciones adecuadas.
Referencias
Visualización
Nunca antes en la historia del mundo se han producido tantos datos en tan poco tiempo. Los teléfonos inteligentes,
las redes sociales y los dispositivos móviles son responsables de gran parte de esta producción, pero también el
número, cada vez mayor, de cámaras de seguridad, satélites, etiquetas, sensores y redes inalámbricas. Se necesitan
nuevas formas de almacenar datos y nuevas arquitecturas de indexación como una cuestión urgente. Bajo el liderazgo
de los principales jugadores de Internet (Google, Facebook, Amazon, Twitter, etc.), los procesos de almacenamiento
de datos se han adaptado al crecimiento de los volúmenes de datos que se almacenarán. Las técnicas de
administración de bases de datos NoSQL (no solo SQL) superan las actuales soluciones de administración de bases
de datos SQL y están impulsando el surgimiento de un enfoque completamente nuevo para las arquitecturas de bases
de datos.
Si sabemos cómo se estructuran los datos, los procesos estadísticos se pueden utilizar para muestrear los conjuntos de
datos y sacar conclusiones de una población más pequeña sin la necesidad de un análisis exhaustivo de las
cantidades, a menudo significativas, de datos disponibles. Esto podría denominarse análisis impulsado por hipótesis,
ya que se supone que ciertos aspectos de la población analizada son verdaderos desde el principio.
Figura 1: Elementos de una infografía.
Big Data, con sus vastos volúmenes de datos, es en gran medida inútil sin la funcionalidad de análisis y presentación
de datos que se encuentra en las herramientas de análisis visual. Piensa en lo difícil que es detectar anomalías o
tendencias en filas y columnas interminables de datos de hoja de cálculo. Las herramientas analíticas visuales
resuelven ese problema de sobrecarga de datos.
Big Data es un tema de moda en la tecnología de la información en este momento. Muchos, en la suite ejecutiva,
están empezando a ver que Big Data abre posibilidades transformadoras para productos, servicios y mercados. Esta
comprensión ha provocado inversiones masivas en software para análisis visual e inteligencia de negocios, así como
servicios relacionados que, a menudo, están basados en la nube. Las ventas de este software crecerán
significativamente en el futuro.
El análisis visual es un componente del software de inteligencia empresarial que hace hincapié en:
Las visualizaciones son valiosas porque muestran una gran cantidad de datos en un formato visual fácil de entender
que funciona bien para nuestras mentes visuales.
Algunas organizaciones han creado una importante herramienta de software y realizado inversiones de desarrollo
para desplegar una rica biblioteca de informes de análisis de datos reutilizables, donde el usuario final puede variar
dinámicamente los criterios de selección de datos. Los principales ejemplos son SAP Crystal Reports y Oracle
Reports.
ofrecen resultados confiables y consistentes ya que los informes son cuidadosamente desarrollados y
probados;
Sin embargo:
no son de autoservicio;
requieren habilidades de desarrollo de software para mejorar. Por lo tanto, su éxito depende
completamente de la capacidad de respuesta del departamento de TI;
requieren mantenimiento de software cuando se actualizan las versiones de las aplicaciones
subyacentes;
se ahogarán cuando haya grandes volúmenes de datos o crezca la cantidad de fuentes de datos;
tienden a proliferar con el tiempo, ya que se crean muchas versiones con pequeñas diferencias.
LECCIÓN 5 de 7
Todos hemos escuchado que Excel es la herramienta líder para el análisis de datos. Se usa ampliamente y con éxito
en organizaciones pequeñas con aplicaciones generalmente primitivas, herramientas simples y volúmenes de datos
modestos. Excel también se usa ampliamente como una poderosa herramienta de productividad personal dentro de
muchas organizaciones más grandes donde la capacidad de respuesta del departamento de TI es un problema.
Referencias
https://es.dreamstime.com/fotograf%C3%ADa-de-archivo-libre-de-regal%C3%ADas-conjunto-de-los-elementos-de-
infographic-image22017387
https://www.shutterstock.com/es/image-illustration/world-map-mercator-projection-15180871
LECCIÓN 7 de 7