







Prepara tus exámenes y mejora tus resultados gracias a la gran cantidad de recursos disponibles en Docsity
Gana puntos ayudando a otros estudiantes o consíguelos activando un Plan Premium
Prepara tus exámenes
Prepara tus exámenes y mejora tus resultados gracias a la gran cantidad de recursos disponibles en Docsity
Prepara tus exámenes con los documentos que comparten otros estudiantes como tú en Docsity
Los mejores documentos en venta realizados por estudiantes que han terminado sus estudios
Estudia con lecciones y exámenes resueltos basados en los programas académicos de las mejores universidades
Responde a preguntas de exámenes reales y pon a prueba tu preparación
Consigue puntos base para descargar
Gana puntos ayudando a otros estudiantes o consíguelos activando un Plan Premium
Comunidad
Pide ayuda a la comunidad y resuelve tus dudas de estudio
Descubre las mejores universidades de tu país según los usuarios de Docsity
Ebooks gratuitos
Descarga nuestras guías gratuitas sobre técnicas de estudio, métodos para controlar la ansiedad y consejos para la tesis preparadas por los tutores de Docsity
big data material especifico y mejorado de grnase datos xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
Tipo: Transcripciones
1 / 13
Esta página no es visible en la vista previa
¡No te pierdas las partes importantes!
Todos estos inconvenientes debían solucionarse en un tiempo que permitiera sacar un beneficio a la información existente, para realmente ser de utilidad. Map/Reduce, fue la solución que generaron entre 2003 y 2004. Consiste en un modelo de programación para dar soporte a la computación paralela sobre grandes colecciones de datos en grupos de computadoras. Es decir, Map/Reduce maneja la complejidad del trabajo en clúster (un clúster es un conjunto de máquinas que trabajan de manera coordinada en la solución de un problema) gracias a sus principales características:
A partir del año 2007 , se comenzó a extender el uso del Big Data de manera generalizada en el mundo empresarial y de negocios para el tratamiento de grandes volúmenes de datos. En 2008 aparece Cloudera. Esta compañía la fundan un antiguo ejecutivo de Oracle, y tres ingenieros que provienen de las empreas Google, Yahoo! y Facebook. Doug Cutting se une al proyecto un año más tarde. La clave: un software accesible Una gran parte del software que se utiliza en las plataformas de tratamiento masivo de datos es Open source , es decir, que no hay que pagar licencias por ello. Esto ha sido clave para la expansión de esta tecnología. La barrera de las licencias que antes imponían las grandes corporaciones se terminó y la tecnología está al alcance de cualquiera. LAS V´S QUE DEFINEN BIG DATA La clave del Big Data es dar respuesta a las tres grandes V. Doug Laney fue el primero que definió el reto de las tres V: Volumen, Velocidad y Variedad.
Este concepto está directamente relacionado con el Big Data y hace referencia a la cantidad de datos que tenemos que manejar. Para hacernos una idea del incremento de data disponible en los últimos años veamos las siguientes cifraras: En 2008 , entre todas las CPU del mundo se procesaron 9,57 zettabytes de información, lo que significan 9.570.00 0 .00 0. 0 00 gigabytes (9,57 billones de gigabytes). En 2009 , la compañía McKinsey es la autora de “La próxima frontera para la innovación y productividad ”, en la que cifra que una compañía americana de aproximadamente 1000 empleados almacenará aproximadamente 200 terabytes de información al año.
La información puede clasificarse en diferentes tipos de datos: Aunque estas son las tres primeras V’s según ha pasado el tiempo se han aceptado otras igualmente relevantes:
Cuando operamos con muchas fuentes que generan gran cantidad de datos a gran velocidad, es lógico asegurar el grado de veracidad que tienen para así conseguir una maximización de los beneficios en su explotación. Es decir, no tiene mucho sentido tratar datos obtenidos a través de 5G y que la información no sea veraz por tener una gran distorsión. Esto nos daría como resultado un producto que no cumple con las expectativas. Por esta razón, es necesario:
1. Realizar una limpieza de los datos. 2. Asegurar la fiabilidad de las fuentes de información. La fiabilidad es más o menos importante en función del negocio, pasando de ser crítica a no vital en función de qué aplicación concreta estemos analizando.
La última “V” es el valor. A pesar de ser un software O pen Source, poner en marcha toda esta infraestructura resulta bastante caro. Por ello, hay que asegurar que el proyecto genera valor para la compañía. Un proceso para certificar esto es medirlo. Dependerá de cada caso concreto, considerándose indispensable generar un caso de negocio (Business case) antes de iniciar un nuevo proyecto de Big Data. Si no, existe el riego de que las expectativas nunca se cumplan. “Es imposible cumplir con lo que no se conoce”.
CONCEPTOS IMPORTANTES Relacionado con el concepto de Big Data hay dos ejes de actuación importantes. El primero, maneja y almacena los datos de manera masiva; y el segundo la parte analítica, que tiene como objetivo extraer conocimiento de los datos, lo cual permite una toma de decisión basada en datos. El manejo de los datos masivos se ha ido viendo a lo largo del documento, así que a continuación se explicará la parte analítica. Análisis de datos: La analítica avanzada está muy unida al estudio de los datos y a una rama de la inteligencia artificial, el aprendizaje automático (Machine Learning). Esta consiste en la suma del tratamiento masivo de información conjunto con la aplicación de algoritmos de aprendizaje automático de las máquinas. La idea está clara, una vez que hemos solucionado los inconvenientes de infraestructura, podemos analizar los datos de forma masiva con el fin de encontrar patrones, definir modelos y responder preguntas. Business Intelligence vs Big Data Una de las diferencias más importantes entre Business Intelligence (BI) y Big Data es que en BI preguntamos a los datos qué ha pasado y buscamos en ellos el por qué, algo parecido a un estudio forense que explique qué ocurrió y por qué. Estos datos, por ejemplo, nos sirven para la elaboración de informes. En el caso de Big Data, preguntamos a los datos qué es lo que va a ocurrir con mayor probabilidad. Es decir, aplicamos técnicas de gestión y almacenamiento de los datos para tomar mejores decisiones y movimientos estratégicos de negocio para intentar anticiparnos al futuro. El Data Scientist El perfil del científico de datos o Data Scientist es el responsable de analizar y cuestionar el gran volumen de datos obtenidos. Es la persona que limpia y asimila los datos para extraer su Valor mediante la aplicación de técnicas matemáticas, estadísticas y de aprendizaje automático. Este perfil es el que contestará a las preguntas de los directivos de una empresa, incluso a aquellas preguntas que no sabían que tenían. Lo importante, es definir qué pregunta le quiero hacer a mis datos, para que los científicos de datos faciliten la respuesta.
Algunas de las tareas que realiza un científico de datos son: Por otra parte, las actividades que hace un científico de datos son:
1. Definición de la pregunta a contestar o caso de negocio (Negocio). 2. Identificación de las fuentes de datos. 3. Entender los datos. 4. Extraer los datos relevantes. 5. Construir los conjuntos de datos en los que basarse. 6. Limpiar los datos. **7. Estudios estadísticos.
Es significativo tener personas de soporte en la organización que ayuden al científico de datos para obtener la máxima productividad. En la organización ¿tenemos expertos en ETL, en bases de datos y expertos integradores de la información? Es importante asignar cada actividad al experto correspondiente para poder tener la mayor productividad posible. En el siguiente enlace Michael Gualtieri de Forrester explica cuáles son las habilidades fundamentales de un científico de datos. Si lo necesitas, recuerda activar la traducción automática disponible en el vídeo. TIPOS DE ESTUDIOS En este apartado se comenta con más detalle los tipos de estudio que un científico de datos debe poder realizar. Son seis tipos, y están ordenados por nivel de complejidad, entendiendo que lo lógico es afrontar y conocer los primeros para ir obteniendo información de valor: Descriptivos Como indica su nombre, describe las características de los datos que forman parte del estudio (también llamadas variables) con el objetivo de estar al tanto de los datos. En este primer momento se aplican técnicas descriptivas de análisis estadístico tanto uni- variable como bivariable. Exploratorios Encuentran y establecen conexiones entre los datos. Buscamos correlaciones, linealidad y relaciones entre las variables. Es importante resaltar que correlación no implica causalidad por lo que estos ‘modelos’ no son buenos para generalizar o predecir. Inferenciales Tienen como objetivo probar teorías, se ven muy afectadas por la muestra de los datos (no contamos con una muestra de todo el mundo, solo una parte) y su incertidumbre. Es el objetivo de los modelos estadísticos. Predictivos La idea es basarnos en los datos que tenemos para predecir el futuro, es difícil, debemos encontrar las variables adecuadas, el modelo y la técnica. Causales Tratan de explicar que ocurre a una variable cuando cambias otra. Suelen requerir el uso de estudios aleatorios. Mecanísticos Entender los cambios exactos en las variables que provocan cambios en otras variables. Son realmente complejos y requieren mucha especialización estadística y física (en donde este tipo de modelos son más habituales).
INTRODUCCIÓN AL BIG DATA