NETFLIX Y SU EXITO EN EL BIG DATA

Con series como House of Cards, Netflix demuestra el poder del Big Data para crear el contenido de sus series. La estadística nos...

sábado, 29 de abril de 2017

CASOS DE ÉXITO EN LA APLICACIÓN DEL BIG DATA

Resultado de imagen para big data

El Big Data está cambiando el mercado competitivo. Los que están en condiciones de aprovecharse de ello a menudo llegan antes al mercado con productos y servicios que están mejor adaptados a las necesidades y deseos de los clientes. Una encuesta de 2014 realizada por Gartner sugería que el 73% de las empresas encuestadas había invertido (o tenía previsto invertir) en tecnologías de datos masivos para los siguientes 24 meses, frente al 64% que decía lo mismo en 2013. La mejora de la experiencia del cliente y la eficiencia de los procesos de negocio eran las prioridades citadas por los encuestados en relación al Big Data.
Las mejoras en la experiencia del cliente se están sucediendo tanto online como offline, con los datos que proceden de los smartphones, las aplicaciones móviles, los sistemas de punto de venta y las webs de comercio electrónico. Con la capacidad de recopilar y analizar más datos (y más tipos de datos) que nunca, las empresas están en una posición sin precedentes para cuantificar lo que funciona, lo que no funciona, y porqué. Y, los que son más ágiles en el tema están ajustando sus estrategias de negocio para aumentar su cuota de mercado. Cuando se ejecuta bien, las mejores en la experiencia del cliente pueden ayudar a fidelizar al usuario e impulsar los ingresos. Por otra parte, si una empresa decide hacer caso omiso de lo que los datos indican, puede perder clientes y negocios en detrimento de un competidor más ágil que sepa interpretar bien los datos.
Mejorar en los procesos de la empresa sigue pasando por centrarse en ganar eficiencia, ahorrar costes y aumentar la calidad del producto o servicio. En este sentido, el Big Data puede proporcionar más (y más profundos) conocimientos que los sistemas tradicionales gracias a que hay más datos y más fuentes para analizar.
Si una empresa está tratando de aumentar sus ingresos, mejorar los tiempos necesarios para poner sus productos en el mercado, optimizar su fuerza de trabajo o realizar cualquier otro tipo de mejoras operacionales, el objetivo debe ser convertirse en una organización más proactiva y menos reactiva, para lo cual conviene recurrir al uso del análisis predictivo de datos masivos. Claro que hay muchas maneras de mejorar tu negocio utilizando tecnologías Big Data, por lo que lo mejor es conocer algunos casos de éxito como los que os mostramos a continuación.

Reducir el tiempo de ensayos


La introducción de nuevos productos o servicios implica a muchas etapas del ciclo de producción de las empresas, algunas de los cuales son más fáciles de acelerar que otras. Durante las últimas dos décadas, los fabricantes de medicamentos han estado utilizando simulaciones de ensayos clínicos para acelerar el aprendizaje, reducir los costes y limitar los inconvenientes para los pacientes que participan en los ensayos. Pues bien, hoy día, utilizando los beneficios de las tecnologías Cloud Computing y Big Data las simulaciones de ensayos clínicos se puede hacer más rápido y de forma más beneficiosa, tanto para pacientes como fabricantes.
Gracias al Big Data farmacéutica estadounidense Bristol-Myers Squibb redujo en un 98% el tiempo que se tarda en ejecutar simulaciones de ensayos clínicos mediante la implementación de un entorno de red alojado internamente en los sistemas cloud de AWS (Amazon Web Services). Además, la compañía también ha sido capaz de optimizar los niveles de dosificación de los medicamentos, hacer que éstos sean más seguros y que los ensayos clínicos requieran un menor número de muestras de sangre de los pacientes. Dado que el tema de los ensayos clínicos se refieren a datos muy sensibles, Bristol-Myers Squibb construyó una pasarela encriptada para conectarse a los sistemas de Amazon y se configuró un entorno de nube privada virtual para aislar los datos y mantenerlos en privado.
Antes de pasar a la nube, los científicos utilizaban un entorno interno compartido, por lo que fueron necesarias 60 horas para la migración, teniendo en cuenta que la empresa tiene cientos de puestos de trabajo. Ahora que cada científico tiene un entorno dedicado, el sistema puede procesar 2.000 instrucciones en poco más de una horas sin causar impacto en los otros miembros del equipo. Como resultado de estos cambios, Bristol-Myers Squibb fue capaz de reducir el número de sujetos necesarios para un ensayo clínico de un producto pediátrico de 60 a 40, al tiempo que acortaba la duración del estudio en más de un año.

Optimizar la fuerza de trabajo


Algunos departamentos de recursos humanos están usando el análisis de talento y de los datos masivos para reducir costes y gestionar eficazmente los problemas relacionados con la contratación de personal. Los datos les permiten seleccionar a nuevos empleados asegurándose de que son la mejor opción para la empresa, reducir la rotación del personal, entender las habilidades de la mano de obra existente en su empresa y determinar el talento que la organización necesita para seguir adelante.
La utilización por parte de Xerox del Big Data para mejorar la tasa de desgaste en sus centros de llamadas logró una reducción del 20%. Para hacerlo, la empresa tuvo que entender qué es lo que estaba influyendo en su volumen de negocio y determinar formas para mejorar la participación de los empleados.

Mejorar el rendimiento financiero


Los departamentos de finanzas corporativas se están moviendo más allá de informes periódicos y Business Intelligenceutilizando el Big Data para reducir los riesgos y los costes, identificar oportunidades y mejorar la precisión de las predicciones financieras. En concreto, están usando los datos para identificar a los clientes de riesgo, hacer un mejor seguimiento de los proveedores, impedir el fraude, localizar fugas de ingresos, y conocer nuevos modelos de negocio más eficientes.
Una reciente joint venture entre The Weather Company e IBM permitirá gestionar mejor el impacto del clima sobre el rendimiento de un negocio. Y es que, según afirma la empresa de meteorología, el clima tiene un impacto económico de medio billón de dólares al año sólo en los EEUU.
Los datos sobre climatología están siendo recogidos por más de 100.000 sensores y aviones meteorológicos, así como millones de teléfonos inteligentes, edificios y vehículos en movimiento. Esos datos se combinan con los de otras fuentes para lograr 2,2 millones de puntos de pronóstico únicos, y un promedio de más de 10 mil millones de pronósticos del tiempo en un día activo. Datos que las empresas dirigidas al consumidor final pueden utilizar para ajustar sus necesidades de personal y sus cadenas de suministro, las energéticas para mejorar su oferta y conocer la previsión de la demanda, y las compañías de seguros para advertir a los titulares de pólizas que incluyan daños por condiciones climáticas severas (logrando con ello minimizar la posibilidad de daños en sus coches en caso de una tormenta de granizo, por ejemplo).

Aumentar la fidelidad del cliente


Los clientes de hoy en día son más exigentes y volubles que nunca. Mantener o aumentar la cuota de mercado exige a las empresas entender a sus usuarios tanto como sea posible, mejorar continuamente sus productos y servicios y estar dispuestos a adaptar sus modelos de negocio para reflejar las necesidades reales de sus clientes.
Avis Budget, empresa dedicada al alquiler de vehículos, se ha comprometido a hacer todo esto. Para ello, se implementó una estrategia integrada destinada a aumentar la cuota de mercado que ha resultado en cientos de millones de dólares de ingresos adicionales. La iniciativa pretendía lograr valor a través de la implicación de los clientes, mediante su segmentación y la oferta de incentivos por niveles para mejorar su fidelidad. Para ello, su socio tecnológico CSC aplicó un modelo que calculaba el valor de la base de datos de clientes de Avis y, a continuación, lo validaba mediante una campaña de marketing multicanal con análisis simultáneo.
Los datos de valoración del cliente ahora se combinan con otros, incluyendo el historial de alquiler, los problemas del servicio, la demografía, la afiliación corporativa y la retroalimentación de los clientes. Además, Avis también está recopilando y analizando los datos de medios sociales. Para ello cuenta con un equipo de especialistas en redes sociales que responden a las menciones de la marca. La compañía ha actualizado recientemente su página web para mejorar aún más la experiencia del cliente, y está utilizando el Big Data para pronosticar la demanda regional en cuanto a necesidades en sus flotas de vehículos y la política de precios.

PUBLICADO POR: VENICE AQUINO MORALES

viernes, 28 de abril de 2017

Big science ¿Transformar los datos en conocimiento?



"Oracle ayuda a los retailers a transformar los datos en conocimiento con sus nuevos servicios Cloud.

Oracle Retail Science Cloud Services y Oracle Retail Insights Cloud Services ayudan a los minoristas a mejorar las operaciones y la experiencia del cliente con decisiones mejores y basadas en los datos."

La mayoría de minoristas están de acuerdo en que sus datos operacionales y de clientes contienen información valiosa y única, pero muchas veces no son capaces de extraer esas conclusiones debido a la inversión de capital, la infraestructura o los empleados necesarios para mantener entornos de análisis de “Big Data”. Actualmente Oracle Retail permite a los minoristas saltarse esas preocupaciones sobre la complejidad tecnológica y el coste ofreciendo soluciones analíticas y científicas en la nube para el sector retail.

“Los minoristas están ahogados en datos, pero realmente necesitan ayuda para convertirlos en algo útil”, explica Leslie Hand, vicepresidenta de IDC Retail Insights. “Desgraciadamente el coste es alto, incluyendo la adquisición de la tecnología, el talento y la infraestructura necesarias para implementar el tipo de soluciones científicas y analíticas para retail que puedan ofrecer un retorno de la inversión en datos, espacio e inventario. Ha sido difícil que las empresas dediquen parte de sus limitados recursos a esto, a pesar del enorme retorno potencial de esta inversión. Y aquí es donde las soluciones cloud pueden tener un tremendo impacto”.


Con el lanzamiento de Retail Science Cloud Services y Oracle Retail Insights Cloud Services, Oracle refuerza su posición como la única empresa que ofrece una suite de servicios Cloud completa, integrada y basada en estándares en las tres capas de la nube —infraestructure (IaaS), plataforma (PaaS), y SaaS—.


“Oracle Retail Science Cloud Services y Oracle Retail Insights Cloud Services son una oportunidad para que los minoristas puedan conseguir un conocimiento más profundo sobre las preferencias únicas y los patrones de compra de sus clientes”, asegura Jill Puleri, senior vice president and general manager de Oracle Retail. “Ofreciendo retail science como un servicio cloud, Oracle Retail ayuda a sus clientes a reducir el time-to-value, simplificar la estructura TI y lograr un TCO más bajo y más predecible”.





Oracle Retail Science Cloud ayuda a los minoristas a racionalizar y mejorar las operaciones.


Los servicios Oracle Retail Science Cloud permiten a los minoristas mejorar de forma drástica las decisiones operativas que tengan mayor impacto en su rendimiento empresarial, como distribuir lo que se vende en diferentes establecimientos y cómo debería ser vendido, publicitado, presentado y valorado.

Con Oracle Retail Science Cloud Services Oracle permite a los retailers conseguir los beneficios de la mejor ‘big science’ de Oracle, al mismo tiempo que ayuda a reducir el time-to-value y a reducir el coste total de la propiedad. Los serviciosOracle Retail Science Cloud incluyen:


  • Oracle Retail Advanced Clustering Cloud Service: identifica patrones únicos entre los datos recogidos para crear clusters centrados en el cliente y targetizados que puedan usarse en el proceso de planificación empresarial. .
  • Oracle Retail Customer Decision Trees y Demand Transference Cloud Service: se trata de árboles de decisión segmentados por clientes, utilizando el nivel disponible de datos transaccionales y entendiendo el valor incremental de todos los artículos.
  • Oracle Retail Assortment y Space Optimization Cloud Service: ayuda a alinear el surtido del retailer con la demanda, maximizando las oportunidades y por tanto mejorando márgenes e incrementando la satisfacción del cliente.

 Publicado por: Viridiana Tello Vazquez.

jueves, 27 de abril de 2017

EJEMPLOS REALES DEL USO DE BIG DATA






Big Data y Data son dos de las palabras más de moda en el ecosistema de la innovación y el emprendimiento. Sin embargo, ¿conocemos casos reales y concretos en los que se haya utilizado? Este artículo trata de mostrar algunos de estos ejemplos, en áreas tan diversas como el deporte, la política o la economía. Desde BBVA, hasta Obama, pasando por el béisbol o incluso la Semana del Orgullo Gay en Madrid, el uso de datos y su análisis para predecir tendencias y comportamientos está ya entre nosotros y promete quedarse mucho tiempo.

En los últimos años, encontramos algunos ejemplos muy llamativos en el uso y análisis de Data y Big Data que, de alguna manera, sirven tanto para crear nuevos productos, como para predecir comportamientos y tendencias, optimizar acciones de marketing, etc. Destacamos los siguientes:



LA REELECCIÓN DE OBAMA

Tras su primer mandato, el presidente de los EEUU, Barack Obama, decidió utilizar Big Data para su reelección en 2012. Un centenar de personas trabajaron en el departamento de analítica de la campaña. 50 estaban fijos en las oficinas centrales, otros 30 se movilizaron a lo largo y ancho de las distintas sedes del país, y 20 estaban única y exclusivamente centrados en la interpretación de los datos recibidos. Tras un primer análisis, los esfuerzos de la campaña se enfocaron en tres aspectos: registro (recoger datos de los votantes convencidos), persuasión (dirigirse a los dudosos de una forma eficaz) y voto del electorado (asegurarse de que los partidarios fueran a ejercer el voto sí o sí). Y, por primera vez, los tres equipos más importantes de las campañas electorales: el de campo, el digital y el de comunicación, trabajaron con una estrategia unificada con los respectivos datos de cada uno. El motor de todo, la plataforma inteligente utilizada fue HP Vertica. Entre las acciones más efectivas que permitía esta plataforma estaban: recoger datos a pie de campo y realizar un feedback muy rápido via notificaciones email por parte del equipo online (se mejoraba en tiempo y eficiencia); o detectar los nichos en los que funcionaría mejor la publicidad en TV cruzando datos de los votantes con otros demográficos, audiencias, precios de publicidad, programas... (se mejoró en impacto y segmentación). Con su analítica, el equipo de Obama optimizó la comunicación y mejoró la respuesta del electorado afín, permitiendo no malgastar recursos, tiempo y dinero en los votantes que no eran partidarios de su partido. 



BBVA: MOBILE WORLD CONGRESS Y TURISMO MADRID

BBVA también ha realizado diversas pruebas de Big Data, en las que además, se ha dado importancia a su visualización para permitir que sean más comprensibles a ojos de un espectador neófito. En Barcelona en 2012, se hizo la medición del impacto económico del Mobile World Congress. Para ello, se extrajeron datos de las transacciones realizadas con tarjetas de crédito, tanto la semana antes como la semana en que tuvo lugar el evento. Los resultados sirven para concluír los lugares, días y horarios donde más "movimiento" hubo, algo que, por ejemplo, puede servir a los comercios para reforzar sus acciones de marketing y venta de cara a eventos similares o a las propias ciudades para hacer lo propio con sus promociones turísticas.

Otro ejemplo de estudio sería el realizado por BBVA en el que se analiza el uso de las tarjetas de crédito en España durante la Semana Santa de 2011 en cuatro sectores: mercados y alimentos, bares y restaurantes, moda y gasolineras.


 PUBLICADO POR: EDGAR SORIANO PAREDES

miércoles, 26 de abril de 2017

Experto en Big data: el puesto más demandado por las empresas




Experto en Big data: el puesto más demandado por las empresas








El 40% de las empresas ya utiliza el Big Data, y un 23% de ellas prevé su incursión en esta tecnología durante 2017. Esta expansión en el mundo empresarial también está generando una gran demanda de expertos en analítica de datos.




El Big Data está inundando poco a poco cada parcela de nuestras vidas gracias a su fácil aplicación en gran variedad de sectores y ámbitos. Esta tendencia tecnológica se ha visto acentuada en el mundo empresarial durante los últimos años, pues permite a las compañías enriquecer su actividad, ya sea por su capacidad de proceso de grandes cantidades de información, ya sea por el abaratamiento de costes que supone a las organizaciones en general.







Incremento del Big Data en 2017
Como refleja el estudio de Forrester Consulting, un importante porcentaje de las empresas analizadas (40%) ya dispone de una estrategia enfocada al análisis masivo de datos con la intención de optimizar el rendimiento y redefinir de forma más concreta los objetivos en secciones clave como el marketing, el desarrollo del producto y las ventas.De cara a 2017, se prevé que un 23% de las compañías se sume a las tecnologías de la información (TI). Desde Forrester se atreven a predecir que para el año 2020 la adopción de Data Analytics estará aproximadamente en el 90% de las empresas.

Este estudio se llevó a cabo entre septiembre y noviembre de 2016. En la encuesta se preguntó a directores, VP y tomadores de decisiones nivel C, analizándose las estrategias y la gestión de análisis de datos de 583 empresas de América del Norte, Europa y Asía Pacífico. Este conjunto de compañías abarca hasta 11 diferentes sectores industriales, entre los que podemos encontrar telecomunicaciones, servicios públicos, servicios financieros y seguros, retail, gobierno y sector manufacturero. Dentro de la manufactura están consideradas las áreas de fabricación de productos de consumo, farmacia y productos químicos, metales y automoción, alta tecnología e ingeniería.


En suma, Forrester ha definido esta circunstancia como un cambio que afecta tanto a los procesos y la cultura de las empresas como a la tecnología, ya que las organizaciones tienen que ser rigurosas ante la necesidad de establecer objetivos comerciales claros y cuantificables en las iniciativas de análisis de datos.


Por otra parte, el estudio AnalyticsTrends 2016 realizado por Delloite alude como posible causa de los problemas de adaptación de los negocios tradicionales a las TI a las dificultades que tienen el 40% de las compañías a la hora de encontrar personal especializado en el análisis masivo de datos.

Dado que sin un buen desarrollo de una arquitectura de la información sería imposible llevar a cabo los procesos de análisis masivos de datos, las empresas están demandando un perfil de corte más técnico, especializado en el desarrollo de arquitecturas de la información. Los perfiles de arquitecto Big Data, ingenieros Big Data y Technical Manager son los más deseados por las compañías.

Desde Delloite, destacan que este aspecto supone un gran impedimento para el crecimiento y la adaptación de las empresas, además de generarse un distanciamiento entre la oferta y la demanda de los puestos de trabajo relacionados con el uso de las TI y su correcto tratamiento por parte de las compañías.

En España, el Estudio de Perfiles Profesionales y Competencias más demandados en la Empresa elaborado por la Asociación Española de Recursos Humanos en colaboración con EAE Business School, la Patronal CEOE y Human Age Instituto de ManopowerGroup, también ha analizado y estimado cuáles son y serán los profesionales más demandados en los próximos años. Encabezando la lista de los puestos más difíciles de cubriren España se encuentran: expertos en Big Data, técnicos en I+D e ingenieros informáticos, coincidiendo con la conclusión de la auditora extranjera

Sin duda, el Big Data está marcando un punto de no retorno en todos los ámbitos, por lo que las empresas deben adaptarse o morir. De hecho, la Unión Europea estima que este mercado alcance 50.000 millones de euros y suponga la creación de 3,75 millones de nuevos puestos de trabajo. Lo que se convierte en una gran oportunidad de empleo para los expertos en Big Data y un nuevo reto a la hora de seleccionar y contratar personal para las compañías.


PUBLICADO POR KARLA CINTHYA FLORES BENITEZ

martes, 25 de abril de 2017

Volumen, Variedad y Velocidad (3Vs).

El objetivo de Big Data, al igual que los sistemas analíticos convencionales, es convertir el Dato en información que facilita la toma de decisiones, incluso en tiempo real. Sin embargo, más que una cuestión de tamaño, es una oportunidad de negocio. Las empresas ya están utilizando Big Data para entender el perfil, las necesidades y el sentir de sus clientes respecto a los productos y/o servicios vendidos. Esto adquiere especial relevancia ya que permite adecuar la forma en la que interactúa la empresa con sus clientes y en cómo les prestan servicio.
¿Cuál es entonces la diferencia entre las aplicaciones analíticas y de gestión y los nuevos conceptos de Big Data? Las diferencias se asocian, en la mayoría de los artículos de referencia, a tres palabras, las tres 'Vs' del Big Data: Volumen, Variedad y Velocidad (3Vs). Sin embargo, en base a la experiencia adquirida por las empresas pioneras en esta aventura, se ha ampliado la definición original, añadiendo nuevas características como son
la Veracidad y Valor del dato (5Vs)

Hablamos de Big Data cuando los volúmenes superan la capacidad del software habitual para ser manejados y gestionados. Este concepto se encuentra en continuo movimiento porque los avances tecnológicos permiten tratamientos de volúmenes mayores. Cuando hablamos de grandes volúmenes nos referimos a tratamientos de Terabytes o Petabytes. Esto permite incluir en este tipo de proyectos informaciones (por ejemplo logs) que hasta la fecha no se utilizaban porque la tecnología no permitía procesarlos en un tiempo razonable. El concepto de volumen es muy variable y cada día que pasa eleva lo que podemos considerar grandes volúmenes de datos.

En el concepto de variedad nos referimos a la inclusión de otros tipos de fuentes de datos diferentes a las que se utilizan de forma tradicional. Nos referimos a información obtenida en diferentes Redes Sociales, en el número cada vez mayor de dispositivos electrónicos conectados, la explotación de sensores que permiten conocer los movimientos y hábitos de vida, de información externa de diversas fuentes, etc.

La información que procesan los Datawarehose es información estructurada que ha pasado por numerosos filtros de calidad para poder garantizar que la información de salida tiene una precisión y una exactitud determinada. Sin embargo, cuando hablamos de Big Data nos referimos a información que puede estar semiestructurada o no tener ninguna estructuración. La gestión de esta información desestructurada precisa de una tecnología diferente y permite tomar decisiones basadas en información que tiene importantes grados de inexactitud. Muchos de estos algoritmos se relacionan con los tratamientos de sistemas avanzados de lógica difusa.

Por último, el concepto de velocidad se refiere a la rapidez con que los datos se reciben, se procesan y se toman decisiones a partir de ellos. A la mayoría de los sistemas tradicionales les es imposible analizar de forma inmediata los grandes volúmenes de datos que les llegan, sin embargo, incorporar el concepto de tiempo real es imprescindible para sistemas de detección del fraude o la realización de oferta personalizadas a los clientes.

Pero, no menos importante al barajar este concepto, es la veracidad, esto es, confianza de los datos, extraer datos de calidad eliminado la imprevisibilidad inherente de algunos, como el tiempo, la economía etc, para, de esta forma, llegar a una correcta toma de decisiones

Finalmente, se añade el valor. La importancia del dato para el negocio, saber que datos son los que se deben analizar, es fundamental. Tanto que ya se empieza a hablar del científico de datos, un profesional con perfil científico, tecnológico...y visión de negocio.

Publicación realizada por Edwin E. Jiménez C.

lunes, 24 de abril de 2017

¿QUE ES BIG DATA?

Resultado de imagen para bigdata

Todos formamos parte de ese gran crecimiento de datosTerabyte = 1012 = 1,000,000,000,000
Petabyte = 1015 = 1,000,000,000,000,000
Exabyte = 1018 = 1,000,000,000,000,000,000


 ¿Qué tipos de datos debo explorar?


Debido al gran avance que existe día con día en las tecnologías de información, las organizaciones se han tenido que enfrentar a nuevos desafíos que les permitan analizar, descubrir y entender más allá de lo que sus herramientas tradicionales reportan sobre su información, al mismo tiempo que durante los últimos años el gran crecimiento de las aplicaciones disponibles en internet (geo-referenciamiento, redes sociales, etc.) han sido parte importante en las decisiones de negocio de las empresas. El presente artículo tiene como propósito introducir al lector en el concepto de Big Data y describir algunas características de los componentes principales que constituyen una solución de este tipo.

El primer cuestionamiento que posiblemente llegue a su mente en este momento es ¿Qué es Big Data y porqué se ha vuelto tan importante? pues bien, en términos generales podríamos referirnos como a la tendencia en el avance de la tecnología que ha abierto las puertas hacia un nuevo enfoque de entendimiento y toma de decisiones, la cual es utilizada para describir enormes cantidades de datos (estructurados, no estructurados y semi estructurados) que tomaría demasiado tiempo y sería muy costoso cargarlos a un base de datos relacional para su análisis. De tal manera que, el concepto de Big Data aplica para toda aquella información que no puede ser procesada o analizada utilizando procesos o herramientas tradicionales. Sin embargo, Big Data no se refiere a alguna cantidad en específico, ya que es usualmente utilizado cuando se habla en términos de petabytes y exabytes de datos. Entonces ¿Cuánto es demasiada información de manera que sea elegible para ser procesada y analizada utilizando Big Data? Analicemos primeramente en términos de bytes:
Gigabyte = 109 = 1,000,000,000
Además del gran volumen de información, esta existe en una gran variedad de datos que pueden ser representados de diversas maneras en todo el mundo, por ejemplo de dispositivos móviles, audio, video, sistemas GPS, incontables sensores digitales en equipos industriales, automóviles, medidores eléctricos, veletas, anemómetros, etc., los cuales pueden medir y comunicar el posicionamiento, movimiento, vibración, temperatura, humedad y hasta los cambios químicos que sufre el aire, de tal forma que las aplicaciones que analizan estos datos requieren que la velocidad de respuesta sea lo demasiado rápida para lograr obtener la información correcta en el momento preciso. Estas son las características principales de una oportunidad para Big Data.
Es importante entender que las bases de datos convencionales son una parte importante y relevante para una solución analítica. De hecho, se vuelve mucho más vital cuando se usa en conjunto con la plataforma de Big Data. Pensemos en nuestras manos izquierda y derecha, cada una ofrece fortalezas individuales para cada tarea en específico. Por ejemplo, un beisbolista sabe que una de sus manos es mejor para lanzar la pelota y la otra para atraparla; puede ser que cada mano intente hacer la actividad de la otra, mas sin embargo, el resultado no será el más óptimo.

Muchas organizaciones se enfrentan a la pregunta sobre ¿qué información es la que se debe analizar?, sin embargo, el cuestionamiento debería estar enfocado hacia ¿qué problema es el que se está tratando de resolver?
Si bien sabemos que existe una amplia variedad de tipos de datos a analizar, una buena clasificación nos ayudaría a entender mejor su representación, aunque es muy probable que estas categorías puedan extenderse con el avance tecnológico.


Figura 1. Tipos de datos de Big Data[2]
Tipos de datos de Big Data[2]
1.- Web and Social Media: Incluye contenido web e información que es obtenida de las redes sociales como Facebook, Twitter, LinkedIn, etc, blogs.
2.- Machine-to-Machine (M2M): M2M se refiere a las tecnologías que permiten conectarse a otros dispositivos. M2M utiliza dispositivos como sensores o medidores que capturan algún evento en particular (velocidad, temperatura, presión, variables meteorológicas, variables químicas como la salinidad, etc.) los cuales transmiten a través de redes alámbricas, inalámbricas o híbridas a otras aplicaciones que traducen estos eventos en información significativa.
3.- Big Transaction Data: Incluye registros de facturación, en telecomunicaciones registros detallados de las llamadas (CDR), etc. Estos datos transaccionales están disponibles en formatos tanto semiestructurados como no estructurados.
4.- Biometrics: Información biométrica en la que se incluye huellas digitales, escaneo de la retina, reconocimiento facial, genética, etc. En el área de seguridad e inteligencia, los datos biométricos han sido información importante para las agencias de investigación.
5.- Human Generated: Las personas generamos diversas cantidades de datos como la información que guarda un call center al establecer una llamada telefónica, notas de voz, correos electrónicos, documentos electrónicos, estudios médicos, etc.



PUBLICADO POR: VENICE AQUINO MORALES