introduccion del big data

Ver el tema anterior Ver el tema siguiente Ir abajo

introduccion del big data

Mensaje por pamela el Miér Mar 22, 2017 10:10 am


pamela

Mensajes : 13
Fecha de inscripción : 31/01/2017

Ver perfil de usuario

Volver arriba Ir abajo

BENEFICIOS DEL "BIG DATA"

Mensaje por Jhonny_Charca el Jue Mar 23, 2017 2:03 pm

BENEFICIOS DEL "BIG DATA"

Después de la introducción acerca del Big Data me puse a analizar algunas ventajas que podríamos encontrarnos con esta nueva forma de entender los conglomerados de datos. Actualmente se denomina Big Data a la gestión y análisis de enormes volúmenes de datos que no puede ser tratados de forma convencional, ya que superan la capacidad del software habitualmente utilizado para la gestión de datos.


Actualmente el volumen de datos digitales no tiene precedentes. El 2005 el mayor almacén de datos del mundo tenía una capacidad estimada de 100  Terabytes, mientras que ahora se espera llegar a los 10 Zettabytes. Y lo más importante, el 90% de esos datos se ha generado en los últimos años. Pero, cabe preguntarse: ¿de dónde vienen todos esos datos? Pues proceden de diversas fuentes, esencialmente cuatro:



  • Los ERP o sistemas de gestión de logística, producción y facturación.
  • Los CRM o sistemas de gestión de clientes.
  • Las páginas webs tanto de contenidos como de tiendas online.
  • Las redes sociales, como Facebook, Linkedin, Twitter, Youtube etc.



El hecho de manejar toda esa gran cantidad de datos que se crean día a día, puede aportar muchas ventajas competitivas a nuestra empresa frente a otras empresas del sector y generar una serie de beneficios como los siguientes:

Elaboración de estrategias de marketing inteligentes

A través de los datos que proporciona el Big Data, es posible analizar el comportamiento de los usuarios en la red, saber qué piensan los clientes de nuestra marca o cuáles son sus necesidades de productos o servicios. También se pueden analizar datos relativos al perfil de cada usuario, sus preferencias etc. de forma que es posible elaborar campañas de marketing personalizadas. Otra de las aplicaciones más importantes del Big Data es la posibilidad de analizar los resultados de las acciones de marketing online, lo que permite ver cuáles son los aspectos que más éxito tienen y corregir rápidamente los posibles errores en las estrategias.

Toma de decisiones rápida

La información como base para la toma de decisiones es fundamental y cuando podemos manejar de forma adecuada toda la información que nos proporciona el Big Data, podremos tomar decisiones inteligentes y rápidas que favorecerán a nuestro negocio, puesto que se basan en un fundamento sólido, ya que se pueden realizar fácilmente investigaciones de mercado antes de lanzar nuestro producto o servicio al mercado.

Fidelización de clientes

Captar nuevos clientes es más complicado que fidelizar a los que ya tenemos, por lo que es fundamental utilizar los datos a nuestro alcance para dar a nuestros clientes lo que desean y para ello es fundamental el Big Data. Por lo tanto, conocer a través de los datos el nivel de satisfacción de nuestros clientes, sus necesidades, etc. es la base para tener clientes fidelizados.

Mejora en la eficiencia y los costes

La utilización del Big Data puede acelerar enormemente la velocidad con la que se desarrolla un producto o servicio porque permite testearlo con la información que nos dé el mercado, de forma que los plazos para el desarrollo de un producto o servicio se reducen mucho, así como los costes que se derivan del desarrollo.

Mejora en la accesibilidad de la información dentro de la empresa

Las empresas que digitalicen los datos y utilicen herramientas para la búsqueda de información de forma eficaz, desarrollarán procesos productivos más rápidos y eficaces, y el trabajo en la empresa ganará en agilidad.



Considerando estas características y las mejoras de los mismos se podría decir que estamos viviendo un cambio muy positivo en cuanto al manejo de datos, era muy evidente el crecimiento de los datos y es ahora cuando se deben encarar estos cambios y tratar de aprovechar los mismos.

Jhonny_Charca

Mensajes : 13
Fecha de inscripción : 30/01/2017

Ver perfil de usuario

Volver arriba Ir abajo

BIG DATA

Mensaje por mauricio_villegas el Jue Mar 23, 2017 7:00 pm


mauricio_villegas

Mensajes : 13
Fecha de inscripción : 30/01/2017

Ver perfil de usuario

Volver arriba Ir abajo

Re: introduccion del big data

Mensaje por Brandon Felipe Merlo Loza el Jue Mar 23, 2017 7:13 pm


Brandon Felipe Merlo Loza

Mensajes : 14
Fecha de inscripción : 30/01/2017

Ver perfil de usuario

Volver arriba Ir abajo

Re: introduccion del big data

Mensaje por Paola_Tarqui el Jue Mar 23, 2017 10:50 pm

Lanzamiento hacia big data basado en la nube
Estas consideraciones cubren los criterios básicos de evaluación para lanzar hacia big data.
1. Indexación universal en tiempo real de cualesquiera datos de máquina
Este es el núcleo de big data conforme la mayoría de las personas conciben; usualmente es igualado con el proyecto de código abierto Hadoop. No confunda la indexización en Hadoop con un índice en la base de datos relacional: Un índice Hadoop es un índice de archivos. De esta manera, Hadoop puede ingerir muchos tipos diferentes de datos.
Las compañías ya pueden ser inundadas con alimentaciones de movimiento de ID de radio-frecuencia (RFID), clic en sitios web, y otros datos que pueden ser estructurados si el personal de TI gasta algún tiempo para convertirlos en datos estructurados y los coloca en una base de datos relacional. Eso puede valer la inversión si usted sabe cómo los datos serán usados y cómo serán consultados y accedidos en el futuro.
Sin que se tenga que conocer el futuro potencial de los datos, Hadoop proporciona una salida. Al tomar los datos tal y como vienen, big data posterga la definición de datos, para cuando se realiza el análisis. Hadoop distribuye los datos a lo largo de muchos servidores y da seguimiento a las ubicaciones sin limitar el uso futuro.
2. Búsqueda libre y análisis de datos históricos y en tiempo real
El almacenamiento de los datos es solo parte de la manera de tener éxito. La información necesita ser relativamente fácil de recuperar. La manera más rápida de hacer eso es proporcionando una posibilidad de búsqueda que sea rápida (como en la implementación, no tiempo de respuesta). Busque un juego de herramientas que permite búsquedas de texto de datos no estructurados. Apache Lucene (Recursos) es una herramienta común que proporciona indexación de texto en un entorno de big data.
El tener una respuesta en el monitor brinda a las personas una sensación cálida y reconfortante de que todo está siendo almacenado de la manera correcta y puede ser accedido. El paso administrativo para esto es indexar el contenido de los datos almacenados en los nodos distribuidos. Las consultas de búsqueda posteriormente acceden a los índices en los nodos distribuidos en paralelo para proporcionar una respuesta más rápida.
3. Descubrimiento de conocimiento automatizado de los datos
Este es uno de los motivos de negocios para trasladarse hacia big data. Así como puede ser ineficiente trasladar todos los datos semi-estructurados hacia una base de datos relacional, la realización de búsquedas manuales e informes manuales es ineficiente para análisis.
Las herramientas de minería de datos y análisis predictivos están rápidamente convirtiéndose para poder usarse en big data como una fuente de datos para análisis y para ser una base de datos para monitorear continuamente el cambio. Todas las herramientas de minería de datos siguen este proceso. alguien determina el propósito del análisis, observa los datos, y posteriormente desarrolla modelos estadísticos que proporcionan conocimiento o realizan predicciones. Esos modelos estadísticos posteriormente necesitan ser desplegados en el entorno de big data para realizar evaluaciones continuas. Esta porción debe ser automatizada.
4. Monitoree sus datos y proporcione alertas en tiempo real
Busque una herramienta para monitorear los datos en big data. Existen herramientas que crean consultas que son continuamente procesadas, buscando criterios a ser cumplidos. Asumiendo que la mayoría de los datos entrantes son no estructurados y no están destinados a una base de datos relacional, el monitoreo en tiempo real es probablemente el área donde un elemento de datos es inspeccionado más estrechamente.
Por ejemplo, se puede establecer una alerta para cuando el chip RFID en un artículo de comida congelada sea almacenado en un área no congelada. Esa alerta puede ir directamente a dispositivos móviles que son usados en el almacén, previniendo que la comida se arruine.
Los movimientos de los clientes en una tienda también pueden ser monitoreados y la publicidad puede ser dirigida hacia el cliente preciso que esté parado frente a un artículo específico en monitores posicionados estratégicamente. (Esto es futurista y un poco como "Big Brother", pero es posible).
5. Proporcione informes y análisis ad hoc poderosos
En relación al descubrimiento de conocimiento y minería de datos automatizada, los analistas necesitan acceso para recuperar y resumir la información en el entorno de nube de big data. La lista de proveedores cuyas herramientas funcionan para reportar desde big data para crecer más cada día.
Algunas de las herramientas usan Apache Hive y Hive Query Language (HQL). Las sentencias HQL son similares a las sentencias de Structured Query Language (SQL) y muchas de las herramientas que proporcionan estilos familiares de informes a partir de big data usan la interfaz HQL y Hive para ejecutar las consultas a través de MapReduce.
Apache Pig es otro proyecto de código abierto para informes y manipulación de big data. Su sintaxis es menos como SQL y más como lenguaje de scripting. También se ejecuta a través de procesamiento MapReduce para obtener procesamiento en paralelo fácil.
El proveedor de big data con base en la nube debe permitir que tanto las sentencias Pig como HQL provengan de solicitantes externos. De esa manera, el almacenamiento de big data puede ser consultado por personas que usan herramientas que ellos mismos escogen, incluso usando herramientas que todavía no han sido creadas.
6. Proporcione la capacidad de crear rápidamente paneles de instrumentos y visualizaciones personaliazadas
Como en la evolución de un proyecto de inteligencia de negocios tradicional, cuando las personas pueden consultar big data y producir informes, ellos desean automatizar esa función y crear un panel de instrumentos para visualizaciones repetitivas con fotografías bonitas.
A menos que las personas estén escribiendo sus propias sentencias Hive y estén usando solo la Hive shell, la mayoría de las herramientas tienen cierta habilidad para crear visualizaciones tipo dashboard desde sus sentencias de consulta. Es un poco temprano en la implementación de big data para citar muchos ejemplos de panel de instrumentos. Una predicción, con base en la historia de la inteligencia de negocios, es que los paneles de instrumentos se convertirán en un vehículo de entrega interno importante para big data resumidos. Y de acuerdo a la historia de la inteligencia de negocios, el contar con buenos paneles de instrumentos para big data será importante para obtener y mantener el soporte ejecutivo.
7. Escale eficientemente hacia cualquier volumen de datos usando hardware de producto
Cuando se usa un servicio de big data en la nube, es te es un punto filosófico más que práctico. Depende del proveedor de servicios adquirir, suministrar e implementar el hardware en donde residen los datos. La selección del hardware no debería importar.
Sin embargo, de gracias cuando llegue la cuenta de que big data se diseñó para usar hardware de producto. Existen determinados nodos en arquitectura donde un servidor de "alta calidad" tiene sentido. Sin embargo, la vasta mayoría de los nodos (aquellos que almacenan los datos) en una arquitectura de big data pueden estar en hardware de "menor calidad".
8. Proporcione seguridad granular basada en papeles y controles de acceso
Cuando los datos no estructurados están en un mundo de datos relacionales, la complejidad de acceso a los datos puede impedir que todos obtengan los datos. Las herramientas de informes comunes no funcionarán. El traslado hacia big data representa un paso activo hacia hacer que lo complejo sea accedido más fácilmente. Desafortunadamente, las mismas configuraciones de seguridad usualmente no se traducen de los sistemas relacionales existentes hacia los de big data.
El tener buena seguridad se volverá más importante mientras más big data sean usados. Inicialmente, la seguridad puede estar muy abierta debido a que nadie sabrá qué hacer con big data. Conforme la compañía desarrolle más análisis usando los datos de big data, a los resultados se les deberá dar seguridad, particularmente a los informes y paneles de instrumentos, de manera similar como se brinda seguridad a los informes de los sistemas relacionales actuales.
Al iniciar con big data basados en la nube, esté consciente de la necesidad de aplicar seguridad en algún punto, particularmente al entorno de informes y de paneles de instrumentos.
9. De soporte a la implementación flexible y de multi-inqulinos
El uso de la nube hace surgir el concepto de multi-inquilinos, obviamente no es una consideración para un entorno de big data dentro de las instalaciones.
Muchas personas tienen recelo para colocar los datos críticos en un entorno de nube. El punto es que la nube proporciona el bajo costo y la rápida implementación que se necesitan para iniciar proyectos de Big Data. Precisamente debido a que el proveedor de nube colocará los datos en una arquitectura donde los recursos de hardware son compartidos, el costo es dramáticamente menor.
Si las cosas fueran iguales, sería bueno tener sus datos solo en sus servidores y que alguien más gestionara la totalidad de la configuración. Sin embargo, eso simplemente no es un modelo de negocios rentable cuando las necesidades de big data son intermitentes. El resultado es más gasto debido a que las compañías pagarían por mucho tiempo inactivo, especialmente durante los primeros proyectos, cuando los analistas están explorando, probando y aprendiendo big data.
10. Integre y sea extensible vía APIs documentadas
Los big data se diseñaron para ser accedidos por aplicaciones de producto. Los métodos comunes de acceso usan interfaces de programación de aplicación (APIs) RESTful (Transferencia de Estado Representacional). Estas están disponibles para cada aplicación en el entorno de big data para control administrativo, almacenamiento de datos, e informes de datos. Debido a que todos estos contenidos fundacionales de big data son de código abierto, estas APIs están bien documentadas y están abiertamente disponibles para su uso. Con suerte, el proveedor de big data basados en la nube permitirá el acceso a todas las APIs actuales y futuras bajo la seguridad apropiada.

Paola_Tarqui

Mensajes : 12
Fecha de inscripción : 30/01/2017

Ver perfil de usuario

Volver arriba Ir abajo

Bug data en las empresas

Mensaje por Beatriz_Aliaga el Vie Mar 24, 2017 7:38 am

[Tienes que estar registrado y conectado para ver este vínculo]

Beatriz_Aliaga

Mensajes : 10
Fecha de inscripción : 30/01/2017

Ver perfil de usuario

Volver arriba Ir abajo

Re: introduccion del big data

Mensaje por willy_lliulli el Vie Mar 24, 2017 10:29 am




willy_lliulli

Mensajes : 11
Fecha de inscripción : 31/01/2017

Ver perfil de usuario

Volver arriba Ir abajo

Re: introduccion del big data

Mensaje por Contenido patrocinado


Contenido patrocinado


Volver arriba Ir abajo

Ver el tema anterior Ver el tema siguiente Volver arriba

- Temas similares

 
Permisos de este foro:
No puedes responder a temas en este foro.