El setenta y seis por ciento de los científicos de datos dicen que Hadoop es demasiado lento, según una encuesta de la compañía de análisis Paradigm4. Los científicos de datos creen que el marco de software de código abierto requiere demasiado esfuerzo para programarse y no es lo suficientemente rápido para mantenerse al día con las grandes demandas de datos.

El noventa y uno por ciento de los encuestados dicen que están realizando un análisis complejo de big data, y como resultado, el 39% de los encuestados en general dicen que su trabajo se está volviendo más difícil. El setenta y uno por ciento de los encuestados dice que los tipos de fuentes de datos además del volumen están dificultando el análisis.

Del 76% de los encuestados que reportan problemas con Hadoop, el 39% dice que requiere demasiado esfuerzo para programar, el 37% dice que es demasiado lento para las consultas ad hoc y el 30% dice que es demasiado lento para el análisis en tiempo real.

La ubicuidad de los grandes datos.

Big data es cada vez más importante para todas las empresas. Según la investigación encargada por Dell y realizada por Competitive Edge Research, Noventa y seis por ciento de las empresas medianas con 2,000 a 5,000 empleados están aceptando el aumento de big data. El ochenta por ciento de los mercados medianos cree que necesitan analizar mejor sus datos, ya que creen que las iniciativas de datos grandes proporcionan un impulso significativo a la toma de decisiones de la empresa..

Para las pequeñas empresas, las herramientas gratuitas y más baratas hacen que sea más probable que la recopilación y el análisis de big data se convierta en una necesidad para competir..

La encuesta Paradigm4 presenta respuestas de 111 científicos de datos en los Estados Unidos. Los resultados de la encuesta se seleccionaron durante un período de un mes en marzo y abril.

  • ¿Cuáles son las principales empresas de análisis social??