Oracle: 10 predicciones del Big Data para 2016

La nube es solo el comienzo, “Big data” es presente y está transformando plataformas e infrastructuras para el soporte de mucha cantidad de información que movilizamos en Internet hoy en día.

Son grandes lotes de información que requieren procesamiento, un uso mucho sencillo y versátil de datos a combinar para afrontar nuevas bases de la tecnología de la información.

Big-Data-Automation

Aquí comparto un comunicado de Oracle donde intentan señalar cual será el camino a seguir  este año nuevo con el Big Data empresarial.



Pasala Bien DIRECTV


Imagen de EvolSystem

Comunicado oficial

Predicciones empresariales de Big Data para 2016

Caracas, 06 de enero de 2016 – Las grandes y pequeñas empresas están encontrando nuevas maneras de captar y utilizar más datos. El impulso para que big data sea más dominante se fortalecerá en 2016. Aquí están las 10 principales predicciones de Oracle:

Los datos civiles operan cada vez más como los datos científicos.

Aunque las estadísticas complejas aún están limitadas a los datos científicos, la toma de decisiones basada en datos no debería estarlo. El año que viene, las herramientas más simples de descubrimiento de grandes datos, permitirán a los analistas de negocios comprar conjuntos de datos en clusters Hadoop empresariales, darles forma en nuevas combinaciones de Mashup, e incluso analizarlos con técnicas de aprendizaje automáticas exploratorias. Extender este tipo de exploración a un público más amplio mejorará el acceso a grandes volúmenes de datos y proporcionará hipótesis más ricas y experimentos que conduzcan al siguiente nivel de innovación.

Los laboratorios de datos experimentales despegan.

Con más hipótesis para investigar, los científicos de datos profesionales verán una creciente demanda de sus habilidades por las empresas establecidas. Por ejemplo, los bancos, las aseguradoras y las empresas de calificación crediticia se volverán a los algoritmos para fijar el precio del riesgo y evitar el fraude con mayor eficacia. Pero muchas de esas decisiones son difíciles de migrar de juicios inteligentes a reglas claras. Se espera una proliferación de experiencias de riesgo de falta de pago, suscripción de políticas y detección de fraudes ya que las empresas tratan de identificar puntos de acceso para tener la ventaja algorítmica más rápido que la competencia.

“Hacerlo usted mismo” da paso a las soluciones.

Los primeros en adoptar big data no tenían más opción que construir sus propios clusters y ambientes de big data. Pero construir, administrar y mantener estos sistemas únicos construidos sobre Hadoop, Spark y otras tecnologías emergentes es costoso y requiere mucho tiempo. De hecho, el tiempo promedio de construcción es de seis meses. ¿Quién puede esperar tanto tiempo? En 2016, veremos tecnologías maduras y que serán más dominantes gracias a servicios en la nube y dispositivos con automatización y normalización pre configuradas.

La virtualización de datos se convierte en una realidad.

Las empresas no sólo captan una mayor variedad de datos, los usan en una mayor variedad de algoritmos, análisis y aplicaciones. Pero los desarrolladores y analistas no deberían tener que saber qué datos están en un lugar o quedarse bloqueados con sólo los métodos de acceso que ese repositorio soporta. Se busca un cambio de enfoque usando una única tecnología, como NoSQL, Hadoop, relacional, espacial o gráfica, para aumentar la confianza en la virtualización de datos. Los usuarios y las aplicaciones se conectan a los datos virtualizados, a través de lenguajes SQL, REST y de programación. El éxito de la tecnología de virtualización de datos ofrecerá un rendimiento igual al de los métodos nativos, compatibilidad y seguridad completa atrasada.



Banner ZTE Concafe


La programación de flujo de datos abre las compuertas.

Las olas iniciales de adopción de big data se concentraron en el procesamiento de datos codificados a mano. Las nuevas herramientas de gestión serán desacoplar y aislar las tecnologías de big data a partir de las necesidades de procesamiento de datos de mayor nivel. También veremos la aparición de la programación de flujo de datos que aprovecha el paralelismo extremo, proporciona una simple reutilización de los operadores funcionales y da soporte conectable para funciones de aprendizaje de estadística y de la máquina.

Big data ofrece a la IA algo en que pensar.

2016 será el año en que se apliquen tecnologías de Inteligencia Artificial (AI) como Aprendizaje Automático [Machine Learning] (ML), Procesamiento del Lenguaje Natural [Natural Language Processing (PLN)] y Gráficos de Propiedad [Property Graphs (PG)] a los desafíos de procesamiento de datos comunes. Mientras ML, PLN y PG ya han sido accesibles como bibliotecas API de big data, el nuevo cambio incluirá amplias aplicaciones de estas tecnologías en herramientas de TI que soportan aplicaciones, análisis en tiempo real y datos científicos.

Los pantanos de datos tratan la procedencia para aclarar las cosas.

El linaje de datos solía ser una capacidad deseable porque gran parte de los datos que alimentan tableros corporativos provino de los almacenes de datos confiables. Pero en la era de los grandes datos el linaje de datos es un deber, porque los clientes están fusionando datos de la empresa con los conjuntos de datos de terceros. Algunas de estas nuevas combinaciones incorporará alta calidad, datos de proveedor verificado. Pero otros utilizarán los datos que no son oficialmente perfectos, pero lo suficientemente buenos para el desarrollo de prototipos. Cuando los resultados sorprendentemente valiosos provengan de estas exploraciones oportunistas, los gerentes observarán el linaje para saber la cantidad de trabajo que se requiere para elevarlo a niveles de calidad de producción.

IoT + Nube = aplicación revolucionaria de Big Data.

Los servicios de big data en la nube son la magia detrás de los bastidores del Internet de las cosas (IoT). La ampliación de los servicios en la nube no sólo capta los datos de los sensores, sino también los alimenta en análisis de big data y algoritmos para hacer uso de ellos. Los servicios de alta seguridad en la nube del IoT también ayudarán a los fabricantes a crear nuevos productos que tengan acción de forma segura sobre los datos analizados sin intervención humana.

La política de datos impulsa la nube híbrida.

Saber de dónde provienen los datos – no sólo desde qué sensor o sistema, sino desde qué nación, hará que sea más fácil para los gobiernos hacer cumplir las políticas nacionales de datos. Las corporaciones multinacionales en movimiento hacia la nube estarán atrapadas entre intereses en conflicto. Cada vez más, las compañías globales se moverán a las implementaciones de nube híbridas con máquinas en los centros de datos regionales que actúan como un centro local de un servicio en la nube más grande, lo que honra tanto la conducción por la reducción de costos y el cumplimiento normativo.

Los nuevos sistemas de clasificación de seguridad equilibran la seguridad con el acceso.

El aumento de la conciencia del consumidor de las formas cómo los datos se pueden recolectar, compartir, almacenar, y robar, amplificará solicitudes de protecciones reglamentarias de información personal. Se espera ver a los políticos, académicos y columnistas lidiando con los límites y la ética. Las empresas aumentarán el uso de sistemas de clasificación que categoricen los documentos y datos en grupos con políticas predefinidas para el acceso, la redacción y el enmascaramiento. La amenaza constante de los hackers informáticos cada vez más sofisticados incitará a las empresas tanto a reforzar la seguridad como a auditar el acceso y el uso de los datos.



Concafe-468x60px_Integrado-Digitel


Acerca del autor

Hugo Londoño

Diseño experiencias digitales · Escribo Tecnología @ConCafe · Retrato marcas, comer y vivir Caracas · Fotografía comercial // Con-Café Link Studio ☕

Ver todos los artículos