Dynatrace anuncia OpenPipeline como una incorporación a su plataforma de análisis y automatización
Postado por Editorial Latam em 12/02/2024 em NoticiasPermite el control total de los datos en el momento de consumirlos y evalúa los flujos de datos entre cinco y diez veces más rápido que las tecnologías heredadas, ayudando a fortalecer la seguridad, facilitar la gestión y maximizar el valor de los datos
Alex Hibbitt, Director de Ingeniería, SRE y Cumplimiento en albelli-Photobox Group. Foto: cortesía.
Dynatrace ha anunciado el lanzamiento de OpenPipeline, una nueva tecnología central que proporciona a los clientes un único canal para gestionar el consumo de datos a escala de petabytes en la plataforma Dynatrace para impulsar análisis, inteligencia artificial y automatización seguros y rentables.
Dynatrace OpenPipeline ofrece a los equipos de negocios, desarrollo, seguridad y operaciones una total visibilidad y control sobre los datos que están ingresando en la plataforma Dynatrace, preservando el contexto de los datos y los ecosistemas en la nube de donde provienen. Además, evalúa flujos de datos de cinco a diez veces más rápido que las tecnologías heredadas. Como resultado, las organizaciones pueden gestionar mejor el volumen y la variedad cada vez mayores de datos que provienen de sus entornos híbridos y multinube, y permitir que más equipos accedan a las respuestas y automatizaciones alimentadas por la inteligencia artificial de la plataforma Dynatrace sin necesidad de herramientas adicionales.
"Los datos son vitales para nuestro negocio. Contienen conocimientos valiosos y permiten la automatización que libera a nuestros equipos de tareas de poco valor", dijo Alex Hibbitt, Director de Ingeniería, SRE y Cumplimiento en albelli-Photobox Group. "Sin embargo, enfrentamos desafíos a la hora de gestionar nuestros canales de datos de manera segura y rentable. Agregar OpenPipeline a Dynatrace extiende el valor de la plataforma. Nos permite gestionar datos desde un amplio espectro de fuentes junto con datos en tiempo real recopilados nativamente en Dynatrace, todo en una única plataforma, lo que nos permite tomar decisiones mejor informadas".
Según Gartner, "Las cargas de trabajo modernas generan volúmenes crecientes, cientos de terabytes e incluso petabytes cada día, de telemetría que proviene de diversas fuentes. Esto amenaza con desbordar a los operadores responsables de la disponibilidad, el rendimiento y la seguridad. El costo y la complejidad asociados con la gestión de estos datos pueden superar los $10 millones de dólares anuales en las grandes empresas”.
Te puede interesar: Retos y soluciones de las empresas en 2024 para mitigar riesgos digitales
Crear un canal unificado para gestionar estos datos es desafiante debido a la complejidad de la arquitectura de la nube moderna. Esta complejidad y la proliferación de herramientas de monitoreo y análisis dentro de las organizaciones pueden tensar los presupuestos. Al mismo tiempo, las organizaciones necesitan cumplir con las normas de seguridad y privacidad, como GDPR y HIPAA, en relación con sus canales de datos, análisis y automatizaciones. A pesar de estos desafíos, las partes interesadas de todas las organizaciones buscan más conocimientos basados en datos y automatización para tomar mejores decisiones, mejorar la productividad y reducir costos. Por lo tanto, necesitan una visibilidad clara y control sobre sus datos, mientras gestionan costos y maximizan el valor de sus soluciones existentes de análisis y automatización de datos.
Dynatrace OpenPipeline trabaja con otras tecnologías centrales de la plataforma Dynatrace, incluido eldata lakehouse Grail™, topología Smartscape y la inteligencia hipermodal Davis, para abordar estos desafíos brindando los siguientes beneficios:
- Análisis de datos a escala de petabytes: Utiliza los algoritmos de procesamiento de flujo pendientes de patente para lograr un rendimiento de datos significativamente mayor a escala de petabytes.
- Ingesta unificada de datos: Permite a los equipos ingresar y enrutar datos de observabilidad, seguridad y eventos comerciales, incluyendo Servicio de Calidad (QoS) dedicado para eventos comerciales, desde cualquier fuente y en cualquier formato, como Dynatrace OneAgent, Dynatrace APIs y OpenTelemetry, con tiempos de retención personalizables para casos de uso individuales.
- Análisis de datos en tiempo real: Permite a los equipos convertir datos no estructurados en formatos estructurados y utilizables en el momento de la ingestión, por ejemplo, transformando datos sin procesar en series de tiempo o métricas y creando eventos comerciales a partir de líneas de registros.
- Contexto completo de los datos: Enriquece y conserva el contexto de puntos de datos heterogéneos, incluidas métricas, rastros, registros, comportamiento del usuario, eventos empresariales, vulnerabilidades, amenazas, eventos del ciclo de vida y muchos otros, reflejando las diversas partes del ecosistema en la nube de donde provienen.
- Controles para la privacidad y seguridad de los datos: Brinda a los usuarios control sobre qué datos analizar, almacenar o excluir de los análisis e incluye controles de privacidad y seguridad totalmente personalizables, como enmascaramiento automático y basado en roles de información personal identificable (PII), para ayudar a cumplir con las necesidades específicas de los clientes y requisitos regulatorios.
- Gestión de datos rentable: Ayuda a los equipos a evitar la ingestión de datos duplicados y reduce las necesidades de almacenamiento al transformar datos en formatos utilizables, por ejemplo, de XML a JSON, y permitir a los equipos eliminar campos innecesarios sin perder conocimientos, contexto o flexibilidad analítica.
"OpenPipeline es una incorporación poderosa a la plataforma Dynatrace", dijo Bernd Greifeneder, CTO en Dynatrace. "Enriquece, converge y contextualiza datos heterogéneos de observabilidad, seguridad y negocios, proporcionando análisis unificados para estos datos y los servicios que representan. Al igual que con Grial data lakehouse, diseñamos OpenPipeline para análisis a escala de petabytes. Funciona con la IAI hipermodal Davis de Dynatrace para extraer conocimientos significativos de los datos, alimentando análisis robustos y automatizaciones confiables. Según nuestras pruebas internas, creemos que OpenPipeline impulsado por Davis AI permitirá a nuestros clientes evaluar flujos de datos de cinco a diez veces más rápido que las tecnologías heredadas. También creemos que la convergencia y contextualización de datos dentro de Dynatrace facilita el cumplimiento normativo y las auditorías, al mismo tiempo que permite que más equipos dentro de las organizaciones obtengan visibilidad inmediata sobre el rendimiento y la seguridad de sus servicios digitales".
Se espera que Dynatrace OpenPipeline esté disponible de forma general para todos los clientes de Dynatrace SaaS en un plazo de 90 días a partir de este anuncio, comenzando con el soporte para registros, métricas y eventos comerciales. El soporte para tipos de datos adicionales seguirá próximamente. Visita el blog de Dynatrace OpenPipeline para obtener más información.