Dynatrace rilascia OpenPipeline per la sua piatta forma di analytics e automazione 1

Dynatrace rilascia OpenPipeline per la sua piatta forma di analytics e automazione

Abilita il pieno controllo dei dati in fase di acquisizione e la valutazione dei flussi di dati da cinque a dieci volte più veloce rispetto alle tecnologie legacy, contribuisce a migliorare la sicurezza, facilitare la gestione e massimizzare il valore delle informazioni

Dynatrace (NYSE: DT), leader nell’osservabilità e nella sicurezza unificate, ha annunciato OpenPipeline®, una nuova tecnologia core che fornisce ai clienti un’unica pipeline per gestire l’acquisizione di dati su scala petabyte nella piattaforma Dynatrace® per alimentare analisi, intelligenza artificiale e automazioni sicure e convenienti.

Dynatrace OpenPipeline offre ai team di sviluppo, di sicurezza e operation piena visibilità e controllo dei dati che stanno inserendo nella piattaforma Dynatrace, preservando il contesto dei dati e gli ecosistemi cloud da cui hanno origine. Inoltre, valuta i flussi di dati da cinque a dieci volte più velocemente rispetto alle tecnologie legacy. Ne deriva che le aziende possono gestire meglio il volume sempre crescente e la varietà di dati provenienti dai loro ambienti ibridi e multicloud e consentire a più team di accedere alle risposte e alle automazioni basate sull’intelligenza artificiale della piattaforma Dynatrace senza bisogno di strumenti aggiuntivi.

“I dati rappresentano la linfa vitale della nostra attività poiché contengono informazioni preziose e consentono un’automazione che libera i nostri team da compiti di basso valore”, ha affermato Alex Hibbitt, Engineering Director, SRE and Fulfillment, albelli-Photobox Group. “Tuttavia, dobbiamo affrontare sfide nella gestione delle nostre pipeline di dati in modo sicuro ed economicamente vantaggioso. L’aggiunta di OpenPipeline a Dynatrace estende il valore della piattaforma perché ci consente di gestire i dati provenienti da un ampio spettro di fonti insieme ai dati in tempo reale raccolti in modo nativo in Dynatrace. Avere tutto in un’unica piattaforma ci aiuta a prendere decisioni più informate”.

Secondo Gartner®, “i carichi di lavoro moderni generano volumi crescenti – centinaia di terabyte e persino petabyte ogni giorno – di dati di telemetria provenienti da una varietà di fonti. Questo grande flusso rischia di sopraffare gli operatori responsabili di risorse, prestazioni e sicurezza. Il costo e la complessità associati alla gestione di questi dati possono superare i 10 milioni di dollari all’anno nelle grandi aziende1”.

Creare una pipeline unificata per gestire questi dati è impegnativo a causa della complessità delle moderne architetture cloud. La complessità e la proliferazione di strumenti di monitoraggio e analisi all’interno delle aziende possono mettere a dura prova i budget. Allo stesso tempo, le imprese devono conformarsi agli standard di sicurezza e privacy, come GDPR e HIPAA, in relazione alle pipeline di dati, all’analisi e alle automazioni. Nonostante queste sfide, le divisioni aziendali interessate sono alla ricerca di informazioni basate sui dati e sull’automazione per prendere decisioni corrette, migliorare la produttività e ridurre i costi. Pertanto, necessitano di visibilità e controllo chiari sulle informazioni, gestendo al tempo stesso i costi e massimizzando il valore delle soluzioni di analisi e automazione dei dati esistenti.

Dynatrace OpenPipeline funziona con altre principali tecnologie della piattaforma di Dynatrace, come: Grail™ Data Lakehouse, topologia Smartscape® e Davis® Hypermodal AI, funzionali per affrontare le nuove sfide offrendo i seguenti vantaggi:

  • Analisi dei dati su scala petabyte: sfrutta algoritmi di elaborazione dei flussi in attesa di brevetto per ottenere un throughput di dati significativamente maggiore su scala petabyte.
  • Data ingestion unificata: consente ai team di acquisire e gestire dati di osservabilità, sicurezza ed eventi aziendali, inclusa Quality of Service (QoS) dedicata per eventi aziendali, da qualsiasi fonte e in qualsiasi formato, come Dynatrace® OneAgent, API Dynatrace e OpenTelemetry, con tempi di conservazione personalizzabili per casi d’uso individuali.
  • Analisi dei dati in tempo reale in fase di acquisizione: consente ai team di convertire dati non strutturati in formati strutturati e utilizzabili al momento dell’acquisizione, ad esempio trasformando i dati grezzi in serie temporali o dati di metrica e creando eventi aziendali dalle linee di log.
  • Contesto dei dati completo: arricchisce e conserva il contesto di punti dati eterogenei, inclusi parametri, trace, log, comportamento degli utenti, eventi aziendali, vulnerabilità, minacce, eventi del ciclo di vita e molti altri, riflettendo le diverse parti dell’ecosistema cloud da cui hanno avuto origine.
  • Controlli per la privacy e la sicurezza dei dati: offre agli utenti il controllo su quali dati analizzare, archiviare o escludere dall’analisi e include controlli di sicurezza e privacy completamente personalizzabili, come il mascheramento dei dati personali automatico e basato sui ruoli, per aiutare a soddisfare le esigenze specifiche dei clienti e requisiti normativi.
  • Gestione vantaggiosa dei dati: aiuta i team a evitare l’acquisizione di dati duplicati e riduce le esigenze di archiviazione trasformando i dati in formati utilizzabili, ad esempio da XML a JSON, e consentendo ai team di rimuovere campi non necessari senza perdere informazioni, contesto o flessibilità di analisi.

“OpenPipeline è una potente aggiunta alla piattaforma Dynatrace”, ha affermato Bernd Greifeneder, CTO di Dynatrace. “Arricchisce, converge e contestualizza dati eterogenei di osservabilità, sicurezza e business, fornendo analisi unificate per questi dati e i servizi che rappresentano. Come nel caso di Grail Data Lakehouse, abbiamo progettato OpenPipeline per analisi su scala petabyte. Opera con Davis hypermodal AI di Dynatrace per estrarre insights dai dati, alimentando analytics robusti e automazioni affidabili. Sulla base di test condotti internamente, riteniamo che OpenPipeline basato su Davis AI consentirà ai nostri clienti di valutare i flussi di dati da cinque a dieci volte più velocemente rispetto alle tecnologie legacy. Riteniamo, inoltre, che la convergenza e la contestualizzazione dei dati all’interno di Dynatrace semplifichi la conformità normativa e gli audit, permettendo allo stesso tempo a più team all’interno delle organizzazioni di ottenere visibilità immediata sulle prestazioni e sulla sicurezza dei loro servizi digitali”.

Dynatrace OpenPipeline sarà disponibile per tutti i clienti di Dynatrace SaaS entro 90 giorni da questo annuncio, a partire dal supporto per log, metriche ed eventi aziendali. Seguirà poi il supporto per tipi di dati aggiuntivi. Per ulteriori informazioni è possibile visitare il blog Dynatrace OpenPipeline.

Dynatrace

Dynatrace (NYSE: DT) esiste per permettere a tutti i software del mondo di funzionare perfettamente. La nostra piattaforma unificata combina osservabilità estesa e sicurezza continua delle applicazioni a runtime con l’intelligenza artificiale ipermodale di Davis® per fornire risposte e automazione intelligente su larga scala basate sui dati. Ciò consente di modernizzare e automatizzare le attività cloud, rilasciare software più sicuro e più rapidamente, e assicurare un’esperienza digitale perfetta. Ecco perché le più grandi organizzazioni al mondo scelgono la piattaforma Dynatrace® per accelerare la trasformazione digitale. 

Vuoi semplificare il tuo cloud e massimizzare l’efficacia dei tuoi team digitali? Ti mostriamo come fare. Registrati e prova gratis Dynatrace per 15 giorni.

Linguaggio cautelativo relativo alle dichiarazioni previsionali

Attenzione alle dichiarazioni previsionali

Il presente comunicato stampa contiene alcune “dichiarazioni previsionali” ai sensi del Private Securities Litigation Reform Act del 1995, comprese le dichiarazioni relative alle capacità dell’IA generativa e di Dynatrace AI Observability e ai vantaggi previsti per le organizzazioni dall’utilizzo dell’IA generativa e di Dynatrace AI Observability. Queste dichiarazioni previsionali includono tutte le dichiarazioni che non sono fatti storici e le dichiarazioni identificate da parole come “farà”, “si aspetta”, “anticipa”, “intende”, “pianifica”, “crede”, “cerca”, “stima” e parole di significato simile. Queste dichiarazioni previsionali riflettono le nostre attuali opinioni su piani, intenzioni, aspettative, strategie e prospettive, che si basano sulle informazioni attualmente disponibili e su ipotesi da noi formulate. Sebbene riteniamo che i nostri piani, intenzioni, aspettative, strategie e prospettive, così come riflessi o suggeriti da tali dichiarazioni previsionali, siano ragionevoli, non possiamo garantire che i piani, le intenzioni, le aspettative o le strategie saranno raggiunti o realizzati. I risultati effettivi potrebbero differire materialmente da quelli descritti nelle dichiarazioni previsionali e saranno influenzati da una serie di rischi e fattori che sfuggono al nostro controllo, compresi i rischi indicati alla voce “Fattori di rischio” nella nostra relazione trimestrale sul modulo 10-Q depositata il 2 novembre 2023 e in altri nostri documenti SEC. Non ci assumiamo alcun obbligo di aggiornare le dichiarazioni previsionali contenute nel presente documento a seguito di nuove informazioni, eventi futuri o altro.

1 Gartner, Innovation Insight: Telemetry Pipelines Elevate the Handling of Operational Data, Gregg Siegfried, 20 luglio 2023. GARTNER è un marchio registrato e un marchio di servizio di Gartner, Inc. e/o delle sue affiliate negli Stati Uniti e a livello internazionale e viene utilizzato nel presente documento previa autorizzazione. Tutti i diritti riservati.

Translate »