Big Data Management seit 40 Jahren: Selbst nach Anwendung von Tuning-Maßnahmen ist die Transformation großer Datensätze (über eine Million Zeilen) in DataStage immer noch zeitaufwendig, insbesondere ohne teure Hardware-Upgrades oder Aktualisierungen der Software. Besonders rechenintensive Aufgaben wie Sortieren, Zusammenführen, Aggregieren und Laden großer Datenmengen können zu Engpässen führen. Die Parallelisierung […]
Firma JET-Software
Push von Informatica: ETL- und ELT-Jobs einfach beschleunigen oder neu gestalten! Eine Möglichkeit zur Optimierung Ihrer Informatica ETL-Jobs besteht darin, sie zu beschleunigen oder neu zu gestalten. Bei der Verarbeitung großer Datenmengen in PowerCenter können verschiedene Herausforderungen auftreten, die zu Verzögerungen führen können. Dies kann insbesondere bei Operationen wie Sortieren, […]
Big Data Management seit 40 Jahren: In früheren Artikeln in unserem Blog-Bereich für Business Intelligence haben wir bereits beschrieben, wie die Verarbeitung von Daten mithilfe unseres Produkts IRI CoSort und der Datenverwaltungsplattform IRI Voracity die Zeitspanne bis zur Datenvisualisierung und somit zu nutzbaren Erkenntnissen in BI-Tools erheblich verkürzen kann. Dieser […]
Big Data Management seit 40 Jahren: Sybase war ein äußerst beliebtes Softwareunternehmen in den 1990er und 2000er Jahren, das Lösungen für die Verwaltung und Analyse von Daten in relationalen Datenbanken im großen Maßstab anbot. Im Jahr 2010 wurde Sybase von SAP übernommen und bis 2012 als Tochtergesellschaft betrieben, bevor es […]
Big Data Management seit 40 Jahren: Die IRI Voracity Data Munging & Masking App für Splunk ist der beste Weg, um die unzähligen Datenziele von IRI Voracity und seinen Komponenten Data Discovery, Integration, Migration, Governance und analytische Operationen in Splunk Enterprise oder Splunk Enterprise Security einzuspeisen. Der Vorteil von all […]
Big Data Management: Milliarden von Zeilen in Minuten! IRI FACT™(Fast Extract) ist ein Dienstprogramm zum parallelen Entladen von sehr großen Datenbanktabellen. FACT verwendet einfache Job-Skripte (unterstützt in einer vertrauten Eclipse-GUI), um schnell portable Flat-Files zu erstellen. FACT verwendet native Datenbank-APIs und parallele Verarbeitung, um Tabellen schneller in Flat-Fiels umzuwandeln als […]
Real-Time Change Data Capture: Gespeicherte Transaktionsdaten werden in jeder Branche ständig erzeugt und aktualisiert. Datenbanktabellen können mit neuen Daten aus Anwendungen oder Ereignissen in Intervallen aktualisiert werden, die nur den Bruchteil einer Sekunde betragen. Führende Unternehmen überwachen, verschieben und verarbeiten Datenbank-Daten, die sich ändern, damit die Benutzer in der Lage […]
Big Data Management seit 40 Jahren: Es gibt bestimmte Herausforderungen, die mit großen Datenmengen verbunden sind, wie bspw. das Sortieren, Verbinden, Aggregieren, Laden und Entladen von Daten. Die parallele Verarbeitung oder Optimierung in anderen Bereichen oder Tools kann umständlich sein und möglicherweise hohe Kosten verursachen. Zudem kann dies die Leistung […]
Big Data Management seit 40 Jahren: Präzise Lokalisierung und konsistente Anonymisierung sensibler Daten in strukturierten, semistrukturierten und unstrukturierten Quellen! Ungenügend gesicherte Daten können den Ruf Ihres Unternehmens schädigen und hohe Bußgelder verursachen. Die preisgekrönten datenzentrischen ("Startpunkt") IRI-Sicherheitsprodukte haben sich in einer Vielzahl von Umgebungen zur Aufhebung von Verstößen, Einhaltung des […]
Big Data Management seit 40 Jahren: Pentaho Data Integration ist zwar ein leistungsfähiges Werkzeug zur Aufbereitung und Integration von Daten, weist aber einige (Sicherheits-)Mängel auf! Langsame Datentransformation: Native Sorts usw. laufen möglicherweise nicht schnell genug und nicht bei großer Menge. Eingeschränkter Datenschutz: Daten, die durch Pentaho fließen, können nicht maskiert […]