Big Data

Apache Rya: Big-Data-Datenbank wird Top-Level-Projekt

Apache Rya wird zum Top-Level-Projekt (TLP) erhoben. Die Cloud-basierte Triplestore-Datenbank soll Abfragen in Millisekunden bewältigen, Milliarden von verknüpften Datensätzen speichern und so zum Beispiel potenzielle Bedrohungen vorhersehen können. Die Technologie wird unter anderem vom amerikanischen Verteidigungsministerium eingesetzt und wurde ursprünglich vom Institute for Telecommunication Sciences (IST) entwickelt, einer Abteilung des U.S. Department of Commerce (DOC).

Public Cloud: „Jedes System ist angreifbarer, sobald es eine Adresse im Internet besitzt. Was soll es helfen, dass es in eigenen Räumen steht und ich meine Admins kenne?“

Während die Public Cloud in der Vergangenheit eher als Angriffsfläche für Hacker angesehen wurde, gewinnt sie aktuell zunehmend an Aufwind. Wir sprachen mit Bernd Rederlechner, Lead Architects of PU DIgital Solutionsbei T-Systems, über die Vorzüge der Public Cloud, wie hoch das Sicherheitsrisiko tatsächlich ist und wie Automatisierung dabei helfen kann, unabhängig zu bleiben.

Java 13, GitLab 12.0 und Big-Data-Architekturen – Unsere Top-Themen der Woche

Die Temperaturen sind heiß – unsere Top-Themen der vergangenen Woche noch heißer: Bei Java 13 hat die Rampdown-Phase Nummer 1 begonnen. GitLab 12.0 kommt und bringt ein neues Ops-Dashboard mit, das die Übersicht über mehrer Projekte ermöglicht. Außerdem hat Microsoft einen Visual Studio Code Installer für Java veröffentlicht und es gibt eine neue Ausgabe unserer Artikelserie Women in Tech.

Verlässliche Blockchain-Anwendungen: Lösungen für das Orakelproblem

Blockchain-basierte Anwendungen sind seit einigen Jahren in aller Munde. Dabei ist es immer sehr leicht, von der „dezentralen Revolution“ zu sprechen, und das Management hat bestimmt schon viele tolle Ideen, wie man das eigene Produkt mit einer dezentralisierten App (DApp) verbessern kann. Dass aber auch handfeste technische Probleme auf dem Weg liegen können, fällt nicht unbedingt auf den ersten Blick auf. Dieser Artikel führt deshalb in das „Orakelproblem“ ein, bei dem es um den simpel erscheinenden Prozess der Eingabe in Blockchain-Anwendungen geht.

Machine Learning goes E-Mobility: Mit Datenanalyse die Elektromobilität vorantreiben

Datenanalyse ist eine der wichtigsten Kompetenzen, wenn es darum geht, den Erkenntnisgewinn zu steigern und Wettbewerbsvorteile auszubauen. Von einer konkreten Fragestellung bis zur Darstellung eines aussagekräftigen Ergebnisses ist es jedoch ein weiter Weg. Welche Aufgaben sind mit einem typischen Analyse-Prozess verbunden? Welche Stufen der Analyse gibt es? Welche Methoden und Abläufe kommen zum Einsatz, um den Analyse-Prozess umzusetzen? Welche Kompetenzen benötigt ein Analyse-Team? Neben Antworten auf diese Fragen präsentiert der folgende Artikel, welche Architekturen und Technologien für die Implementierung von Predictive-Analytics-Komponenten infrage kommen. Beispiele aus einem konkreten Anwendungsfall, der Analyse von Daten aus Ladeparks, illustrieren die vorgestellten Konzepte und Methoden.

Datenmanagement als Erfolgsfaktor: Der Weg zum datengetriebenen Unternehmen

Die Digitalisierung verändert die Unternehmen und die Gesellschaft von innen heraus und hat großen Einfluss auf Geschäftsmodelle. Die Fähigkeit, aus vorhandenen Daten Mehrwert zu ziehen, wird zum Wettbewerbsfaktor. Unzureichendes Datenmanagement ist gleichzeitig ein Risiko in der Informationssicherheit. Die erforderliche Transformation zum datengetriebenen Unternehmen stellt hohe Anforderungen an Unternehmen. Es hilft, Best Practices für die erfolgreiche Einführung zu folgen.

Advanced JPA: Persistenztricks für Fortgeschrittene

Aus diversen Projekterfahrungen haben sich beim Einsatz des Java Persistence API für die Entwicklung von Applikationen einige Best Practices herauskristallisiert, die sich als äußerst nützlich erwiesen haben. Die Erweiterung des DAO-Patterns, ein weiterführendes Konzept zum Schreiben von Testfällen und die Möglichkeit, mit Entitätsobjekten eine Vererbung abzubilden, sind Punkte, die an dieser Stelle diskutiert werden.

Apache Flink: Modernes Stream Processing für Big Data und Machine Learning

Für das Stream Processing gab es bereits vor Apache Flink Frameworks wie Apache Spark und Apache Kafka. Während diese beiden Frameworks allerdings erst im Nachhinein auf die Datenstrom-Verarbeitung optimiert wurden, wurde Apache Flink für diesen Anwendungszweck von Grund auf designt. Fabian Hueske, Co-Founder und Software Engineer bei data Artisans, spricht im Interview über die Unterschiede zwischen den Frameworks und die Zukunft des Stream Processings.