IBM Symphony orchestriert technische und große Datenanwendungen

Rohit Valia, von IBM ‘s Platform Computing Gruppe, von den anderen Tag hielt mich auf einige herausragende technische Computing zu füllen und Big Data-Benchmark-Ergebnisse, die IBM Platform Symphony und LSF Produkte erzeugt wurden. Die Ergebnisse waren beeindruckend.

Wenn mich die Leute, die Ergebnisse ihrer Benchmarks zeigen wollen, in der Regel bin ich an ein Zitat erinnert: “Es gibt drei Arten von Lügen:. Lügen, verdammte Lügen und Statistiken” Das wird oft entweder Benjamin Disraeli oder Mark Twain zugeschrieben. Hätte der Autor über sie, Benchmarks hätte sicherlich in die Liste aufgenommen worden.

Unabhängig davon, wer für diese Aussage tatsächlich verantwortlich ist, ist es oft der Fall, dass die Lieferanten nutzen und Missbrauch Benchmarks in der Hoffnung zu gewinnen potenzielle Kunden auch dann, wenn die Benchmark nur wenig oder gar nichts mit den Kunden vorgeschlagen Einsatz von Systemen zu tun. Warum tun Lieferanten dies? Es ist, weil es sehr schwierig ist zu wissen, vor der Zeit, wie ein Cluster oder Grid-Computing-Lösung wird wirklich durchführen, bis eine bestimmte Arbeitsbelastung installiert und im realen Leben verwendet wird.

Da die Anbieter nicht in der Lage sind, komplexe, teure Computerlösungen wegzugeben, versuchen sie zu zeigen, was für eine etwas ähnliche Arbeitsbelastung für eine bestimmte Konfiguration gemacht werden kann. Die Benchmarks IBM zitiert sind weitgehend zu zeigen, wie bestimmte Arten von Cluster-oder Grid-basierte Computing-Lösungen durchführen werden.

Wird ein Kunde sehen die gleiche oder ähnliche Leistung, die ihre eigenen Anwendungen ist eine zentrale Frage. Die Antwort ist natürlich, “es kommt darauf an.” Sehr ähnliche Arbeitsbelastungen, die auf sehr ähnliche Systemkonfigurationen ausgeführt werden, die von Personen mit sehr ähnlicher Kompetenz für die IBM-Leute eingerichtet wurden, sehen wahrscheinlich eine sehr ähnliche Leistung. Workloads, die ganz anders sind, die auf Konfigurationen ausgeführt werden, die ganz anders sind und von Personen mit ganz unterschiedlichen Kompetenzen konfiguriert wurden, werden wahrscheinlich anders ausführen.

Was meine Aufmerksamkeit war die enorme Leistungsverbesserungen angeboten durch Einfügen IBM Platform Symphony oder LSF in eine Umgebung, wenn sowohl die Software und die Systemkonfigurationen waren identisch getestet. Ich war zwar nicht völlig überrascht von den Ergebnissen, da ich seit fast zwei Jahrzehnten mit Platform Computing zusammenarbeite, die Ergebnisse waren beeindruckend.

Der Punkt IBM versucht zu machen, dass eine intelligente Orchestrierung-Tool, das die Bemühungen von Tausenden von Systemen zur Verwaltung konzipiert ist, kann ein großer Unterschied in der Leistung, Effizienz und reduzierte Kosten machen scheint gut durch die Benchmark-Ergebnisse unterstützt werden. Ich muss mich jedoch fragen, ob ähnliche Ergebnisse durch die Verwendung anderer Orchestrierungs-Software erreicht werden könnten, wie das bekannte Beowulf-Projekt. Da diese Art von Konfiguration nicht getestet wurde, wissen wir nicht, die Antwort auf diese Frage.

Wenn Ihr Unternehmen für technisches Computing beteiligt ist, High Performance Computing oder Big Data, wäre es klug, zu schauen, was IBM tat mehr darüber zu erfahren, wie sowohl die Leistung und Effizienz Ihres Betriebs zu verbessern. Darüber hinaus werden Sie wahrscheinlich feststellen, dass Sie die gleichen Dinge mit einem viel kleineren Systemkonfiguration erreichen kann, wenn eine niedrige Latenzzeit Orchestrierung Tool wie Symphony ist die Ressourcennutzung zu optimieren.

Die Terasort Benchmark lief 40 Mal schneller BigInsights 1.3.0.1 und Platform Symphony mit 5,2; A MapReduce Test lief 63-mal schneller mit Platform Symphony 5.2 als eine ähnliche Konfiguration, die Apache MapReduce nur verwendet, die Berkley SWIM Test lief 6-mal schneller Hadoop mit 1,0. 1 kombiniert mit Platform Symphony als Hadoop 1.0.1 alleine verwalten konnte.

LinkedIn stellt seine neue Blogging-Plattform vor

Ist dies das Alter von Big OLAP?

Social Data LinkedIn stellt seine neue Blogging-Plattform, Big Data Analytics, ist das Alter von Big OLAP, Big Data Analytics, DataRobot zielt auf die Automatisierung von Low-hanging Obst der Datenwissenschaft, Big Data Analytics, MapR Gründer John Schroeder Schritte, COO zu ersetzen

DataRobot zielt auf die Automatisierung von tiefgreifenden Datenwissenschaften ab

MapR-Gründer John Schroeder geht nach unten, COO zu ersetzen

Schnappschussanalyse