Übergang zu OpenSearch
Rocco Gagliardi
Erweiterte Datenverwaltung mit OpenSearch
Dieser Artikel ist eine Fortsetzung des früheren Artikels Übergang zu OpenSource. In der vorangegangenen Publikation haben wir unseren Übergang von Graylog zu OpenSearch untersucht und die Gründe für diesen Übergang dargelegt. In diesem Artikel werden wir uns näher mit den Möglichkeiten von OpenSearch befassen, insbesondere mit seiner Fähigkeit, lokale oder entfernte maschinelle Lernsysteme mit Hilfe des OpenSearch Assistant Module zu integrieren. Diese Entwicklung stellt einen bedeutenden Schritt auf dem Weg zu einem verbesserten Datenmanagement dar und bietet Möglichkeiten zur verbesserten Analyse und Informationsextraktion aus unseren Protokollen.
Generative KI verändert die Art und Weise, wie Nutzer mit ihren Daten interagieren und Erkenntnisse aus ihnen gewinnen. OpenSearch unterstützt die k-NN Vektordatenbank seit ihrer Einführung, die für eine Vielzahl von Anwendungen, einschliesslich Similarity Research, Klassifizierung, Clustering und Zeitreihenanalyse, von entscheidender Bedeutung ist.
Sie erlaubt zum Beispiel:
OpenSearch hat auch das Konzept der Piped Processing Language (PPL) eingeführt, das es den Benutzern ermöglicht, verschiedene Operationen zu verketten, um Daten zu manipulieren und komplexe Ergebnisse zu erhalten. Das OpenSearch Assistant Module ist ein Framework zur Orchestrierung dieser verschiedenen Technologien, um KI-Assistenten direkt in OpenSearch Dashboards zu erstellen. Es umfasst “Fähigkeiten” für bestimmte Aufgaben, ein ML-Framework zur Integration von KI-Modellen und UI-Komponenten für Konversationsinteraktionen.
Diese Fähigkeiten können mit einem LLM verbunden werden, um Zusammenfassungen von Abfrageergebnissen zu generieren, während die Sicherstellung einer intuitiven und interaktiven Benutzererfahrung von OpenSearch Dashboards so einfach war wie die Einbindung der UI-Suchleistenkomponente in unsere Log-Explorationsoberfläche.
Unterstützte Modelle können lokal oder extern sein. Im Falle lokaler Modelle können Sie vortrainierte Modelle verwenden oder sie unter Berücksichtigung lokaler Hardwarebeschränkungen an Ihren Anwendungsfall anpassen. Sie können sich aber auch für externe Modelle entscheiden, wie z. B. ChatGPT 3.5, oder andere.
Für Details zur Integration von OpenSearch Assistant: RFC – OpenSearch Assistant Toolkit
Wenn Details zu komplex werden, entstehen in unseren Köpfen Bilder von Affen mit Tamburinen, die sich im Kreis drehen. Stellen Sie sich vor, Sie könnten mit Daten interagieren, indem Sie Fragen in natürlicher Sprache statt in Regex stellen. Dank der LLMs ist es möglich, den Analyseprozess zu vereinfachen, ihn so interaktiv zu gestalten, wie wir es seit der Grundschule gewohnt sind, und sich auf die Ergebnisse zu konzentrieren.
LLMs stellen einen Wendepunkt in der Entwicklung von Maschinen hin zu mehr Flexibilität dar. Auch wenn sie nicht immer die perfekte Antwort liefern, ermutigt diese Ungenauigkeit die Nutzer, zu interagieren und die Anfragen zu verfeinern. Es ist ein iterativer Prozess, der manchmal Zeit braucht, aber letztendlich relevantere und nützlichere Ergebnisse liefert.
Unter den speziellen “Fähigkeiten”, die kombiniert werden können, ist eine besonders auf die Umwandlung der vom Benutzer eingegebenen natürlichsprachlichen Eingabeaufforderung in eine PPL-Abfrage ausgerichtet. Die Zeiten, in denen man Regex beherrschen musste, um Daten zu manipulieren, könnten mit dem Aufkommen der LLMs vorbei sein. Jetzt können Sie sie bitten, automatisch die notwendigen Formeln zum Filtern und Synthetisieren von Daten zu generieren. Für den Benutzer erscheint das Modul OpenSearch Assistant als Feld, in das eine beliebige Frage zu den Daten eingegeben werden kann. Im Hintergrund werden die Fragen interpretiert und in PPL umgewandelt, sodass nicht nur Antworten, sondern auch nützliche Vorschläge zur weiteren Verfeinerung der Abfragen möglich sind.
Wir sehen uns einige einfache Beispiele an, aber der Rat ist, eine docker-compose.yml-Datei herunterzuladen und den Cluster in Ihrer Infrastruktur mit Ihren Daten zu betreiben.
Wir können mit einer generischen Anfrage beginnen, um die Probleme aufzuzeigen. Zu bestimmen, was als Problem einzustufen ist, ist die Aufgabe der allgemeinen oder individuellen “Fähigkeiten”.
In ähnlicher Weise können wir die Visualisierung der Daten anfordern.
Der interessanteste und vielversprechendste Aspekt, wenn man die möglichen Integrationen bedenkt, ist die Möglichkeit, unsere Daten mit Kontext zu versehen.
Wir untersuchten die Entwicklung von OpenSearch in Richtung fortschrittlicher Datenverwaltung und -analyse, wobei wir uns auf die Integration von Funktionen für maschinelles Lernen konzentrierten. Wir haben untersucht, wie die Unterstützung von OpenSearch für k-NN-Vektordatenbanken und die Einführung der Piped Processing Language (PPL) die Effizienz der Datenmanipulation verbessert.
Das Ergebnis ist das OpenSearch Assistant Module, das die Erstellung von KI-Assistenten innerhalb von OpenSearch Dashboards und die Integration lokaler oder externer KI-Modelle erleichtert. Wir haben auch Beispiele von Sprachmodellmodellen (LLMs) untersucht, die die Datenanalyse durch natürlichsprachliche Interaktionen trotz gelegentlicher Ungenauigkeit vereinfachen.
Hinter der scheinbaren Einfachheit einer Eingabeaufforderung verbirgt sich die komplexe Integration verschiedener Technologien und Methoden seit den Anfängen von OpenSearch, einschliesslich der Unterstützung von Vektordatenbanken und der Implementierung unkomplizierter, aber miteinander verknüpfbarer “Fähigkeiten”. Darüber hinaus hat die Integration von zunehmend verfeinerten und kompakten vortrainierten LLM-Modellen die Entwicklung des OpenSearch-Assistentenmoduls vertieft.
Unsere Spezialisten kontaktieren Sie gern!
Rocco Gagliardi
Rocco Gagliardi
Rocco Gagliardi
Rocco Gagliardi
Unsere Spezialisten kontaktieren Sie gern!