Technologieaustausch

Testgelände: Führen Sie RAG-Experimente in wenigen Minuten mit Bedrock Anthropic Models und Elasticsearch durch

2024-07-12

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Autor: von ElasticJoe McElroy, Aditya Tripathi

Wir haben kürzlich Elasticsearch Playground veröffentlicht, eine neue Low-Code-Schnittstelle, die es Entwicklern ermöglicht, Produktions-RAG-Anwendungen durch A/B-Tests von LLM, Optimierungsaufforderungen und Chunking von Daten zu iterieren und zu erstellen. Heute kündigen wir die Unterstützung von Amazon Bedrock für Playground an und bieten Ihnen damit eine noch größere Auswahl an Basismodellen von Amazon, Anthropic und anderen führenden Anbietern. Entwickler, die Amazon Bedrock und Elasticsearch verwenden, können jetzt den Abruf von Antworten mithilfe privater oder proprietärer Daten (indiziert in einem oder mehreren Elasticsearch-Indizes) optimieren.

Verwenden Sie Amazon Bedrock für Inferenz, A/B-Tests von LLM und Abruf

Über die Playground-Schnittstelle können Sie verschiedene LLMs führender Modellanbieter wie Amazon und Anthropic experimentieren und A/B-Tests durchführen. Allerdings ist die Wahl eines Modells nur ein Teil des Problems. Entwickler müssen auch überlegen, wie relevante Suchergebnisse so abgerufen werden können, dass sie genau der Kontextfenstergröße des Modells entsprechen (d. h. der Anzahl der Token, die das Modell verarbeiten kann). Beim Abrufen von Textpassagen, die länger als das Kontextfenster sind, kann es zu Abschneidungen und damit zu Informationsverlusten kommen. Text, der kleiner als das Kontextfenster ist, wird möglicherweise nicht richtig eingebettet, was zu einer ungenauen Darstellung führt. Die nächste Komplexität könnte darin bestehen, dass Abrufe aus verschiedenen Datenquellen kombiniert werden müssen.

Playground vereint viele Elasticsearch-Funktionen in einer einfachen, aber leistungsstarken Oberfläche zur Anpassung von RAG-Workflows:

  • Nutzen Sie eine wachsende Liste von Modellquellen, einschließlich Amazon Bedrock, um das LLM auszuwählen, das Ihren Anforderungen am besten entspricht
  • verwenden semantischer_text, passen Sie die Chunking-Strategie an die Daten- und Kontextfenstergröße an
  • verwenden Retriever Mehrstufige Abrufpipeline hinzufügen (einschließlich Neuordnung)

Nachdem Sie den an das Modell gesendeten Kontext an die gewünschten Produktionsstandards angepasst haben, können Sie den Code exportieren und Ihre Anwendung mithilfe des Python-Elasticsearch-Sprachclients oder der LangChain-Python-Integration vervollständigen.

Die heutige Ankündigung wird genehmigt Öffnen Sie die Inferenz-API Die Integration bietet Zugriff auf Modelle, die auf Amazon Bedrock gehostet werden, sowie die Nutzung der neuensemantischer_text Feldtypfunktionen. Wir hoffen wirklich, dass Ihnen dieses Erlebnis gefällt!

Playground nutzt alle diese zusammensetzbaren Elemente und bietet Ihnen ein echtes Entwickler-Toolset für schnelle Iteration und Entwicklung mit der von Entwicklern geforderten Geschwindigkeit.

Benutzen Sie den Spielplatz

Navigieren Sie in Kibana (Elasticsearch-Benutzeroberfläche) zu „Spielplatz„Zunächst müssen Sie sich über den Amazon Bedrock-Support-Chat mit einem Modellanbieter verbinden, der das LLM Ihrer Wahl anbietet.

Dieser Blog bietet detaillierte Schritte und Anweisungen zum Verbinden und Konfigurieren des Playground-Erlebnisses.

Nachdem Sie eine Verbindung zu LLM hergestellt und einen Elasticsearch-Index ausgewählt haben, können Sie Fragen zu den Informationen im Index stellen. LLM liefert Antworten basierend auf dem Kontext Ihrer Daten.

Verbinden Sie ausgewählte LLM- und Elasticsearch-Indizes mit privaten proprietären Informationen
Chatten Sie sofort mit Ihren Daten und bewerten Sie die Reaktion eines Modells (wie in diesem Fall Anthropic Claude 3 Haiku).

Überprüfen und passen Sie Text- und Retriever-Abfragen für Indizes an, die Vektoreinbettungen speichern

Erhalten Sie mithilfe von Retrievern und Hybridsuchen den besten Kontext

ElastischHybridsuche Hilft Ihnen, die besten kontextbezogenen Fenster zu erstellen. Effektive Kontextfenster werden aus verschiedenen Arten vektorisierter und reiner Textdaten erstellt, die über mehrere Indizes verteilt werden können.Entwickler können nun die Vorteile des Neuen nutzenAbfrage-Retriever um die Abfrageerstellung zu vereinfachen. Ab Version 8.14, Elastic CloudServerlos Es stehen drei neue Retriever zur Verfügung, die mit nur einer einheitlichen Abfrage verwendet werden könnenRRF Normalisierte Hybridsuche. Sie können vektorisierte Daten speichern und kNN-Retriever verwenden oder Metadaten und Kontext hinzufügen, um hybride Suchabfragen zu erstellen.Bald können Sie auch hinzufügenSemantisches Re-Rankingum die Suchergebnisse weiter zu verbessern.

Verwenden Sie Playground, um eine Konversationssuche schnell bereitzustellen

Der Aufbau einer Konversationssucherfahrung kann mehrere Ansätze erfordern, und die Auswahl kann überwältigend sein, insbesondere angesichts der Geschwindigkeit, mit der neue Re-Ranking- und Retrieval-Technologien erfunden werden, die beide für RAG-Anwendungen geeignet sind.

Mit unserem Playground sind diese Auswahlmöglichkeiten einfach und intuitiv, auch wenn Entwickler Zugriff auf mehrere Funktionen haben. Unser einzigartiger Ansatz besteht darin, sofort auf der Hybridsuche als Hauptpfeiler aufzubauen, die Form ausgewählter und geblockter Daten intuitiv zu verstehen und den Zugriff auf mehrere externe Anbieter von LLMs zu erweitern.

Anfang des Jahres hat Elastic AWS übernommen Auszeichnung für generative KI-Fähigkeit Diese Ehre wird einer sehr kleinen Anzahl von AWS-Partnern zuteil, die differenzierte generative KI-Tools bereitstellen. Der Ansatz von Elastic, Bedrock-Unterstützung zum Playground-Erlebnis hinzuzufügen, folgt dem gleichen Prinzip: Es bietet den Entwicklern von Elastic Cloud on AWS neue und innovative Funktionen.

Bauen, testen und haben Sie Spaß mit Playground

Geh jetzt Spielplatzdokumentation Beginnen Sie mit der Verwendung!erkundenGitHub Durchsuchen Sie Labs auf, um mehr über neue Playbooks und Integrationen von Anbietern wie Cohere, Anthropic, Azure OpenAI und mehr zu erfahren.

Bereit, es selbst auszuprobieren?StartKostenlose Testphase
Möchten Sie sich von Elastic zertifizieren lassen?Informieren Sie sich über die nächste AusgabeAusbildung zum Elasticsearch-IngenieurWann anfangen?

Original:Spielplatz: Experimentieren Sie in wenigen Minuten mit RAG unter Verwendung von Bedrock Anthropic Models und Elasticsearch – Elastic Search Labs