Partage de technologie

Terrain d'essai : réalisez des expériences RAG en quelques minutes à l'aide des modèles anthropiques de Bedrock et d'Elasticsearch.

2024-07-12

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Auteur : d'ElasticJoe McElroy, Aditya Tripathi

Nous avons récemment publié Elasticsearch Playground, une nouvelle interface low-code qui permet aux développeurs d'itérer et de créer des applications RAG de production via des tests A/B LLM, des invites de réglage et une segmentation des données. Aujourd'hui, nous annonçons la prise en charge d'Amazon Bedrock pour Playground, vous proposant ainsi des choix de modèles encore plus basiques d'Amazon, Anthropic et d'autres fournisseurs leaders. Les développeurs utilisant Amazon Bedrock et Elasticsearch peuvent désormais optimiser la récupération des réponses à l'aide de données privées ou propriétaires (indexées dans un ou plusieurs index Elasticsearch).

Utilisez Amazon Bedrock pour l'inférence, les tests A/B du LLM et la récupération

L'interface Playground vous permet d'expérimenter et de tester A/B différents LLM des principaux fournisseurs de modèles tels qu'Amazon et Anthropic. Cependant, le choix d’un modèle n’est qu’une partie du problème. Les développeurs doivent également réfléchir à la manière de récupérer des résultats de recherche pertinents pour qu'ils correspondent étroitement à la taille de la fenêtre contextuelle du modèle (c'est-à-dire le nombre de jetons que le modèle peut gérer). La récupération de passages de texte plus longs que la fenêtre contextuelle peut entraîner une troncature, entraînant une perte d'informations. Le texte plus petit que la fenêtre contextuelle peut ne pas être intégré correctement, ce qui entraîne une représentation inexacte. La prochaine complexité pourrait provenir de la nécessité de combiner les extractions de différentes sources de données.

Playground combine de nombreuses fonctionnalités d'Elasticsearch dans une interface simple mais puissante pour adapter les flux de travail RAG :

  • Utilisez une liste croissante de sources de modèles, notamment Amazon Bedrock, pour choisir le LLM qui répond le mieux à vos besoins.
  • utiliser texte_sémantique, ajustez la stratégie de segmentation pour l'adapter à la taille de la fenêtre de données et de contexte.
  • utiliser Retrievers Ajouter un pipeline de récupération en plusieurs étapes (y compris la réorganisation)

Après avoir ajusté le contexte envoyé au modèle aux standards de production souhaités, vous pouvez exporter le code et compléter votre application à l'aide du client du langage Python Elasticsearch ou de l'intégration LangChain Python.

L'annonce d'aujourd'hui est approuvée API d'inférence ouverte L'intégration donne accès aux modèles hébergés sur Amazon Bedrock, ainsi qu'à l'utilisation du nouveautexte_sémantique Capacités de type de champ. Nous espérons vraiment que vous apprécierez cette expérience !

Playground reprend tous ces éléments composables et vous propose un véritable ensemble d'outils de développement pour une itération et un développement rapides à la vitesse demandée par les développeurs.

Utiliser l'aire de jeux

Dans Kibana (Elasticsearch UI), accédez à «Cour de récréation". Tout d'abord, vous devez vous connecter à un fournisseur de modèles proposant le LLM de votre choix qui complète le modèle via le chat d'assistance Amazon Bedrock (par exemple Anthropic).

Ce blog fournit des étapes et des instructions détaillées pour connecter et configurer l'expérience Playground.

Après vous être connecté à LLM et sélectionné un index Elasticsearch, vous pouvez commencer à poser des questions sur les informations contenues dans l'index. LLM apportera des réponses basées sur le contexte de vos données.

Connectez les index LLM et Elasticsearch sélectionnés avec des informations privées exclusives
Discutez instantanément avec vos données et évaluez la réponse d'un modèle (comme Anthropic Claude 3 Haiku dans ce cas)

Examinez et personnalisez les requêtes de texte et de récupération pour les index qui stockent les intégrations vectorielles

Obtenez le meilleur contexte à l’aide des récupérateurs et des recherches hybrides

Élastiquerecherche hybride Vous aide à créer la meilleure fenêtre contextuelle. Les fenêtres contextuelles efficaces sont construites à partir de différents types de données vectorisées et en texte brut, qui peuvent être distribuées sur plusieurs index.Les développeurs peuvent désormais profiter du nouveaurécupérateurs de requêtes pour simplifier la création de requêtes. À partir de la version 8.14, Elastic CloudSans serveur Trois nouveaux récupérateurs sont fournis et peuvent être utilisés avec une seule requête unifiéeRRF Recherche hybride normalisée. Vous pouvez stocker des données vectorisées et utiliser des récupérateurs kNN, ou ajouter des métadonnées et du contexte pour créer des requêtes de recherche hybrides.Bientôt, vous pourrez également ajouterReclassement sémantiquepour améliorer encore les résultats de recherche.

Utilisez Playground pour proposer rapidement une recherche conversationnelle

La création d'une expérience de recherche conversationnelle peut impliquer diverses approches, et les choix peuvent être écrasants, en particulier compte tenu de la rapidité avec laquelle de nouvelles technologies de reclassement et de récupération sont inventées, toutes deux adaptées aux applications RAG.

Avec notre Playground, ces choix sont simples et intuitifs, même si les développeurs ont accès à de multiples fonctionnalités. Notre approche unique consiste à s'appuyer immédiatement sur la recherche hybride comme pilier principal, à comprendre intuitivement la forme des données sélectionnées et fragmentées et à étendre l'accès à plusieurs fournisseurs externes de LLM.

Plus tôt cette année, Elastic a acquis AWS Prix ​​​​de la capacité d'IA générative , cet honneur est décerné à un très petit nombre de partenaires AWS qui fournissent des outils d'IA générative différenciés. L'approche d'Elastic visant à ajouter la prise en charge de Bedrock à l'expérience Playground suit le même principe : apporter des fonctionnalités nouvelles et innovantes aux développeurs Elastic Cloud sur AWS.

Construisez, testez et amusez-vous avec Playground

Vas-y maintenant Documentation du terrain de jeu commencez à utiliser !explorerGitHub Recherchez Labs pour en savoir plus sur les nouveaux playbooks et intégrations de fournisseurs tels que Cohere, Anthropic, Azure OpenAI, et plus encore.

Prêt à l'essayer vous-même ?commencerEssai gratuit
Vous souhaitez obtenir la certification Elastic ?Découvrez le prochain numéroFormation d'ingénieur ElasticsearchQuand commencer !

original:Aire de jeux : expérimentez RAG à l'aide de modèles anthropiques Bedrock et d'Elasticsearch en quelques minutes — Elastic Search Labs