2024-07-11
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
No entraré en demasiados detalles sobre la IA en sí aquí, sino que me centraré más en las aplicaciones de nivel superior.
Cuando hablamos de un modelo de lenguaje grande, nos referimos a una pieza de software que puede "hablar" de manera similar al lenguaje humano.Estos modelos son sorprendentes: son capaces de tomar contexto y generar respuestas que no sólo son coherentes sino que parecen provenir de humanos reales.
Estos modelos de lenguaje funcionan analizando grandes cantidades de datos de texto y patrones de aprendizaje en el uso del lenguaje.Explotan estos patrones para generar texto que es casi indistinguible de lo que dicen o escriben los humanos.
Si alguna vez conversó con un asistente virtual o interactuó con un agente de servicio al cliente de IA, probablemente haya interactuado con un modelo de lenguaje grande sin siquiera darse cuenta. ¡Estos modelos tienen una amplia gama de aplicaciones, desde chatbots hasta traducción de idiomas y contenido! creación y más
¿Por qué necesito abrir un capítulo separado para "comprender" los modelos de lenguaje grandes después de tener una descripción general de los modelos de lenguaje grandes anteriores? Porque esto le permitirá saber mejor qué es un modelo de lenguaje grande, comprender su límite superior y también. nos facilite mejorar la capa de aplicación.
En primer lugar, podemos decir de manera general que el aprendizaje automático consiste en encontrar una "función" compleja especial que pueda transformar nuestra entrada en la salida deseada. Por ejemplo, si esperamos ingresar 1 y generar 5 para ingresar 2 y generar 10, entonces esta función puede ser y = 2 * x.O si ingresamos una imagen de un gato, quiero que genere la palabra "gato", o si ingreso "hola", generará "hola", etc.
De hecho, esto puede considerarse esencialmente como un problema matemático. Por supuesto, el problema real será mucho más complicado que el ejemplo anterior.
1. En los primeros tiempos, la gente siempre quería hacer que las máquinas pensaran como personas. En ese momento, la gente promovía principalmente la "escuela de vuelo de pájaros", basada en la biónica, cuando la gente veía un pájaro volar, aprendía a volar aleteando. alas. Luego esperaban que la máquina hiciera lo mismo. Pero este efecto no es muy bueno. No existe un "conocimiento del mundo" (el conocimiento del mundo es el conocimiento predeterminado en su cerebro que es bien conocido e instintivo sin pensar). Es enorme y es difícil resolver el problema de los múltiples significados en una palabra.En términos generales, es demasiado complejo para imitar el cerebro humano y es difícil lograrlo simplemente utilizando códigos y funciones.
2. Era de la Inteligencia Artificial 2.0: implementación basada en datos de la “inteligencia artificial basada en estadísticas”. ¿Por qué han surgido todo tipo de modelos grandes como hongos después de una lluvia tras la aparición de GPT3? De hecho, la mayoría de las empresas han estado investigando la IA durante mucho tiempo, pero en los primeros días, todos cruzaban el río sintiendo las piedras. Aunque había muchos planes e ideas, no se atrevían a aumentar su inversión en sementales. Todos estaban dentro de un alcance limitado. La aparición de GPT3 permitió a todos ver que un determinado método es factible, que consiste en utilizar cantidades masivas de datos para calcular estadísticas. Los cambios en el uso conducen a cambios cualitativos, por lo que en los casos exitosos, todos sabían que este método era factible, por lo que todos. Empezó Incrementar la inversión y tomar este camino.
3. Los macrodatos pueden hacer que el nivel de inteligencia de las máquinas avance; la mayor importancia del uso de grandes cantidades de datos es permitir que las computadoras completen cosas que solo los humanos podían hacer en el pasado.
De modo que la clave del problema pasa a ser una cuestión de probabilidad. Actualmente, los modelos grandes calculan una probabilidad a partir de datos masivos para determinar la probabilidad más alta del siguiente texto o de un determinado párrafo de texto en el medio, y luego lo generan.De hecho, la esencia no es generar cosas nuevas, sino razonar.
Por ejemplo, pregúntele dónde está la capital de China.La palabra clave extraída a través del algoritmo es que la capital de China es
Luego, el modelo grande calcula a partir de datos masivos que la capital de China es la palabra más probable seguida por Beijing, por lo que generará el resultado correcto.
Los modelos grandes se basan en el "aprendizaje de memoria" de cantidades masivas de datos para lograr las capacidades actuales.
Por lo tanto, la calidad de los datos para entrenar modelos grandes también es muy crítica. Al mismo tiempo, casi podemos pensar en el límite superior de los modelos grandes.
AIGC, o contenido generado por inteligencia artificial, es una tecnología que utiliza algoritmos de aprendizaje automático para generar automáticamente varios tipos de contenido, incluidos texto, imágenes, audio y video. Al analizar grandes cantidades de datos, los sistemas AIGC aprenden patrones de lenguaje, visuales y de audio para crear contenido nuevo que sea similar o incluso indistinguible del contenido creado por humanos.
Es probable que todo el trabajo digital sea subvertido por los "grandes modelos"
La mayor parte de nuestro trabajo actual en la capa de aplicación pertenece al sistema AIGC.
Después de GPT3.5, los modelos grandes ya pueden utilizar herramientas.
• Complementos y redes: compensan la falta de memoria del modelo grande en sí, lo que marca el inicio oficial del aprendizaje del LLM sobre el uso de herramientas.
• Función: LLM aprende a llamar a API para completar tareas complejas, que es el trabajo principal de los ingenieros de back-end (dar instrucciones a Gorilla llamará automáticamente a difusión y otros modelos para implementar tareas multimodales como dibujo y diálogo).
• Deje que el modelo "piense": oriente a los modelos grandes para que tengan capacidades lógicas, el núcleo está en: "Herramienta de memoria de planificación"
De hecho, la implementación de proyectos de IA es la misma que la de los proyectos ordinarios. El núcleo del establecimiento inicial del proyecto debe ser comprender claramente los problemas centrales que el proyecto pretende resolver, luego expandir el pensamiento y luego implementarlo. análisis de demanda, selección de tecnología, etc.No somos muy buenos diseñando modelos grandes para la investigación en la capa de aplicación. Por lo general, llamamos directamente a API o implementamos modelos grandes locales de código abierto.
Cualquiera que haya estado un poco expuesto a la IA puede conocer las indicaciones. En 2022-2023, la investigación inicial sobre la IA todavía se basará en esto, es decir, cómo hacer preguntas para que la IA comprenda mejor su significado y preste atención a su clave. puntos y luego proporcionar respuestas de mejor calidad.
El umbral es relativamente bajo y la mayoría de las aplicaciones de modelos grandes están diseñadas con Prompt.Poder satisfacer algunas necesidades depende de las capacidades del modelo básico.
RAG (Retrieval-Augmented Generation) es una tecnología de inteligencia artificial que combina modelos de recuperación y modelos de generación. Mejora las capacidades de respuesta de grandes modelos de lenguaje (LLM) al recuperar información relevante de una base de conocimientos o base de datos y combinarla con consultas de los usuarios. La tecnología RAG puede mejorar la precisión y relevancia de las aplicaciones de IA, especialmente en escenarios que tratan con conocimientos de dominios específicos o requieren la información más reciente.
El principio de funcionamiento de RAG incluye principalmente dos pasos:
Sin embargo, este umbral es relativamente alto y existen ciertos requisitos de potencia informática, datos y algoritmos.
Objetivo: realizar una verificación de viabilidad, diseñar un prototipo basado en los requisitos comerciales y crear PromptFlow para probar los supuestos clave.
Objetivo: Evaluar la solidez de las soluciones en una gama más amplia de conjuntos de datos y mejorar el rendimiento del modelo mediante técnicas como el ajuste fino (SFT) y la generación de recuperación aumentada (RAG).
Objetivo: Garantizar el funcionamiento estable del sistema AIGC, integrar los sistemas de monitoreo y alarma y lograr una integración y un despliegue continuos (CI/CD)
Los fragmentos de contenido principal son la base textual que se utiliza junto con instrucciones para aumentar significativamente su eficacia.
Métodos específicos para lograr el contenido principal, que incluyen:
Al mostrarle al modelo cómo generar resultados en función de instrucciones dadas, el modelo puede inferir patrones de resultados, ya sea aprendizaje de disparo cero, de un disparo o de pocos disparos.
Proporcionar pistas a modelos grandes para guiarlos en el razonamiento lógico en una dirección clara es similar a proporcionar una fórmula paso a paso para ayudar al modelo a obtener la respuesta gradualmente.
El valor de las plantillas radica en la creación y publicación de bibliotecas de indicaciones para áreas de aplicación específicas que han sido optimizadas para el contexto o ejemplo específico de la aplicación.
# 职位描述:数据分析助手
## 角色
我的主要目标是为用户提供专家级的数据分析建议。利用详尽的数据资源,告诉我您想要分析的股票(提供股票代码)。我将以专家的身份,为您的股票进行基础分析、技
术分析、市场情绪分析以及宏观经济分析。
## 技能
### 技能1:使用Yahoo Finance的'Ticker'搜索股票信息
### 技能2:使用'News'搜索目标公司的最新新闻
### 技能3:使用'Analytics'搜索目标公司的财务数据和分析
## 工作流程
询问用户需要分析哪些股票,并按顺序执行以下分析:
**第一部分:基本面分析:财务报告分析
*目标1:对目标公司的财务状况进行深入分析。
*步骤:
1. 确定分析对象: