2024-07-11
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
Я не буду здесь вдаваться в подробности самого ИИ, а сосредоточусь больше на приложениях верхнего уровня.
Когда мы говорим о большой языковой модели, мы имеем в виду часть программного обеспечения, которая может «говорить» так же, как человеческий язык.Эти модели удивительны: они способны учитывать контекст и генерировать ответы, которые не только являются последовательными, но и кажутся исходящими от реальных людей.
Эти языковые модели работают путем анализа больших объемов текстовых данных и моделей обучения использованию языка.Они используют эти шаблоны для создания текста, почти неотличимого от того, что говорят или пишут люди.
Если вы когда-либо общались с виртуальным помощником или с агентом службы поддержки клиентов с искусственным интеллектом, вы, вероятно, взаимодействовали с большой языковой моделью, даже не осознавая этого. Эти модели имеют широкий спектр приложений: от чат-ботов до языкового перевода и перевода контента! творчество и многое другое
Почему мне нужно открывать отдельную главу для «понимания» больших языковых моделей после обзора больших языковых моделей выше, потому что это позволит вам лучше узнать, что такое большая языковая модель, понять ее верхний предел, а также ее возможности? облегчит нам работу над прикладным уровнем.
Прежде всего, в общих чертах можно сказать, что машинное обучение заключается в поиске специальной сложной «функции», которая может преобразовать наши входные данные в желаемый результат. Например, если мы ожидаем ввести 1 и вывести 5; чтобы ввести 2 и вывести 10, тогда эта функция может быть y=2*x.Или, если мы введем изображение кошки, я хочу, чтобы оно вывело слово «кот», или если я введу «привет», оно выведет «привет» и т. д.
Фактически, по сути это можно рассматривать как математическую задачу. Конечно, реальная проблема будет намного сложнее, чем приведенный выше пример.
1. Вначале люди всегда хотели заставить машины думать как люди. В то время люди в основном продвигали «школу полета птиц». Основанная на бионике, когда люди видели летящую птицу, они учились летать, взмахивая ею. крылья. Затем они надеялись заставить машины думать так же, как человек. Но этот эффект не очень хорош: нет «мировых знаний» (мировые знания — это знания по умолчанию в вашем мозгу, которые хорошо известны и инстинктивны без размышлений). Например, «вода течет вниз». является массивным, и трудно решить проблему нескольких значений в одном слове.Вообще говоря, имитировать человеческий мозг слишком сложно, и трудно добиться этого, просто используя коды и функции.
2. Эпоха искусственного интеллекта 2.0: управляемая данными реализация «искусственного интеллекта, основанного на статистике». Почему после появления GPT3, как грибы после дождя, выросли всевозможные крупные модели? На самом деле, большинство компаний уже давно занимаются исследованием ИИ, но в первые дни все переходили реку, нащупывая камни. Хотя планов и мыслей было много, они не осмеливались увеличивать свои инвестиции в обучение и не решались. все они находились в пределах ограниченного объема исследований. Появление GPT3 позволило всем увидеть, что существует определенный метод, который заключается в использовании огромных объемов данных для расчета статистики. Количественные изменения приводят к качественным изменениям. Итак, в успешных случаях все знали, что этот метод осуществим, поэтому все. начало Увеличивать инвестиции и идти по этому пути
3. Большие данные могут сделать скачок в развитии машинного интеллекта; важнейшее значение использования больших объемов данных заключается в том, что они позволяют компьютерам выполнять задачи, которые в прошлом могли делать только люди.
Таким образом, ключом к проблеме становится вопрос вероятности. В настоящее время большие модели вычисляют вероятность на основе массивных данных, чтобы определить наибольшую вероятность следующего текста или определенного абзаца текста в середине, а затем выводят ее.На самом деле суть не в том, чтобы генерировать новое, а в том, чтобы рассуждать.
Например, спросите его, где находится столица Китая?Ключевое слово, извлеченное с помощью алгоритма, заключается в том, что столица Китая
Затем большая модель на основе массива данных вычисляет, что столица Китая — это наиболее вероятное слово, за которым следует «Пекин», поэтому она выдает правильный результат.
Большие модели полагаются на «механическое заучивание» огромных объемов данных для достижения текущих возможностей.
Поэтому качество данных для обучения больших моделей также очень важно. В то же время мы почти можем думать о верхнем пределе больших моделей.
AIGC, или контент, генерируемый искусственным интеллектом, — это технология, которая использует алгоритмы машинного обучения для автоматического создания различных типов контента, включая текст, изображения, аудио и видео. Анализируя большие объемы данных, системы AIGC изучают языковые, визуальные и звуковые шаблоны для создания нового контента, который похож или даже неотличим от контента, созданного человеком.
Вся цифровая работа, скорее всего, будет подорвана «большими моделями».
Большая часть нашей текущей работы на прикладном уровне принадлежит системе AIGC.
После GPT3.5 крупные модели уже могут использовать инструменты.
• Плагины и сетевое взаимодействие: компенсируют нехватку памяти самой большой модели, отмечая официальное начало обучения LLM использованию инструментов.
• Функция: LLM учится вызывать API для выполнения сложных задач, что является основной работой серверных инженеров (дайте инструкции Gorilla, и она автоматически вызовет такие модели, как диффузия, для реализации мультимодальных задач, таких как рисование и диалог).
• Позвольте модели «думать»: направьте большие модели на логические возможности, суть которых заключается в «Инструменте памяти планирования».
Фактически, реализация проектов ИИ такая же, как и реализация обычных проектов. Суть первоначального создания проекта должна заключаться в четком понимании основных проблем, которые проект призван решить, а затем расширить мышление и затем реализовать. анализ спроса, выбор технологий и т. д.Мы не очень хороши в проектировании больших моделей для уровня приложения. Обычно мы напрямую вызываем API или развертываем локальные большие модели с открытым исходным кодом.
Любой, кто хоть немного имел дело с ИИ, может знать, подскажите. В 2022-2023 годах первоначальные исследования ИИ по-прежнему будут основываться на этом, то есть на том, как задавать вопросы, чтобы ИИ лучше понял ваш смысл, обратите внимание на ваш ключ. баллы, а затем предоставить более качественные ответы Гао.
Порог относительно низок, и большинство приложений крупных моделей разрабатываются с использованием Prompt.Возможность удовлетворения некоторых потребностей зависит от возможностей базовой модели.
RAG (Retrival-Augmented Generation) — это технология искусственного интеллекта, сочетающая в себе модели поиска и модели генерации. Он расширяет возможности ответа больших языковых моделей (LLM) за счет извлечения соответствующей информации из базы знаний или базы данных и объединения ее с запросами пользователя. Технология RAG может повысить точность и актуальность приложений ИИ, особенно в сценариях, которые связаны со знаниями конкретной предметной области или требуют новейшей информации.
Принцип работы RAG в основном включает в себя два этапа:
Однако этот порог относительно высок, и существуют определенные требования к вычислительной мощности, данным и алгоритмам.
Цель: провести технико-экономическое обоснование, разработать прототип на основе бизнес-требований и создать PromptFlow для проверки ключевых предположений.
Цель: оценить надежность решений на более широком диапазоне наборов данных и повысить производительность модели с помощью таких методов, как точная настройка (SFT) и генерация с расширенным поиском (RAG).
Цель: Обеспечить стабильную работу системы AIGC, интегрировать системы мониторинга и сигнализации, а также добиться непрерывной интеграции и непрерывного развертывания (CI/CD).
Фрагменты основного контента — это текстовая основа, используемая в сочетании с инструкциями для значительного повышения их эффективности.
Конкретные методы достижения основного содержания, в том числе:
Показывая модели, как генерировать выходные данные на основе заданных инструкций, модель способна выводить шаблоны выходных данных, будь то обучение с нулевым, однократным или малократным обучением.
Предоставляя подсказки для больших моделей, чтобы направлять их в логических рассуждениях в четком направлении, это похоже на предоставление пошаговой формулы, помогающей модели постепенно получить ответ.
Ценность шаблонов заключается в создании и публикации библиотек подсказок для конкретных областей приложения, оптимизированных для конкретного контекста или примера приложения.
# 职位描述:数据分析助手
## 角色
我的主要目标是为用户提供专家级的数据分析建议。利用详尽的数据资源,告诉我您想要分析的股票(提供股票代码)。我将以专家的身份,为您的股票进行基础分析、技
术分析、市场情绪分析以及宏观经济分析。
## 技能
### 技能1:使用Yahoo Finance的'Ticker'搜索股票信息
### 技能2:使用'News'搜索目标公司的最新新闻
### 技能3:使用'Analytics'搜索目标公司的财务数据和分析
## 工作流程
询问用户需要分析哪些股票,并按顺序执行以下分析:
**第一部分:基本面分析:财务报告分析
*目标1:对目标公司的财务状况进行深入分析。
*步骤:
1. 确定分析对象: