2024-07-11
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
Ich werde hier nicht zu sehr ins Detail auf die KI selbst eingehen, sondern mich mehr auf Anwendungen auf höherer Ebene konzentrieren.
Wenn wir von einem großen Sprachmodell sprechen, beziehen wir uns auf eine Software, die auf ähnliche Weise wie die menschliche Sprache „sprechen“ kann.Diese Modelle sind erstaunlich – sie sind in der Lage, den Kontext zu erfassen und Antworten zu generieren, die nicht nur kohärent sind, sondern auch den Eindruck erwecken, als kämen sie von echten Menschen
Diese Sprachmodelle funktionieren durch die Analyse großer Textdatenmengen und Lernmuster im Sprachgebrauch.Sie nutzen diese Muster, um Texte zu erzeugen, die kaum von dem zu unterscheiden sind, was Menschen sagen oder schreiben.
Wenn Sie jemals mit einem virtuellen Assistenten gechattet oder mit einem KI-Kundendienstmitarbeiter interagiert haben, haben Sie wahrscheinlich mit einem großen Sprachmodell interagiert, ohne es zu merken. Diese Modelle haben ein breites Anwendungsspektrum, von Chatbots über Sprachübersetzungen bis hin zu Inhalten! Schöpfung und mehr
Warum muss ich ein separates Kapitel öffnen, um große Sprachmodelle zu „verstehen“, nachdem ich oben einen Überblick über große Sprachmodelle erhalten habe? Denn dadurch können Sie besser wissen, was ein großes Sprachmodell ist, seine Obergrenze verstehen und es auch können Machen Sie es uns leichter, die Anwendungsschicht besser zu machen.
Zunächst können wir allgemein sagen, dass maschinelles Lernen darin besteht, eine spezielle komplexe „Funktion“ zu finden, die unsere Eingabe in die gewünschte Ausgabe umwandeln kann. Wenn wir beispielsweise erwarten, 1 einzugeben und 5 auszugeben; 2 einzugeben und 10 auszugeben, dann könnte diese Funktion y=2*x sein.Oder wenn wir ein Bild einer Katze eingeben, soll das Wort „Katze“ ausgegeben werden, oder wenn ich „Hallo“ eingebe, soll „Hallo“ usw. ausgegeben werden.
Tatsächlich kann dies im Wesentlichen als mathematisches Problem angesehen werden. Natürlich wird das eigentliche Problem viel komplizierter sein als das obige Beispiel.
1. In der Anfangszeit wollten die Menschen immer Maschinen dazu bringen, wie Menschen zu denken. Damals förderten die Menschen hauptsächlich die „Vogelflugschule“, die auf der Bionik basierte: Wenn Menschen einen Vogel fliegen sahen, lernten sie das Fliegen, indem sie mit ihm flatterten Dann hofften sie, die Maschine dazu zu bringen, dasselbe zu tun. Aber dieser Effekt ist nicht sehr gut. Es gibt kein „Weltwissen“ (Weltwissen ist das Standardwissen in Ihrem Gehirn, das ohne Denken vorhanden ist). ist riesig und es ist schwierig, das Problem der Mehrfachbedeutungen in einem Wort zu lösen.Im Allgemeinen ist es zu komplex, das menschliche Gehirn nachzuahmen, und es ist schwierig, dies einfach mithilfe von Codes und Funktionen zu erreichen.
2. Ära der künstlichen Intelligenz 2.0: datengesteuerte Implementierung von „statistikbasierter künstlicher Intelligenz“. Warum sind nach dem Erscheinen von GPT3 nach einem Regenschauer alle möglichen großen Modelle wie Pilze aus dem Boden geschossen? Tatsächlich beschäftigen sich die meisten Unternehmen schon seit langem mit der Erforschung von KI, aber in den frühen Tagen überquerten alle den Fluss, indem sie die Steine spürten. Obwohl es viele Pläne und Gedanken gab, wagten sie es nicht, ihre Investitionen in das Gestüt zu erhöhen Sie befanden sich alle in einem begrenzten Forschungsbereich. Durch das Aufkommen von GPT3 konnte jeder erkennen, dass eine bestimmte Methode machbar ist, nämlich die Verwendung riesiger Datenmengen zur Berechnung von Statistiken. Bei erfolgreichen Fällen wusste also jeder, dass diese Methode machbar ist begonnen Investitionen erhöhen und diesen Weg gehen
3. Big Data kann das Niveau der maschinellen Intelligenz sprunghaft steigern. Die größte Bedeutung der Nutzung großer Datenmengen besteht darin, dass Computer Dinge erledigen können, die in der Vergangenheit nur Menschen konnten.
Der Schlüssel zum Problem wird also zu einer Frage der Wahrscheinlichkeit. Derzeit berechnen große Modelle eine Wahrscheinlichkeit aus massiven Daten, um die höchste Wahrscheinlichkeit für den nächsten Text oder einen bestimmten Textabschnitt in der Mitte zu ermitteln, und geben ihn dann aus.Tatsächlich geht es nicht darum, neue Dinge zu schaffen, sondern um Vernunft.
Fragen Sie ihn zum Beispiel: Wo ist die Hauptstadt Chinas?Das durch den Algorithmus extrahierte Schlüsselwort ist die Hauptstadt Chinas
Dann berechnet das große Modell aus den umfangreichen Daten, dass die Hauptstadt Chinas das wahrscheinlichste Wort ist, gefolgt von Peking, und gibt daher das richtige Ergebnis aus.
Große Modelle sind auf das „Auswendiglernen“ riesiger Datenmengen angewiesen, um aktuelle Fähigkeiten zu erreichen.
Daher ist auch die Datenqualität für das Training großer Modelle sehr wichtig. Gleichzeitig können wir uns fast die Obergrenze großer Modelle vorstellen.
AIGC (Artificial Intelligence Generated Content) ist eine Technologie, die Algorithmen des maschinellen Lernens nutzt, um automatisch verschiedene Arten von Inhalten zu generieren, darunter Text, Bilder, Audio und Video. Durch die Analyse großer Datenmengen lernen AIGC-Systeme Sprach-, Bild- und Tonmuster, um neue Inhalte zu erstellen, die von Menschen erstellten Inhalten ähneln oder sich sogar nicht von ihnen unterscheiden.
Alle digitalen Arbeiten werden wahrscheinlich von „großen Vorbildern“ unterwandert.
Der Großteil unserer aktuellen Anwendungsschichtarbeit gehört zum AIGC-System
Nach GPT3.5 können große Modelle bereits Tools nutzen.
• Plug-Ins und Netzwerke: Gleichen den Speichermangel des großen Modells selbst aus und markieren den offiziellen Beginn des LLM-Lernens im Umgang mit Werkzeugen
• Funktion: LLM lernt, APIs aufzurufen, um komplexe Aufgaben auszuführen, was die Hauptaufgabe von Back-End-Ingenieuren ist (durch die Erteilung von Gorilla-Anweisungen werden automatisch Diffusions- und andere Modelle aufgerufen, um multimodale Aufgaben wie Zeichnen und Dialoge zu implementieren).
• Lassen Sie das Modell „denken“: Führen Sie große Modelle zu logischen Fähigkeiten. Der Kern liegt in: „Planning Memory Tool“
Tatsächlich ist die Umsetzung von KI-Projekten die gleiche wie bei gewöhnlichen Projekten. Der Kern der anfänglichen Projektgründung muss darin bestehen, die Kernprobleme, die das Projekt lösen soll, klar zu verstehen, dann das Denken zu erweitern und dann umzusetzen Bedarfsanalyse, Technologieauswahl usw.Wir sind nicht sehr gut darin, große Modelle für die Forschung auf der Anwendungsebene zu entwerfen. Normalerweise rufen wir APIs direkt auf oder stellen lokale große Open-Source-Modelle bereit.
Jeder, der ein wenig mit KI in Berührung gekommen ist, kennt möglicherweise die Aufforderungen. In den Jahren 2022 bis 2023 wird die erste Forschung zu KI immer noch darauf basieren, das heißt, wie man Fragen stellt, damit die KI Ihre Bedeutung besser versteht, achten Sie auf Ihren Schlüssel Punkte und geben Sie dann Antworten von besserer Qualität
Der Schwellenwert ist relativ niedrig und die meisten großen Modellanwendungen werden mit Prompt entworfen.Ob einige Anforderungen erfüllt werden können, hängt von den Fähigkeiten des Basismodells ab
RAG (Retrieval-Augmented Generation) ist eine Technologie der künstlichen Intelligenz, die Retrieval-Modelle und Generationsmodelle kombiniert. Es verbessert die Antwortmöglichkeiten großer Sprachmodelle (LLMs), indem relevante Informationen aus einer Wissensdatenbank oder Datenbank abgerufen und mit Benutzeranfragen kombiniert werden. Die RAG-Technologie kann die Genauigkeit und Relevanz von KI-Anwendungen verbessern, insbesondere in Szenarien, die sich mit spezifischem Domänenwissen befassen oder die neuesten Informationen erfordern.
Das Arbeitsprinzip von RAG umfasst hauptsächlich zwei Schritte:
Allerdings ist dieser Schwellenwert relativ hoch und es bestehen bestimmte Anforderungen an Rechenleistung, Daten und Algorithmen.
Ziel: Machbarkeitsüberprüfung durchführen, Prototypen auf Grundlage der Geschäftsanforderungen entwerfen und PromptFlow erstellen, um wichtige Annahmen zu testen
Ziel: Bewerten Sie die Robustheit von Lösungen anhand einer größeren Auswahl an Datensätzen und verbessern Sie die Modellleistung durch Techniken wie Feinabstimmung (SFT) und Retrieval-Augmented Generation (RAG).
Ziel: Den stabilen Betrieb des AIGC-Systems sicherstellen, Überwachungs- und Alarmsysteme integrieren und kontinuierliche Integration und kontinuierliche Bereitstellung (CI/CD) erreichen.
Main-Content-Snippets sind die textliche Grundlage, die in Verbindung mit Anleitungen deren Wirksamkeit deutlich steigert.
Spezifische Methoden zum Erreichen des Hauptinhalts, einschließlich:
Indem es dem Modell zeigt, wie eine Ausgabe basierend auf gegebenen Anweisungen generiert wird, ist das Modell in der Lage, Ausgabemuster abzuleiten, unabhängig davon, ob es sich um Zero-Shot-, One-Shot- oder Fence-Shot-Lernen handelt.
Durch die Bereitstellung von Hinweisen für große Modelle, die sie beim logischen Denken in eine klare Richtung leiten, ähnelt dies der Bereitstellung einer Schritt-für-Schritt-Formel, die dem Modell hilft, nach und nach die Antwort zu finden.
Der Wert von Vorlagen liegt in der Erstellung und Veröffentlichung von Bibliotheken mit Eingabeaufforderungen für bestimmte Anwendungsbereiche, die für den spezifischen Kontext oder das Beispiel der Anwendung optimiert wurden.
# 职位描述:数据分析助手
## 角色
我的主要目标是为用户提供专家级的数据分析建议。利用详尽的数据资源,告诉我您想要分析的股票(提供股票代码)。我将以专家的身份,为您的股票进行基础分析、技
术分析、市场情绪分析以及宏观经济分析。
## 技能
### 技能1:使用Yahoo Finance的'Ticker'搜索股票信息
### 技能2:使用'News'搜索目标公司的最新新闻
### 技能3:使用'Analytics'搜索目标公司的财务数据和分析
## 工作流程
询问用户需要分析哪些股票,并按顺序执行以下分析:
**第一部分:基本面分析:财务报告分析
*目标1:对目标公司的财务状况进行深入分析。
*步骤:
1. 确定分析对象: