Künstliche Intelligenz ist eine tiefe und verworrene Welt. Die Wissenschaftler, die in diesem Bereich arbeiten, verlassen sich oft auf Jargon und Lingo, um zu erklären, woran sie arbeiten. Infolgedessen müssen wir diese technischen Begriffe häufig in unserer Berichterstattung über die künstliche Intelligenzbranche verwenden. Deshalb dachten wir, es wäre hilfreich, ein Glossar mit Definitionen einiger der wichtigsten Wörter und Phrasen zusammenzustellen, die wir in unseren Artikeln verwenden.
Wir werden dieses Glossar regelmäßig aktualisieren, um neue Einträge hinzuzufügen, da Forscher ständig neue Methoden aufdecken, um die Grenze der künstlichen Intelligenz voranzutreiben und gleichzeitig aufstrebende Sicherheitsrisiken zu identifizieren.
Ein AI -Agent bezieht sich auf ein Tool, das AI -Technologien verwendet, um eine Reihe von Aufgaben in Ihrem Namen auszuführen – über das hinaus, was ein grundlegenderer KI -Chatbot – wie die Einreichung von Ausgaben, die Buchung von Tickets oder eine Tabelle in einem Restaurant oder sogar das Schreiben und Wartungscode. Wie wir bereits erklärt haben, gibt es in diesem aufstrebenden Raum viele bewegliche Teile, sodass verschiedene Menschen unterschiedliche Dinge bedeuten können, wenn sie sich auf einen KI -Agenten beziehen. Die Infrastruktur wird auch immer noch ausgebaut, um die vorgesehenen Fähigkeiten zu ermöglichen. Das grundlegende Konzept impliziert jedoch ein autonomes System, das auf mehrere KI-Systeme zurückgreifen kann, um mehrstufige Aufgaben auszuführen.
Bei einer einfachen Frage kann ein menschliches Gehirn antworten, ohne zu viel darüber nachzudenken – Dinge wie „Welches Tier ist größer zwischen einer Giraffe und einer Katze?“ In vielen Fällen benötigen Sie jedoch häufig einen Stift und Papier, um die richtige Antwort zu erhalten, da es zwischenmediäre Schritte gibt. Wenn beispielsweise ein Landwirt Hühner und Kühe hat und zusammen 40 Köpfe und 120 Beine hat, müssen Sie möglicherweise eine einfache Gleichung aufschreiben, um die Antwort zu finden (20 Hühner und 20 Kühe).
In einem KI-Kontext bedeutet das Denken der Kette des Gedankens für Großsprachenmodelle, ein Problem in kleinere, mittlere Schritte aufzubrechen, um die Qualität des Endergebnisses zu verbessern. Es dauert normalerweise länger, um eine Antwort zu erhalten, aber die Antwort ist eher richtig, insbesondere im Logik- oder Codierungskontext. Sogenannte Argumentationsmodelle werden aus herkömmlichen Großsprachenmodellen entwickelt und dank des Verstärkungslernens für das Denken der Kette optimiert.
(Sehen: Großsprachige Modell)
Eine Untergruppe von selbstverbessertem maschinellem Lernen, bei dem AI-Algorithmen mit einer mehrschichtigen Struktur für künstliche neuronale Netzwerke (ANN) ausgelegt sind. Dies ermöglicht es ihnen, komplexere Korrelationen im Vergleich zu einfacheren Systemen für maschinelles Lernen wie lineare Modelle oder Entscheidungsbäume herzustellen. Die Struktur von tiefen Lernalgorithmen lässt sich von den miteinander verbundenen Wegen der Neuronen im menschlichen Gehirn inspirieren.
Deep Learning AIS ist in der Lage, wichtige Merkmale in Daten selbst zu identifizieren, anstatt die menschlichen Ingenieure zu verpflichten, diese Merkmale zu definieren. Die Struktur unterstützt auch Algorithmen, die aus Fehlern lernen und durch einen Prozess der Wiederholung und Anpassung ihre eigenen Ausgaben verbessern können. Deep Learning Systems erfordern jedoch viele Datenpunkte, um gute Ergebnisse zu erzielen (Millionen oder mehr). Es dauert typischerweise länger, um Deep Learning im Vergleich zu einfacheren Algorithmen für maschinelles Lernen zu trainieren – sodass die Entwicklungskosten in der Regel höher sind.
(Sehen: Neurales Netzwerk)
Dies bedeutet eine weitere Schulung eines KI-Modells, das die Leistung für eine spezifischere Aufgabe oder einen spezifischeren Bereich optimieren soll als bisher ein Schwerpunkt seines Trainings-typischerweise durch Fütterung in neuen, speziellen (dh aufgabenorientierten) Daten.
Viele KI-Startups nehmen Großsprachmodelle als Ausgangspunkt für den Aufbau eines kommerziellen Produkts ein, wetteifern jedoch mit dem Amp-Utility für einen Zielsektor oder eine Aufgabe, indem frühere Trainingszyklen mit Feinabstimmung basierend auf ihrem eigenen domänenspezifischen Wissen und Fachwissen ergänzt werden.
(Sehen: Großsprachenmodell (LLM))
Großsprachige Modelle oder LLMs sind die KI -Modelle, die von beliebten AI -Assistenten wie Chatgpt, Claude, Googles Gemini, Metas AI Lama, Microsoft Copilot oder Mistral’s Le Chat verwendet werden. Wenn Sie mit einem KI -Assistenten chatten, interagieren Sie mit einem großsprachigen Modell, das Ihre Anfrage direkt oder mit Hilfe verschiedener verfügbarer Tools wie Webbrowser oder Code -Dolmetscher verarbeitet.
AI -Assistenten und LLMs können unterschiedliche Namen haben. Zum Beispiel ist GPT das große Sprachmodell von OpenAI und Chatgpt ist das KI -Assistant.
LLMs sind tiefe neuronale Netze aus Milliarden numerischer Parameter (oder Gewichte, siehe unten) die Beziehungen zwischen Wörtern und Phrasen lernen und eine Repräsentation der Sprache erzeugen, eine Art mehrdimensionaler Karte von Wörtern.
Diese entstehen aus der Kodierung der Muster, die sie in Milliarden von Büchern, Artikeln und Transkripten finden. Wenn Sie ein LLM fordern, generiert das Modell das wahrscheinlichste Muster, das zur Eingabeaufforderung passt. Anschließend bewertet es das wahrscheinlichste nächste Wort nach dem letzten, basierend auf dem, was zuvor gesagt wurde. Wiederholen, wiederholen und wiederholen.
(Sehen: Neurales Netzwerk)
Das neuronale Netzwerk bezieht sich auf die mehrschichtige algorithmische Struktur, die tiefgreifendem Lernen untermauert-und im weiteren Sinne den gesamten Boom in generativen KI-Tools nach der Entstehung großer Sprachmodelle.
Obwohl sich die Idee, sich von den dicht verbundenen Wegen des menschlichen Gehirns als Entwurfsstruktur für Datenverarbeitungsalgorithmen inspirieren zu lassen, bis in die 1940er Jahre zurückreichte, war es der viel neuere Aufstieg der grafischen Verarbeitungshardware (GPUs) – über die Videospielbranche – die die Kraft der Theorie wirklich aufschluss. Diese Chips erwiesen sich für Training von Algorithmen mit viel mehr Schichten als in früheren Epochen möglich. Dadurch danach, dass neuronale netzwerkbasierte KI-Systeme in vielen Bereichen eine weitaus bessere Leistung erzielen, sei es für Spracherkennung, autonome Navigation oder Drogenentdeckung.
(Sehen: Großsprachenmodell (LLM))
Gewichte sind zentral zum KI -Training, da sie feststellen, wie viel Bedeutung (oder Gewicht) unterschiedliche Merkmale (oder Eingangsvariablen) in den Daten zur Schulung des Systems angegeben sind, wodurch die Ausgabe des KI -Modells geformt wird.
Anders ausgedrückt, Gewichte sind numerische Parameter, die das definieren, was in einem Datensatz für die angegebene Trainingsaufgabe am wichtigsten ist. Sie erreichen ihre Funktion, indem sie Multiplikation auf Eingaben anwenden. Das Modelltraining beginnt normalerweise mit Gewichten, die zufällig zugeordnet werden. Wenn sich der Prozess jedoch entfaltet, werden die Gewichte angepasst, wenn das Modell zu einer Ausgabe gelangt ist, die dem Ziel enger übereinstimmt.
Zum Beispiel kann ein KI-Modell zur Vorhersage von Immobilienpreisen, die auf historischen Immobiliendaten für einen Zielort ausgebildet sind, Gewichte für Merkmale wie die Anzahl der Schlafzimmer und Badezimmer, unabhängig davon, ob eine Immobilie abgelöst, halbdetachiert ist, falls es zu Parkplätzen, einer Garage usw. ist, umfassen.
Letztendlich ist das Gewicht, das das Modell an jede dieser Eingaben verbindet, eine Reflexion darüber, wie stark sie den Wert einer Eigenschaft auf der Grundlage des angegebenen Datensatzes beeinflussen.