Verstehen Sie die KI-Modelle und LLM-Eingaben von Genesys Agent Copilot
Genesys Agent-Copilot verwendet eine Kombination aus nativen und AWS Bedrock Modelle, je nach Funktion, Anwendungsfall und Dialekt.
Genesys Agent Copilot-KI-Modelle und LLM-Eingabe
Genesys Agent Copilot verwendet eine Kombination aus nativer und AWS Bedrock Modelle, je nach Funktion, Anwendungsfall und Dialekt.
Sprache | Region | Sprache tag |
Wissen surfacing |
Wissen Antwort auftauchen highlight |
Intent-based NBA |
Zusammenfassung | Erweiterte Zusammenfassung | Wrap-up-Codevorhersage |
---|---|---|---|---|---|---|---|---|
Deutsch | Australien | en-AU | Genesys nativ | Genesys nativ |
Token-Eingabe Token-Eingabe |
Token-Eingabe Token-Eingabe |
Token-Eingabe Token-Eingabe |
|
Großbritannien | en-GB | Genesys nativ | AWS Bedrock | Genesys nativ |
Token-Eingabe Token-Eingabe |
Token-Eingabe Token-Eingabe |
Token-Eingabe Token-Eingabe |
|
USA | en-US | Genesys nativ | AWS Bedrock | Genesys nativ |
Token-Eingabe Token-Eingabe |
Token-Eingabe Token-Eingabe |
Token-Eingabe Token-Eingabe |
|
Niederländisch | Niederlande | nl-NL |
Genesys nativ |
AWS Bedrock* | Genesys nativ | AWS Bedrock | AWS Bedrock* | AWS Bedrock |
Französisch | Kanada | fr-CA | Genesys nativ | AWS Bedrock* | Genesys nativ | AWS Bedrock | AWS Bedrock* | AWS Bedrock* |
Frankreich | fr-FR | Genesys nativ | AWS Bedrock* | Genesys nativ | AWS Bedrock | AWS Bedrock* | AWS Bedrock* | |
Deutsch | Deutschland | de-DE | Genesys nativ | AWS Bedrock* | Genesys nativ | AWS Bedrock | AWS Bedrock* | AWS Bedrock* |
Italienisch | Italien | it-IT | Genesys nativ | AWS Bedrock* | Genesys nativ | AWS Bedrock | AWS Bedrock* | AWS Bedrock* |
Japanisch | Japan | jp-JP | Genesys nativ | AWS Bedrock* | Genesys nativ | AWS Bedrock | AWS Bedrock* | AWS Bedrock* |
Portugiesisch | Brasilien | pt-BR | Genesys nativ | AWS Bedrock* | Genesys nativ | AWS Bedrock | AWS Bedrock* | AWS Bedrock* |
Portugal | pt-PT | Genesys nativ | AWS Bedrock* | Genesys nativ | AWS Bedrock | AWS Bedrock* | AWS Bedrock* | |
Spanisch | USA | es-US | Genesys nativ | AWS Bedrock* | Genesys nativ | AWS Bedrock | AWS Bedrock* | AWS Bedrock* |
Spanien | es-ES | Genesys nativ | AWS Bedrock* | Genesys nativ | AWS Bedrock | AWS Bedrock* | AWS Bedrock* |
* Roadmap
Tokenübersicht
Token stellen Textsegmente dar, beispielsweise Wortteile, Leerzeichen oder Satzzeichen. Die API verarbeitet die Eingabe und zerlegt sie in Token, die nicht immer ganzen Wörtern entsprechen. Zu den wichtigsten Näherungswerten zählen:
- Ein Token entspricht ungefähr vier Zeichen in Englisch
- Ein Token entspricht ungefähr ¾ eines Wortes
- 100 Token entsprechen ungefähr 75 Wörtern
Oder:
- 1–2 Sätze entsprechen ungefähr 30 Token
- Ein Absatz entspricht ungefähr 100 Token
- 1.500 Wörter entsprechen ungefähr 2048 Token
Beispielsweise Ein beliebtes Sprichwort wie „Carpe diem“ könnte 10 Token haben. Die Visionserklärung eines Unternehmens könnte etwa 500 Token umfassen. Ein klassisches Gedicht wie „The Road Not Taken“ könnte etwa 1.700 Token enthalten.
Sprachunterschiede
Die Tokenisierung variiert je nach Sprache. Beispielsweise enthält „Bonjour tout le monde“, was auf Französisch „Hallo zusammen“ bedeutet, fünf Token, obwohl es nur 19 Zeichen lang ist. Für nicht-englische Texte sind möglicherweise mehr Token erforderlich, was sich auf die API-Kosten auswirkt.
Wie Tokens generieren
Die API wandelt Wörter kontextbezogen in Token um, verarbeitet sie und übersetzt die Token dann wieder in lesbaren Text. Dasselbe Wort kann je nach Platzierung in verschiedene Token aufgeteilt werden. Beispielsweise könnte das Wort „blau“ ein anderes Token haben, wenn es mit einem Leerzeichen endet oder mit einem Großbuchstaben beginnt.
Beispiele:
- Das Token für „blau“ mit einem abschließenden Leerzeichen könnte „4321“ sein.
- Das Token für „Blau“ (großgeschrieben mit Leerzeichen) könnte „4521“ sein.
- Das Token für „Blau“ (am Anfang groß geschrieben) könnte „5000“ sein.
Gewöhnliche Token haben niedrigere Werte. Satzzeichen wie Kommas neigen aufgrund ihrer häufigen Verwendung dazu, eine konsistente Token-ID zu haben. Wörter können je nach Fall oder Position in einem Satz unterschiedliche Token-IDs haben.