Das Arconda RAG-System (Retrieval-Augmented Generation) führt die kundenspezifische Wissendatenbank mit einer LLM (Large Language Model) bzw. einer leistungsfähigen KI zusammen. Während das LLM allgemeingültiges Wissen, Konzepte und Theorien bereitstellt, muss das kundenspezifische Know-how so aufbereitet werden, dass die KI möglichst schnell und fehlerfrei die gewünschten Abfragen liefert.
Datenqualität entscheidend für die Antwortqualität
Qualitativ schlecht aufbereitete Daten können auch durch den Einsatz extrem leistungsfähiger und ressourcenfressender KI-Modellte nicht kompensiert werden. Unscharfe oder inkonsistente Daten bleiben die Archillesferse jeder Wissensdatenbank, die letztlich nicht unfehlbar ist und lediglich mit einer möglichst hohen Wahrscheinlichkeit die richtige Antwort heraussucht.
Leistungsfähiges semantisches Chunking
Eine LLM KI basiert auf unzähligen Texten begrenzter Länge – die Wissenselemente sind der Treibstoff der KI, die in transformierter Form als sog. Vektoren vorliegen. Je besser diese Wissenselemente in Bezug auf die Bedeutung und die Inhalte bzw. in Bezug auf die Semantik vorliegen, dessen qualitativ hochwertiger sind die Chunks, auf welche die KI der Arconda Systems AG zugreifen kann.
Arconda RAG lernt dank bitemporalen Wissengraphen aus Fehlern
Die Benutzeroberfläche von Arconda RAG bietet dem Anwender die Möglichkeit, Antworten als problematisch zu kennzeichnen. Es können anschließend Korrekturen eingebracht werden, die höherwertig als problematische Datengrundlage bewertet werden und für zukünftig korrekte Antworten herangezogen werden.