RAGs zur Optimierung des Hochschulwissens

 

Nutzung von RAGs zur Optimierung des Hochschulwissens

Aktuell arbeiten wir daran, eine entscheidende Funktion in HAWKI zu integrieren: die Möglichkeit, dass jede Hochschule ihre eigenen Dateien vektorisieren kann. Das bedeutet, dass das gesamte Wissen der Hochschule – von Forschungsarbeiten bis hin zu Verwaltungshandbüchern – direkt im HAWKI-Interface dialogisch verfügbar wird.

Diese Funktion eröffnet eine Vielzahl von Vorteilen:

  • Bessere Recherche: Forschungsarbeiten und andere Dokumente werden durch die Vektorisierung leichter auffindbar und auswertbar. Statt sich durch unzählige PDFs zu kämpfen, kann HAWKI relevante Inhalte direkt herausfiltern und passende Antworten liefern.

  • Synergien schaffen: Verschiedene Projekte und Arbeiten innerhalb der Hochschule können leichter miteinander verknüpft werden. HAWKI könnte Zusammenhänge erkennen und Vorschläge machen, welche Forschungsteams zusammenarbeiten sollten oder welche Projekte ähnliche Ziele verfolgen.

  • Vereinfachung der Bürokratie: Hochschulverwaltungen sind oft von sich wiederholenden Anfragen und Prozessen belastet. Durch die Vektorisierung von Verwaltungshandbüchern und Richtlinien können Routineanfragen direkt von HAWKI beantwortet werden, was die Bürokratie deutlich entschlackt. Das entlastet die Mitarbeitenden und lässt ihnen mehr Zeit für komplexere Aufgaben.

Wir planen, diesen Prozess umfassend zu dokumentieren und allen Hochschulen zur Verfügung zu stellen, sodass sie eigenständig innerhalb von HAWKI Dateien vektorisieren können. Damit wird HAWKI zu einem noch mächtigeren Tool, das die Verwaltung und das akademische Wissen effizienter macht.

Was ist eine Vektordatenbank?

Stellen Sie sich eine Vektordatenbank wie eine riesige, gut sortierte Bibliothek vor. Jedes Dokument, das in diese Bibliothek gelangt, wird in seine wichtigsten Informationen "übersetzt" und in Form eines Vektors gespeichert. Ein Vektor ist wie ein Fingerabdruck des Dokuments – er enthält die relevantesten Informationen, sodass das LLM (Large Language Model) darauf zugreifen kann, um präzise Antworten zu geben. Das LLM nutzt diese Vektoren, um das Wissen aus den Dokumenten zu extrahieren, anstatt nur auf allgemeine Informationen zurückzugreifen.

Dieses System hilft nicht nur, schneller und genauer auf spezifische Inhalte zuzugreifen, sondern verhindert auch, dass die KI "halluziniert", also falsche oder ungenaue Antworten gibt. Indem das LLM die Vektordatenbank konsultiert, basiert es seine Antworten auf verifizierten und gespeicherten Informationen der Hochschule.


 
 
Zurück
Zurück

Geräteübergreifende Speicherung

Weiter
Weiter

Eine Plattform für flexible Forschung und Innovation