#37 Expert: Wie baut man ein persönliches Wissensmanagement mit einer OpenAI unabhängigen KI auf?
  • Home
  • Lokale KI
  • #37 Expert: Wie baut man ein persönliches Wissensmanagement mit einer OpenAI unabhängigen KI auf?
By Holger Gelhausen profile image Holger Gelhausen
4 min read

#37 Expert: Wie baut man ein persönliches Wissensmanagement mit einer OpenAI unabhängigen KI auf?

Ich zeige wie man mit dem Aufbau von lokalen KI-Systemen (Notebook, PC) mehrere tausend Euro im Jahr sparen kann.

Wie kann ich tausende Euro im Jahr mit lokalen KI-Lösungen sparen?

Die Kosten explodierenden wenn man viel mit KI-Lösungen arbeitet, meine letzte monatliche Rechnung war über 250 Euro bei OpenAI, Grund genug eine lokale KI-Lösungen aufzubauen!

Was sind die Bausteine einer lokalen KI Lösung?

  1. PrivateGPT als KI-Datenhaltung und Chatsystem
  2. Ollama mit der Möglichkeit mit lokalen KI-Systemen zu chatten oder Workflows zu bauen. Hier kann man einfach verschiedene KI-Syteme testen
  3. Rivet AI um Workflows zu genieren
  4. Keyboard Maestro um lokale Dateien einfach in PrivateGPT zu uploaden

Wie rede ich mit meinen lokalen Büchern?

Viele Ratgeber und Experten möchte ich systematisch nach Wissen fragen und Rat einholen zu praktischen Fragestellungen.

Hier in dem Beitrag habe ich gezeigt, wie ich das in der Cloud umsetze:

“KI-gestütztes Wissensmanagement: Strategien & Workflows”
Erfahren Sie, wie KI, Chatbots und Datenbanken zur Wissensverwaltung genutzt werden. Lernen Sie, Kindle-Notizen zu exportieren, Chatbots zu erstellen und Antworten in Airtable zu speichern. Entdecken Sie den Workflow des Autors und wie er Antworten in sein Wissensmanagement-System integriert

Wie kann ich systematisch meine Quellen (pdf, ppt) abfragen?

Dazu habe ich folgenden Workflow entwickelt:

  1. Aufbau eine Airtable Datenbank mit den Fragen und den Büchern die ich abfragen möchte

Hier ist ein Ausschnitt von 100 Fragen und vier Büchern, in den meisten Fällen frage ich 10-15 Bücher ab.

  1. Private GPT aufbauen

Private GPT lässt sich einfach über diese Anleitung installieren https://docs.privategpt.dev/installation

Die Installation dauert ungefähr 10-20 Minuten. Dann hat man eine lokale KI installiert in der man die Dokumente einfach uploaden kann.

Der Nachteil des einfachen Uploads ist, das wir aus den ganzen Büchern eine KI-Datenbank machen und eine Abfrage läuft dann über alle Bücher. Das ist gut für ein zentrales Wissensmanagement, in den meisten Fällen möchte ich aber gezielt ein Buch abfragen.

Wie geht das?

Upload (ingest) der Bücher in KeyBoard Maestro.

Ich klicke einfach über den Finder mehrere PDFs oder andere Dateien an und über einen Shortcut wird das PDF, pptx etc.. über die API an PrivateGPT übertragen.

Jedes Seite die in die Vector Datenbank hochgeladen wird, bekommt eine ID, die die API zurückgibt. Wenn ein Buch 300 Seiten hat,gibt es dreihundert IDs, die brauche ich dann wenn ich genau diese Buch abfragen möchte.

Das Keyboard Maestro Script macht das genau und speichert die IDs des Buches in einer Datei.

Den Pfad übertrage ich nach Airtable, damit jedes PDF weiß wo die Daten sind zur Abfrage.

Hier ist ein Inhalt einer Datei, das muss ich selbst nicht wissen, ich gebe dem Abfrage Programm den Pfad mit und das war es dann, den Rest erledigt dann Rivet.

Übertrag des Pfades an zur Airtable Datenbank

Eine Rivet.AI Workflow aufbauen

Rivet AI bietet die Möglichkeit über http Calls die lokale PrivateGPT Datenbank abzufragen.

Die Grundstruktur des Airtable Workflows ist von

und hier auf dem Youtube Kanal super erklärt! Danke für die tollen Videos und Hilfe!!

Der Workflow sieht vereinfacht so aus:

  1. Hole alle Records (die Fragen) in Airtable
  2. Analysiere die Records und suche die Felder E_ (dort ist der Pfad zur lokalen ID Datei) und splitte jedes Buch und Frage auf.
  3. Frage die lokale PrivateGPT KI was der Author (das Buch) zu der Frage zu sagen hat
  4. Lade die Antwort nach Airtable zurück.

Das Herzstück ist der HTTP Call in der Mitte der Skizze

Weiter oben im Bild sieht man die IDs die dann dem Call mitgeben werden.

Eine Abfrage der lokalen KI dauert ungefähr 8-10 Sekunden. Den Workflow schauen wir uns detaillierter in einer Mittwoch Session an. Vielleicht habe ich auch Zeit ein Video dazu zu machen.

Was spare ich an Kosten ein?

Wenn ich davon ausgehe über 100 Booklets mit ca. 30 Fragen und anderen Zusammenfassungen zu erstellen, komme ich zu einem Aufwand für eine Frage (von 100) auf ca. 50 KI Operationen.

Im Detail wären das dann 5000 KI Operationen oder Prompts.

Gehen wir, ganz grob von 25 Dollar aus, wenn man nicht GPT Turbo nimmt, dann wird es viel teurer.

Bei einigen Operationen kommen dann sicherlich schnell ein paar hundert Euro zusammen, also kann ich mit einer lokalen KI ein paar tausend Dollar im Jahr sparen.

Wie geht es weiter?

Die meisten Workflow habe ich in Make.com mit OpenAI gebaut, diese Workflows werde ich in lokale Workflows mit Rivet übertragen, das sichert mir auch Unabhängigkeit von OpenAI.

By Holger Gelhausen profile image Holger Gelhausen
Updated on
Lokale KI PrivateGPT Ollama Expert