Notiz App Blinko mit KI erweitern. Aber wie Stack für Docker anpassen?

  • Weiß jemand von euch, wie man bei Blinko (GitHub) seine eigene KI einbauen kann?

    Leider konnte KI mir da auch nicht helfen, dass erfolgreich zu installieren. Es hat irhgendwann nur noch sachen gesagt und sich im Kreis gedreht, dass nichts davon half, und sogar schlimmer wurde. Wichtig ist zu wissen, dass die KI Modelle in Ollama direkt angelegt werden müssen, weil OllamaWebUI nur Sachen für sich selbst macht. Deswegen versuchte ich ein angepasstes Modell über den Stack zu installieren.


    Es geht vor allem darum, dass es auf GPU von dem drunterliegenden Intel Pentium Gold 8505 (5 Kerne) läuft. Ich shcaffe es, dass die Modelle mit 100% GPU darauf laufen, aber nur bei OllamaWebUI. dort geht es. Aber für Blinko müssen diese angepasst werden.


    Hier meine Stacks:


    dann ist das mein Stack für Ollama

  • Moinsen. HauptStrasseEins

    Was ist mit den DNS Einträgen, die gehen doch auf Googles-DNS.

    Wie Findet er dann Ollamas Dienst?

    Hast du einen Router oder einen Reverse-Proxy laufen?

    Ich würde bei DNS den Router eintragen und den als DNS-Server einsetzen.


    Ich hoffe, das hilft, habe nur geraten ... den Braten.


    Tüdülüü aus HaHa, und happy KI-inging.

    Standard Nerd. "Have You tried to turn it off and on again?", ist mein Lieblingswitz.

    Außerdem habe ich was wichtiges Programmiert, aber vergessen, wo ich das gespeichert habe und was es macht.

    Gut, dass es NAS gibt, oder? Hab euch alle lieb, so ganz pauschal. :love:

    Meine Hardware


    • DH2300 | 4 GB LPDDR4X-RAM | 1x 4 TB Seagate IronWolf - 1x 22 TB Seagate Exos

Participate now!

Don’t have an account yet? Register yourself now and be a part of our community!