Posts by Tommes

    Ich kann mich den Worten von einebnur anschließen. Hier ist es eigentlich ziemlich gemütlich und der Austausch findet in der Regel respektvoll und auf Augenhöhe statt, auch wenn z.B. Noob auf Nerd trifft. Wo Licht ist, ist aber leider auch Schatten, und so kommt es hin und wieder vor, dass eine Diskussion durch beabsichtigte oder unbeabsichtigte Provokationen und Sticheleien, vom eigentlichen Thema abweicht. Manchmal sieht man darüber hinweg. Manchmal eskaliert es auch. Das sind dann die Momente, wo Mike0185 und Willi aktiv werden und anfangen aufzuräumen. Trotzdem läuft das meines Erachtens, wenn teilweise auch hart an der Grenze, auf einem für mich noch akzeptablen Niveau ab. Das mag nicht jeder so sehen, was ich durchaus nachvollziehen kann, aber der Ton macht bekanntlich die Musik und mache wollen halt immer gern die erste Geige spielen.

    Kurz noch zum Steitpunkt Synology, DSM und Downgrade eineb und alter Mann

    Ich habe mir vor langer Zeit die Aussage eines Moderator aus dem Synology Forum weggespeichert, dessen Name ich leider vergessen habe. Jedenfalls beschreibt er darin, wie der Startvorgang einer DiskStation vonstatten geht. Interessant finde ich dabei den letzten Satz, den ich extra fett unterlegt habe.

    Quote from Ein Mod aus dem Synology Forum schrieb einst (den Link zum Beitrag gibt es nicht mehr)

    Im Flash befinden sich der Kernel (zImage), die initiale Ramdisk (rd.bin/rd.gz) sowie der Bootloader. Der Bootloader lädt den Kernel und die initiale Ramdisk in den Hauptspeicher und startet den Kernel mit entsprechenden Optionen (die initiale Ramdisk mounten und das System starten). In der initialen Ramdisk sind alle Routinen enthalten, um DSM auf neuen Platten zu installieren oder eine bereits bestehende DSM-Installation auf den vorhandenen Platten zu starten. Die Versionen von Kernel, initialer Ramdisk und DSM auf den Platten müssen gleich sein.

    Ich bin mir selbst nicht sicher, ob die DSM Version irgendwo im Kernel oder der Ramdisk hinterlegt wird. Inwieweit man das alles interpretiert und in Soft- und Hardware aufteilt, kann ich ebenfalls nicht beantworten, aber vermutlich passiert da im Background etwas mehr, als in der /etc.defaults/VERSION die DSM Version zu hinterlegen oder zu manipulieren.

    Ich wollte damit auch keine neue Diskussion anstoßen, sondern einfach nur mein bescheidenes Wissen mit euch teilen.

    Das wird auf jeden Fall interessant.

    Ich kann halt nur mit Synology vergleichen und da hatte man es als „inoffizieller“ Developer ziemlich schwer, an irgendwelche internen Daten heranzukommen. Es besteht zwar durchaus die Möglichkeit, in den elitären Kreis der „offiziellen“ Developer aufgenommen zu werden, was für mich aber nie infrage kam.

    Daher bin ich gespannt, wie UGREEN mit dem Thema umgeht und welche Daten sie dir letztendlich zur Verfügung stellen. Interessiert an den Daten wäre ich schon, würde diese an deiner Stelle, zumindest bis auf weiteres, auch nicht einfach in den Orbit pusten.

    Wie gesagt… mir geht es hier einzig und allein um das, wie UGREEN auf all das reagiert, nicht um dein Programm selbst.

    Ich wünsche dir auf jeden Fall viel Glück und hoffe, das du - zumindest teilweise - das erhältst, was du dir erhoffst.

    Warum eigentlich nicht.

    Aktuell arbeite ich noch einem passenden Backup-Skript um einen Dump der PostgreSQL Datenbank zu erstellen, welches ich von meinem Paperless-ngx Backup Skript ableiten werde. Das wird heute jedoch nicht mehr fertig. Reiche es aber bald nach.

    Hm... 🤔 ... ich habe mir nochmal ein paar Gedanken gemacht und ein paar Anpassungen getestet.

    Wenn ich PostgreSQL zusammen mit Redis laufen lasse, dann wirft mir die Ressourcenüberwachung der UGOS Pro Docker App folgende Arbeitsspeicherbelegung in MB aus...

    This image is exclusive to our members!
    Please log in or register for free to view graphics and attachments.

    Lasse ich PostgreSQL ohne Redis laufen, erhalte ich folgende Werte...

    This image is exclusive to our members!
    Please log in or register for free to view graphics and attachments.

    Ich habe das Ganze anschließend nochmal mit docker.io/library/postgres:16-alpine sowie mit und ohne docker.io/library/redis:8-alpine getestet, dabei aber ungefähr die gleichen Ergebnisse erhalten, wobei das alles sicherlich keine repräsentativen Werte sind.

    Trotz das Redis "kein Brot" frisst und scheinbar PostgreSQL ein wenig Arbeit abnimmt - so interpretiere ich die Werte zumindest - macht es am Ende wohl keinen großen Unterschied, ob Redis an Bord ist oder nicht. Und da wir alle wohl keine großen Datenmengen durch den Äther jagen und die Macher von Joplin ebenfalls auf Redis verzichten, habe ich mich bis auf Weiteres gegen Redis entschieden.

    Bleibt die Frage, ob ich mein Docker-Compose-File in der Filebase entsprechend anpassen, oder einfach so lassen soll?

    Was meint ihr?

    Und du glaubst, das alvin Ocis installiert bzw. eingerichtet bekommt, wenn er von sich selbst behauptet…

    …bin zu dumm für nextcloud…

    … auch wenn ich solchen Aussagen nichts abgewinnen kann.


    ...suche eine ähnliche lösung einfach für dateien und office...

    Wäre das in UGOS Pro installierbare Paket "Online Office" nicht das Richtige für dich?

    Ich mache es mir mal einfach und zitiere aus der Antwort einer KI-Anfrage

    Quote

    Joplin Server kann Redis als Unterstützung neben PostgreSQL verwenden. Redis wird typischerweise für Caching und zur Verwaltung von Hintergrund-Jobs (z. B. via BullMQ) eingesetzt, während PostgreSQL die primäre persistente Datenspeicherung für Notizen, Benutzer und Metadaten übernimmt.

    • Caching: Redis speichert temporäre, schnell zugängliche Daten (z. B. Sitzungscaches oderhäufig abgefragte Metadaten), um Lesezugriffe zu beschleunigen und die Last auf PostgreSQLzu verringern.
    • Hintergrund-Jobs / Warteschlangen: Redis dient als Backend für Job-Queues (z. B. BullMQ),die asynchrone Aufgaben verwalten — Synchronisation, Indizierung, E‑Mail‑Benachrichtigungenoder andere lang laufende Prozesse. Jobs werden in Redis als Einträge/Queues gehalten;Worker lesen sie aus und führen die Aufgaben aus.

    Aber wie ich schon sagte. Ob und in welcher Form sich diese Effekte positiv im Zusammenhang mit Joplin bemerkbar machen, kann ich nicht beantworten. Ich bin bei meiner Recherche zum Aufbau des Docker Compose darüber gestolpert und dachte mir irgendwann: Besser haben, als brauchen. In der „Original“ Docker Compose von https://github.com/laurent22/jopl…pose.server.yml ist Redis jedenfalls nicht enthalten.

    Vielleicht komme ich auch irgendwann zu der Erkenntnis, Redis wieder rauszuschmeißen. Ich bin in solchen Dingen sehr flexibel. Aktuell läuft der Joplin Server bei mir eh noch im Testbetrieb. Aber er läuft…

    Ich selbst nutze zwar auch die WebDAV-Variante […] wollte das immer mal umgestellt haben…

    … was ich heute getan habe und somit einen weiteren „erledigt“ Haken auf meinem Zettel verbuchen kann.

    Zu meiner Schande muss ich aber gestehen, das ich mich nicht wirklich an die hier verfasste Anleitung von Willigehalten habe - die ich übrigens absolut klasse finde - sondern mal wieder meinen eigenen Weg gegangen bin. Hintergrund war, das ich weder eine Domain, noch einen Proxy, noch SSL-Zertifikate verwenden wollte und schon gar keinen SMTP-Server. Auch habe ich mir Redis mit ins Boot geholt, was in Kombination mit PostgreSQL wohl einige Vorteile bringen soll. Ob sich diese jedoch bemerkbar machen, bleibt mal dahingestellt. Wie dem auch sei… ich habe meine Docker-Compose Datei mal in der Filebase hinterlegt, falls jemand Interesse daran hat.

    Wie gesagt, ich habe Authentik weder bei mir installiert, noch verwende ich es. Und das, was ich auf deren Website so lese sieht mir doch recht anspruchsvoll aus. Ich habe nach einer kurzen Recherche im Netz aber das hier gefunden. Versuch es doch mal damit...

    How to Deploy Authentik via Portainer
    Learn how to deploy Authentik, the flexible open-source identity provider, via Portainer using the official Docker Compose stack with PostgreSQL and Redis.
    oneuptime.com

    Hm… scheinbar wird die .env Datei nicht gefunden, warum auch immer. Liegt die denn im Verzeichnis /data/compose/69/.env und falls ja warum hat die .env keinen Dateinamen.

    Da ich Portainer selbst nicht nutze, kann ich dir grad auch nicht beantworten, wie dort mit der .env Datei umgegangen wird. Aber ich klapp gleich mal mein Laptop auf und lad mir das Compose File mal runter.

    Hi!

    Auch wenn ich Authentik selbst nicht nutze, geschweige denn schon mal installiert habe, wäre ein Protokollauszug von deinem Installationsversuch sehr hilfreich. Auch wäre hilfreich zu erfahren was genau „schlicht nicht geht“ und worüber genau du die Installation versucht hast wie z.B. die UGOS Pro Docker App, Portainer etc?

    Aber so wie ich grade sehe verwendet Authentik eine PostgreSQL Datenbank. Daher gleich mal die Frage, ob du die UGOS Pro Firewall aktiviert hast. Falls ja, dann bitte mal deaktivieren und nochmal versuchen.

    Ganz ehrlich? Ich habe alle Passwörter so gelassen, wie in der YAML-Vorlage, da ich ebenfalls alles lokal betreibe und max. per VPN auf mein lokales Netzwerk zugreife, wenn überhaupt. Das mögen viele anders sehen, oder sich gar die Haare raufen, wenn die das lesen, aber für mich geht das in Ordnung so. Nur den Admin-Zugang zur Paperless-ngx WebUI habe ich in der YAML geändert und du solltest ggf. die UID und GID anpassen.

    Code
    # Benutzer-ID des berechtigten Docker-Systembenutzers (nach Bedarf anpassen)
    USERMAP_UID: 1000
    # Gruppen-ID des berechtigten Docker-Systembenutzers (nach Bedarf anpassen)
    USERMAP_GID: 10
    # Name des Paperless-ngx Benutzers (nach Bedarf anpassen)
    PAPERLESS_ADMIN_USER: admin-user
    # Passwort des Paperless-ngx Benutzers (nach Bedarf anpassen)
    PAPERLESS_ADMIN_PASSWORD: admin-password

    Vor allem aber freut es mich zu hören, das du du es am Ende doch noch hinbekommen hast und ich mein Bauchgefühl richtig, und nicht als Hunger interpretiert habe.


    Ich betreibe ja alles lokal nur...

    Blöde Frage: Wozu hattest du dann die UGOS Pro Firewall aktiviert, wenn du doch eh alles lokal betreibst?

    Joplin gleicht ja nur dann die Daten ab, wenn man die App benutzt, von daher ist es m.M.n. ziemlich egal ob der Abgleich über WebDAV oder dem Joplin Server abgewickelt wird. Der Joplin Server verwendet, im Gegensatz zur WebDAV bzw. Cloud-Variante keine SQLite, sondern eine PostgreSQL Datenbank, was neben einer höheren Verarbeitungsgeschwindigkeit weitere gewisse Vorteile hat. Ich selbst nutze zwar auch die WebDAV-Variante, weil es für mich damals einfacher war, eine WebDAV-Verbindung einzurichten, als einen Docker Container zu erstellen. Ich wollte das immer mal umgestellt haben, aber der ein oder andere kennt ja vielleicht meinen Zettel, mit Dingen, die ich noch erledigen wollte und da steht leider immer ziemlich viel drauf.

    Ich bin zwar auch kein eingefleischter YouTuber, habe aber bereits zwei oder drei Videos online gestellt. Und auch wenn Bilder mehr als tausend Worte sagen, halte ich es für sehr vorteilhaft, laufende Bilder mit gesprochener Sprache zu untermalen. Das verleiht dem Ganzen noch mehr Aussagekraft und ich muss nichts mehr ich die Bilder hineininterpretieren. Aber natürlich ist das nur meine bescheidene Meinung.