Posts by JohannesB

    Verwendest Du kein Btrfs als Dateisystem?

    Doch ich verwende Btrfs als Dateisystem, aber bin noch sehr neu damit. Ich habe es folgendermaßen gemacht: volume1/docker_files/einzel/servicename wobei "servicename" ein btrfs subvolume ist. Da habe ich ein eigenes für immich, paperlessngx und jellyfin. Dann habe ich noch volume1/docker_files/gemeinsam/servicename wobei "gemeinsam" ein btrfs subvolume ist. Da sind dann die ganzen anderen Services drinn welche nur wenige Daten haben. Die Idee war von den größeren Diensten einzelne Snapshots machen zu können und diese dann getrennt zu sichern. Naja noch bin ich soweit noch nicht gekommen. Bisher läuft nur erstmal alles erfolgreich auf dem DXP2800. Und heute wollte ich das erste Mal wieder was im Consume Ordner ablegen und habe bemerkt das ja die alte Freigabe vom QNAP nicht mehr da ist ^^

    Vielleicht ist ja der Ansatz mit btrfs garnicht richtig.

    Das habe bereits befürchtet. Ich wollte vermeiden die Ordner nochmal neu anzulegen, da diese Teilweise als btrfs-subvolumes angelegt wurden um davon snapshots zu machen. Mh naja da mache ich mich mal morgen dran ggfs. kann ich ja neue btrfs subvolumes innerhalb der Freigaben anlegen. Mein Fehler war wohl das ich sogut wie alles über ssh gemacht habe.

    Nagut /etc/ nicht also nicht was direkt vom System verwaltet wird. Aber zumindest das gesamte Volume des Speicherpools. Dort wurden auch die Ordner angezeigt welche ich per SSH angelegt hatte.

    /etc/ zB? Kann ich mir nicht vorstellen.

    Ist sinnig. Was willst du mit zwei gleichen Freigaben?

    Ich möchte ja nur eine Freigabe und habe das probiert in der Hoffnung, dass einfach mein bestehender Ordner erkannt wird und die Dateien App eine Freigabe darauf erstellt. Aber ich glaube das geht so nicht. Ich frage mich ob es überhaupt geht. Bisher ist nur mein HomeVerzeichnis freigegeben aber dort wollte ich meine docker Services eigentlich nicht laufen lassen. Vielleicht übersehe ich einen entscheidenen Punkt

    Hallo zusammen,
    ich habe für meine Docker Container einige Ordner auf Volume1 erstellt zum Beispiel volume1/docker_files/paperlessngx/paperless/consume. Leider scheitere ich nun daran den Ordner freizugeben. Bei meinem alten QNAP konnte ich in der FileStation App sämtliche Ordner ansehen und auch Freigaben dafür erstellen. Nun auf dem ugreen wird mir nur angezeigt was ich auch über die "Dateien" App erstellt habe. Gibt es da einen Trick? Ich bin grade ziemlich ratlos. Die Dateien App erlaubt auch keinen Freigabeordner zu erstellen den es schon gibt. Ich habe versucht die gleichen Ordnerrechte zu setzen wie zum Beispiel der "docker" Ordner hat, welcher automatisch mit der Installation von Docker als Freigabe entstanden ist. Dadurch ist aber der Ordner auch nicht sichtbar geworden oder so.
    Hat jemand einen Rat?
    Viele Grüße

    ok. da bin ich raus.

    Besser wäre die Frage: Wie mappe ich Ordner vom Host zum Container ;) ich verstehe das es am Anfang etwas kompliziert wirken kann, aber es ist in Docker ein Grundschema was sich immer so wiederholt. Wenn du das einmal verstanden hast kannst du dir noch ganz andere Dienste aufsetzen. Es wäre schade da sofort das Handtuch zu werfen. *kw* hat ja bereits die Lösung zu beschrieben. Du musst nur noch eine Ordner Freigabe erstellen und dort eintragen.

    Er kann den Healthcheck nicht einfach entfernen/auskommentieren. Also nicht nur.... Bei ihm ist das als Bedingung für seinen Paperless Container eingetragen. Dann müsste er das auch entfernen.

    Oh du hast Recht, dass hatte ich übersehen :( Ich weiß nicht ob man die ganzen healthchecks braucht. Ich habe noch eine sehr alte Version des Compose Files wo es das alles noch nicht gab. Läuft auch so. Hat wahrscheinlich irgendwelche Vorteile wenn es korrekt läuft mit den Checks.


    Was mir noch bei deiner docker-compose.yml aufgefallen ist:

    YAML
    PAPERLESS_URL: https://xxx.synology.me
    PAPERLESS_CSRF_TRUSTED_ORIGINS: https://xxx.synology.me

    Hast du deinen Domaindienst noch laufen oder wie klappt das mit der URL? (Ernstgemeinte Frage ich habe bisher sowas noch nicht hinbekommen und rufe stumpf über die IP Adresse den Dienst auf)


    Ich kann sehr empfehlen der PaperlessNGX Anleitung zu folgen. Ich kann aber ja nochmal kurz zusammenfassen wie ich den PaperlessNXG Service nach den DB Problemen umgezogen habe:

    1. Auf dem neuen NAS die Verzeichnisse gelöscht, welche ich aus dem Backup schon wiederhergestellt hatte, was aber ja aufgrund der Dateirechte der Postgres DB nicht recht geklappt hatte. (Wahrscheinlich mit mehr Wissen hätte man es noch hinbekommen können, aber das war mir leider nicht möglich)

    2. Auf dem alten NAS Paperless starten docker compose up -d

    3. Backup erstellen docker exec paperlessngx document_exporter ../export

    4. Backup per rsync, scp oder sonst wie zum neuen NAS schicken. (Ich habe ein Tar Archiv aus dem ./export/ Ordner gemacht und das manuell rübergeschoben weil mein Zielverzeichnis nur mit sudo beschreibbar war.)

    5. Nun sollte dort die docker-compose.yml und der Ordner ./export dort liegen. Wenn man das compose File auch gelöscht hat muss man es dort wieder hin machen.

    6. Den Stack einmal starten docker compose up -d . Ich habe hier das -d weggelassen um zu sehen ob die Container auch korrekt hochfahren und initialisieren. Aber noch nicht auf der Paperless Webseite irgendwas eintragen oder Anmeldeversuche machen. Die DB muss frisch bleiben.

    7. Backup importieren docker exec paperlessngx document_importer ../export und warten bis der Import durchgelaufen ist.

    8. Webseite aufrufen. (Es sollte jetzt kein Dialog für den Adminuser mehr kommen)

    9. Mit den alten Logindaten einloggen und freuen (hoffentlich ;)


    Du musst wohl statt paperlessngx -> PaperlessNGX in den Befehlen schreiben weil dein Containername so definiert ist.

    container_name: PaperlessNGX


    Um die Sache mit dem Healthcheck zu beheben musst du entweder:

    1. Den Healthcheck auskommentieren und die Abhängigkeit der DB vom Healthcheck auch auskommentieren:

    YAML
    # healthcheck:
    #      test: ["CMD", "pg_isready", "-q", "-d", "paperless", "-U", "paperlessuser"]
    #      timeout: 45s
    #      interval: 10s
    #      retries: 10

    Und unten:

    YAML
    depends_on:
          db:
    #        condition: service_healthy
          redis:
            condition: service_healthy
          tika:
            condition: service_started
          gotenberg:
            condition: service_started

    Nicht alles von den Abhängigkeiten sondern nur die condition: service_healthy

    2. Oder aber du änderst den healthcheck:

    YAML
     healthcheck:
          test: ["CMD", "pg_isready", "-q", "-d", "paperless", "-U", "paperless"]
          timeout: 45s
          interval: 10s
          retries: 10

    -U gibt den User an und da du bei environment: gesagt hast:

    YAML
    POSTGRES_USER: paperless

    ... muss dein User mit dem der Healthcheck gemacht wird auch paperless heißen.

    Und wenn du sagst das da keine Dokumente sind dann konnte er die DB nicht richtig lesen oder die ist leer wie @GreenHorn86 gesagt hat.

    Edit: ich sehe grade deltapapa hat ein schönes Video zur Erklärung gepostet da war mein Text noch nicht fertig. Mach das doch mal.

    Ansonsten kommentiere doch mal den Healthcheck aus, der ist ja nur optional. Wenns dann geht kannst du dich daran machen den zu reparieren. Ansonsten könnte es noch mit Filerechten bei der Postgres DB zutun haben. Bei mir war das beim Umzug von QNAP nach Ugreen DXP2800 ein Problem. Ich habe dann einfach mit dem document exporter ein komplettes backup gemacht und dieses dann mit dem document importer auf dem Ziel eingespielt. So lief es dann einwandfrei.

    Ich kann mit @GreenHorn86 anschließen.

    Mein naiver Ansatz war es die Dockercontainer zu stoppen und dann die auf den Host gemappten Volumes einfach mit Duplicati zu sichern und auf dem neuen NAS wiederherzustellen. Die Dateien waren auch alle da. Nur leider wollte die Datenbank dann nicht mehr starten, da irgendwie wohl was an den Linux Filerechten anders geworden ist und da ist Postgres sehr mimosenhaft.

    Hätte sofort den Dump einspielen sollen. Aber dann mit dem Dokument Exporter/Importer klappte es auch super. Da sind auch passenderweise direkt alle Dokumente mit dabei. Das werde ich zukünftig in meine Backup Routine einbauen und dann halt nur diese Exporte sichern. So hat es jedenfalls dann sehr leicht und auf anhieb geklappt. :)

    Beim Umzug vom alten NAS auf das neue DXP2800 hatte ich auch DB Probleme. Das hatte mit den Dateiberechtigungen des Postgres Ordners zutun. Behoben wurde hat das Problem dadurch ein Backup auf dem alten Server anzustoßen und selbiges dann auf dem neuen wieder zu importieren: docker exec paperlessngx document_exporter ../export (in meinem Fall dieser Befehl ich bin mir nicht sicher ob der allgemein so funktioniert. Auf dem Zielsystem dann einmal frische Wiese machen und dann docker compose up -d ein bisschen warten bis die Container alle oben sind. Dann das Backup in den Export Ordner entpacken und docker exec paperlessngx document_importer ../export. Danach waren die Dateirechte wieder korrekt gesetzt und die DB beschreibbar.

    Ich denke es ist eine Abwägung zwischen Verfügbarkeit und Zugriffszeiten. RAID hält deine Verfügbarkeit hoch. Wenn du im Fall der Fälle mit einer gewissen Downtime leben kannst, bis du deine Backups wiederhergestellt hast, würde ich die Platte lieber für zusätzliche Backups nutzen. NVME oder nicht hängt auch bisschen vom Budget und den Datenmengen ab. Ich habe eine 4TB NVME wo immich drauf ist mit allen Bildern und Videos. Das läd schön schnell alles. Aber ich wollte das auch, da das NAS im Wohnzimmer steht und man da immer das Gerödel von den Platten gehört hat. Ich tendiere zu der Meinung das in deinem Fall Raid nicht nötig ist. Besser mehr auf Backup gehen würde ich sagen. Im Firmenkontext wo downtime direkt richtig ins Geld geht sieht es natürlich anders aus.

    Hallo zusammen,
    ich habe noch keine Frage dieser Art gefunden. Grade eben habe ich auf dem DXP2800 festgestellt das bei sudo apt update 197 Pakete geupdatet werden könnten. Allerdings habe ich sonst nur das Update über die UGOS Oberfläche eingespielt. Kann ich hier trotzdem die Pakete über apt aktualisieren oder mache ich mir so das System kaputt?
    Viele Grüße

    Ist dein Container auf "restart: - unless stopped eingestellt" (oder eine andere Neustart Regel) ? Ggfs hat er auch beim erstinitialisieren einen Timeout von der DB bekommen und dann sofort geendet und falls du keine Neustart Verhalten definiert hast könnte er dann ausgeblieben sein. (Habe ich mit einem anderen Container mal so erlebt)

    Ich bin quasi auch durch das DXP2800 zu ugreen gekommen. Bei mir werkelt eine WD SN700 mit 4TB in dem einen NVME Steckplatz - bisher ist mir da noch nichts auffälliges aufgefallen. Da ich nur 1 Gbit Netzwerk hier habe konnte ich noch nicht testen ob die 2.5GBit Schnittstelle Probleme macht wie in einem anderen Thread hier stand. Ich bin aber jetzt schon von der Preis/Leistung her zufrieden. Hatte vorher lange Zeit ein QNAP TS-251+ welches eine Intel Celeron 1900 CPU hat und auf lediglich knapp über 1000 Punkte im Benchmark kommt... Darauf liefen aber dennoch längere Zeit bis zu 30 Docker-Container. Wobei davon Immich, PaperlessNGX und Jellyfin vermutlich die Leistungshungrigsten waren. Mich störte aber das ewige rumgerödel der Platten weshalb es jetzt auch eine NVME geworden ist.
    Soweit ich das verstanden hatte waren die SSDs von WD nicht betroffen oder? (Wenn doch, wie finde ich es raus?)
    LG

    Also bei mir lief bislang Immich, PaperlessNGX und co. auf 8 GB. in einem alten QNAP allerdings in docker nicht mit Proxmox und der RAM war zwar sogut wie immer mit 7 GB ausgelastet aber es lief eigentlich sehr flüssig. Da der RAM ja nicht grade günstig ist. Würde ich das erstmal so testen. Was soll schon passieren. Wenn du Performanceeinbußen bemerkst kannst du ja immernoch RAM nachkaufen. Es sei denn du sagst, dass du lieber jetzt RAM kaufen willst bevor es wohlmöglich zukünftig noch teurer wird. Kann man sicherlich so machen. Habe jetzt ein DXP2800 geholt und bin somit nun im Team ugreen ^^. Da sind auch "nur" 8GB RAM drinn. Mal sehen ob es so in der Konfig weiter läuft. Sonst muss ich auch upgraden. Ich probiere es aber erstmal aus. Ansonsten habe ich aber eine Frage an dich: Welchen RAM würdest du denn empfehlen wenn man welchen nachkauft? Grüße