Paperless-ngx Container wird beendet - exited - code 0

  • Liebes Ugreen Forum,


    das ist mein erster Post hier, ich hoffe es ist ok. Ich habe die Frage bereits bei Digitalisierung im Kopf gestellt, da konnte mir niemand helfen. Ich war jahrelang Synology Besitzer und habe jetzt den switch auf Ugreen gemacht. Bis jetzt bin ich sehr begeistert. :)

    Ich hoffe es ist ok, dass ich meine Frage hier stelle, ich würde mich sehr über Hilfe freuen.

    Mein System:
    Ugreen FXP48000PLus
    Systemversion: 1.9.0.0075

    Portainer: Community Edition 2.27.9 LTS

    Mein Problem ist:
    Nach einiger Zeit verabschiedet sich immer mein Paperless:
    PaperlessNGX exited - code 0
    PaperlessNGX-DB exited - code 0
    PaperlessNGX-GOTENBERG exited - code 0

    Habt ihr eine Idee woran das liegen könnte?

    Vielen Dank für eure Hilfe :)

    Die Logs zeigen mir folgende Infos:

    PaperlessNGX-DB

    PaperlessNGX-GOTENBERG


    PaperlessNGX

  • PermissionError: [Errno 13] Permission denied

    Vielleicht übersetzen? Gelesen hat er es bestimmt.

    Zugriffsfehler Zugriff verweigert ;)

    Meine Hardware


    • DXP6800PRO | 2 x CT16G48C40S5.M8A1 16 GB 4800 MHz | 3 x Seagate ST12000VN0008-2YS101 12TB | 3 x Samsung SSD 870 EVO 1TB | 4 x Samsung SSD 990 PRO 2TB

  • Hallo,

    Danke für eure Hilfe :) Übersetzen kann ich natürlich :D

    Meine UID und GID stimmen, habe ich natürlich geprüft.

    Eine Sache ist mir eingefallen:
    Ich hatte Paperless vorher mal installiert und wieder gelöscht und dann wieder installiert. Kann das irgendwas durcheinander bringen?

    Außerdem habe ich versucht die App und die Files auf zwei verschiedenen Volumes laufen zu lassen, einmal SSD und einmal HDD.

    Danke für eure Hilfe :)

  • Kann das irgendwas durcheinander bringen?

    Ja, wenn Du die alten Dateien im Docker Ordner nicht gelöscht hast, bzw diese bei Deinstallation nicht gelöscht wurden, was meistens der Fall ist.

    Meine Hardware

    DXP4800+ 2x8TB WDRedPl Btrfs Raid1 2x 2TB NVME Lexar NM790 Raid1, 64GB RAM Kingst. KVR48S40BD8-32 DDR5/4800MH

    DXP2800 1x 12TB Seag. 1x 12TB WDRedPl, Raid1 Btrfs 16GB RAM Crucial CT16G56C46S5.C8B2, 2x NVME Samsg,

    DS1525+ 2x8TB WD, Btrfs SHR, 2x 2TB NVME Lexar NM790 Raid1. 40GB ECC RAM_Speicher.de

    DS920+ DSM 7.3.2 Btrfs Raid1 2x8TB WD, 2x2TB NVME Samsg. 970 EVOPlus, RAM 20GB DDR4-2666MHZ Speicher.de

    USV UGREEN US3000, EatonEllip.PRO 850DIN, Switch Zyxel GS1200-8 1GB, Zyxel XMG-108 8 x 2,5GB

  • Danach sieht es aber nicht aus. Hat der User den du angegeben hast auch wirklich die nötigen Rechte auf dem consume Ordner? Also Lesen Schreiben und löschen. Wenn du den selben Stack verwendest wie vorher, dann kommt da nichts durcheinander. Dann würde er dir sein paperless genau so erstellen wie bei der ersten Installation. Es würde nur Probleme geben, wenn du z.B. andere DB Zugangsdaten hättest bzw. eine andere DB Version von PostgreSQL. Aber dann würde paperless nicht starten und die Meldung wär eine andere.

  • Danach sieht es aber nicht aus. Hat der User den du angegeben hast auch wirklich die nötigen Rechte auf dem consume Ordner? Also Lesen Schreiben und löschen. Wenn du den selben Stack verwendest wie vorher, dann kommt da nichts durcheinander. Dann würde er dir sein paperless genau so erstellen wie bei der ersten Installation. Es würde nur Probleme geben, wenn du z.B. andere DB Zugangsdaten hättest bzw. eine andere DB Version von PostgreSQL. Aber dann würde paperless nicht starten und die Meldung wär eine andere.

    Danke für deine Antwort. Ja, der User ist einfach mein Admin User. So sieht das bei mir aus (Paperless Ordner, der consume Ordner beinhaltet):
    The content cannot be displayed because you do not have authorisation to view this content.


    Als Anleitung habe ich das Tutorial von der Seite die man hier glaube ich nicht nennen darf verwendet :)

  • Da scheint trotzdem ein Problem mit den Rechten zu sein. Sonst würde er ja nicht meckern. Guck sonst mal wem die Dateien wirklich gehören.

    Ansonsten ist das komische, dass alle Container beendet werden. Vor allem auch ohne Fehlercode. Könntest du mal deine Compose posten? Und hast du irgendwas was z.B. Docker neustartet oder ähnliches?

  • Beim Umzug vom alten NAS auf das neue DXP2800 hatte ich auch DB Probleme. Das hatte mit den Dateiberechtigungen des Postgres Ordners zutun. Behoben wurde hat das Problem dadurch ein Backup auf dem alten Server anzustoßen und selbiges dann auf dem neuen wieder zu importieren: docker exec paperlessngx document_exporter ../export (in meinem Fall dieser Befehl ich bin mir nicht sicher ob der allgemein so funktioniert. Auf dem Zielsystem dann einmal frische Wiese machen und dann docker compose up -d ein bisschen warten bis die Container alle oben sind. Dann das Backup in den Export Ordner entpacken und docker exec paperlessngx document_importer ../export. Danach waren die Dateirechte wieder korrekt gesetzt und die DB beschreibbar.

    DXP2800 1x 4TB WD SN700 NVME, Btrfs 8GB RAM

  • Vermutlich ist bei einem Umzug der Export und der anschließende Import wohl die einfachste und sicherste Methode. In der Theorie könnte ich mir aber auch durchaus vorstellen, das es mit einem Dump der Datenbank mindestens genauso gut gehen sollte. Theoretisch deshalb, weil ich weder das Eine noch das Andere ausprobiert habe. Ich habe zuletzt nur PostgreSQL von der Version 17 auf die Version 18 angehoben und dabei einen Dump der Datenbank erzeugen und zurückspielen müssen.

    FRITZ!Box 5590 Fiber | UniFi Express 7 | 2,5-GBit-LAN & Wi-Fi 7
    DXP2800 - 1TB Crucial P310 NVMe RAID1 - 2TB Crucial MX500 SSD RAID1 - 16 GB Crucial CT16G56C46S5 (5600Mhz)
    DS224+ 3TB WD Red HDD RAID1 18GB Ram | DS124 1TB Samsung 870 EVO SSD
    Linux Mint | Ubuntu-Server | Windows | iOS | iPadOS
    UGREEN.FORUM/Filebase | Synology-forum/Add-ons | GitHub.com/toafez

  • Also ich habe meine Paperless Instanz von einem Server auf einen anderen ohne Probleme mit einem PostgreSQL Dump durchgeführt. Das war eine Sache von 5 Minuten. Daten kopiert, DB erstellt und Dump importiert und alles wieder hochfahren. Und der User merkt nicht mal, dass sich was geändert hat.

    Solange man nicht die DB Engine wechselt würde ich wahrscheinlich immer wieder den Dump machen. Das ist ein Standardverfahren und ich muss mich nicht erst mit einer Doku befassen wie ich am besten den Export durchführe und da auch wirklich alles drin ist. Bei einem DB Dump ist nun mal wirklich alles drin was in der DB ist und da geht nichts verloren.

  • Danke für das Teilen deiner bereits gewonnenen Erkenntnisse. Das beruhigt mich schon mal. Da ich irgendwann (aus Jux und Dollerei und weil ich ein Spielkind bin) einen Wechsel von PostgreSQL nach MariaDB antesten möchte, werde ich wohl um die Export/Import Funktion von Paperless-ngx nicht herumkommen. Oder kennst du einen Weg wie man PostgreSQL nach MariaDB portiert, ohne das ich diesbezüglich selbst irgendwelche Nachforschungen angestellt habe?

    FRITZ!Box 5590 Fiber | UniFi Express 7 | 2,5-GBit-LAN & Wi-Fi 7
    DXP2800 - 1TB Crucial P310 NVMe RAID1 - 2TB Crucial MX500 SSD RAID1 - 16 GB Crucial CT16G56C46S5 (5600Mhz)
    DS224+ 3TB WD Red HDD RAID1 18GB Ram | DS124 1TB Samsung 870 EVO SSD
    Linux Mint | Ubuntu-Server | Windows | iOS | iPadOS
    UGREEN.FORUM/Filebase | Synology-forum/Add-ons | GitHub.com/toafez

  • Das wird nicht ohne weiteres gehen, weil es doch Unterschiede gibt. Soweit ich weiß gibt/gab es Tools dafür, aber ich habe es nie getestet. Glaub ich würde es an der Stelle über den Export/Import machen.

  • Ich kann mit @GreenHorn86 anschließen.

    Mein naiver Ansatz war es die Dockercontainer zu stoppen und dann die auf den Host gemappten Volumes einfach mit Duplicati zu sichern und auf dem neuen NAS wiederherzustellen. Die Dateien waren auch alle da. Nur leider wollte die Datenbank dann nicht mehr starten, da irgendwie wohl was an den Linux Filerechten anders geworden ist und da ist Postgres sehr mimosenhaft.

    Hätte sofort den Dump einspielen sollen. Aber dann mit dem Dokument Exporter/Importer klappte es auch super. Da sind auch passenderweise direkt alle Dokumente mit dabei. Das werde ich zukünftig in meine Backup Routine einbauen und dann halt nur diese Exporte sichern. So hat es jedenfalls dann sehr leicht und auf anhieb geklappt. :)

    DXP2800 1x 4TB WD SN700 NVME, Btrfs 8GB RAM

  • Moin,

    hast du noch weitere Container am laufen? Ansonsten würde ich an deiner Stelle einmal alle ungenutzten Images, Container und Netzwerke gnadenlos löschen. Das kannst du gut über die Konsole mit:

    docker system prune -a

    machen. Dazu gibts eine kleine Anleitung z.B. hier: https://friendlybytes.net/blog/post/dock…cker-ressourcen oder natürlich hier: https://docs.docker.com/engine/manage-resources/pruning/

    Naja, dann die Verzeichnisse anlegen und dann PaperlessNGX installieren. Ich habe früher immer die Anleitungen von M. genommen, aber die sind nicht besser oder schlechter als anderen Anleitungen, aber manchmal etwas undurchsichtig. Eine gute Docker Compose findest du von Tommes unter: https://github.com/toafez/Tutoria…PostgreSQL.yaml

    Und schau mal hier, da gibts wirklich viele Infos dazu: RE: Paperless-ngx in Docker

    Ich würde aber immer klein Anfangen, vielleicht zuerst nur DB, Redis und Paperless, und gucken ob es läuft. Dann kannst du immer noch andere Compose Setups testen.

    Viel Glück,

    deltapapa

    Mein System:

    DXP4800Plus, 2× 1TB Lexar NM790, 3x Toshiba 8TB MG10ADA800E, 2x 32GB Crucial DDR5 - 5600 S0DIMM CT32G56C46S5, UGOS 1.11.0.0053
    DS918+, 12GB RAM, Volume1 -> 3x 4TB WD RED WD40EFRX / 1x 4TB WD RED WD40EFAX, Volume2 -> 1x 500GB NVMe M.2 Crucial CT500P1SSD8
    Fritzbox 7590 mit OS 8.x mit Wireguard, TNG Glasfaser, Windows 11 Pro

  • Hey,

    danke für deinen netten Post :) Das hat mir sehr geholfen! Ich habe vorher auch versucht die Verzeichnisse auf verschiedenen Volumes laufen zu lassen (SSD vs. HDD), ich glaube das lasse ich dieses mal auch.

    Danke dir, ich melde mich wenn es geklappt hat 8)

Participate now!

Don’t have an account yet? Register yourself now and be a part of our community!