Posts by DerSandman

    Hallo zusammen,

    mich hat es geärgert das es keine automatisierte Möglichkeit gibt Jellyfin, Paperless und jDownloader zu sichern. Im ersten Schritt gehts nur um Jellyfin.

    Daher habe ich nun eine Möglichkeit für mich gefunden die praktikabel ist und meinen Wünschen entspricht. Benötigt wird Cronicle, ein TUT wie dieses zu installieren ist, gibt es ebenfalls hier unter den Anleitungen, darauf basiert auch was nun kommt.

    Ich wollte ein Automatismus haben, der nach meinen zeitlichen Vorgaben, den Jellyfin Container stoppt somit auch die DB, dann ein vollständiges Backup aller benötigten Ordner macht (exklusive dem Jellyfin eigenem Backups Ordner) und zusätzlich eine manifest.json Datei erzeugt damit man noch weiß wo wer wann was. Zusätzlich werden 5 Backups aufbewahrt und immer das älteste gelöscht wenn ein neues hinzu kommt. Das spart Speicherplatz und wer braucht mehr als die letzten 5 Backups? Ansonsten bitte anpassen.

    Vorgehensweise:
    1. Ladet als erstes mein Script herunter (dieses kann auch direkt verwendet werden, die nachfolgenden Schritte sind also optional).

    DerSandman
    December 18, 2025 at 12:04 PM


    2. Öffnet dieses anschließend in einem Editor eurer Wahl und kopiert den gesamten Inhalt.
    3. Öffnet anschließend Cronicle und klickt danach auf den Reiter Shedule >> Add Event.
    4. Nun könnt dann beispielhaft die Optionen anklicken bzw. ausfüllen wie im Screenshot.

    Achtung:
    Bei der Option Plugin muss bitte zwingend "Shell Script" ausgewählt werden, dort könnt ihr dann den zuvor kopierten Inhalt aus dem Script einfügen und an eure Gegebenheiten anpassen.

    Ihr müsstet bitte zwingend ein Augenmerk auf eure Pfade richten und diese anpassen.

    Wichtig ist auch der folgende Punkt:

    Das /app/ muss VOR eurem eigentlichen Pfad stehen, analog zum Cronicle Installations TUT hier im Board, sonst funktioniert es nicht.

    Ich wünsche gutes Gelingen und happy back-upping :)

    PS: Sollte euch dies gefallen und meine Skripte für Paperless sowie Jdownloader auch interessieren kann ich dies gern ebenfalls hier posten.

    Ich habe das Skript nochmal checken lassen, da war einiges an verschenktem Potential enthalten, ich arbeite gerade an einer robusten Version so das bei möglichen Fehlern das Skript nicht einfach abbricht und entsprechende Meldungen ausgeben würde. Wenn ich eine finale Version habe, stelle ich diese gern hin herein bzw. dann können wir das gern in den TUT Bereich bringen.


    Hier nun meine finale und getestete Version:


    Worunter genau soll ich das TUT denn einstellen? Anleitungen / Docker? Anleitungen / Sonstiges?

    Es geht hierbei ja speziell um ein Shell Skript was man in Cronicle einbinden kann.

    So sieht mein Code aktuell aus und er funktioniert. Natürlich ist das sicherlich nicht der Standard und einige Coder werden hier sicherlich einiges verbessern können. Vielleicht finden wir gemeinsam eine finale Version?

    Ich habe es übrigens nicht hin bekommen ein ZIP File zu erstellen, da ZIP offenbar Cronicle im Container nicht zur Verfügung steht, es gäbe wohl eine Frickellösung, diese ist aber nur temporär und bei einem Update des Containers wieder futsch, daher hab ich es bei tar.gz belassen.

    Meine Pfade müssen natürlich zu euren Gegebenheiten angepasst werden. Ich wollte das die Sicherung auf ein anderes Volume geschieht. Alles andere wie Zeitsteuerung habe ich direkt in Cronicle angepasst, ich nutze übrigens Cronicle so wie es hier im Board als TUT zur Verfügung steht.

    Ich hab es nun mit viel ausprobieren, KI und nachlesen im Netz geschafft ein automatisiertes Backup zu erstellen welches mit Cronicle läuft.

    Im Backup enthalten:

    Code
    config/
    data/ (exklusive dem Jellyfin eigenen Backups Ordner)
    metadata/
    backup_manifest.json

    Wenn daran Interesse besteht kann ich es hier aufzeigen, dann kann es nach Wunsch durch euch angepasst und verwendet werden.

    Der zweite Link direkt zu Jellyfin scheint ja erfolgsversprechend zu sein.

    Da könnte (wenn man es kann) nun per Cronicle zuerst einen docker stop jellyfin machen, anschließend müssten die Ordner config und data, gezipt werden und in das Bacpkup Verzeichnis abgelegt werden. Am besten mit Datumsangabe im Namen des Zip Files.

    Die Frage ist nun wie :) vermutlich wenige Zeilen Code aber für mich aktuell noch zu "hoch".


    Also Jellyfin zu stoppen und zu starten klappt schonmal. Nun muss angegeben werden wo wie was liegt und ein Befehl muss gegeben werden zum Zippen was und wohin gell? Soweit die Theorie.

    Ja, Jellyfin läuft bei mir als Docker Container. Ich würde es gern so laufen lassen wie das mit dem Export bei Paperless auch funktioniert, da kopiere ich ja auch nicht einfach nur Ordner des Containers.

    So wie ich gelesen hatte, wenn man einfach nur die Ordner von Jellyfin kopiert könnte die DB später korrupt sein. Ich möchte aber nicht jedesmal von Hand den Container stoppen dann alles kopieren und zippen und danach wieder Jellyfin starten. Das scheint ja durch die interne Backup Funktion auch anderweitig zu lösen zu sein.

    Sprich man müsste nur wissen was Jellyfin da intern für einen Befehl ausführt und diesen könnte ich dann mit Cronicle doch auch benutzen um dies zu automatisieren.

    Hallo zusammen,

    seit ein paar Jellyfin Versionen ist ja ein eigenes Backup Tool im Adminbereich von Jellyfin zu finden. Dieses erstelt nach Wahl ja ein Zipfile / Backup mit der aktuellen Datenbank, Metadaten, Untertiteln und Trickplay.

    Das finde ich sehr gut, allerdings gibt es dazu leider keine Automatisierung. Ich hätte gedacht unter den geplanten Aufgaben etwas passendes zu finden, dem ist allerdings nicht so.

    Hat hier jemand evt. eine andere bessere Lösung parat?

    Ich würde gern per Cronjob über Cronicle ein automatisiertes Backup laufen lassen, abschließend sollte das Zip File in einen Ordner X kopiert werden.

    Dazu fehlt mir allerdings ein funktionierender Shell Befehl der dies auslösen würde.

    Kann mir jemand hierbei behilflich sein?

    Ja auch korrekt, dem ist so. Aber man kann zB den Paperless Ordner nicht einfach kopieren dann ist die DB korrupt genau wie bei Jellyfin. Daher kann ich ja bei Paperless per Export Befehl ja eine korrekte Backup Datei erzeugen, ebenso per Admin Menü und Tool bei Jellyfin. Aber mir geht es dabei um die Automatisierung das ich dies nicht händisch erzeugen muss.

    Guten Tag zusammen,

    Ein letzter Punkt auf meiner 2-Do Liste bezüglich der Einrichtung der neuen Ugreen NAS ist das Backup, speziell geht es mir um Docker bzw.

    Ziel wäre es das die Container die ich am laufen hab über eine Automatisierung ein Backup erstellen vornehmlich als Zip File und es an einen Ort X kopieren.

    Betreffende Container:
    Paperless NGX
    Jellyfin
    jDownloader

    Dafür müsste man dies wohl über Cronjobs automatisieren, aber wie?

    Paperless: hier gibt's mehrere Anleitungen, wie über Export ein Backup erstellt wird, das kann ich auch bereits händisch durchführen. Aber eben nicht automatisiert.

    Jellyfin: verfügt über ein internes Backup Tool, was dann händisch ein Zip File erstellt. Das wurde ich gern automatisiert laufen lassen.

    jdownloader: hierzu ist mir gar nichts bekannt, nehme an da es nicht DB basierend ist, das man schlichtweg den Config Ordner nur zippen und an einen anderen Ort verschieben müsste?

    Wie handhabt ihr dies aktuell bei den benannten Containern?

    Danke für deine Rückmeldung. Ja habe ich alles überprüft und ist ok. Ich bin auch weniger ein Fan von der Konsole, es war nur ein verzweifelter letzter Test bevor ich mich mit dem Gedanken anfreunde alles einmal neu machen zu müssen. Aber wie oben beschrieben klappte dies auch nicht bei Jellyfin ist die DB locked und bei Paperless bekomme ich nichtmal ne ordentliche Fehlermeldung aber anscheinend ist auch da die DB nicht beschreibbar und ich hätte zuerst auf der Synology ein export machen müssen.

    Ich habe gerade von einer UGREEN zur UGREEN migriert, läuft aber wunderbar.

    Nach dem kopieren meiner Ordner habe ich jeden Hauptordner mit den richtigen Adminrechten versehen.

    Angenommen im Root Ordner Docker liegt Paperless, dann rechtsklick auf Paperless und die Besitzerinfos prüfen, und ggfs. dort richtig setzen und nach Unterordner vererben. Einige sind bei mir leer gewesen oder nur mit Root gefüllt, das bereitet dann Schwierigkeiten.
    Dass solltest du mit allen Ordnern machen, damit erst einmal alles sauber ist.

    Wo genau? Rechtsklick auf den Docker Ordner oder meinst Du die Ordner im Docker Ordner? Darauf bin ich auch schon gekommen. Da wird mir z.B beim Jellfyfin Ordner Admingruppe = lesen angezeigt. Wenn ich dann meinen Nutzer mit schreiben/lesen berechtige meckert die NAS das ich das zwar machen kann aber es wohl nicht beachtet wird?

    Boah, was eine Antwort 🥰 vielen lieben Dank dafür.

    Das meiste habe ich verstanden bzw war mir bewusst. Ich habe in der Zwischenzeit weiter versucht klüger aus den Logfiles von Paperless und Jellyfin zu werden.

    What can i say, du hast vermutlich Recht was die Berechtigungen betrifft. Es scheint so zu sein das meine Ordner innerhalb des Docker Containers auf der Synology irgendwie bestimmte Rechte bekommen haben. Die scheint ich auch brav mit kopiert zu haben, was jetzt dafür sorgt das zB Jellyfin augenscheinlich die DB zwar lesen aber nicht vollständig beschreiben kann. Versuche per chmod 777 -R da entgegen zu wirken per sudo klappt auch nicht.

    Bei Paperless sieht es wohl ähnlich aus auch hier können bestimme Sachen offenbar nicht ausgeführt werden weil Rechte fehlen bzw das restriktiert ist. Ich habe nun im Netz gelesen das man hätte Paperless exportieren müssen dabei wird quasi alles entfernt an rechten und Bein Import auf neuer NAS wird dann alles wieder eingearbeitet. Schade für mich, die alte NAS ist ja schon platt 😕, man lernt offenbar so fürs Leben.

    Bei jellyfin gibt's ja seit 1-2 Versionen ebenfalls die Möglichkeit ein Backup anzulegen, ich vermute auch dort wird sowas vollzogen. Früher musste man wohl den Container gänzlich beenden damit die DB nicht mit einem Lock versehen wird, auch das habe ich natürlich bis dato nicht gewusst. Herrlich 🤷‍♂️

    Also wie es im Moment aussieht, müsste ich nochmal gaaaaanz von vorn anfangen ohne Altdaten, alte Ordner aus dem Docker Ordner. Alles einmal ganz neu aufsetzen.

    Da würde ich mich im Notfall dann nochmal durchquälen. Aber dann mache ich es richtig auch was die Backups angeht der jeweiligen Docker Container.

    Macht aber jetzt erst Sinn wenn ich meine bestellten NVMEs erhalten haben, die dann als Raid1 laufen sollen und darauf würde ich dann alle Apps und Docker laufen lassen. Die größeren Datenmenge wie die PDFs von Paperless sollen natürlich weiterhin auf die HDDs gespeichert werden, meine Jellyfin Medien liegen ja auch außerhalb.

    Was meinst du dazu?

    Hallo zusammen,

    ich bin noch recht frisch auf der Ugreen NAS Seite, komme wie wahrscheinlich einige von der Synology Seite. Hab gedacht ich schaffe auch mal was allein ;) nun zeigt sich ich benötige doch Hilfe weil ich einfach nicht mehr weiter weiß. Zuerst hat es den Anschein gemacht das der Umzug einwandfrei funktioniert hätte, aber nun im Detail stimmt hier irgendwas nicht. Daher vermeintlich eigenverschuldet erst Hui und nun aktuell leider Pfui.

    Ich habe mir eine DXP2800 gekauft, darin werkeln aktuell 2x8TB Platten als RAID1, ebenso habe ich mir direkt von Anfang an 16GB RAM aus der Kompatiblitätsliste zugelegt und verbaut. Erst später habe ich mir noch zum Test 2x NVME dazu bestellt, vorerst mit nur 240GB, kann ich ja noch aufrüsten, sind aber noch nicht da! Gedacht ist, diese als Volume RAID1 laufen zu lassen, wollte es erst als Cache benutzen aber laut den Infos hier im Forum sollte man das nicht machen bei meinem Einsatzzweck (Jellyfin,Paperless, jDownloader und ggf. mal eine Win VM).

    Mein bisheriger Workaround, ich habe alle Daten per Sync von der Synology 218+ auf die Ugreen geschoben, gefühlte Ewigkeiten später und mit dreifacher Verifizierung der Daten, war dann alles angekommen. Die Synolgy 218+ ist mittlerweile auch platt gemacht und sucht bald einen neuen Besitzer. Ich. habe somit 1:1 alle Ordner und Strukturen auf die Ugreen übertragen. Erst nachdem dies vollzogen war, hab ich angefangen die Ugreen zuende einzurichten.

    Nun ist mir folgendes aufgefallen, bzw. bereitet mir Kopfschmerzen:

    1.) erstmal allgemein gesprochen ist die Ugreen gefühlt langsamer und schwerfälliger als die Synology was ja nicht sein kann. Aber beim starten von Apps oder beim kopieren intern von Daten ist sie teilweise träge. Nungut die braucht vermutlich auch erstmal ein paar Tage um sich zu sortieren vielleicht wird es ja noch besser. Oder könnte es hier schon am RAM liegen der doch nicht 100% funktioniert? Haben die Platten irgendwie Schaden genommen? Zumindest werden mir keine Fehler angezeigt oder es stürzt auch nichts ab.

    2.) das größere Problem ist bei mir eigentlich Docker, dieses habe ich vermeintlich "falsch" installiert. Es gab ja bereits den Docker Ordner von der Synology, ich Fuchs dachte das ich den quasi als Backup 1:1 rüber schiebe, die Container neu aufsetze und dann ist alles wie vorher. Dem scheint aber nicht so zu sein, jedenfalls nicht wirklich. Ja, alle Docker Apps laufen (ich nutze Jellyfin, jDownloader und Paperless) ABER, bei Jellyfin dauert der Bibliotheksscan ewig bzw. mit Musik hängt er sich gern auf, etliche Fehlermeldungen im Protokoll und auch das transkodieren geht nun nicht mehr. Bei Paperless ist es anders auch da sieht es erstmal aus das alles geht aber hier zieht er sich neue Dokumente nun nicht mehr aus dem Consume Ordner, er findet sie er startet die Verarbeitung und hängt dann einfach. Nur der jDownloader der läuft tatsächlich ohne das ich was negatives bemerkt hätte.

    3.) was auch merkwürdig war, ich habe nach Anleitung hier aus dem Forum versucht Portainer per SSH zu installieren, auch dies startete und alles lief und lief und lief und lief und lief, als hätte es sich aufgehangen, da tat sich nichts mehr. Nach einer gefühlten Ewigkiet sah ich dann den Container in der Docker App, die sagte auch ja ist gestartet alles top, aber aufrufen konnte ich Portainer dennoch nicht. Die Seite lädt dann einfach nicht. Habe Portainer z.B vorher nicht genutzt dazu gab es keine Altdaten/Altkonfig. Komisch!


    Tjaaa was mache ich denn nun? Ich habe zwar keine richtig dolle Ahnung, aber ggf. eine Vermutung. Kann es sein das es keine gute Idee war den Docker Ordner 1:1 zuerst rüber zu kopieren, dann erst Docker zu installieren und dann die Apps? Kann es sein das es dadurch irgendwelche Berechtigungsprobleme gibt? So ließt es sich fast wenn ich mir die Protokolle zu Jellyfin oder Paperless anschaue. Hat jemand ähnliches erlebt?

    Da ich ja eh noch auf die 2 NVME warte, war nun meine Idee, ich baue die ein ebenfalls als RAID1 und würde darauf dann nochmal die Apps bzw. natürlich Docker installieren bzw. die genannten Container. Dann könnte ich ja erstmal ganz nackig testen ob Paperless 1 Dokument verarbeitet oder ob Jellyfin mit einer Bibliothek von 1 Film auch das transkodieren wieder machen mag. Aber was mach ich dann? Kann ich nicht die alten Docker Ordner worin ja alle Einstellungen etc sind rüber kopieren? Wie muss ich vorgehen?


    Ich bin für jede Hilfe / Idee offen und dankbar.

    Ooookay :) vielen Dank.

    Das dachte ich mir eigentlich auch schon, also Portainer kann man, muss man aber eigentlich auch nicht, ggf. für spezielle Tätigkeiten die die Docker App auf der UG NAS eben nicht ohne weiteres könnte.

    Ja mir war klar das es den Container Manager nur auf der DS gibt ;) war ja als Bsp genannt was ich vorher genutzt habe. Dieser ist ja quasi auch nur die Eigenentwicklung von Docker selbst. Nehme an die haben diese Sonderlocke gebaut um sich ihre eigene Insel zu schaffen und nicht von Docker selbst abhängig zu sein. Synology geht ja seit einiger Zeit eigene Wege die ich eben nun nicht mehr mitgehen muss :)