Posts by Cell
-
-
Hallo,
ich würde gerne dieses Feature hier für Portainer aktivieren, aber dafür muss ich den Container scheinbar recreaten.
Die Erstinstallation habe ich als root via SSH mit diesem Befehl gemacht:
Codedocker run -d -p 8000:8000 -p 9000:9000 --name=portainer --restart=always -v /var/run/docker.sock:/var/run/docker.sock -v /volume2/docker/portainer:/data portainer/portainer-ceWenn ich dieses Feature jetzt aktiviere und auf save gehe, dann bekomme ich folgende Fehlermeldung.
QuoteFailed to edit container portainer. Error: UpdateContainer fail container name 'portainer': target volume mntPath /var/run/docker.sock not Found
Leider finde ich in zu dem Fehler keine Infos und ich kenne auch die Flag leider nicht, um dieses Graphic Feature gleich beim ersten Befehl mit zu aktivieren. Steht scheinbar auch nicht in den Portainer CE Docs.
Weiß da evtl. jemand Bescheid?Danke!
ah, scheint wohl nur mit NVDIA GPUs zu funktionieren.

-
-
Nun gut, das ist gut zu hören, jedoch nur weil in deinem Fall noch keine Probleme aufgetreten sind, heißt es für mich jetzt ehrlich gesagt nicht, dass das tatsächlich die sicherste Methode oder best practice ist.
Hier gibts z.B. bei ner Oracle Datenbank Parameter, die man für nen Shutdown übergeben kann.The mode is normal, immediate, or abort.
In a normal shutdown, Oracle Database waits for all currently connected users to disconnect and disallows any new connections before shutting down. This is the default mode.
In an immediate shutdown, Oracle Database terminates and rolls back active transactions, disconnects clients, and shuts down.
In an abort shutdown, Oracle Database terminates active transactions and disconnects users; it does not roll back transactions. The database performs automatic recovery and rollback the next time it is started. Use this mode only in emergencies.
Administrator's ReferenceLearn how to start and shut down a database with SQL *Plus.docs.oracle.comMySQL, Postgres usw haben sicher auch ähnliche Methoden. Wenn die Datenbanken dann über Portainer laufen, welcher Befehl wird da gesendet, das frage ich mich halt.
Nur um Risiken auszuschließen und nicht mit ner kaputten Datenbank oder korrupten Daten aufzuwachen.
-
Ja ich frag mich nur ob das nicht ein etwas zu harter "cut" ist. Wenn da Datenbanken laufen kenn ich das eigentlich so, dass man so etwas wie einen soft shutdown mit grace period hat.
-
Wie ist denn das beim Booten, wenn ich jetzt zwei Platten getrennt voneinander mit UGOS einrichte und dann beide laufen habe, kann ich dann auswählen, von welcher ich starte?
-
Also der Support konnte mir leider auch nicht helfen. Es soll wohl an einer Cache Datei liegen, aus der Versionierung. Wenn ich mit dem command vom Support diese aufrufen will, läuft der Befehl stundenlang ohne ein Ergebnis zu bringen.
Ich habe jetzt eine Backup Platte, die noch nicht eingerichtet oder aktiviert ist. Was wäre die beste Strategie, um ein neues System aufzusetzen und dann die wichtigen Dateien rüberzukopieren? Alte Platte raus, neue Platte + UGOS und Dienste einrichten, dann die alte Platte wieder rein und von Hand rüberkopieren?
Wie läuft das mit dem UGOS, wenn auf zwei individuellen Platten (Storage Pools) ein UGOS läuft, kann ich dann beim Start aussuchen, von welcher ich booten will?
Ich hab auch mit ncdu versucht was zu finden, aber da werden mir im root Verzeichnis ganz komische Werte angezeigt.
ncdu -x /
Da tut sich auch nichts, also weiß nicht, ob der noch scanned.
df -h
Der Support hat empfohlen die folgenden Befehle als root auszuführen:
1. Check for old versioning folders from removed Sync tasks:
find /volume1 -name '*sysversion'Dieser command lief für ca. einen Tag ohne Ergebnis.
2. Check for hidden or reserved system folders:
du -sh /volume1/@kvm
du -sh /volume1/@dockerDas hatte auch nicht geholfen.
3. find /volume1 -type d -name '*sysversion' -exec du -sh {} \;
Den hab ich nach ca. einer Stunde abgebrochen, lass ich aber nochmal länger laufen jetzt.
Zum Schluss kam dann diese Antwort vom Support:
Ziemlich seltsam, weil nach der Logik, hätte sich der cache ja schon längst leeen müssen. Nehme ich daher eher als eine "wir wissen es auch nicht und reden am Problem vorbei" Lösung.
Darum suche ich jetzt nach einer praktikablen Lösung mit der zweiten Platte.
Kann mir hierbei jemand helfen?
Vielen Dank
Mark
Ich bin jetzt mal nicht per sudo -i als root unterwegs, sondern in meinem normalen user Bereich mit cd / eine Ebene höher und da mal ncdu gestartet, da wird mir jetzt schonmal das hier angezeigt:
Bin ich mal gespannt, wie das weiter geht.
-
Doppelpunkt statt slash vor der Portangabe.
-
Ne das brauchst du nicht, aber dieser Terminal Befehl enthält den Token. Anstatt des Terminal Befehls nutzt du die yaml, um den Container aus der Docker Library zu pullen und zu konfigurieren.
Das läuft so dann auch mit ganz vielen anderen Diensten, hier zb für paperless: https://github.com/paperless-ngx/…e.portainer.yml
Du brauchst dann nurnoch nach diesen docker-compose.yml Dateien zu suchen und das ist dann schon die ganze initiale Konfiguration. Diese docker compose Dateien muss man nur teilweise noch anpassen bzgl. der Ordnerpfade, oder der User Gruppe, oder ggf. Ports, wenn man andere nutzen will, oder Angaben zu localization oder admin nutzer und passwörter, wenn der Dienst das vorsieht.
Eigentlich findest du inzwischen bei jedem Dienst, den du über Docker laufen lassen kannst, auch irgendwo in deren Dokumentation oder auf Github so eine Docker-compose Datei. Manchmal auch aus blogs, oder youtube videos, wo Leute das erklären und dir dann gleich die Datei mitgeben. Recht komfortabel aus meiner Sicht.
-
-
Ok, also Homeassistant ist bereits auf Ugreen und per Cloudflare Tunnel erreichbar über deine Subdomain. Hast du Homeassistant auch via Docker installiert? Also die Dienste, die du auf Proxmox laufen lasen hattest, die sind ja interessant jetzt auf Ugreen / Docker (ggf. Portainer) umzuziehen, oder? Da wären auch die VMs noch, die du zb. als Snapshot rüber holen willst auf die Ugreen? Ja, also ich denke mit den Videos und dem Anlegen von einem Projekt und dem oben stehenden yaml code, solltest du deine NAS ganz easy mit Cloudflare verbinden können und dann weiterschauen, dass du die Dienste anlegst.
-
Wenn ich es richtig verstehe, willst du deine VMs und deine Dienste doch jetzt alle auf das Ugreen umziehen, oder? Dann wäre das ja eine neue IP auf die du deine Subdomains routen müsstest, die IP deiner Ugreen NAS. Also brauchst du einen Tunnel auf deine NAS und dann "sieht" Cloudflare ja alle Ports, auf denen Dienste laufen. Und da kannst du dann deine Subdomains drauf richten. Sonst vielleicht nochmal etwas genauer beschreiben, was du da am Laufen hast, auf welchen Geräten usw.
-
Der Token wird dir angezeigt, wenn du den Zero Trust Tunnel anlegst. Glaube nicht, dass das der ist, den du zeigst.
Hier ist ein Video, wo das alles erklärt wird.
External Content youtu.beContent embedded from external sources will not be displayed without your consent.Through the activation of external content, you agree that personal data may be transferred to third party platforms. We have provided more information on this in our privacy policy.Eigentlich richtest du nur einen einzigen Tunnel ein, auf die IP deiner NAS und dann erstellst du ja deine Dienste (Jellyfin, Paperless usw.) in Docker und die laufen dann ja auf deiner IP+port.
Wenn du den Tunnel in dein lokales Netzwerk gelegt hast, dann kannst du im Anschluss mit deiner von Cloudflare verwalteten Domain, jeweils Subdomains anlegen, die auf die jeweilige IP+Port deiner Dienste zeigen.
Also zb. Dienst Jellyfin: https://192.168.50.15:8050 dann könntest du mit deiner Domain tottis-nas.de (die auf Cloudflare geroutet ist) eine SUbdomain jellyfin.tottis-nas.de anlegen und als Ziel deine IP + den Port angeben und den Dienst so von überall erreichen.
External Content youtu.beContent embedded from external sources will not be displayed without your consent.Through the activation of external content, you agree that personal data may be transferred to third party platforms. We have provided more information on this in our privacy policy.Schau dir die beiden Videos mal genau an, musste ich auch ein paar mal mit Stoppen und ausprobieren.
Hast du schon eine Domain auf Cloudflare, um damit DNS zu verwalten usw?
Der container Name ist bei mir der Name des Tunnels auf Cloudflare, glaub das ist aber egal, was du da einträgst.
Wie das mit den VM genau laufen kann weiß ich nicht genau, noch nicht versucht. Aber wenn die eine eigene IP haben, dann bräuchtest du da vermutlich tatsächlich einen weiteren Tunnel.
-
Ich hatte versucht es in Portainer einzubinden, aber das klappte leider nicht. Al sich es direkt in der Docker App versucht hatte gings und jetzt läuft alles easy.
Du legst ein neues Projekt in der Docker app an und kannst diesen yaml code verwenden:
Codeversion: "3.8" services: cloudflared: image: cloudflare/cloudflared:latest container_name: [DEIN CONTAINER NAME] restart: unless-stopped command: tunnel run environment: - TUNNEL_TOKEN=[HIER MUSS DEIN TOKEN VON CLUDFLARED STEHEN]Sobald dieser Service läuft, kannst du ganz einfach über die Cloudflare zero Trust Platform bei Public Domains deine subdomains mit den entsprechenden Ports anlegen, auf die du deine Docker Services eingestellt hast. Ich nutze dafür dann immer Portainer und lege für jeden Dienst einen Stack mit so einer yaml Anweisung an.
Als Pfad habe ich in einem folder einfach einen Ordner cloudflared angelegt und den angegeben:
-
-
-
Hi,
ich bin hier mit meiner Speicherkapazität angeblich im roten Bereich.
Allerdings habe ich 1.2 TB gelöscht. Versionierung habe ich deaktiviert und die Papierkörbe sind auch geleert.
Die Anzeige ist allerdings nur von Used 10.2TB auf Used 10.1TB umgesprungen.
Irgendwie scheint mir die Anzeige nicht so ganz verlässlig an der Stelle. Habt ihr auch diese Erfahrung?
VG Mark
-
Hi,
ich würde gerne wissen, was hier die "best practise" ist, wenn man das NAS neustarten will und verschiedene Dienste in Portainer laufen hat.
Vermutlich wäre es besser, die erstmal manuell alle zu stoppen vorher, oder?
VG
-
Perfekt, hab mir einen Symbolischen Link erstellt, sehr schön.
-
Klappt alles super, danke!