Posts by Papabibubaba

    brinkus Ah, danke Dir. Du hast es natürlich richtig gemacht! Ich habe nur ein sudo apt-get install speedtest-cli durchgeführt.

    Da hat er gemeckert, das ihm die Quelle fehlt. Das Repository von speedtest hinzuzufügen, daran hatte ich nicht gedacht.

    Da hätte ich allerdings eine Überlegung gehabt, wie UGOS das findet, wenn man weitere Repositorys hinzufügt.

    Nichts desto trotz. Es bleibt ja dabei, das alles außer docker.io in normaler Geschwindigkeit von statten geht.

    Da fehlt auch noch eine Lösung zu und ich weiß auch überhaupt nicht, wie ich das Problem angehen soll.

    Ich habe gestern UGOS noch einmal neu geflasht. Aber es liegt ja nicht am NAS und auch nicht am Laptop oder an meinem Raspi.

    Docker.io ist einfach kaum erreichbar für mich und ich verstehe es einfach nicht! Oder ich sehe den Wald vor lauter Bäumen nicht.

    Guten Abend Mavvy

    ich gehe mal die Punkte durch:

    • Also ich hatte mich beim HUB einmal mit meiner Email registriert und habe diese Anmeldung auch im Portainer angegeben.Ich habe halt beides probiert, als Anonymos und mit Anmeldung, es hat keinen EInfluss. Die Downloads von docker.io sind im Grunde fast nicht runterladbar für mich. Ich versuche gerade immich zum laufen zu bringen und es scheitert im Grunde schon daran, das er nicht mal redis und pgvecto-rs runtergeladen bekommt. Die beiden Images von ghcr.io laden wiederum sehr schnell runter.
    • Ugreen Security App bzw. die Firewall sind bei mir noch nicht am Start, damit beschäftige ich mich später.
    • Docker funktioniert nicht mehr, wenn die Daemon.json bearbeitet wird

    iotop hatte nichts weiter angezeigt. Kann ich nachher noch mal schauen. Ich gehe jetzt mit dem Laptop zum Nachbarn runter.


    Update:

    Also beim Nachbarn ist es nicht anders, allerdings sind die auch bei Pyur. Ich habe dann jetzt auch noch mal per Hotspot vom Handy aus probiert. Das ist ein anderer Anbieter. Dauert genauso lange. Versucht hatte ich redis zu pullen.

    Es kann ja auch nicht am Laptop liegen, denn ich habe das ja auf dem NAS genauso und auf meinem kleinen Raspberry mit Debian ebenfalls.

    Ich verstehe die Welt nicht mehr ;(

    Würde es etwas bringen, wenn ich beim Docker.Hub mir ein Pro-Account besorge? Was würde mich das kosten?

    Also, ich habe nun das Image von immich innerhalb von ein paar Sekunden jeweils mit dem Laptop und einmal per SSH mit dem NAS heruntergeladen. Ich habe auf meinem NAS noch nichts am laufen. Ich bin noch im Aufbau und am rumprobieren. Habe erst nur alle Daten zusammengekramt, um diese nun bald zu ordnen und zu sortieren (das war mein erstes Posting hier im Forum).

    Nebenbei schaue ich halt und mein Hauptaugenmerk liegt auf Docker und den Möglichkeiten. Ich hatte ja auch zu Beginn mir openhab als Dockerimage geladen, das ging ja auch ratzifatzi! Das wird nun nach und nach alles kommen und meine Baustellen werden.

    Wie gesagt, sonst läuft bei mir nichts nebenbei noch. Ich habe zwei Raspberry noch im Heimnetz. Auf dem einen Raspi läuft mein openhab(Smarthome) und auf dem anderen hatte ich pihole drauf, das ist aber schon gelöscht und stattdessen ein Debian zum rumprobieren drauf. Das wars.

    Meine Fritzbox ist die 7590 und mein Provider ist Pyur.

    Vielleicht sollte ich den mal fragen was hier los ist mit DockerHub?

    Das mit dem Nachbarn werde ich morgen mal probieren.

    Also das ist ja echt merkwürdig. Wie kann das sein? Ich hab denen doch nichts getahn, wieso brauche ich so lange um ein Image zu laden und bei Euch geht das so schnell. Bin hier in Osten von Hamburg. Ich glaube ich gehe mal zum Nachbarn und frage mal, ob ich mich bei dem ins WLAN einloggen darf und teste das dort mal.

    Andere Images sind genauso lahm :cursing:


    und gucken wie die Verbindung zu anderen Download-Servern aus dem Docker heraus ist.

    Wie genau meinst Du das?

    Du könntest nochmal probieren, ob die Geschwindigkeit auch so langsam ist, wenn du von deinem PC/Laptop aus das Image vom Docker Hub herunterlädst. Hier solltest du aber wirklich genau das Image herunterladen, das du auch vom NAS aus versucht, herunterzuladen.

    Ja, tatsächlich. Habe soeben Docker auf meinem Laptop installiert und pulle gerade das Image ubuntu:latest

    Genauso langsam. Wie mit dem NAS. Also liegt es am DockerHub.

    Und genau, soll eine 100er-Leitung sein. Alles andere läuft ja auch soweit. Netflix und Co funktioniert ja auch alles ohne Schwierigkeiten.

    Ich denke damit ist mir geholfen und vielen Dank an alle die sich die Mühe gemacht haben mir Tipps und Ratschläge zu geben!

    Willi

    Sorry meine Dusseligkeit. Hab noch mal in die .bash_history geschaut. Hab den falschen Befehl eingetippt.

    Kommt zwar auch eine Passwortabfrage, aber funktioniert dann halt nicht. :P

    So, bin zu Hause und hab noch mal getestet.

    Speedtest.net - CLI Anwendung

    Funktioniert leider nicht, da man es nicht installieren kann. Da fehlen ganz einfach die Quellen im NAS.

    Aber https://www.speedtestx.de/ hat Testdateien zum Download.

    Dort habe ich gerade eine 1GB Datei mit wget heruntergeladen.

    Ergebniss:

    Womit im Grunde die Sorge um ein Fehler irgendwo im NAS oder meinem Netzwerk auszuschließen wäre, oder?

    Dann kann es ja im Grunde nur noch am Docker Hub liegen und dort ist es eben für mich zur Zeit extrem langsam.

    rhazz Ich wollte mich gerade ran setzen und versuchen deine ganzen Punkte abzuarbeiten.

    Siehst Du noch einen Bedarf, nun nach diesem Downloadtest?

    Ich habe jetzt mal meinen Laptop und das NAS in den Onlinemonitor der Fritzbox genommen. Mein Laptop ist per WLAN am Router. Habe einen Download gestartet. Der ist normal schnell.

    Und das NAS macht zurzeit nichts weiter. Außer das ich über SSH verbunden bin und dort images pulle, um zu sehen, das das total langsam von statten geht.

    Das NAS ist direkt am Router dran.


    Update:

    Habe gerade auf dem zweitem NAS Docker runtergeladen, das ging sehr schnell.

    Dann aber dort ubuntu als Image gezogen, genauso langsam, wie auf dem anderen NAS.

    Ich habe langsam das Gefühl, das liegt am Docker Hub. Kann mal jemand ein oder zwei Images pullen und mal berichten, wie schnell das läuft?

    Kann es sein, das ein Neustart der Fritzbox etwas bewirken kann? Beim Speedtest eben waren es ca 30 Mbits/s und nach dem Neustart 100 Mbist/s.

    Welche Details können denn helfen, um zu sehen wo es hapert? Habe auf Verdacht hier einmal gefragt, weils mir gerade aufgefallen ist, da ich halt die letzten Tage mich viel mit dem NAS beschäftige. Hätte ja sein können, das es ein bekanntes Problem wäre und man nur ein Knopf in den Einstelllungen vom NAS drücken muss 8o


    Update: Ne also hier ist irgendwo ein Knoten drinne. Ich habe gerade ein Pull von nginx gestartet. Das ist immer noch nicht runtergeladen. Laut Taskmanager 30Kb/s. der Speedtest parallel ist aber in Ordnung.

    Eine Verständnissfrage in Bezug auf das Container-Volumen "portainer_data".

    sudo docker volume create portainer_data

    erzeugt das Volumen in /var/lib/docker/volumes/portainer_data/

    Ein paar Postings zuvor ging es darum, das Container-Volumen in ein bestimmtes Speichervolumen des NAS zu erstellen.

    Hierzu wurde der Docker Run Befehl entsprechend angepasst in

    docker run -d -p 8000:8000 -p 9443:9443 --name portainer --restart=always -v /var/run/docker.sock:/var/run/docker.sock -v /volume1/docker/portainer:/data portainer/portainer-ce:latest

    Meine Frage wäre jetzt,

    muss nicht dennoch zuvor ein sudo docker volume create PFAD/ZUM/VOLUMEN1/docker/portainer erfolgen?

    Wenn man eine formatierte Festplatte ins NAS einbaut und sie nicht einem Speicherpool zuordnet, dann kann man sie als eine "externe Festplatte" mounten und dann auf das Dateisystem zugreifen.

    Sie wird von UGOS Pro dann nicht als eine interne, sondern als "externe" Festplatte behandelt.

    Nur leider kann man dann nicht mehr mit einem entfernten NAS darauf zugreifen, zumindest nicht mit der Sync&Backup-App von Ugreen.

    Das hatte ich gerade versucht. Geht nicht, die externen Geräte können nicht als Remote-Ordner angegeben werden.