Umzug Google Drive zu NAS

  • Hallo zusammen, ich möchte von Google Drive auf ein DXP2800 umziehen. Dazu nutze ich die Cloud Drive App und habe es mit Google Drive verbunden. Dann habe ich eine Bidirektionale-Echtzeit-Synchronisierung eingerichtet, was auch grundsätzlich funktioniert, aber extrem langsam ist. Pro Tag schaffe ich ca. 2-3% meiner ca. 800GB an Daten auf Google Drive.

    Ist das so korrekt konfiguriert für mein Vorhaben? Gibt es eine bessere Lösung um meine Dateien initial von Drive zu Nas bekomme? Die 800GB bestehen aus sehr vielen kleinen Dateien, dass es länger dauern kann ist mir bewusst, aber so wird es ja Wochen dauern.

    Danke für eure Hilfe.

  • Das ist einzig allein von deiner Internetverbindung abhängig. Bei einem Upload von 40Mbit/s kommen bei guter Verbindung im Schnitt 5MB/s an. Bei 800GB kann und wird das dauern. Zumal du einen Sync möchtest.

    PS: bei der Datenmenge empfehle ich dir, mal Hetzner anzuschauen (1TB/3,81€ mtl.)

    Edit: die Verbindung wird mit Hetzner nicht schneller, aber der Service und die gebotene Leistung sind top.

    UGREEN DXP2800 | UGOS 1.41.1.0107 - 16GB RAM - 2x Lexar NM790 1TB Btrfs RAID1 - 2x Seagate IronWolf 4TB Btrfs RAID1
    Raspberry Pi 4B/4 | DietPi 10.2.3 (Trixie) - AGH - NPM - Unbound
     MacBook Air M4 | macOS 26.4.1 |  mobile devices only | FRITZ!Box 7690 (OS 8.24 Beta) | Eaton Ellipse ECO 650 DIN USB USV

  • *kw* hier geht es um den Download. 😉

    Aber auch hier ist das Problem der Downloadgeschwindigkeit die Ursache, daß es langsam läuft.

    Meine Hardware

    iDX6011 Pro in Späh ^^

    DXP4800+ 2x8TB WDRedPl Btrfs Raid1 2x 2TB Lexar NM790 Raid1, 64GB RAM Kingst. KVR48S40BD8-32 DDR5/4800MH

    DXP2800 1x 12TB Seag. 1x 12TB WDRedPl, Raid1 Btrfs 16GB RAM Cruc. CT16G56C46S5.C8B2, 2x NVME Samsg,

    DS1525+ 2x8TB WD, Btrfs SHR, 2x 2TB NVME Lexar NM790 Raid1. 40GB ECC RAM_Speicher.de

    DS920+ DSM 7.3.2 Btrfs Raid1 2x8TB WD, 2x2TB Samsg. 970 EVOPlus, RAM 20GB DDR4-2666MHZ Speicher.de

    USV US3000, EatonEllip.PRO 850DIN, Switch Zyxel GS1200-8 1GB, Zyxel XMG-108 8 x 2,5GB

  • Danke 🫣

    UGREEN DXP2800 | UGOS 1.41.1.0107 - 16GB RAM - 2x Lexar NM790 1TB Btrfs RAID1 - 2x Seagate IronWolf 4TB Btrfs RAID1
    Raspberry Pi 4B/4 | DietPi 10.2.3 (Trixie) - AGH - NPM - Unbound
     MacBook Air M4 | macOS 26.4.1 |  mobile devices only | FRITZ!Box 7690 (OS 8.24 Beta) | Eaton Ellipse ECO 650 DIN USB USV

  • Du weißt doch wir Wissens nicht besser, wir passen nur aufeinander auf, damit es hier nicht falsch läuft. 😉

    Meine Hardware

    iDX6011 Pro in Späh ^^

    DXP4800+ 2x8TB WDRedPl Btrfs Raid1 2x 2TB Lexar NM790 Raid1, 64GB RAM Kingst. KVR48S40BD8-32 DDR5/4800MH

    DXP2800 1x 12TB Seag. 1x 12TB WDRedPl, Raid1 Btrfs 16GB RAM Cruc. CT16G56C46S5.C8B2, 2x NVME Samsg,

    DS1525+ 2x8TB WD, Btrfs SHR, 2x 2TB NVME Lexar NM790 Raid1. 40GB ECC RAM_Speicher.de

    DS920+ DSM 7.3.2 Btrfs Raid1 2x8TB WD, 2x2TB Samsg. 970 EVOPlus, RAM 20GB DDR4-2666MHZ Speicher.de

    USV US3000, EatonEllip.PRO 850DIN, Switch Zyxel GS1200-8 1GB, Zyxel XMG-108 8 x 2,5GB

  • Ich habe mittlerweile auch eine Rückmeldung vom Support. Es liegt an der Art und Weise wie die Daten mit Google Drive synchronisiert werden, meine Leitung dürfte nicht der limitierende Faktor sein.

    Ich versuche es jetzt über den Google Takeout. Allerdings bekomme ich die Daten gepackt und muss die dann noch entpacken und in das jeweilige Verzeichnis verschieben. Das hatte ich hier einfacher erhofft. Danke für eure Rückmeldung.

    Da Sie sehr viele kleine Dateien haben, wird die Synchronisierung über die Google-Drive-API stark verlangsamt, da jede Datei einzeln verarbeitet wird. Wir empfehlen, Ihre Daten zunächst mit Google Takeout oder manuellem Download auf das NAS zu übertragen und danach die Echtzeit-Synchronisierung zu aktivieren. Auf diese Weise läuft der Vorgang deutlich schneller.

  • PS: eineb ich hab vorhin beim Bügeln nebenher "von Google Drive...(gedanklich auf DXP)...und dann auf Cloud Drive" gelesen. Dafür kein Loch in den Klamotten. :D

    Nesium für die 3-2-1-Backup Regel bleibt Hetzner dennoch eine Empfehlung

    UGREEN DXP2800 | UGOS 1.41.1.0107 - 16GB RAM - 2x Lexar NM790 1TB Btrfs RAID1 - 2x Seagate IronWolf 4TB Btrfs RAID1
    Raspberry Pi 4B/4 | DietPi 10.2.3 (Trixie) - AGH - NPM - Unbound
     MacBook Air M4 | macOS 26.4.1 |  mobile devices only | FRITZ!Box 7690 (OS 8.24 Beta) | Eaton Ellipse ECO 650 DIN USB USV

  • Jetzt habe ich endlich alle Dateien von Google Takeout heruntergeladen um festzustellen, dass die Archive zu groß sind um sie auf dem NAS entpacken zu lassen. Ich erhalte bei einigen Verzeichnissen diese Fehlermeldung "fork/exec usr/bin/7z argument list too long". Kann ich das umgehen bzw. gibt es eine andere Möglichkeit die Daten auf dem NAS zu entpacken?

    Außer alles in kleiner gesplitteten Archiven herunterzuladen.

  • Hast du einen PC? Oder machst du das alles im nas nativ mit ugos?

    Man könnte einen SMB share einrichten und dann einen PC / Laptop zum entpacken nutzen

    Was evtl gehen könnte die Daten über eine vm zb Windows auf dem nas versuchen zu verarbeiten. Aber keine Ahnung ob das dann geht.

  • Hast du einen PC? Oder machst du das alles im nas nativ mit ugos?

    Man könnte einen SMB share einrichten und dann einen PC / Laptop zum entpacken nutzen

    Was evtl gehen könnte die Daten über eine vm zb Windows auf dem nas versuchen zu verarbeiten. Aber keine Ahnung ob das dann geht.

    Das entpacken über einen PC auf einem SMB-Share würde ewig dauern, weil die Daten dann erst lokal entpackt und anschließend auf das NAS verschoben werden. Ich hab habe die komprimierten Daten allerdings schon auf dem NAS vorliegen.

    Prinzipiell kann UGOS ja was ich möchte, also Daten auf dem Gerät direkt dekomprimieren. Nur sind meine Daten wohl einfach zu groß.

  • Ich denke, dass sich durch den Einsatz von rsync auf dem NAS folgende Lösung realisieren lässt: Die Daten liegen auf einem externen Laptop, der sie zuvor von Google heruntergeladen und ausgepackt hat. Rsync kann dann die entpackten Dateien Stück für Stück vom Laptop auf das NAS übertragen (Du must allerdings WSL aktivieren um Ubuntu o.ä. auf dem Laptop zu haben). Alternativ könntest du auf dem Windows-Laptop einen Netzwerk-Share vom NAS mounten und mit robocopy die Dateien kopieren lassen, beispielsweise über einen Zeitraum von zwei Tagen.

    Meine Hardware


    • DXP2800 | 8GB | 2 x 4TB WD Red NAS | 2 x 250GB WD Red NAS NVMe SSD

  • Hi bist Du hier weitergekommen? Wie groß sind die Volumes im NAS also freier Platz? Ich habe auch immer das Problem, wenn die ".zip" / ".tgz" Datei lokal auf dem /volume1 zu groß ist und die Hälfte des Filesystems schon voll ist, diese auf dem restlichen Platz auszupacken.

    Bildlich gesprochen: Es ist so, als würde man schlecht im Auto fahren, wenn alle vier Airbags draußen sind. Du brauchst einfach mehr Platz! Am besten schließt du eine externe USB-Festplatte an, packst die Datei dort aus, löscht die komprimierte Datei danach und synchronisierst alles dann wieder mit rsync zurück auf das NAS.


    Falls auf deinem Ugospro NAS also wenig freier Speicherplatz ist, könnte das genau die Lösung sein, um das Problem mit großen ZIP-Dateien in den Griff zu bekommen. Die Ugreen NAS-Modelle haben je nach Modell maximal zwischen 60 TB und 120 TB nutzbaren Speicher, aber der interne Flashspeicher (z.B. eMMC mit 32 GB) ist oft begrenzt, was bei temporären Entpack-Vorgängen schnell zum Problem werden kann. Was sagen die Andern?

    Meine Hardware


    • DXP2800 | 8GB | 2 x 4TB WD Red NAS | 2 x 250GB WD Red NAS NVMe SSD

  • Man könnte noch rclone lokal installieren auf dem NAS dann kopiert man alles von Google Drive poe a poe per rsync ins filessystem.

    Ich werde das die Tage auch mal machen weil ich an die 100GB Grenze bei Google Drive komme. Hole also den <4 Staubsauger mal ran ans Werk.

    rclone

    Werde ich nutzen und berichten wie lange es gedauert hat.

    Meine Hardware


    • DXP2800 | 8GB | 2 x 4TB WD Red NAS | 2 x 250GB WD Red NAS NVMe SSD

    Edited once, last by nebelwaende.de (November 9, 2025 at 11:27 PM).

Participate now!

Join our community with over 10,000 members!

Register yourself now for free to get full access to all content, graphics, downloads and other exclusive features!