Posts by Protogonos

    Völlig uninteressant? Immerhin macht die Installation nicht unerhebliche Arbeit.

    Das Problem ist der Denkfehler. Du denkst eigentlich richtig, aber für Docker musst du anders denken. Wichtig sind nur deine Konfigurationsdateien. Das Sichern bringt dich auch nicht weiter. Ich erkläre dir auch, warum: Wenn du eine Sicherung von vor einem halben Jahr einspielst, dann sind die Versionsdaten aber nicht mehr aktuell. Das heißt, die würden unter Umständen mit einer anderen Konfiguration nicht mehr funktionieren. Verstehst du? Als Beispiel nenne ich Stirling PDF. Hier würde sogar eine dreiwöchige alte Sicherung das Programm sofort zum Absturz bringen. Bei der neuen Versionierung. Hust* Ist mir nämlich passiert, als ich eine Sicherung zurückgespielt habe. Allerdings war das eine virtuelle Maschine .ova, die ich komplett zurückgespielt habe. Da war halt auch Stirling PDF mit gesichert.


    Immerhin macht die Installation nicht unerhebliche Arbeit

    Das verstehe ich nicht. Kannst du das bitte mal erläutern? Also eine "Docker" oder Containerinstallation macht eigentlich überhaupt keine Arbeit. Das ist in einer Sekunde gegessen. Wie gesagt, wenn du dich nicht so gut damit auskennst, dann empfehle ich dir sehr dringend Portainer

    Wo ist das Programm Docker und die darin enthaltenen Container installiert bzw. wie kann ich sicherstellen, dass auch diese beim Backup mit gesichert werden?

    Also verabschiede dich mal von dem Denken, dass Docker und die Container wichtig sind. Wichtig sind nur die gemounteten Datenordner, also die Volumes und deine Konfigurationsdateien, die compose.yaml, also die Stack-Konfiguration. Alles andere ist absoluter Bullshit, wie Bärbel sagen würde. ^^

    Die Docker-Container musst du überhaupt nicht sichern, die sind völlig uninteressant.

    Ach so, Nachtrag. Wenn du dich nicht so gut mit auskennst, würde ich dir das Programm Portainer empfehlen. Da kannst du alle deine Daten sehen und einfach sichern. Neue Container hinzufügen und alles Mögliche ist kostenlos.

    Hallo liebe Freunde, ich weiß nicht, ob es jemanden juckt oder interessiert, ich wollte nur noch mal Bescheid geben, dass es mal jemanden im Forum gab, der gesagt hat, "Jellyfin würde nicht aktualisiert" werden. Das ist falsch. Jellyfin wird aktualisiert, nur was UGreen andauernd vergisst, ist, die Versionsnummer auch mal dem anzupassen ..... Denn in der neuesten Jellyfin-Ugreen Version habe ich den gleichen "Fehler" in der M3U wie in der Original "Jellyfin-Version" :) Der war vor dem Update nicht da. Stattdessen passt Ugreen die Versionsnummer von Jellyfin immer ihrem eigenen Standard an. Die stimmt natürlich.

    Also nicht irritieren lassen wenn immer noch 10.10.3 Angezeigt wird ... Der Unterbau sagt was anderes.....:)

    Hallo meine Freunde und sorry Kanecaine Dass ich erst so spät einsteige und wahrscheinlich eh nichts Großartiges berichten kann, weil das Problem ist, dass es keine Probleme gibt bei mir. Die Kiste schnurrt wie ein Kätzchen und mittlerweile habe ich ja einen ganzen Umzug hinter mir. Wie gesagt, aus Deutschland oder besser gesagt die EU verlassen, weil nun ja,die Gründe sind weitläufig bekannt und kann man ja auch aus der Presse entnehmen. :)


    wie Kanecaine Ja, auch damals herausgefunden hat, dass die Lexar und andere auch zwei Temperaturwerte haben. Der angezeigte ist meistens immer niedriger wie der andere Temperaturwert. Also ich mache mir da gar keinen Kopf mehr. Alles läuft zwar noch so, wie ich es aufgebaut habe, aber ich bin einfach nur zu faul, den Lüfter oben wegzunehmen. Deshalb habe ich immer noch den Lüfter auf dem Gerät stehen, wie auch, was man auf den Fotos sehen kann. Und wie gesagt, ich habe überhaupt gar keine Probleme. Mir ist mittlerweile echt auch die Temperatur egal. 8)

    Ich habe kurzzeitige Temperaturen der SSDs, wenn ein paar Familienmitglieder Filme schauen, kurzzeitig von bis zu 57 Grad, vielleicht für ein oder zwei Minuten, bis halt der Film im Puffer geladen ist und die GPU beim Transcoding einspringt. Aber alles in allem absolut nicht der Rede wert. Auch dauerhafte Temperaturen von 57 Grad würde ich jetzt nicht mehr als gefährlich bezeichnen, definitiv nicht. Auch beim Kopieren mit über einem 1GB/s die Sekunde, was natürlich sich zusammensetzt aus allen SSDs, werden sie meistens nicht über 60 Grad warm.

    Alles in allem eine treue Kiste, die einfach das macht, was sie soll. Und das ohne Probleme. Ich hatte bis jetzt nicht ein einziges schwerwiegendes Problem. Alles funktioniert, wie es auch sein sollte.

    Und da ist auch das Problem, was soll man schreiben, wenn alles funktioniert? :/:) Im Moment habe ich über 25 Container verteilt auf drei virtuellen Maschinen mit unterschiedlichen Einsatzzwecken.

    Auch die Smart-Werte meiner SSDs sehen aus, als hätte ich sie gerade erst eingebaut, faktisch gesehen. Aber alles okay, keine Probleme, keine Fehler, kein nichts.

    Und es sieht immer so aus, als poste ich immer dieselben Fotos Weil es ändert sich ja einfach nix. Das ist von jetzt. :)Sieht alles aus wie immer. Die beiden kleinen Lüfter für die SSDs, ja die drehen mal auf, also fangen an zu drehen und dann fallen sie wieder in Ruhezustand zurück und so geht das hin und her


    Ach so, um nochmal hier überhaupt auf das Thema zu kommen, einen Ruhezustand braucht die 480T praktisch gar nicht. Wofür auch? Wenn nichts gelesen wird, ist auch alles gut. SSDs vergeben viel mehr, als wenn sie wie mechanische Festplatten immer anfahren müssten. Also hier gibt's überhaupt gar keine Probleme. Ich habe manchmal über Wochen hinweg einen dauerhaften Stream von zwei bis drei Megabyte, praktisch so ein Hintergrundstream, der wahrscheinlich das Journal aktualisiert oder irgendwelche Probleme reinschreibt oder was auch immer. Ist auch völlig irrelevant. Da könnte ich die nächsten zehntausend Jahre das so machen und würde immer noch nicht an die MTBF kommen.

    Am Anfang, das ist auch völlig richtig, wenn man die Kiste hat, kümmert man sich um so viele Dinge. Man betrachtet das ja praktisch schon fast als sein eigenes Baby. Aber mit der Zeit, die Kiste ist erwachsen und ich glaube, da wird so schnell nichts an Defekten kommen. Wenn, dann glaube ich eher, dass die defekte meistens direkt mit am Anfang kommen, aber später wie jetzt zum Beispiel glaube ich nicht mehr daran. Die SSDs werden wahrscheinlich genauso lange halten wie die Kiste selbst. Und wie gesagt, bei mir ist immer der Teufel los auf der Kiste. Alleine schon die ganzen Bücher, Filme, Dokumente, Daten, die täglich benötigt werden von "Familienmitgliedern". :)

    Welche Temperaturen sind denn sinnvoll? So kühl wie möglich? Oder ist alles unter 50° C total okay?

    Ja, am Anfang, wo ich die Kiste hatte, habe ich auch immer gedacht, am besten je kühler, je besser. Mittlerweile ist mir das absolut völlig egal, weil wie man sieht, ich habe noch nirgendwo gelesen, dass die Kiste irgendwie an einer Hitze-Epidemie das zeitliche gesegnet hat.

    Meine CPU ist immer zwischen 45 und 50 Grad im Idle, also mir ist das jetzt auch völlig egal. Ich baue auch nichts mehr um. Auch meine Festplatten, ich schaue da gar nicht mehr drauf. Geht eine kaputt, kaufe ich neu. Und ob es dann überhaupt an der Hitze gelegen hat, das sei nochmal dahingestellt. Ich glaube, die Temperaturen sind alle völlig okay. Bei mir läuft das Ding auch 24-7. Und ich habe überhaupt keine Probleme mit der Kiste, also absolut null Probleme. Das Ding ist einfach ein Arbeitstier. Was soll ich da noch schreiben? Und bei mir schreibt die Kiste jeden Tag, jede Sekunde mindestens ein Megabyte. Wie gesagt, jeden Tag, jede Sekunde mindestens. Und ich kann überhaupt weder Verschleiß noch sonst irgendwas feststellen. Also ich muss wirklich sagen, alles gut.

    Deshalb, ich weiß nicht, was ich hier eigentlich noch schreiben soll. Es funktioniert einfach alles perfekt.

    Ich warte ja auf die Idx 6011 Pro Warum? Weil ich einfach viel mehr Speicherplatz benötige. Leider noch sechs Monate warten.

    Mal ein Lob aussprechen, kann sich echt sehen lassen. Ich habe benötigt für die fast 600 Gigabyte große Datei +- 28 Minuten. Halleluja

    CPU-Auslastung leider nur bei 19 Prozent, was auch völlig logisch ist, da nur ein Kern benutzt wird.

    Warum so eine große Datei verschlüsseln (.ova) ? sollte man immer machen, bevor man so etwas auf ein Cloud-Storage-Center hochlädt, wieCloudflare R2, Wasabi, Backblaze, Hetzner oder sonst irgendwelche anderen Cloud-Anbieter.

    Klar, eine VM ist auch möglich, verbraucht aber sicher mehr Resourcen.

    Wo kommen denn die Gerüchte her? Wer verbreitet denn diesen Unsinn?

    Frage mich nun, wie leite ich den offenen Port weiter?

    Also, wenn du eine virtuelle Maschine auf deinem Nas initiiert hast, gehst du in die Fritzbox und leitest dort den Port weiter. Wenn du eine Fritzbox hast, hast du einen anderen Router, gehst du in den Router und leitest dort den Port der virtuellen Maschine weiter. Warum machst du das so kompliziert? Sowie du die virtuelle Maschine installiert hast, taucht sie im Netzwerk deines Routers auf.

    Sorry Jungs, aber der muss jetzt sein.

    "Na wer hats ganz genau vorhergesagt ?" :P 8)

    Der nächste Punkt ist ja auch, der Intel Core Ultra 7 255H ist ja relativ neu,

    Das spielt keine Rolle, der Prozessor. Und wie du sagst, vielleicht kommt auch nicht der 255. Wir wissen es nicht, lassen wir uns überraschen. Das Problem ist die lokale KI. Wer selbst diese Modelle auf einen Rechner zu Hause laufen hat, der weiß, was für Schwierigkeiten auftreten und vor allen Dingen, was für eine immense Rechenleistung man bereitstellen muss (und Fetten Nvidia RAM). Das habe ich selber gespürt, das ist nicht so einfach. Und dann willst du ja auch eine Antwort in einer relativen Zeit haben und nicht acht Stunden warten und sechs Kaffee zwischendurch trinken.

    Da waren die Marketingleute schneller als die produktiven Jungs. Da muss man wirklich mal beim Marketing auf die Füße treten. Sie hätten das ohne diese KI anpreisen sollen. Die hätte man später modular nachimplantieren können.

    Aber versprochen ist versprochen, ich bleibe dabei und bekomme dann auch irgendwie eine USV geschenkt und noch ein paar andere Dinge. Ich will dieses Ding unbedingt haben.

    defaults write com.apple.desktopservices DSDontWriteNetworkStores -bool TRUE

    Also, ich bin ja auch so ein Leid geprüfter, Spielen wir das Spiel doch mal durch. Diese Einstellung betrifft ja die Ansicht Metadaten

    Bei 20.000 Dateien mit der Größe von fünf Megabyte bringt dieser Befehl einen Vorteil auf einem modernen M4 Mac Mini zum NAS von gerade einmal 250 Millisekunden beim ersten öffnen des Ordners, kumuliert kann das bei tausenden frisch geöffneten Ordnern Sekunden bis 6 vielleicht 10 Sekunden bringen – aber nur verteilt über viele Ordner-Öffnungen, nicht auf einen einzelnen Klick. Eher nicht so dolle

    Kann auch jeder selbst empirisch auf seinem System testen (per smbutil statshares + fs_usage)

    Am Share mit den Problemen ist unter /etc/samba/smbshare.conf die parameterzeile:
    vfs objects = catia fruit full_audit recycle streams_xattr ug_xattr_filter

    muelli75 Das hier ist dein Wunder Punkt. Du hast dein Problem faktisch schon richtig identifiziert. Und willst nun eine Go-Mitteilung.

    fruit & streams_xattr Damit hast du faktisch doppelte SMB-Zugriffe ug_xattr_filter (Ugreen Patch) hat ein Problem arbeitet nicht synchron. Habe ich bei meiner Recherche rausbekommen ist wohl bekannt. Sag mal, ist dir der Papierkorb ist wichtig? Ich denke schon, es ist ja bei dir eine produktive Umgebung.

    Ich würde sagen vfs objects = catia fruit recycle

    Alles andere ist überflüssig. Der größte Bremser hier ist full_audit weil er jede Operation loggt

    Parameter anpassen:

       fruit:metadata = stream verhindert doppelte Extended-Attribute (statt xattr) → jeder Datei-Zugriff nur ein Metadaten-Roundtrip
      fruit:resource = stream 2 – 4 × schnelleres Verzeichnislisting bei vielen kleinen Dateen
      fruit:aapl = yes aktiviert Apple-optimierte Antworten; Finder ruft weniger stat -Calls ab
      fruit:posix_rename = yes
      fruit:zero_file_id = yes
    aio read size = 1 aktiviert asynchrones I/O auch bei kleinen Dateien
    aio write size = 1 10 – 30 % schneller bei vielen kleinen Schreib-/Lesevorgängen
      recycle:repository = .recycle
      recycle:keeptree = yes
      recycle:versions = yes
      recycle:touch = yes
      recycle:maxsize = 0
      recycle:exclude = *.tmp,*.temp,*.o,*.obj,~$*
      recycle:exclude_dir = /tmp,/temp
      recycle:noversions = *.bak,*.old
      recycle:directory_mode = 0770

    Prüfen danach: sudo testparm -s

    Aufgepasst --> Die UGREEN-Weboberfläche schreibt beim Erstellen/Löschen von Shares diese Datei neu. Mach dir nach jeder! Änderung ein Backup !

    Meine persönliche Meinung, was am meisten Speed bringt, ist Fruit:metadata, fruit:resource & aio read/write size

    Hallo, ebenfalls leidgeschädigte

    Ja, es ist definitiv die App und die Systemkontrolle versucht die App zu schließen, was normal bei Apple ist, da keine App ununterbrochen im Hintergrund Aktiv sein darf praktisch (Ja, auch bei eingeschalteter Hintergrundaktualisierung). Also die Apple Systemkontrolle sorgt dafür, dass ressourcenschonend die Apps ausgeschaltet werden und nur dann eingeschaltet und auf Systemressourcen zugreifen, wenn es die Systemkontrolle ermöglicht.

    Apple erlaubt dann nur die systemweiten Schnittstellen, um mal ein Beispiel zu nennen. Man hat jetzt eine Lieferando-App offen, man hat Google App offen und die Photo-App. Man öffnet und schließt sie unterschiedlich, innerhalb einer Stunde, aber nur die Systemkontrolle weiß den GPS-Standort und stellt diesen den Apps zur Verfügung. Das heißt, es wird nicht dreimal der Standort neu abgerufen, sondern die Systemkontrolle übergibt die Standorte. So wird natürlich Ressourcen und Akku gespart. Da Informationen immer nur einmal abgerufen werden und dann verteilt.

    Ich hatte das Thema schon mal vor sechs Wochen angesprochen und hab dafür eine Meldung gemacht. Mir ist das schon öfter aufgefallen, deshalb schließe ich die App über den Taskmanager, wische die einfach weg.

    Die Rückmeldung war, dass sie daran arbeiten. Sie wissen also um den Fehler des hohen Akkuverbrauchs. Überraschend für mich, dass das bis heute noch nicht gefixt ist. Zieht sich durch alle iPhone-Generationen. Ach ja, spannenderweise habe ich an den iPads nicht, diesen erhöhten Akkuverbrauch

    Ja, ich weiß ehrlich gesagt gar nicht, was ich da noch schreiben soll:). EwaldBIch habe bei mir noch wie auf meinen Fotos immer noch den Lüfter oben draufliegen. Der wird ja gespeist von der USV, die hat ja USB-Eingänge. Da habe ich ihn einfach angeschlossen und lass das einfach so weiterlaufen. Ich kümmere mich jetzt auch nicht mehr so direkt um die Kiste. Die läuft einfach so immer vor sich hin. Die Temperaturen sind wie jetzt, also immer wenn ich mal reinschaue, ab und zu auch mal bei 55 Grad eine "Platte". Aber ich glaube, das liegt daran, dass ich eine Riesen Datenbank drauf habe und wahrscheinlich das Journal immer irgendwie irgendwas abarbeitet.

    Der Screenshot ist jetzt gerade ein bisschen ungünstig, aber ich habe sonst immer so ein oder zwei Megabyte, die immer durchlaufen, ununterbrochen. Aber ist auch egal, mal sehen, wie lange das alles so hält.

    Hier ist übrigens nur die Auslastung einer virtuellen Maschine zu sehen, die Audiobooks und sonstigen Kleinkram am Laufen hat SABnzb Stirling PDF, Nextcloud (nur als Test), ne Hand Voll Cloudflare Tunnel, achja Immich noch (Läuft perfekt Foto-Backup für verschiedene iPads) und halt Beszel

    Ich hatte der virtuellen Maschine erst 32 GB zugewiesen, aber das war zu viel, bin dann runter auf 24GB RAM gegangen. Da ist die Schwuppditzität einfach besser, wenn man nen Buch aus dem "Regal" nimmt. Die Kiste ist im moment vollkommen unterfordert.

    Minisforum

    Oh ja, da wünsche ich viel Spaß. Spätestens nach 15 Monaten ist Feierabend mit Updates :P. Gibt's dann Probleme mit Sicherheitsupdates oder sonst irgendwas dann stehst du mit runtergelassenen Hosen da. Und was ist mit der Hardwareunterstützung, Jellyfin, Plex ? Transcoding ? kein Bock drauf oder umständlich händeln ? :P Ich würde an deiner Stelle noch warten und mir die IDX im Februar (Meine geschätzte Auslieferungszeit) holen. Mindestens 255 h von Intel dann ist Bodenwischen angesagt und dein bisschen Dampf im Kessel reicht dann nicht aus 16/16 ... Da kannst du Virtuelle Maschinen drauf laufen lassen, bis der Arzt kommt.

    übrigens DDR5 haben die schon 64 GB Ram intus

    8)

    wird das die Einschränkung zurückgenommen

    Naja, sind wir mal ehrlich, man hat auch für Dinge bezahlt, die beworben wurden und später entfernt. Ich sag nur mal Stichwort Videostation und Transcoding.

    Die rudern ja jetzt nicht zurück, weil sie der heilige Samariter sind. Das Problem ist der Absatz. Definitiv. Sie müssen zurückrudern, sonst passiert denen das gleiche Schicksal wie Intel.

    Zumal die Konkurrenz jetzt wirklich bockstark ist. Ugreen z.B. aber ein noch gefährlicherer Player für Synology ist UbiQuiti mit ihren NAS-Servern die fangen jetzt nämlich auch damit an und haben schon eine komplette Infrastruktur.

    Zumal auch die alten DS jetzt auch EOS sind ... Klar ist ja auch kein Wunder bei der Hardware aus der Tertiärzeit.