Quantcast
Channel: Das deutsche Synology Support Forum
Viewing all 155959 articles
Browse latest View live

Neue DS 918+ Einrichtung und Fragen

$
0
0
Hallo zusammen,
ich bekomme am Mittwoch meine neue DS918+ geliefert.
Dazu 4 x 4 TB WD Red, ich habe nun vor die 4 neuen Platten von der DS918+ initialisieren zu lassen, danach die Daten von meiner DS 716+ und von meiner DS212+ auf die DS918+ rüberziehen. Nicht alles, nur bestimmte Ordner aus beiden alten DS.Auf der DS 212+ betrifft das nur Fotos, auf der Ds 716+ auch ein paar Dokumente und ebenfalls Fotos.
Danach möchte ich die DS716+ neu aufsetzen, die soll als Sicherungs NAS für die DS 918+ dienen.
Die DS716+ hat 2 x 4 TB Western Digital, die reichen ja als Sicherung für die 4 TB die bei SHR auf der DS 918+ als Sicherung angelegt werden.
Wie bekomme ich denn die einzelnen Ordner von den alten DS auf die neue, am besten und einfachsten?
Und womit macht man dann das Backup von der DS918+ und deren Sicherheitsplatte auf die DS 716+, sollte automatisiert 1 x je Woche laufen.
Ich weiß nicht so genau wie ich das am besten und einfachsten im Netzwerk mache.

Verschiebe-Script funktioniert nur teilweise

$
0
0
Hallo zusammen,

ich habe ein Script das alle Dateien(bei uns PDF-Belege) die älter sind als 60 tage aus einem Verzeichnis in ein anderes verschiebt.
Funktioniert eigentlich ganz gut, bis auf folgende Merkwürdigkeit das manchmal nicht verschoben wird. Eine Überprüfung direkt in der Filestation ergibt das durchaus Dateien aber vorhanden sind. Am nächsten Tag geht es wieder? Lässt sich auch auf der Konsols nachstellen-->Script auf der Konsole =0 Dateien und mit einem Filter in Dateimanager zeigt 1780 Dateien!? Kennt jemand sowas?

Hier das kleine Script:
message1=" Aktuelle Anzahl der Dateien in Belege_new: $(find /volume1/CL_Belege/Beleg_new -maxdepth 1 -type f | wc -l)"
message2="Anzahl der zu verschiebenen Dateien: $(find /volume1/CL_Belege/Beleg_new -maxdepth 1 -type f -mtime +60 | wc -l)"
message3="Verschiebedatum: $(date -d "$date -60 days" +"%Y-%m-%d")"
echo -e "$message1 \n $message2 \n $message3"
find /volume1/CL_Belege/Beleg_new -maxdepth 1 -type f -mtime +60
find /volume1/CL_Belege/Beleg_new -maxdepth 1 -type f -mtime +60 -exec mv {} /volume3/Belege_Archiv/Belege-60Tage \;

LG Conraptor

Synology DS214play / Raid 0 / Datenträger 2 "abgestürzt"

$
0
0
Hi!
Im Jahre 2014 hatte ich mir eine Synology DS214play zugelegt. Bestückt habe ich das kleine Ding mit 2 Western Digital WD Red 3TB. Seit vorgestern habe ich leider das Problem, dass augenscheinlich eine Platte "abgestürzt" ist. Die Fehlermeldung lautet: "System Partition Failed". Nun wird mir bei jedem Zugriff auf das NAS ein "File System Check" vorgeschlagen der natürlich nichts bringt - Meldung kommt immer wieder. Im Storage Manager steht aber, dass alles "Healthy" sei. Muss ich nun nur das NAS neu aufsetzen oder sollte ich die Platten tauschen?

Hardware:
Code:

SYNOLOGY DS214play 2-Bay NAS-Gehaeuse 1,6 GHz DualCore CPU 1GB DDR3 2x USB3.0 1x USB2.0 1x eSATA 1x RJ45 1x SD card slot
2 Stk. Western Digital WD Red 3TB, WD30EFRX, SATA 6Gb/s

Betriebssystem auf SSD umziehen, Daten auf RAID erhalten?

$
0
0
Hallo zusammen,

ich nutze eine DS415play.
Diese dient als Surveillance Station, Medienserver und Cloud Server.

Derzeit ist ein RAID5 mit 3x4TB in Betrieb.

Das RAID scheint jedoch massiv CPU-Leistung zu fressen, weil bei nahezu allen Festplattenzugriffen die Last sofort an die 100% steigt.
Ich habe daher überlegt, eine SSD ohne RAID für das Betriebssystem und nicht wichtige Daten (insbesondere Surveillance Station) einzubauen.
Kann ich dies tun, ohne die Daten auf dem RAID zu verlieren oder komplett neu einspielen zu müssen?

Was ist hier der intelligenteste Weg?

Danke&Gruß

Langsamer Zugriff auf angebundenes Netzlaufwerk Win10

$
0
0
Ihr Lieben,

seit gut einem Jahr bin ich stolze Besitzerin einer DS218play. Es läuft DSM 6.2.1-23824 Update 6. Ich nutze eine Fritzbox 7490 und Windows 10.

Ich habe einige NAS-Ordner als Netzlaufwerk eingebunden. Das hat lange sehr gut funktioniert. Seit einigen Wochen tut sich aber ein Problem auf.

Jedes Mal, wenn ich eine Datei von meinem Laptop auf die NAS kopieren möchte, muss ich ziemlich lange warten (mindestens 10 Sekunden, oft auch länger), ehe der Kopiervorgang beginnt. Es ist unerheblich, wie groß die Datei ist: Ich muss jedes Mal warten. Das gleiche Problem tritt auf, wenn ich eine Datei löschen möchte: Warten, warten, warten :( Es kommt mir vor, als suche der Windows Explorer zuerst etwas, bevor er den Befehl ausführt.

Meine laienhafte Fehlersuche hat bereits Folgendes ergeben:
- Sobald das Kopieren beginnt, ist die Übertragungsrate schnell.
- Wenn ich über den Diskstation Manager auf die Dateien zugreife, gibt es keine Verzögerung. Überhaupt läuft die Bedienung des Managers gewohnt flott.

Was ich bereits versucht habe, aber nichts gebracht hat:
- Diese Tipps: https://www.synology-forum.de/showth...gsamer+zugriff
- Ich habe die Indizierung auf Win 10 deaktiviert.
- Umstellung von ipv6 auf ipv4


Hilfeeeeeeeeee :(

Jenkins kann auf Git server nicht zugreifen

$
0
0
Ich möchte mir auf meinem Laptop (Windows 10) gerne zu Testzwecken eine kleine Build-Pipeline aufbauen. Als Git-Server soll dabei der Git-Server auf meinem NAS (DS-415) dienen, der Jenkins soll vorläufig auf meinem Laptop laufen (evtl. später einmal ebenfalls auf dem NAS in einem Docker-Container, aber das ist vorläufig noch Zukunftsmusik).

Ich habe dazu das Git-Server package auf dem NAS installiert und gemäss https://www.synology-wiki.de/index.php/Git_Server ein Git-Repo angelegt:
Ort des Repo's auf dem NAS: /volume1/git_repos/ci-cd/first-steps.git
User: gituser (Mitglied der Gruppen "users" und "administrators").

Was ich als erstes schon mal nicht kapiere: ich habe beim ersten Mal das initiale git init --bare --shared unter dem neu angelegten "gituser" ausgeführt. Das Kreieren des Repos hat zwar funktioniert (zumindest gab es keinerlei Fehlermeldung), als ich dann aber von meinem Laptop via git commandline unter der user-id "gituser" auf das Repo zugereifen wollte, kam immer nur der Fehler "Permission denied or the location is not a git repo".

Ich habe das repo dann wieder gelöscht, das init noch einmal, diesmal als user admin ausgeführt. Danach ging der Zugriff via git commandline (aber immer noch als user "gituser"!) dann.

Warum ist das so??? Was ist der Unterschied, ob ich das repo auf dem NAS als gituser oder als admin anlege? Klar, die Files gehören im ersten Fall alle dem "gituser", im zweiten Fall dem user "admin", aber warum juckt das den Git-Server? Egal, ob der als admin oder als gituser läuft, er sollte doch in beiden Fällen auf diese Files zugreifen können, zumal alle Directories als drwxrwsrwx und alle Files mindestens als -rw-rw-r-- definiert sind und gituser ebenfalls Mitglied der Gruppe "administrators" ist. Ist dieses Requirement, dass neue Repositories imemr als admin erzeugt werden müssen, irgendwo dokumentiert und begründet?

Was mich aber noch viel mehr nervt, weil ich dort momentan völlig anstehe:
Ich kann nun - wie gesagt - via die Git commandline (Git-2.21.0-64-bit) auf das Repo zugreifen (push & fetch), nachdem ich auf meinem Laptop den origin auf "ssh://gituser@192.168.1.15:/volume1/git_repos/ci-cd/first-steps.git" gesetzt habe.
Wenn ich die genau gleiche Repo-URL im Jenkins eingebe, dann erhalte ich immer nur die Fehlermeldung:
Code:

Failed to connect to repository : Command "C:/Program Files/Git/bin/git.exe ls-remote -h ssh://gituser@192.168.1.15:/volume1/git_repos/ci-cd/first-steps.git HEAD" returned status code 128:
stdout:
stderr: Permission denied, please try again.
Permission denied, please try again.
gituser@192.168.1.15: Permission denied (publickey,password).
fatal: Could not read from remote repository.

Please make sure you have the correct access rights
and the repository exists.

Warum hat Jenkins keinen Zugriff auf das Repo, während der Zugriff via die Git-commandline funktioniert?

Ich habe sogar den im Log aufgeführten Befehl "C:/Program Files/Git/bin/git.exe" ls-remote -h ssh://gituser@192.168.1.15:/volume1/git_repos/ci-cd/first-steps.git HEAD auf der Kommandzeile ausgeführt - ich erhalte keinerlei Fehlermeldung (allerdings auch keinerlei output, es kommt einfach wieder das Prompt).

Es ist der gleiche Rechner (also sicher keine Firewalls oder dergleichen), der gleiche User und die Credentials, die man in Jenkins dazu definieren muss, habe ich selbstredend definiert (und mehrmals verifiziert). Hat jemand eine Idee, warum das nicht funzt? Was ich hier versuche, ist doch nicht derart exotisch! Das haben doch sicher schon hunderte andere auch schon probiert ... :confused:

FileStation - Paketdienst konnte nicht ausgeführt werden

$
0
0
Hallo zusammen,

ich habe eine Synology DS213+ mit der DSM Version 6.2.1-23824 Update 6.

Seit heute funktioniert das Paket "File Station" nicht mehr. Ich habe keinerlei Änderungen an der DS vorgenommen.
Im Paketzentrum ist das Symbol vorhanden und ich habe die Möglichkeit den Button "Ausführen" zu betätigen. Anschließen kommt die Fehlermeldung "Paketdienst konnte nicht ausgeführt werden".

Hat jemand eine Idee, wie ich die FileStation wieder zum Laufen bekomme?

Gruß GW
Angehängte Grafiken

Authorization Failure bei Versuch, WebDAV-Backup per CloudSync einzurichten

$
0
0
Servus,
ich würde gerne Daten einer Webseite per WebDav sichern, bekomme aber einen Authorization Error, wenn ich versuche, die vom cPanel ausgegebenen Verbindungsdaten (2077/2078 als SSL/Cleartext-Port) im Cloud Sync einzutragen:
  • "https:abcd.xyz:2078" gibt Authorization Error
  • ebenso Variationen mit www, http, nur abcd.xyz, und Port 2077
  • "davs" statt "https", wie es in dem vom cPanel generierten Skript steht, resultiert in "Some of your settings are invalid."

Falscher Nutzername/Passwort können ausgeschlossen werden.

Muss ich etwas an meiner Eingabe ändern, oder liegt ein tieferes Problem vor?
Danke im Voraus!

BicBucStriim Fehler

$
0
0
Hallo zusammen,

ich habe die Installation wie hier (https://www.bjoerns-techblog.de/2017...y-diskstation/) beschrieben vorgenommen und erhalte einen Fehler, den ich nicht deuten kann:

Code:

Slim Application Error

The application could not run because of the following error:
Details
Type: Twig_Error_Runtime
Message: An exception has been thrown during the rendering of a template ("date_default_timezone_get(): Invalid date.timezone value 'Lastest SynoErr', we selected the timezone 'UTC' for now.") in "footer.html" at line 9.
File: /volume1/web/bbs/vendor/twig/twig/lib/Twig/Template.php
Line: 294
Trace

#0 /volume1/web/bbs/vendor/twig/twig/lib/Twig/Template.php(253): Twig_Template->displayWithErrorHandling(Array, Array)
#1 /volume1/web/bbs/vendor/twig/twig/lib/Twig/Environment.php(331) : eval()'d code(217): Twig_Template->display(Array)
#2 /volume1/web/bbs/vendor/twig/twig/lib/Twig/Template.php(279): __TwigTemplate_1f9587831e594ad2ffaa6c0478aef7506395433069399c3286662840aeac15ce->doDisplay(Array, Array)
#3 /volume1/web/bbs/vendor/twig/twig/lib/Twig/Template.php(253): Twig_Template->displayWithErrorHandling(Array, Array)
#4 /volume1/web/bbs/vendor/twig/twig/lib/Twig/Environment.php(331) : eval()'d code(26): Twig_Template->display(Array, Array)
#5 /volume1/web/bbs/vendor/twig/twig/lib/Twig/Template.php(279): __TwigTemplate_86255e91ff046afe4a9c6af11c4a3342fac4289d4c8344b28629bdfe10867e17->doDisplay(Array, Array)
#6 /volume1/web/bbs/vendor/twig/twig/lib/Twig/Template.php(253): Twig_Template->displayWithErrorHandling(Array, Array)
#7 /volume1/web/bbs/vendor/twig/twig/lib/Twig/Template.php(264): Twig_Template->display(Array)
#8 /volume1/web/bbs/vendor/slim/views/Slim/Views/Twig.php(91): Twig_Template->render(Array)
#9 /volume1/web/bbs/vendor/slim/slim/Slim/View.php(255): Slim\Views\Twig->render('login.html', NULL)
#10 /volume1/web/bbs/vendor/slim/slim/Slim/View.php(243): Slim\View->fetch('login.html', NULL)
#11 /volume1/web/bbs/vendor/slim/slim/Slim/Slim.php(757): Slim\View->display('login.html')
#12 /volume1/web/bbs/index.php(229): Slim\Slim->render('login.html', Array)
#13 [internal function]: show_login()
#14 /volume1/web/bbs/vendor/slim/slim/Slim/Route.php(462): call_user_func_array('show_login', Array)
#15 /volume1/web/bbs/vendor/slim/slim/Slim/Slim.php(1326): Slim\Route->dispatch()
#16 /volume1/web/bbs/vendor/slim/slim/Slim/Middleware/Flash.php(85): Slim\Slim->call()
#17 /volume1/web/bbs/vendor/slim/slim/Slim/Middleware/MethodOverride.php(92): Slim\Middleware\Flash->call()
#18 /volume1/web/bbs/lib/BicBucStriim/calibre_config_middleware.php(54): Slim\Middleware\MethodOverride->call()
#19 /volume1/web/bbs/lib/BicBucStriim/login_middleware.php(36): CalibreConfigMiddleware->call()
#20 /volume1/web/bbs/lib/BicBucStriim/own_config_middleware.php(31): LoginMiddleware->call()
#21 /volume1/web/bbs/lib/BicBucStriim/caching_middleware.php(41): OwnConfigMiddleware->call()
#22 /volume1/web/bbs/vendor/slim/slim/Slim/Middleware/PrettyExceptions.php(67): CachingMiddleware->call()
#23 /volume1/web/bbs/vendor/slim/slim/Slim/Slim.php(1271): Slim\Middleware\PrettyExceptions->call()
#24 /volume1/web/bbs/index.php(206): Slim\Slim->run()
#25 {main}


DSM-Version: DSM 6.2.1-23824 Update 6
BicBucStriim Version 1.5

Kann mir da jmd helfen?

Grüße
duffy6

Doppelte Anwendungen im @appstore Ordner

$
0
0
Hallo,

in meinem @appstore Ordner sind doppelte Ordner, siehe:

path.PNG

kann ich die doppelten ordner mit der merkwürdigen kombination am ende problemlos löschen oder wird dies zu problemen führen?

danke!
Angehängte Grafiken

Breitbandmessung; anerkannte Messung meiner DSL-Geschwindigkeit; Geht das?

$
0
0
Hallo liebe Gemeinde,

ich habe ein Problem und ich denke ich kann ja nicht der einzige sein.
Ich habe ein Kabel-DSL Internetzugang von Pyur, das schnellste was ich technisch in meiner Wohnung bekommen könnte(!!).
400 Mbs down und 12 up.
Nun ist es wie es immer ist: Der Prvoider ist eher ein Verhinderer als ein Provider... meine Durchschnittsraten beim down liegen im Schnitt bei ca. 180 Mbs.
Der Pyur Kundendienst verlangt für die "beweis-sichere" Bearbeitung Messungen des Anschlusses via Breitbandmessung.de (Bundesnetzagentur) und kein Anderen.
Weiterhin will er, dass ich die Messreihe("Messkampagne") zu drei unterschiedlichen Tageszeiten durchziehe ( Die Reihe besteht aus 10 Messungen im 5 min. Zyclus).
Das ist für mich quasi nicht möglich, da ich dann Nachst für ne Stunde aufstehen müsste, dann Mittags für min. 50 min. daheim seien müsste und irgendwann dazwischen auch nochmal alle 5 min. zum Computer rennen müsste.

Nun habe ich so eine schicke DS218+ und ich habe in vergangenen Monaten die Docker-virtualisierung "roest/docker-speedtest-analyser" verwendet. Nettes tool, übersichtlich und schön in der grafischen Ausgabe.
Jedoch eben nicht "beweis-sicher" denn "Da kann ja sonstwas für ein Server verwendet werden".

Nachdem ich per Google nichts finden konnte dachte ich mir ich frage euch:
Die Desktopapp von Breitbandmessung.de gibt es auch als Linux variante.
Gibt es eine Möglichkeit diese auf meiner NAS zu starten und zu nutzen?

Bonusfrage (+3 Kekse):

Wenn o.g. Frage geht dann : Kann man diese "Messkampagne" auch automatisieren?

Merci Mausis!

LG

Max

1und1 Onlinespeicher - Probleme

$
0
0
Hi,

Ich habe ein wenig Probleme mit dem Onlinespeicher bei 1und1. Ich habe es inzwischen geschafft, den Speicher als mount einzubinden.

Wenn ich aber versuche, ihn mit ähnlichen Eintragungen in HyperBackup als Ziel einzutragen scheitere ich. Kann mir ein Wissender helfen, wie ich den Onlinspeicher eingebunden bekomme?

Gruß

Filebot 4.8.5 unter Aktueller DSM 6

$
0
0
Nabend,

hab heut den Hinweis bekommen das eine Aktualisierung von Filebot auf Version 4.8.5 zur Verfügung steht.

Da ich mir aber ungern mein Filebot abschieße wollte ich mal Nachfragen ob schon jemand das Update durchgeführt hat?
Und mir sagen kann ob es ohne Probleme unter DSM 6.2.1-23824 Update 6 läuft,
interessant wäre auch ob es fehlerfrei mit der Filebot-Node 0.2.8.2 zusammen läuft?



VG

Synology Drive - Ordnersynchronisierung (intern / extern)

$
0
0
Hallo *,

ich habe letzten Synology Drive erfolgreich eingerichtet und kann nun mit einer 2 Faktorauthentifizierung über die Drive App aus dem Internet auf meine Dateien zugreifen.

Nun zu meiner Frage:

Ich will nur bestimmte Dateien aus dem Internet im Zugriff haben. Meine sensiblen Daten sollen nicht über Drive aufgerufen werden können.
Jedoch würde ich meine Ordner mit den sensiblen Daten am liebsten auf der NAS sichern und optimaler weise (wie bei Drive) automatisch synchronisieren lassen.

Gibt es eine Möglichkeit zu steuern welche Dateien über Drive aus dem Netzwerk und welche Dateien aus dem Internet erreichbar sind?
Oder andersrum gefragt, gibt es ein anderes Synchronisierungstool auf der Synology DS218play um Dateien lokal im Netzwerk vom Computer(n) auf die NAS zu synchronisieren?

Nebenschauplatz:
Wie sieht es mit der Sicherheit bei Drive aus? Ich habe die 2 Faktorauthentifizierung + Firewall + Benutzersperre bei fehlerhaften Anmeldungen aktiviert.. gibt es weitere Punkte zu beachten?

Cheers

Trotz community ffmpeg installation: eac3 ton nicht unterstützt

$
0
0
Hallo,

ich habe community ffmpeg installiert, DTS, AC3 etc. wird problemlos abgespielt, nur bei Dateien mit eac3-Tonspur werden nicht abgespielt!

Gibt es eine Möglichkeit das Problem zu beheben?

Kalender über Outlook synchron halten

$
0
0
Hallo,

gibt es eine Schritt für Schritt Anleitung für die Installation eines Kalenders auf der Syn, wo ich auch mein Android Gerät und meine Outlooks mit syncrhon halten kann? CalCard nutze ich schon. Es funktioniert suiper.

Für Outlook habe ich den Caldav Synchroniser installiert.

Damit soll auch der Kalender nutzbara sein. Aber es klappt nicht.

Automatischer Link von Photo Station 6 nur als https://

$
0
0
Hallo ich habe mir die Synology 918 Plus zugelegt. Über Strato eine Domain mit dyndns konfiguriert was auch funktioniert. Wenn ich für meine Fotos einen Automatischen Link erstelle wird dieser nur als https://Domainxxxxx.de angezeigt. Die Bilder werden nicht angezeigt es kommt nur eine Info die Seite ist nicht verfügbar. Was habe ich ggf. verstellt? Ich bin für jede Hilfe dankbar.

Synology Drive - Zertifikatsfehler

$
0
0
Hallo *,

ich habe letztens Synology Drive erfolgreich eingerichtet und konnte ohne große Probleme auf meine festgelegten Daten (vom Internet aus) zugreifen.

Leider musste ich feststellen, dass (lediglich) beim Abspielen von Videos folgender Fehler erscheint:
Das Zertifikat für diesen Server ist ungültig.
Alle anderen Dateien können geöffnet werden.

Folglich habe ich einen externen Zugriff eingerichtet über *.synology.me und mir ein entsprechendes Zertifikat erstellen lassen und dieses als Standard- Zertifikat definiert, sowie dem Dienst: Drive zugeordnet.
In der Drive App gebe ich dann nicht mehr statt QuickConnectID o.g. URL *.synology.me an.
Nach genannter Konfiguration konnte ich innerhalb meines Netzwerks erfolgreich über die Drive App auf meinem Smartphone auf das Video zugreifen.
Aktuell habe ich trotz Port- Weiterleitung von 5000 (HTTP), 5001 (HTTPS), 6690 keine Möglichkeit den Dienst von außerhalb (Internet) zu nutzen -> andere Baustelle.. Tipps herzlich willkommen.

Meine Frage:

Was gibt es bezüglich der Konfiguration der Zertifikate zu beachten wenn man Drive über die QuickConnectID verwenden will? (Ich habe das Standard Zertifikat, das bereits auf dem NAS vorhanden war verwendet, sowie das von mir oben erstelle Zertifikat)

Warum kommt diese Fehlermeldung lediglich beim Abspielen des Videos?

Cheers

Apache 2 Sicherheitslücke

Traffic bei Datei-Freigabe

$
0
0
Hallo zusammen,

Eine Frage.

Wenn ich Dateien per Freigabe-Link freigebe damit sich diese jemand über das Internet herunterladen kann.

Kann ich irgendwie nachvollziehen, wann diese Dateien und wie oft heruntergeladen wurden?

Also gibt es so eine Art Historie?

Danke und Gruß
Viewing all 155959 articles
Browse latest View live


<script src="https://jsc.adskeeper.com/r/s/rssing.com.1596347.js" async> </script>