Willkommen im Loxone Community Forum. Um alle Funktionen nutzen und sehen zu können, registriere dich bitte zuerst. Dies gilt auch für das herunterladen von Dateien.
Es schaut so aus, als würde ein Filehandle auf ein bereits gelöschtes File noch offen sein. Linux ist da „speziell“ - wenn ein noch geöffnetes File gelöscht wird, ist es nicht mehr sichtbar, aber bleibt so lange vorhanden, bis der jeweilige Prozess beendet wird.
Dreh das Logging von FHEM runter bzw. aus, und dann reboote.
Das wird das Problem endgültig beheben.
Ich habe fhem gestoppt und loxberry neu gestartet. Tatsächlich sind die alten log-files von fhem verschwunden. Da ich zuvor fhem nie gestoppt hatte vor dem reboot, war das wohl das Problem. Nun sieht es so aus:
Ich hoffe, das Problem ist nun behoben. Was genau passiert ist, habe ich jedoch nicht wirklich verstanden...
Ich weiss nur, dass ich früher ein python Skript von fhem ausgeführt habe, das sehr viele log Meldungen erzeugte und so war der Speicher noch schneller voll. Das habe ich dann abgeschaltet aber das Problem bestand weiterhin - wohl wegen den Einträgen mit (deleted).
Hattest du die fhem.log Files damals selbst gelöscht?
Es spielt wahrscheinlich aber eh keine Rolle.
FHEM gibt beim Loggen den Filehandle nie frei. Wenn jetzt irgendwer kommt, und das Log aufräumt, bleibt es von FHEM weiter im Zugriff und wird nie wirklich gelöscht.
Beobachte das Log und stell die Loglevel in FHEM runter, oder drehe es ganz ab, wenn du nicht gerade Fehlersuche machst.
Danke. Die log Dateien erscheinen wieder und werden llaufend langsam grösser. Es ist ein Problem, wenn fhem den Filehandle nicht freigibt, das Problem haben andere User sicher auch.
Ich hoffe, das Kommando
Code:
attr global verbose 1
hilft vorerst.
svethi könntest du das irgendwie beheben oder liegt das an fhem?
auch ich hatte heute eine volle zram0.
Ich konnte mich auf den Kopf stellen, du und lsof etc. zeigten mir keine Ursache fuer den vollen Speicher an.
Erst ein Neustart des LoxBerry brachte dann Erfolg:
Ja, hier
Ich muss meinen Loxberry alle paar Wochen neustarten. Wenigstens kommt die Warnung per E-Mail früh genug, so dass es noch über die Weboberfläche möglich ist.
Das Wiki bietet meiner Meinung nach keine Lösung für das Problem an.
Ich habe wieder festgestellt, dass logfiles auftauchen die von FHEM nicht freigegeben werden.
Wie kann ich bei FHEM das Loggen deaktivieren, ist das richtig:
Hallo
mein LoxBerry leidet auch an diesem Problem:
HTML-Code:
20.02.2021 08:17: Healthcheck reports 2 errors. Please run Healthcheck for details.
Current errors:
/opt/loxberry/log/system_tmpfs is below limit of 5% discspace (AVAL 0.0B/SIZE 386.0MB). Please reboot your LoxBerry.
Could not init logfile database.Error executing the test: <Can't call method "selectrow_array" on unblessed reference at /opt/loxberry/sbin/healthcheck.pl line 605.
18.02.2021 10:09: Healthcheck reports 1 errors. Please run Healthcheck for details.
Current errors:
/opt/loxberry/log/system_tmpfs is below limit of 5% discspace (AVAL 18.9MB/SIZE 386.0MB). Please reboot your LoxBerry.
Version: 2.2.0.4
Liste der Plugins (jeweils aktuelle Version)
LoxBerry Backup (mit mount auf Synology NAS)
RPi-Monitor
Sonos
Weather 4 Loxone
Werde nun system_tmpfs beobachten und berichten...
root@loxberry:/opt/loxberry# du -shc /tmp
248K /tmp
248K total
root@loxberry:/opt/loxberry# du -shc /opt/loxberry/log/plugins
676K /opt/loxberry/log/plugins
676K total
root@loxberry:/opt/loxberry# du -shc /opt/loxberry/log/system_tmpfs
912K /opt/loxberry/log/system_tmpfs
912K total
root@loxberry:/opt/loxberry# du -shc /var/log
11M /var/log
11M total
Was kann ich dagegen tun (vom Reboot abgesehen) ?
Zuletzt geändert von Noschvie; 13.03.2021, 11:44.
Grund: Output von "du ..." hinzugefügt.
ich habe das gleiche Problem mit der alle 2 Wochen volllaufenden Ramdisk. Eingrenzen kann ich das auf "syslog" "syslog.1" sowie "user.log" und "user.log.1" die jeweils ungefähr 60MB groß werden. Leider hab ich nicht genug Ahnung von Linux um heraus zu bekommen was da rein schreibt. Irgendwelche Ideen?
ich habe das gleiche Problem mit der alle 2 Wochen volllaufenden Ramdisk. Eingrenzen kann ich das auf "syslog" "syslog.1" sowie "user.log" und "user.log.1" die jeweils ungefähr 60MB groß werden. Leider hab ich nicht genug Ahnung von Linux um heraus zu bekommen was da rein schreibt. Irgendwelche Ideen?
Bei mir läuft anscheinend wegen dem LoxMatic v0.4.2über, der allerdings bisher nur installiert wurde, also noch nicht aktiv ist.
Ich musste gerade den LB auch gerade rebooten, da ging nichts mehr. (~alle 5 Tage)
Software error:
HTML::Template::new() - Problem writing cache file /tmp/templatecache/ec/6fbf756bc0041007fc4d98c22a02f2 (file_cache => 1) : No space left on device at /opt/loxberry/libs/perllib/LoxBerry/Web.pm line 236.
Depending of what you have done, report this error to the plugin developer or the LoxBerry-Core team.
Further information you may find in the error logs.
03.03.2021 04:53: Healthcheck reports 1 errors. Please run Healthcheck for details.
Current errors:
/opt/loxberry/log/system_tmpfs is below limit of 5% discspace (AVAL 0.0B/SIZE 200.0MB). Please reboot your LoxBerry.
Nach dem Reboot konnte ich wieder ohne Probleme überall hin: OK RootFS free space Checks the rootfs for available space LoxBerry's RootFS has more than 10% free discspace (AVAL 22.5GB/SIZE 28.7GB).
Healthcheck ist danach natürlich OK:
<OK> RAMDISCS FREE SPACE
All ramdiscs have more than 25% free discspace.
Kann mir einer erklären wie ich das Log-File von tmpfs in zram umwandle?
Das hab ich anscheinend von meinem 1erPi übernommen, würde dies erst gerne als Fehler ausmerzen.
TX
LoxBerry bestimmt "on the fly" beim Booten anhand deiner Hardware, welchen Ramdisk-Typ er verwenden soll.
Außerdem ändert es nicht viel, außer dass die Ramdisk erst eine Stunde später voll ist.
Die Ursache muss behoben werden, nicht die Symptome bekämpft.
ich bin der Anleitung auf Loxwiki gefolgt und hab so raus bekommen, welches Logfile zu groß wird...ich kann die Files auch als su über die Konsole löschen. Was mir als Linux Anfänger nicht gelingt ist raus zu bekommen was/welche Anwendung in diese logfiles schreibt...ich hab im Übrigen kein FHEM laufen sondern loxberry pur.
Hast du das FHEM Plugin nicht installiert? Bei mir trat das Problem m.E. erst nach der Installation vom FHEM Plugin auf. Welches log File wurde bei dir zu gross?
Ach, syslog - hab's oben gefunden. Dann musst Du schauen, welche Einträge da am häufigsten vorkommen. Das System schreibt normalerweise recht wenig dort rein.
bei mir wächst der belegte Speicher auch schön langsam immer weiter an und ich weiß nicht an was es liegt.
Dann hab ich mich erstmal durch die Anleitung gearbeitet: https://www.loxwiki.eu/display/LOXBE...left+on+device
Aber da kommen ganz andere Werte raus bei den Befehlen?
Code:
root@loxberry:/# df -h /var/log
Filesystem Size Used Avail Use% Mounted on
/dev/zram0 386M 44M 314M 13% /var/log
vs. Einzelauflistung:
Code:
root@loxberry:/# du -shc /tmp
228K /tmp
228K total
root@loxberry:/# du -shc /opt/loxberry/log/plugins
1.3M /opt/loxberry/log/plugins
1.3M total
root@loxberry:/# du -shc /opt/loxberry/log/system_tmpfs
5.3M /opt/loxberry/log/system_tmpfs
5.3M total
root@loxberry:/# du -shc /var/log
1.5M /var/log
1.5M total
hm...also die Differenz dazu sind dann vermutlich haufen gelöschte files:
Code:
root@loxberry:/# lsof -nP | grep '(deleted)'
lsof: no pwd entry for UID 1000
lsof: no pwd entry for UID 1000
lsof: no pwd entry for UID 1000
lsof: no pwd entry for UID 1000
lsof: no pwd entry for UID 472
lsof: no pwd entry for UID 472
lsof: no pwd entry for UID 472
lsof: no pwd entry for UID 472
lsof: no pwd entry for UID 472
lsof: no pwd entry for UID 472
lsof: no pwd entry for UID 472
rpimonito 3013 root 2w REG 254,0 36231827 35 /opt/loxberry/log/plugins/rpi_monitor/RPi-Monitor_daemon.log (deleted)
lsof: no pwd entry for UID 1000
lsof: no pwd entry for UID 1000
lsof: no pwd entry for UID 1000
lsof: no pwd entry for UID 1000
lsof: no pwd entry for UID 1000
lsof: no pwd entry for UID 1000
lsof: no pwd entry for UID 1000
lsof: no pwd entry for UID 1000
rpimonito 24118 1000 2w REG 254,0 36231827 35 /opt/loxberry/log/plugins/rpi_monitor/RPi-Monitor_daemon.log (deleted)
rpimonito 24119 root 2w REG 254,0 36231827 35 /opt/loxberry/log/plugins/rpi_monitor/RPi-Monitor_daemon.log (deleted)
apache2 25945 root 9u REG 254,0 0 29 /tmp/.ZendSem.JTb81X (deleted)
apache2 26367 loxberry 9u REG 254,0 0 29 /tmp/.ZendSem.JTb81X (deleted)
apache2 26368 loxberry 9u REG 254,0 0 29 /tmp/.ZendSem.JTb81X (deleted)
apache2 26369 loxberry 9u REG 254,0 0 29 /tmp/.ZendSem.JTb81X (deleted)
apache2 26370 loxberry 9u REG 254,0 0 29 /tmp/.ZendSem.JTb81X (deleted)
apache2 26371 loxberry 9u REG 254,0 0 29 /tmp/.ZendSem.JTb81X (deleted)
apache2 26379 loxberry 9u REG 254,0 0 29 /tmp/.ZendSem.JTb81X (deleted)
apache2 26542 loxberry 9u REG 254,0 0 29 /tmp/.ZendSem.JTb81X (deleted)
root@loxberry:/#
In der Anleitung ist jetzt die Rede von Prozess stoppen, damit z.B. apache2 die files freigibt:
Code:
root@loxberry:/# service apache2 stop
root@loxberry:/# service apache2 start
jetzt ist aber genau ein file weniger da (vorher 8, jetzt 7).
Was kann ich noch tun um die ständig wachsende Ram-Disk zu analysieren?
Wir verarbeiten personenbezogene Daten über Nutzer unserer Website mithilfe von Cookies und anderen Technologien, um unsere Dienste bereitzustellen, Werbung zu personalisieren und Websiteaktivitäten zu analysieren. Wir können bestimmte Informationen über unsere Nutzer mit unseren Werbe- und Analysepartnern teilen. Weitere Einzelheiten finden Sie in unserer Datenschutzrichtlinie.
Wenn Sie unten auf "Einverstanden" klicken, stimmen Sie unserer Datenschutzrichtlinie und unseren Datenverarbeitungs- und Cookie-Praktiken wie dort beschrieben zu. Sie erkennen außerdem an, dass dieses Forum möglicherweise außerhalb Ihres Landes gehostet wird und Sie der Erhebung, Speicherung und Verarbeitung Ihrer Daten in dem Land, in dem dieses Forum gehostet wird, zustimmen.
Kommentar