Homee Verlaufsdaten visualisieren

Sollte aber auch ganz ohne sd gehen:
https://www.elektronik-kompendium.de/sites/raspberry-pi/2404241.htm

Beim 3er ja, beim 4er noch nicht.

Auch beim 4er kannst direkt von der SSD Booten ohne eine SD Karte.

Oh, das wusste ich noch gar nicht. Am Anfang ging das nicht und jetzt werde ich das auch nicht mehr ändern. Beim Nächsten weiß ich Bescheid. Danke für die Info.

Guten Abend,

ich hab mal ein kleines Update durchgeführt:

  • Grafana ist jetzt auf Version 7.5.5 inkl. ein paar neuen Plugins
  • Logstash auf Version 7.12
  • docker-compose.yml Bugfixing

Grüße
M

3 „Gefällt mir“

Ich habe inzwischen eine Win 10 Pro Maschine, gibt es schon ein Plug’n Play Docker oder ist das immer noch so aufwendig zu installieren? :smiley: (Oder Alternativen :smiley: )

Hi,
du kannst dich mal mit Docker Desktop (für Windows) ausprobieren. Da kannst du auch mit docker-compose und der Datei im Repo den Stack starten.

Die individuelle Konfiguration (die Ordner, die du angeben musst) kann ich dir leider nicht abnehmen. :slight_smile: Die ist auf deine Umgebung abgestimmt.

Wenn du Hilfe brauchst, meldest dich einfach.

Grüße
M

1 „Gefällt mir“

Sehr coole Anleitung. Danke. Werden die CSV´s direkt visualisiert? Oder müssen diese erst in die DB geladen werden? Ich wollte gerade mal einige Verlaufsdaten im Dashboard darstellen.

Moin

Die CSV Dateien werden mit Logstash in die DB geladen und über Grafana visualisiert.

Bei Fragen, einfach melden. :blush:

Ein kurzes Beispiel würde mir da sehr helfen. Ich muss mich da erst einarbeiten. Die drei Container laufen. Aber wie die CSV´s automatisiert oder manuell in die Influx DB kommen da gibt es noch einige Fragezeichen.

Moinsen,
wenn du auf Github ins Repo schaust, da ist eine docker-compose.yml. In dieser Datei stehen als Kommentar die Dinge drin, die du anpassen muss, damit Logstash die Dateien einlesen kann.

Die entsprechende Codezeile:

- /volume1/homes/homee_ftp/homee_ftp/verlaufsdaten:/var/opt/logs # Hier den lokalen Pfad zu den homee Verlaufsdaten angeben

Technischer Talk: Du musst den Order auf deiner NAS, in dem die CSVs liegen, in den Docker Container mounten, sodass dieser „innen“ für LS sichtbar ist.

Grüße
M

Hi,
„Die Datasource „InfluxDB“ sollte schon als Default eingebunden sein.“
Die DB ist eingebunden. Wenn ich auf „Save & Test“ gehe bekomme ich oben rechts in grün „Datasource updated“ und unten in rot „InfluxDB Error: Bad Gateway“

Hast du eine Idee, was das sein kann. Google kann hier leider nicht helfen.

Hi. Wie heißt der Container im docker compose? Ist das der gleiche Name, wie in Grafana in der datasource?

Grüße
M

Leider nein. Ich habe beim Docker Desktop auf factory defaults zurückgesetzt. Alle drei Ordner gelöscht. Dann docker compose erneut gestartet und die container werden immer wieder mit dem Namen-1 also z.B. influxdb-1 installiert. Nur bei der 1. insatallation war alles ohne -1. Das muss irgendwo im System (cache) gespeichert sein. Auch wenn ich die Bezeichnung in der datasource anpasse bekomme ich den „Bad Gateway“ :frowning:


image

#####################
Was auch komisch ist, dass logstash wohl den Lizenzserver nicht erreicht

das ist normal, da wir keine elasticsearch nutzen, von wo LS seine Lizenz her holen würde.

kannst du mal ein docker container logs -f {containerID} posten?

Vielen Dank für die Bemühungen. Ich habe jetzt in den DB Settings HTTP URL mal http://172.0.0.1:8086 eingetragen. Mit diesem Eintrag und anschließend „Save & Test“! bekomme ich ca. 15 sec = Testing … grün (Okay) angezeigt. Nach den 15 sec- direkt wieder den „Bad Gateway“.
Hier noch das Logfile vom Container (pdf im Anhang)
docker_log.pdf (100,6 KB)
.

Hallo @DrMxxxxx ,

vielen Dank für das geile Projekt!
Ich wollte es gerade einmal versuchen, stoße aber leider schon direkt zu beginn auf einen Fehler.
Vorweg - Ich habe gar keine Erfahrung mit Linux o.ä. … sorry :innocent:

Ich habe mir Docker auf meinem Windows 11 Rechner installiert.
Docker startet auch, es kommen zumindest keine Fehlermeldung …

Wenn ich einen Container starte, kommt immer die Meldung "docker: Error response from daemon: network homee not found."

Vielleicht kannst Du mir etwas auf die Sprünge helfen :blush:

So sieht der Befehl aus:
docker run --name homee_ls --network homee -v /192.168.0.250/homee/verlaufsdaten:/var/opt/logs -v /pfad/zu/logstash/ordner:/var/log/logstash -p 9600:9600 drmxxxxx/homee:LS-latest
Unable to find image ‚drmxxxxx/homee:LS-latest‘ locally
LS-latest: Pulling from drmxxxxx/homee
2d473b07cdd5: Already exists
faa48cd88e6f: Pull complete
542ba1a206c1: Pull complete
bdfc1de001e4: Pull complete
cc2fa217ed37: Pull complete
e45467d7711d: Pull complete
dd12e8564c4e: Pull complete
99a42fb850ea: Pull complete
83b799d16e97: Pull complete
abdcabc1b259: Pull complete
2a980ed74ac9: Pull complete
e9b908bb6270: Pull complete
ee69dc99019c: Pull complete
Digest: sha256:56702b3fa8a9563e9795acf197836e65777066d89db52fe6b5832f8134fe2dd0
Status: Downloaded newer image for drmxxxxx/homee:LS-latest
docker: Error response from daemon: network homee not found.

Danke!

Gruß
Peter

Moinsen,
soweit ich das sehe musst du hier noch das netzwerk „homee“ erstellen oder einfach kein Netzwerk definieren. Dann sollte er das „Standardnetzwerk“ nutzen.

Hier noch die Doku vom Docker network.

Grüße und viel Erfolg
M