\section{{InfluxDB}} InfluxDB ist eine in Go geschriebene Open-Source \gls{TSDB}, die darauf ausgelegt ist, mit einer großen Menge an Time Series Data zu arbeiten.\footnote{\cite[vgl.][]{dbranking}} Im weiteren Verlauf dieses Kapitels wird am Beispiel von Wetterdaten gezeigt, wie mit InfluxDB gearbeitet wird. InfluxDB stellt für die Integration in eigene Anwendungen ein \gls{HTTP} \gls{API} zur Verfügung, für welches es in vielen Programmiersprachen Client Librarys gibt. Außerdem wird ein Webinterface und ein \gls{CLI} bereitgestellt.\footnote{\cite[vgl.][]{InfluxAPI}} \subsection{{InfluxDB Installation}} Bevor InfluxDB genutzt werden kann, muss es als erstes installiert werden. Am einfachsten ist dies über Docker möglich. Dazu ist es notwendig, dass Docker und Docker Compose auf dem System installiert sind. Mit Docker Desktop lassen sich die beide Tools am einfachsten installieren. Im Anhang dieser Arbeit befindet sich im Ordner \glqq Docker\grqq{} eine Docker Compose Datei mit dem Namen \glqq docker-compose.yml\grqq{}. Zum starten der benötigten Container ist es am einfachsten, mit einem Terminal (Powershell, xterm usw.) in den Docker Ordner zu wechseln und den Befehl \glqq docker compose up -d\grqq{} auszuführen. Jetzt beginnt Docker damit, die notwendigen Images herunterzuladen und zu bauen. Wenn der Befehl ohne Fehler ausgeführt worden ist, wurde InfluxDB erfolgreich installiert und kann über die \gls{URL}:\ \url{http://localhost:8086} aufgerufen werden. Die Login Daten sind als Umgebungsvariable in Docker Compose definiert und lauten: \glqq admin\grqq{} \glqq e1LjSYaFbzbJeIBC\grqq{}. Außerdem wurde mit diesem Befehl auch ein Jupyter Notebook in einem Docker Container gestartet. Auf diesen Container kann über die \gls{URL}:\ \url{http://localhost:8888/} zugegriffen werden. Das Passwort lautet \glqq fhdw\grqq{}. Im Ordner \glqq work\grqq{} befinden sich die Notebooks mit den in dieser Arbeit beschriebenen Codes. \subsection{{Daten einfügen}} In InfluxDB werden Daten immer in Buckets gespeichert. Um Daten hochzuladen, muss zunächst ein Bucket angelegt werden. Dazu gibt es zwei Möglichkeiten. Die einfachste ist es, über das Web \gls{UI} von InfluxDB einen neuen Bucket anzulegen. Dazu muss nach dem Login der Navigationspunkt \glqq Data\grqq{} und der Reiter \glqq Buckets\grqq{} ausgewählt werden. Hier kann dann mit dem Button \glqq Create Bucket\grqq{} ein neuer Bucket angelegt werden. Dabei kann noch eine Lebensdauer für die Daten ausgewählt werden, nach welcher die jeweiligen Datenpunkte gelöscht werden.\footnote{vgl. \cref{fig:dashboard}, \cref{fig:load-data-source}, \cref{fig:load-data-bucket}, \cref{fig:load-data-add-bucket}} %\subsection{Line Protokoll} Mit oder ohne diese Überschrift? Daten werden immer nach dem InfluxDB Line Protokoll formatiert an die Datenbank gesendet. Das Protokoll ist wie in \cref{list:lineproto} dargestellt aufgebaut. Im ersten Teil des Line Protokolls wird der Name des Datenpunktes angegeben. Das kann zum Beispiel der Name des Sensors sein oder der Ort, an dem der Messwert aufgenommen wurde. Es ist wichtig, dass Groß- und Kleinschreibung beachtet wird und Unterstriche nicht genutzt werden dürfen. Sonderzeichen müssen mit einem Backslash maskiert werden. Nach dem Namen kommen, getrennt durch ein Komma, die Tags des Datenpunktes. Tags werden indexiert und dazu genutzt, Datenpunkte zu durchsuchen. Auch Tags werden als Key Value Paar angegeben. Hier sollen Metadaten wie zum Beispiel der Standort des Sensors oder der Name des Servers eingetragen werden, die zum Datenpunkt gehören. Die Messwerte sind mit einem Leerzeichen von den Tags abgegrenzt und bestehen aus durch Kommas getrennten Key Value Feldern. Der letzte Wert einer Zeile ist der Unix Timestamp in Millisekunden. In einer Datei oder Anfrage kann es mehrere Zeilen mit Daten geben.\footnote{\cite[vgl.][]{InfluxDBLineProtolkoll}} %Quelle https://docs.influxdata.com/influxdb/v2.2/reference/syntax/line-protocol/ %Quelle https://docs.influxdata.com/influxdb/v2.2/reference/syntax/line-protocol/#naming-restrictions \begin{figure}[bht] \begin{lstlisting}[caption=InfluxDB Line Protokoll {Quelle: \cite[][]{InfluxDBLineProtolkoll}}, label=list:lineproto], measurementName,tagKey=tagValue fieldKey="fieldValue" 1465839830100400200 --------------- --------------- --------------------- ------------------- | | | | Measurement Tag set Field set Timestamp (Messwerte) \end{lstlisting} \end{figure} %Quelle https://docs.influxdata.com/influxdb/v2.2/reference/syntax/line-protocol/ %Quelle https://docs.influxdata.com/influxdb/v2.2/reference/syntax/line-protocol/#naming-restrictions Die im Line Protokoll formatierten Daten können jetzt entweder mithilfe eines Rest Requests oder des InfluxDB \gls{CLI} in die Datenbank übertragen werden. Um diese Anfragen zu autorisieren, muss ein \gls{API} Token mitgesendet werden.\footnote{\cite[vgl.][]{InfluxDBWriteAPI}} Um einen Token zu bekommen, kann dieser entweder über das Webinterface, die \gls{CLI} oder über die \gls{API} angelegt werden. Der einfachste Weg ist es, den Token über das Webinterface anzulegen. Dazu wird wie beim Anlegen eines Buckets zunächst der Menüpunkt \glqq Data\grqq{} ausgewählt und anschließend der Reiter \glqq API Tokens\grqq{}. Mit einem Klick auf \glqq Generate API Token\grqq{} kann dann ein API Token erstellt werden.\footnote{vgl. \cref{fig:dashboard}, \cref{fig:load-data-source}, \cref{fig:load-data-api-token}, \cref{fig:load-data-add-token}} Dabei kann zwischen einem All-Access Token und einem Read/Write Token ausgewählt werden. Mit dem All Access Token kann auf alles zugegriffen werden. Mit einem Read/Write Token kann wie in \cref{fig:load-data-add-token} zu sehen ausgewählt werden, auf welchem Bucket geschrieben oder gelesen werden kann.\footnote{\cite[vgl.][]{InfluxDBToken}} \subsection{{Daten abrufen und visualisieren}} Um Daten aus InfluxDB abzurufen, wird die funktionale Sprache Flux genutzt. Flux wurde für das abfragen, analysieren und verarbeiten von Daten entwickelt.\footnote{\cite[vgl.][]{InfluxFlux}} Flux kann unter anderem im InfluxDB Webinterface oder über die InfluxDB \gls{API}, sowie über den InfluxDB \gls{CLI} Client ausgeführt werden.\footnote{\cite[vgl.][]{InfluxExecQuery}} %https://docs.influxdata.com/influxdb/cloud/query-data/execute-queries/. Am einfachsten ist es, Flux mit Code Beispielen zu erklären. Die Zeilenangaben in diesem Kapitel beziehen sich auf das \cref{list:influxFlux}. Damit Daten abgefragt werden können, muss als erstes ein Bucket ausgewählt werden. In Zeile 1 wird dazu das \glqq from()\grqq{} Statement genutzt, um den Bucket mit dem Namen \glqq test-bucket\grqq{} auszuwählen. Aus Performance Gründen erlaubt Flux keine Abfragen ohne die Angabe eines Zeitbereiches, der die Datenmenge einschränkt. Dieser Bereich kann mithilfe des \glqq range()\grqq{} Statements ausgewählt werden, wobei es zwei verschiedene Möglichkeiten gibt. Die erste ist, mithilfe des \glqq start:\grqq{} Parameters die Zeit relativ zum Zeitpunkt der Ausführung anzugeben. In Zeile 2 des Beispiels wird der Zeitbereich auf die letzte Stunde festgelegt. Zusätzlich zum Startparameter kann auch der Stop-Parameter angeben werden, welcher wie in Zeile 5 zu sehen angibt, bis wann die Daten abgerufen werden. In Zeile 5 würden die Daten von 14:00 bis 14:50 Uhr abgerufen werden, wenn die Abfrage um 15 Uhr verarbeitet wird. Die zweite Möglichkeit ist es, wie in Zeile 8 zu sehen, den Zeitbereich mit absoluten Werten einzuschränken. Zusätzlich zu den Zeitbereichen können auch weitere Filter auf die Daten angewendet werden. Dazu wird die Filterfunktion genutzt. Mit dieser Funktion wird über die Datenpunkte der Datenbank iteriert. Innerhalb dieser Funktion wird eine weitere Funktion als Parameter übergeben, welche die Daten filtert. Wenn die Funktion \glqq false\grqq{} zurückgibt, wird dieser Datenpunkt verworfen. Falls jedoch ein \glqq true\grqq{} zurückgegeben wird, werden die Daten weiter verarbeitet oder ausgegeben. Im Fall von Zeile 12 wird der Datenpunkt, auf welchen der iterator gerade verweist, in die Variable \glqq r\grqq{} gespeichert. Über \glqq r.\_measurement\grqq{} kann nach dem Namen eines Datenpunktes und mit \glqq r.\_field\grqq{} nach dem Namen eines Messwertes gefiltert werden. Im letzten Schritt werden über die \glqq yield()\grqq{} Funktion die Daten ausgegeben. Das ist nur erforderlich, wenn mehrere Flux Abfragen zu einer kombiniert werden.\footnote{\cite[vgl.][]{InfluxFluxQuery}} %https://docs.influxdata.com/influxdb/cloud/query-data/get-started/query-influxdb/ Alternativ können Flux Querys auch über den Query Builder, wie in \cref{fig:query-builder} zu sehen, im InfluxDB Web \gls{UI} erstellt werden.\footnote{\cite[vgl.][]{InfluxDBDataExplorer}} Es ist nicht immer erforderlich, die Daten aus der Datenbank auszulesen, wenn diese visualisiert werden sollen. Mithilfe des InfluxDB Webinterface ist es möglich, Daten zu visualisieren. Vorher ist es allerdings notwendig, die zu visualisierenden Daten mithilfe eins Flux Query abzufragen. %bevor die Daten Visualisiert werden können müssen diese erst mithilfe eines Flux Query abgefragt werden. Dazu kann entweder selbst ein Query geschrieben werden oder der eingebaute Query Builder genutzt werden.\footnote{\cite[vgl.][]{InfluxDBDataExplorer}} Danach lassen sich die Daten als Graph, Heatmap, Histogramm, Scatterplot und weiteren Diagrammtypen anzeigen.\footnote{\cite[vgl.][]{InfluxDBGraph}} Ein Beispiel ist in \cref{fig:influxdb-Graph} zu sehen. \subsection{Python Library} Um nicht selbst eigene API Anfragen über die Rest API schreiben zu müssen, gibt es für Python und andere Sprachen fertige Bibliotheken.\footnote{\cite[vgl.][]{InfluxAPIClientLibs}} Bevor mit der Client Library gearbeitet werden kann, muss diese allerdings erst installiert und importiert werden. Am besten wird zur Installation der Python Paketmanager pip genutzt. Mit dem Befehl \glqq pip install influxdb-client\grqq{} werden alle benötigten Pakte installiert.\footnote{\cite[vgl.][]{InfluxAPIPythonClient}} In \cref{list:influxPythonWrite} kann an einem Beispiel gesehen werden, wie Daten mithilfe von Python in die Datenbank geschrieben werden. Ein ähnliches Beispiel findet sich ausführbar und detailliert beschrieben im Jupyter Notebook Container in der Datei \glqq Grundlagen\grqq{}. In den ersten beiden Zeilen des Codes wird der InfluxDB Client importiert. Danach werden in Zeile vier bis sieben die benötigten Daten Bucket, Organisation, Token und \gls{URL} in Variablen geschrieben. Was in die Variablen eingetragen werden muss, wird im Kapitel \glqq Daten einfügen\grqq{} %eventuell Link einfügen? beschrieben.\footnote{\cite[vgl.][]{InfluxAPIPythonClient}} In den Zeilen neun bis 13 wird der Client mit den hinterlegten Variablen initialisiert. Danach folgt in Zeile 15 die Initialisierung des Write Clients. Als nächstes muss ein Datenpunkt erstellt werden, der in die Datenbank geschrieben werden kann. Dieser wird in den Zeilen 17 bis 19 erstellt. An diesem Datenpunkt kann eine beliebige Menge an Tags und Datenfeldern über die Methoden \glqq tag\grqq{} und \glqq field\grqq{} angehängt werden. Hier im Beispiel wird der Datenpunkt \glqq my\_measurement\grqq{} mit dem Tag \glqq location\grqq{} angelegt, welcher den Wert \glqq Paderborn\grqq{} hat, und den Messwert \glqq temperature\grqq{} mit dem Wert \glqq 25,3\grqq{}. In der letzten Zeile wird dann der Write Client dazu genutzt, um diesen Datenpunkt an die Datenbank zu senden. Um die so in die Datenbank geschriebenen Werte wieder abzurufen, kann so wie in \cref{list:influxPythonRead} vorgegangen werden. Hier wird als erstes in Zeile 1 ein Query Client erstellt. Mit diesem Query Client kann dann wie in den Zeilen zwei bis sieben zu sehen ein Flux Query ausgeführt werden. Zurückgegeben wird ein Flux Objekt mit einer Tabellenstruktur, die wie in den Zeilen neun bis elf zu sehen, einfach mit einer Schleife verarbeitet werden kann. Um auf die Daten des Objekts zuzugreifen, sind die wichtigsten Methoden hier beschreiben. Mit \glqq get\_measurement\grqq{} kann der Name eines Datenpunktes abgerufen werden. Zusätzlich kann mithilfe von \glqq get\_field\grqq{} und \glqq get\_value\grqq{} der Name und der Wert des Messwertes im Datenpunkt abgefragt werden. Zum abfragen der Zeit wird die Methode \glqq get\_time\grqq{} genutzt.\footnote{\cite[vgl.][]{InfluxAPIPythonClient}} %InfluxDB Tasks % InfluxDB Graphen %\subsection{{weitere InfluxDB-Funktionen}} % Dafür habe ich keinen Platz mehr. % Monitoring und Alamierung mit InfluxDB % InfluxDB Notebooks \subsection{{Wetterdaten}} \subsubsection{{Wetterdaten Aufbau}} Die Wetterdaten des \gls{DWD}s können über den \gls{CDC} OpenData Bereich heruntergeladen werden. Hier werden die Wetterdaten über \gls{FTP} und \gls{HTTPS} zum Download angeboten. Unter der \gls{URL} \url{https://www.dwd.de/DE/leistungen/cdc/cdc_ueberblick-klimadaten.html} wird eine gute Übersicht über die zum Download angebotenen Daten geboten. Die Werte für die aktuelle Lufttemperatur können über \url{https://opendata.dwd.de/climate_environment/CDC/observations_germany/climate/10_minutes/air_temperature/now/} abgerufen werden. Historische Daten können über \url{https://opendata.dwd.de/climate_environment/CDC/observations_germany/climate/10_minutes/air_temperature/now/} abgerufen werden. Aktuell werden auf der Webseite für die aktuelle Lufttemperatur circa 480 Dateien zum Download angeboten. Die meisten dieser Dateien entsprechen jeweils einer Messstation und je nach Tageszeit kann deswegen die Menge der Zeilen in der Datei variieren, weil immer um 00:00 Uhr eine neue Datei angefangen wird. In den \gls{ZIP} Dateien befinden sich außerdem Metadaten über die Messstationen. Die eigentlichen Daten sind als \gls{CSV} formatiert und sehen aus wie in Listing~\ref{list:wetter_csv} gekürzt dargestellt wird. In der \gls{CSV} Datei gibt es 9 Felder. Der Inhalt dieser Felder wird in \cref{tab:csv-explenation} beschreiben. %Eventuell kürzen wenn zu viele Seiten \begin{figure}[bht] \begin{lstlisting}[caption=Wetterdaten CSV {Quelle: DWD Wetterdaten CSV Download}, label=list:wetter_csv] STATIONS_ID;MESS_DATUM; QN;PP_10;TT_10;TM5_10;RF_10;TD_10;eor 73;202205120000; 2; -999; 12.9; 11.2; 84.2; 10.3;eor 73;202205120010; 2; -999; 12.7; 11.2; 84.9; 10.2;eor 73;202205120020; 2; -999; 12.9; 11.4; 83.0; 10.1;eor 73;202205120030; 2; -999; 12.4; 10.7; 86.9; 10.3;eor 73;202205120040; 2; -999; 12.4; 10.5; 86.2; 10.2;eor 73;202205120050; 2; -999; 12.3; 10.3; 85.5; 9.9;eor 73;202205120100; 2; -999; 12.1; 10.1; 88.1; 10.2;eor 73;202205120110; 2; -999; 11.7; 9.9; 90.1; 10.1;eor 73;202205120120; 2; -999; 11.7; 10.0; 89.0; 10.0;eor \end{lstlisting} \end{figure} \begin{table}[hbt] \centering \begin{minipage}[t]{1\textwidth} % Breite, z.B. 1\textwidth \caption{Bedeutung der CSV Felder} % Überschrift \begin{tabularx}{\columnwidth}{rXrr} \toprule Feld Name & Bedeutung \\ \midrule STATION\_ID & Gibt an, von welcher Station die Werte stammen \\ \hline MESS\_DATUM & Gibt an, wann gemessen wurde im Format \%Y\%m\%d\%H\%M. Also Jahr, Monat, Tag, Stunde, Minute als eine zusammengeschriebene Zahl. \\ \hline QN & Gibt die Qualität der Messwerte an. Hier gibt es die Werte 1 bis 3 \begin{compactenum} \item nur formale Kontrolle bei Dekodierung und Import \item Kontrolle mit individuell festgelegten Kriterien \item ROUTINE automatische Kontrolle und Korrektur mit Software (QUALIMET) \end{compactenum} \\ \hline PP\_10 & Luftdruck auf Stationshöhe \\ \hline TT\_10 & Lufttemperatur auf 2m Höhe \\ \hline TM5\_10 & Lufttemperatur auf 5cm Höhe \\ \hline TD\_10 & Relative Luftfeuchtigkeit auf 2m Höhe \\ \hline eor & END OF RECORD" Bedeutet die Zeile ist zu Ende. \\ \bottomrule \end{tabularx} \source{Eigene Darstellung \cite{DWDBeschreibung} \url{https://opendata.dwd.de/climate_environment/CDC/observations_germany/climate/10_minutes/air_temperature/now/BESCHREIBUNG_obsgermany_climate_10min_tu_now_de.pdf}} % Quelle \label{tab:csv-explenation} \end{minipage} \end{table} In der Datei \glqq zehn\_now\_tu\_Beschreibung\_Stationen.txt\grqq{} werden die Wetterstationen beschrieben. Diese Datei ist nicht als \gls{CSV} Datei formatiert, sondern als Tabelle und erhält Daten über die Wetterstationen. Die Daten der Stationen in der heruntergeladenen Textdatei stimmen mit den Daten der hauptamtlichen Messnetzkarte überein. Allerdings enthält die Textdatei nicht alle Stationen, sondern nur Stationen für die auch Messwerte im Datensatz hinterlegt sind. Die Bedeutungen der einzelnen Spalten der Tabelle werden in \cref{tab:file-stations} beschrieben. \begin{table}[hbt] \centering \begin{minipage}[t]{1\textwidth} % Breite, z.B. 1\textwidth \caption{Bedeutung Stationstabellen Felder} % Überschrift \begin{tabularx}{\columnwidth}{rXrr} \toprule Feld Name & Bedeutung \\ \midrule STATION\_ID & Gibt an, von welcher Station die Werte stammen \\ \hline von\_datum & Datum, seit dem die Station aktiv ist \\ \hline bis\_datum & Höhe der Station \\ \hline Stationshoehe & Höhe über dem Normalnullpunkt \\ \hline geoBreite & Breitengrad der Station \\ \hline geoLaenge \_10 & Längengrad der Station \\ \hline Stationsname & Name der Station \\ \hline Bundesland & Bundesland, in dem die Station steht \\ \bottomrule \end{tabularx} \source{Vergleich der Werte mit der hauptamtliches Messnetzkarte \cite{DWDStationen} \url{https://opendata.dwd.de/climate_environment/CDC/observations_germany/climate/10_minutes/air_temperature/now/zehn_now_tu_Beschreibung_Stationen.txt}} % Quelle \label{tab:file-stations} \end{minipage} \end{table} \clearpage %Ansonsten ist die Tabelle irgendwo anders im Text %\pagebreak %Damit die Tabelle nicht auf der falschen Seite ist. \subsubsection{{Wetterdaten abrufen}} Um die Daten auswerten zu können, müssen diese als erstes heruntergeladen und entpackt werden. Dazu wird mithilfe von BeautifulSoup aus der \gls{HTML} Seite des \gls{DWD} für jede Datei eine \gls{URL} ausgelesen. Die so gewonnen \gls{URL}s können dann mithilfe einer Schleife heruntergeladen werden. Um die Messwerte einer Station zuordnen zu können, wird als erstes die Datei mit den Stationen verarbeitet. Für jede Station wird ein Objekt erstellt und in einem \glqq dictionary\grqq{} gespeichert. Dadurch kann in diesem \glqq dictionary\grqq{} einfach über die \glqq STATIONS\_ID\grqq{} die passende Station gefunden werden. Weil diese Datei allerdings nicht \gls{CSV} formatiert ist, muss die Datei auf eine andere Art ausgewertet werden. Um die einzelnen Felder aus einer Zeile auszulesen, wird immer so lange gelesen bis wieder ein bestimmte Anzahl von Leerzeichen hintereinander erkannt worden ist. Die Zeichen zwischen den Leerzeichen sind dann ein ausgelesenes Feld. Nachdem die Stationsdaten ausgewertet worden sind, werden die \gls{CSV} Dateien in einer Schleife entpackt und mithilfe der Bibliothek \glqq Pandas\grqq{} in ein Dataframe umgewandelt. Das so erzeugte Dataframe wird im letzten Schritt mit den Daten der Stationen zusammengeführt und als Datenpunkt in InfluxDB geschrieben. Weitere Erklärungen und der Code selbst können im angehängten Jupyter Notebook eingesehen und ausgeführt werden. \subsubsection{{Wetterdaten verarbeiten}} Mithilfe der in die Datenbank geschriebenen Wetterdaten ist es nun möglich, die Tages-Höchst- und Tiefsttemperatur, sowie den Temperatur-Durchschnitt in Paderborn zu ermitteln. Der Code, der dazu notwendig ist, befindet sich auch wieder im Jupyter Notebook. Als erstes müssen die notwendigen Datenpunkte aus der Datenbank abgerufen werden. Dazu wird wie in Kapitel 3.3 vorgegangen. Zunächst wird ein Flux Query geschrieben, der alle Daten der geografisch nächsten Wetterstation in Bad Lippspringe ausließt. Die Ereignisse werden in einem Flux Objekt gespeichert, welches dann im nächsten Schritt mithilfe einer Schleife verarbeitet wird. Zum bestimmen der Höchst- und Tiefsttemperatur, werden die beiden Variablen \glqq min\grqq{} und \glqq max\grqq{} definiert, welche mit einem sehr hohen bzw. einem sehr niedrigem Wert initialisiert werden. Beim durchlaufen der Schleife wird immer der aus der Datenbank stammende Wert mit der Variable \glqq min\grqq{} und \glqq max\grqq{} verglichen. Wenn der Wert größer als \glqq max\grqq{} ist, wird \glqq max\grqq{} auf den neuen größten Wert gesetzt und wenn der Wert kleiner als \glqq min\grqq{} ist, wird \glqq min\grqq{} auf den neuen kleinsten Wert gesetzt. So beinhaltet die Variable \glqq max\grqq{} nach dem Durchlaufen den höchsten und die Variable \glqq min\grqq{} den niedrigsten Wert. Für das Bestimmen des Durchschnittswertes muss eine Zähler Variable, in diesem Fall \glqq i\grqq{}, und eine Summen Variable \glqq sum\grqq{} erstellt werden. Die Zähler Variable wird mit jedem Schleifendurchlauf um eins hochgezählt. Zusätzlich wird die Summen Variable mit dem Wert innerhalb der Schleife addiert. Zum Bestimmen des Durchschnittswertes muss jetzt nur noch die Summe, in diesem Fall die Variable \glqq sum\grqq{} durch die Anzahl der Elemente, hier \glqq i\grqq{}, geteilt werden. Das Ergebnis ist der Tagesmittelwert. Um die Daten in der Datenbank zu visualisieren, kann die in InfluxDB eingebaute Graph Funktion genutzt werden. Über den Query Builder können wie in \cref{fig:query-builder} zu sehen, Messstationen ausgewählt werden, zu denen Graphen anzeigen werden sollen. Außerdem kann hier auch ausgewählt werden, welche Felder angezeigt werden sollen. Mit einem Klick auf \glqq Submit\grqq{} wird ein Graph, wie in \cref{fig:influxdb-Graph} zu sehen, angezeigt. In diesem Graphen werden die Temperaturen von den Messstationen auf Sylt(pink) und in Bad Lippspringe(blau) am 27.06.2022 angezeigt. Weitere Bespiele für das Verarbeiten der Wetterdaten können im Jupyter Notebook gefunden werden.