########################################################################################################## # $Id: 93_DbRep.pm 27577 2023-05-16 19:56:58Z DS_Starter $ ########################################################################################################## # 93_DbRep.pm # # (c) 2016-2023 by Heiko Maaz # e-mail: Heiko dot Maaz at t-online dot de # # This Module can be used to select and report content of databases written by 93_DbLog module # in different manner. # # This script is part of fhem. # # Fhem is free software: you can redistribute it and/or modify # it under the terms of the GNU General Public License as published by # the Free Software Foundation, either version 2 of the License, or # (at your option) any later version. # # Fhem is distributed in the hope that it will be useful, # but WITHOUT ANY WARRANTY; without even the implied warranty of # MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE. See the # GNU General Public License for more details. # # You should have received a copy of the GNU General Public License # along with fhem. If not, see . # # Credits: # - viegener for some input # - some proposals to boost and improve SQL-Statements by JoeALLb # - function reduceLog created by Claudiu Schuster (rapster) was copied from DbLog (Version 3.12.3 08.10.2018) # and changed to meet the requirements of DbRep # ########################################################################################################################### # # Leerzeichen entfernen: sed -i 's/[[:space:]]*$//' 93_DbRep.pm # ########################################################################################################################### package main; use strict; use warnings; use POSIX qw(strftime SIGALRM); use Time::HiRes qw(gettimeofday tv_interval); use Scalar::Util qw(looks_like_number); eval "use DBI;1" or my $DbRepMMDBI = "DBI"; eval "use FHEM::Meta;1" or my $modMetaAbsent = 1; use DBI::Const::GetInfoType; use Blocking; use Color; # colorpicker Widget use Time::Local; use HttpUtils; use Encode; use FHEM::SynoModules::SMUtils qw( evalDecodeJSON ); use IO::Compress::Gzip qw(gzip $GzipError); use IO::Uncompress::Gunzip qw(gunzip $GunzipError); no if $] >= 5.017011, warnings => 'experimental::smartmatch'; # Version History intern my %DbRep_vNotesIntern = ( "8.52.8" => "28.06.2023 fix check of DbRep_afterproc, DbRep_beforeproc if should exec PERL code ", "8.52.7" => "16.05.2023 DbRep_afterproc, DbRep_beforeproc can execute FHEM commands as well as PERL code ", "8.52.6" => "11.04.2023 change diffValue for aggr month ", "8.52.5" => "10.04.2023 change diffValue, Forum: https://forum.fhem.de/index.php?msg=1271853 ", "8.52.4" => "10.04.2023 fix perl warning ", "8.52.3" => "04.04.2023 fix diffValue writeToDB: https://forum.fhem.de/index.php?topic=53584.msg1270905#msg1270905 ", "8.52.2" => "28.03.2023 diffValue can operate positive and negative differences, sqlCmd can execute 'describe' statement ", "8.52.1" => "19.03.2023 fix Perl Warnings ", "8.52.0" => "17.02.2023 get utf8mb4 info by connect db and set connection collation accordingly, new setter migrateCollation ", "8.51.6" => "11.02.2023 fix execute DbRep_afterproc after generating readings ". "Forum: https://forum.fhem.de/index.php/topic,53584.msg1262970.html#msg1262970 ". "fix MySQL 50mostFreqLogsLast2days ", "8.51.5" => "05.02.2023 fix Perl Warning Forum: https://forum.fhem.de/index.php/topic,53584.msg1262032.html#msg1262032 ", "8.51.4" => "01.02.2023 ignore non-numeric values in diffValue and output the erroneous record in the log ", "8.51.3" => "22.01.2023 extend DbRep_averval avgTimeWeightMean by alkazaa, Restructuring of DbRep_averval ". "DbRep_reduceLog -> Handling of field 'value' with NULL value ", "8.51.2" => "13.01.2023 rewrite sub DbRep_OutputWriteToDB, new averageValue option writeToDBSingleStart ", "8.51.1" => "11.01.2023 write TYPE uppercase with writeToDB option, Commandref edited, fix add SQL Cache History ". "set PRAGMA auto_vacuum = FULL when execute SQLite vacuum command", "8.51.0" => "02.01.2023 online formatting of sqlCmd, sqlCmdHistory, sqlSpecial, Commandref edited, get dbValue removed ". "sqlCmdBlocking customized like sqlCmd, bugfix avgTimeWeightMean ", "8.50.10" => "01.01.2023 Commandref edited ", "8.50.9" => "28.12.2022 Commandref changed to a id-links ", "8.50.8" => "21.12.2022 add call to DbRep_sqlCmd, DbRep_sqlCmdBlocking ", "8.50.7" => "17.12.2022 Commandref edited ", "8.50.6" => "14.12.2022 remove ularm from Time::HiRes, Forum: https://forum.fhem.de/index.php/topic,53584.msg1251313.html#msg1251313 ", "8.50.5" => "05.12.2022 fix diffValue problem (DbRep_diffval) for newer MariaDB versions: https://forum.fhem.de/index.php/topic,130697.0.html ", "8.50.4" => "04.11.2022 fix daylight saving bug in aggregation eq 'month' (_DbRep_collaggstr) ", "8.50.3" => "19.09.2022 reduce memory allocation of function DbRep_reduceLog ", "8.50.2" => "17.09.2022 release setter 'index' for device model 'Agent' ", "8.50.1" => "05.09.2022 DbRep_setLastCmd, change changeValue syntax, minor fixes ", "8.50.0" => "20.08.2022 rework of DbRep_reduceLog - add max, max=day, min, min=day, sum, sum=day ", "8.49.1" => "03.08.2022 fix DbRep_deleteOtherFromDB, Forum: https://forum.fhem.de/index.php/topic,128605.0.html ". "some code changes and bug fixes ", "8.49.0" => "16.05.2022 allow optionally set device / reading in the insert command ", "8.48.4" => "16.05.2022 fix perl warning of set ... insert, Forum: topic,53584.msg1221588.html#msg1221588 ", "8.48.3" => "09.04.2022 minor code fix in DbRep_reduceLog ", "8.48.2" => "22.02.2022 more code refacturing ", "8.48.1" => "31.01.2022 minor fixes e.g. in file size determination, dump routines ", "8.48.0" => "29.01.2022 new sqlCmdHistory params ___restore_sqlhistory___ , ___save_sqlhistory___ ". "change _DbRep_mysqlOptimizeTables, revise insert command ", "8.47.0" => "17.01.2022 new design of sqlCmdHistory, minor fixes ", "8.46.13" => "12.01.2022 more code refacturing, minor fixes ", "8.46.12" => "10.01.2022 more code refacturing, minor fixes, change usage of placeholder §device§, §reading§ in sqlCmd ", "8.46.11" => "03.01.2022 more code refacturing, minor fixes ", "8.46.10" => "02.01.2022 more code refacturing, minor fixes ", "8.46.9" => "01.01.2022 some more code refacturing, minor fixes ", "8.46.8" => "30.12.2021 some code refacturing and minor bug fixing ", "8.46.7" => "27.12.2021 some code improvements, insert accept a multiline string ", "8.46.6" => "26.12.2021 sub DbRep_sqlCmd uses credentials dependend of attr useAdminCredentials ". "fix warnings in sub export/import file, fix error of DbRep_expfile filedefinition ". "change retrieve minTimestamp forum:#124987", "8.46.5" => "19.12.2021 some code improvements ", "8.46.4" => "14.12.2021 fix tableCurrentPurge ", "8.46.3" => "12.12.2021 edit/fix minor faults in exportToFile/importFromFile, new getter initData ", "8.46.2" => "08.12.2021 Pragma query possible in sqlCmd. So far only 'set', get encoding info from database ", "8.46.1" => "07.12.2021 some code improvements ", "8.46.0" => "06.12.2021 reduceLog options INCLUDE / EXCLUCE parse by parseParams ", "8.45.0" => "05.12.2021 revised userExitFn, fix average=day problem in reduceLog (Forum: https://forum.fhem.de/index.php/topic,53584.msg1177799.html#msg1177799) ", "8.44.1" => "27.11.2021 change diffValue: recognize if diff is 0 or no value available ", "8.44.0" => "21.11.2021 new attr numDecimalPlaces ", "8.43.1" => "02.11.2021 fix SQL statement if devspec can't be resolved, Forum:https://forum.fhem.de/index.php/topic,53584.msg1184155.html#msg1184155 ", "8.43.0" => "22.09.2021 consider attr device, reading in sqlCmd, remove length limit of attr device, reading ", "8.42.9" => "05.09.2021 minor fixes, change SQL for SQLite in DbRep_deldoublets ", "8.42.8" => "17.07.2021 more log data verbose 5, delete whitespaces in sub getInitData ", "8.42.7" => "27.02.2021 fix attribute sqlCmdVars is not working in sqlCmdBlocking Forum: /topic,53584.msg1135528.html#msg1135528", "8.42.6" => "25.02.2021 fix commandref ", "8.42.5" => "02.02.2021 correct possible values for attr seqDoubletsVariance ", "8.42.4" => "30.01.2021 fix commandref ", "8.42.3" => "03.01.2021 set fastStart as default for TYPE Client ", "8.42.2" => "03.01.2021 sumValue - create 0 instaed of '-' if value of DS is 0, Forum:#index.php/topic,53584.msg1116910.html#msg1116910 ", "8.42.1" => "22.11.2020 fix delete \$hash->{HELPER}{REDUCELOG} Forum:#116057 ", "8.42.0" => "14.11.2020 new vals next_day_begin, next_day_end for time attr Forum: https://forum.fhem.de/index.php/topic,53584.msg1100040.html#msg1100040 ", "8.41.0" => "08.11.2020 new attrbute avgDailyMeanGWSwithGTS for Grassland temperature sum, minor bugfixes in create time array ", "8.40.8" => "17.09.2020 sqlCmd supports PREPARE statament Forum: #114293, commandRef revised ", "8.40.7" => "03.09.2020 rename getter dbValue to sqlCmdBlocking, consider attr timeout in function DbRep_sqlCmdBlocking (blocking function), commandRef revised ", "8.40.6" => "27.08.2020 commandRef revised ", "8.40.5" => "29.07.2020 fix crash if delEntries startet without any time limits, Forum:#113202 ", "8.40.4" => "23.07.2020 new aggregation value 'minute', some fixes ", "8.40.3" => "22.07.2020 delete prototypes ", "8.40.2" => "27.06.2020 improve versionNotes 2 ", "8.40.1" => "18.05.2020 improve 'restore' setlist, revised comRef, fix compare timesettings for delEntries,reduceLog ", "8.40.0" => "30.03.2020 new attribute 'autoForward' ", "8.39.0" => "28.03.2020 option 'writeToDBInTime' for function 'sumValue' and 'averageValue' ", "8.38.0" => "21.03.2020 sqlSpecial readingsDifferenceByTimeDelta, fix FHEM crash if no time-attribute is set and time ". "option of delEntries / reduceLog is used, minor fix for sqlCmdHistory ", "8.37.0" => "20.03.2020 add column header for free selects (sqlCmd) ", "8.36.0" => "19.03.2020 sqlSpecial recentReadingsOfDevice ", "8.35.0" => "19.03.2020 option older than days and newer than days for delEntries function ", "8.34.0" => "18.03.2020 option writeToDBSingle for functions averageValue, sumValue ", "8.33.0" => "18.03.2020 option older than days and newer than days for reduceLog function ", "8.32.4" => "15.03.2020 fix rights check for index operation ", "8.32.3" => "10.03.2020 better logfile messages in some cases of index operation ", "8.32.2" => "01.03.2020 fix PERL WARNING: Argument \"\" isn't numeric in sprintf at ./FHEM/93_DbRep.pm line 10708 again ", "8.32.1" => "08.02.2020 fix PERL WARNING: Argument \"\" isn't numeric in sprintf at ./FHEM/93_DbRep.pm line 10708 ", "8.32.0" => "29.01.2020 new option \"deleteOther\" for minValue ", "8.31.0" => "26.01.2020 new option \"deleteOther\" for maxValue ", "8.30.8" => "25.01.2020 adjust SQL-Statements in OutputWriteToDB to avoid Duplicate entry errors and other fixes ", "8.30.7" => "24.01.2020 corrected count of inserted rows into standby database (DbRep_WriteToDB) ", "8.30.6" => "23.01.2020 delDoublets now are working also for PostgreSQL, calculation of number_fetched_rows corrected ", "8.30.5" => "23.01.2020 remove adminCredentials from set of device type \"Agent\" ", "8.30.4" => "22.01.2020 adjust behavior of OutputWriteToDB (averageValue,sumValue) - write value at every begin and also at every end of period ". "Forum: https://forum.fhem.de/index.php/topic,105787.msg1013920.html#msg1013920 ". "fix Warning when Agent has detected a renamed device", "1.0.0" => "19.05.2016 Initial" ); # Version History extern: my %DbRep_vNotesExtern = ( "8.46.3" => "12.12.2021 The new getter 'initData' is implemented. The command retrieves some relevant database properties for the module function. ", "8.46.2" => "08.12.2021 Pragma query is now possible in sqlCmd. ", "8.46.0" => "06.12.2021 Some reduceLog problems are fixed. ", "8.44.0" => "21.11.2021 A new attribute 'numDecimalPlaces' for adjusting the decimal places in numeric results is implemented ", "8.42.3" => "03.01.2021 The attribute fastStart is set now as default for TYPE Client. This way the DbRep device only connects to the database when it has to process a task and not immediately when FHEM is started. ", "8.40.7" => "03.09.2020 The get Command \"dbValue\" has been renamed to \"sqlCmdBlocking\. You can use \"dbValue\" furthermore in your scripts, but it is ". "deprecated and will be removed soon. Please change your scripts to use \"sqlCmdBlocking\" instead. ", "8.40.4" => "23.07.2020 The new aggregation type 'minute' is now available. ", "8.40.0" => "30.03.2020 The option 'writeToDBInTime' is provided for function 'sumValue' and 'averageValue'. ". "A new attribute 'autoForward' is implemented. Now it is possible to transfer the results from the DbRep-Device to another one. ". "Please see also this (german) Wiki article ", "8.36.0" => "19.03.2020 Some simplifications for fast mutable module usage is built in, such as possible command option older than / newer than days for reduceLog and delEntries function. ". "A new option \"writeToDBSingle\" for functions averageValue, sumValue is built in as well as a new sqlSpecial \"recentReadingsOfDevice\". ", "8.32.0" => "29.01.2020 A new option \"deleteOther\" is available for commands \"maxValue\" and \"minValue\". Now it is possible to delete all values except the ". "extreme values (max/min) from the database within the specified limits of time, device, reading and so on. ", "8.30.4" => "22.01.2020 The behavior of write back values to database is changed for functions averageValue and sumValue. The solution values of that functions now are ". "written at every begin and also at every end of specified aggregation period. ", "8.30.0" => "14.11.2019 A new command \"set adminCredentials\" and \"get storedCredentials\" ist provided. ". "Use it to store a database priviledged user. This user DbRep can utilize for several operations which are need more (administative) ". "user rights (e.g. index, sqlCmd). ", "8.29.0" => "08.11.2019 add option FullDay for timeDiffToNow and timeOlderThan, Forum: https://forum.fhem.de/index.php/topic,53584.msg991139.html#msg991139 ", "8.28.0" => "30.09.2019 seqDoubletsVariance - separate specification of positive and negative variance possible, Forum: https://forum.fhem.de/index.php/topic,53584.msg959963.html#msg959963 ", "8.25.0" => "29.08.2019 If a list of devices in attribute \"device\" contains a SQL wildcard (\%), this wildcard is now " ."dissolved into separate devices if they are still existing in your FHEM configuration. " ."Please see this Forum Thread " ."for further information. ", "8.24.0" => "24.08.2019 Devices which are specified in attribute \"device\" are marked as \"Associated With\" if they are " ."still existing in your FHEM configuration. At least fhem.pl 20069 2019-08-27 08:36:02 is needed. ", "8.22.0" => "23.08.2019 A new attribute \"fetchValueFn\" is provided. When fetching the database content, you are able to manipulate ". "the value displayed from the VALUE database field before create the appropriate reading. ", "8.21.0" => "28.04.2019 FHEM command \"dbReadingsVal\" implemented.", "8.20.0" => "27.04.2019 With the new set \"index\" command it is now possible to list and (re)create the indexes which are ". "needed for DbLog and/or DbRep operation.", "8.19.0" => "04.04.2019 The \"explain\" SQL-command is possible in sqlCmd ", "8.18.0" => "01.04.2019 New aggregation type \"year\" ", "8.17.0" => "20.03.2019 With new attribute \"sqlCmdVars\" you are able to set SQL session variables or SQLite PRAGMA every time ". "before running a SQL-statement with sqlCmd command.", "8.16.0" => "17.03.2019 allow SQLite PRAGMAS leading an SQLIte SQL-Statement in sqlCmd ", "8.15.0" => "04.03.2019 readingsRename can now rename readings of a given (optional) device instead of all found readings specified in command ", "8.13.0" => "11.02.2019 executeBeforeProc / executeAfterProc is now available for sqlCmd,sumValue, maxValue, minValue, diffValue, averageValue ", "8.11.0" => "24.01.2019 command exportToFile or attribute \"expimpfile\" accepts option \"MAXLINES=\" ", "8.10.0" => "19.01.2019 In commands sqlCmd, dbValue you may now use SQL session variables like \"SET \@open:=NULL,\@closed:=NULL; SELECT ...\", Forum:#96082 ", "8.9.0" => "07.11.2018 new command set delDoublets added. This command allows to delete multiple occuring identical records. ", "8.8.0" => "06.11.2018 new attribute 'fastStart'. Usually every DbRep-device is making a short connect to its database when " ."FHEM is restarted. When this attribute is set, the initial connect is done when the DbRep-device is doing its " ."first task. ", "8.7.0" => "04.11.2018 attribute valueFilter applied to functions 'averageValue, changeValue, countEntries, delEntries, " ."delSeqDoublets, diffValue, exportToFile, fetchrows, maxValue, minValue, reduceLog, sumValue, syncStandby' ," ." 'valueFilter' generally applied to database field 'VALUE' ", "8.6.0" => "29.10.2018 reduceLog use attributes device/reading (can be overwritten by set-options) ", "8.5.0" => "27.10.2018 devices and readings can be excluded by EXCLUDE-option in attributes \$reading/\$device ", "8.4.0" => "22.10.2018 New attribute \"countEntriesDetail\". Function countEntries creates number of datasets for every ". "reading separately if attribute \"countEntriesDetail\" is set. Get versionNotes changed to support en/de. ". "Function \"get dbValue\" opens an editor window ", "8.3.0" => "17.10.2018 reduceLog from DbLog integrated into DbRep, textField-long as default for sqlCmd, both attributes ". "timeOlderThan and timeDiffToNow can be set at same time -> the selection time between timeOlderThan ". "and timeDiffToNow can be calculated dynamically ", "8.2.2" => "07.10.2018 fix don't get the real min timestamp in rare cases ", "8.2.0" => "05.10.2018 direct help for attributes ", "8.1.0" => "01.10.2018 new get versionNotes command ", "8.0.0" => "11.09.2018 get filesize in DbRep_WriteToDumpFile corrected, restoreMySQL for clientSide dumps, minor fixes ", "7.20.0" => "04.09.2018 deviceRename can operate a Device name with blank, e.g. 'current balance' as old device name ", "7.19.0" => "25.08.2018 attribute 'valueFilter' to filter datasets in fetchrows ", "7.18.2" => "02.08.2018 fix in fetchrow function (forum:#89886), fix highlighting ", "7.18.0" => "02.06.2018 possible use of y:(\\d) for timeDiffToNow, timeOlderThan , minor fixes of timeOlderThan, delEntries considers executeBeforeDump,executeAfterDump ", "7.17.3" => "30.04.2018 writeToDB - readingname can be replaced by the value of attribute 'readingNameMap' ", "7.17.0" => "17.04.2018 new function DbReadingsVal ", "7.16.0" => "13.04.2018 new function dbValue (blocking) ", "7.15.2" => "12.04.2018 fix in setting MODEL, prevent fhem from crash if wrong timestamp '0000-00-00' found in db ", "7.15.1" => "11.04.2018 sqlCmd accept widget textField-long, Internal MODEL is set ", "7.15.0" => "24.03.2018 new command sqlSpecial ", "7.14.7" => "21.03.2018 exportToFile,importFromFile can use file as an argument and executeBeforeDump, executeAfterDump is considered ", "7.14.6" => "18.03.2018 attribute expimpfile can use some kinds of wildcards (exportToFile, importFromFile adapted) ", "7.14.3" => "07.03.2018 DbRep_firstconnect changed - get lowest timestamp in database, DbRep_Connect deleted ", "7.14.0" => "26.02.2018 new syncStandby command", "7.12.0" => "16.02.2018 compression of dumpfile, restore of compressed files possible ", "7.11.0" => "12.02.2018 new command 'repairSQLite' to repair a corrupted SQLite database ", "7.10.0" => "10.02.2018 bugfix delete attr timeYearPeriod if set other time attributes, new 'changeValue' command ", "7.9.0" => "09.02.2018 new attribute 'avgTimeWeightMean' (time weight mean calculation), code review of selection routines, maxValue handle negative values correctly, one security second for correct create TimeArray in DbRep_normRelTime ", "7.8.1" => "04.02.2018 bugfix if IsDisabled (again), code review, bugfix last dataset is not selected if timestamp is fully set ('date time'), fix '\$runtime_string_next' = '\$runtime_string_next.999';' if \$runtime_string_next is part of sql-execute place holder AND contains date+time ", "7.8.0" => "04.02.2018 new command 'eraseReadings' ", "7.7.1" => "03.02.2018 minor fix in DbRep_firstconnect if IsDisabled ", "7.7.0" => "29.01.2018 attribute 'averageCalcForm', calculation sceme 'avgDailyMeanGWS', 'avgArithmeticMean' for averageValue ", "7.6.1" => "27.01.2018 new attribute 'sqlCmdHistoryLength' and 'fetchMarkDuplicates' for highlighting multiple datasets by fetchrows ", "7.5.3" => "23.01.2018 new attribute 'ftpDumpFilesKeep', version management added to FTP-usage ", "7.4.1" => "14.01.2018 fix old dumpfiles not deleted by dumpMySQL clientSide ", "7.4.0" => "09.01.2018 dumpSQLite/restoreSQLite, backup/restore now available when DbLog-device has reopen xxxx running, executeBeforeDump executeAfterDump also available for optimizeTables, vacuum, restoreMySQL, restoreSQLite, attribute executeBeforeDump / executeAfterDump renamed to executeBeforeProc & executeAfterProc ", "7.3.1" => "08.01.2018 fix syntax error for perl < 5.20 ", "7.3.0" => "07.01.2018 charfilter avoid control characters in datasets to exportToFile / importFromFile, changed to use aggregation for split selects in timeslices by exportToFile (avoid heavy memory consumption) ", "7.1.0" => "22.12.2017 new attribute timeYearPeriod for reports correspondig to e.g. electricity billing, bugfix connection check is running after restart allthough dev is disabled ", "6.4.1" => "13.12.2017 new Attribute 'sqlResultFieldSep' for field separate options of sqlCmd result ", "6.4.0" => "10.12.2017 prepare module for usage of datetime picker widget (Forum:#35736) ", "6.1.0" => "29.11.2017 new command delSeqDoublets (adviceRemain,adviceDelete), add Option to LASTCMD ", "6.0.0" => "18.11.2017 FTP transfer dumpfile after dump, delete old dumpfiles within Blockingcall (avoid freezes) commandref revised, minor fixes ", "5.6.4" => "05.10.2017 abortFn's adapted to use abortArg (Forum:77472) ", "5.6.3" => "01.10.2017 fix crash of fhem due to wrong rmday-calculation if month is changed, Forum:#77328 ", "5.6.0" => "17.07.2017 default timeout changed to 86400, new get-command 'procinfo' (MySQL) ", "5.4.0" => "03.07.2017 restoreMySQL - restore of csv-files (from dumpServerSide), RestoreRowsHistory/ DumpRowsHistory, Commandref revised ", "5.3.1" => "28.06.2017 vacuum for SQLite added, readings enhanced for optimizeTables / vacuum, commandref revised ", "5.3.0" => "26.06.2017 change of _DbRep_mysqlOptimizeTables, new command optimizeTables ", "5.0.6" => "13.06.2017 add Aria engine to _DbRep_mysqlOptimizeTables ", "5.0.3" => "07.06.2017 DbRep_mysql_DumpServerSide added ", "5.0.1" => "05.06.2017 dependencies between dumpMemlimit and dumpSpeed created, enhanced verbose 5 logging ", "5.0.0" => "04.06.2017 MySQL Dump nonblocking added ", "4.16.1" => "22.05.2017 encode json without JSON module, requires at least fhem.pl 14348 2017-05-22 20:25:06Z ", "4.14.1" => "16.05.2017 limitation of fetchrows result datasets to 1000 by attr limit ", "4.14.0" => "15.05.2017 UserExitFn added as separate sub (DbRep_userexit) and attr userExitFn defined, new subs ReadingsBulkUpdateTimeState, ReadingsBulkUpdateValue, ReadingsSingleUpdateValue, commandref revised ", "4.13.4" => "09.05.2017 attribute sqlResultSingleFormat: mline sline table, attribute 'allowDeletion' is now also valid for sqlResult, sqlResultSingle and delete command is forced ", "4.13.2" => "09.05.2017 sqlResult, sqlResultSingle are able to execute delete, insert, update commands error corrections ", "4.12.0" => "31.03.2017 support of primary key for insert functions ", "4.11.3" => "26.03.2017 usage of daylight saving time changed to avoid wrong selection when wintertime switch to summertime, minor bug fixes ", "4.11.0" => "18.02.2017 added [current|previous]_[month|week|day|hour]_begin and [current|previous]_[month|week|day|hour]_end as options of timestamp ", "4.9.0" => "23.12.2016 function readingRename added ", "4.8.6" => "17.12.2016 new bugfix group by-clause due to incompatible changes made in MyQL 5.7.5 (Forum #msg541103) ", "4.8.5" => "16.12.2016 bugfix group by-clause due to Forum #msg540610 ", "4.7.6" => "07.12.2016 DbRep version as internal, check if perl module DBI is installed ", "4.7.4" => "28.11.2016 sub DbRep_calcount changed due to Forum #msg529312 ", "4.7.3" => "20.11.2016 new diffValue function made suitable to SQLite ", "4.6.0" => "31.10.2016 bugfix calc issue due to daylight saving time end (winter time) ", "4.5.1" => "18.10.2016 get svrinfo contains SQLite database file size (MB), modified timeout routine ", "4.2.0" => "10.10.2016 allow SQL-Wildcards in attr reading & attr device ", "4.1.3" => "09.10.2016 bugfix delEntries running on SQLite ", "3.13.0" => "03.10.2016 added deviceRename to rename devices in database, new Internal DATABASE ", "3.12.0" => "02.10.2016 function minValue added ", "3.11.1" => "30.09.2016 bugfix include first and next day in calculation if Timestamp is exactly 'YYYY-MM-DD 00:00:00' ", "3.9.0" => "26.09.2016 new function importFromFile to import data from file (CSV format) ", "3.8.0" => "16.09.2016 new attr readingPreventFromDel to prevent readings from deletion when a new operation starts ", "3.7.2" => "04.09.2016 problem in diffValue fixed if if no value was selected ", "3.7.1" => "31.08.2016 Reading 'errortext' added, commandref continued, exportToFile changed, diffValue changed to fix wrong timestamp if error occur ", "3.7.0" => "30.08.2016 exportToFile added exports data to file (CSV format) ", "3.5.0" => "18.08.2016 new attribute timeOlderThan ", "3.4.4" => "12.08.2016 current_year_begin, previous_year_begin, current_year_end, previous_year_end added as possible values for timestamp attribute ", "3.4.0" => "03.08.2016 function 'insert' added ", "3.3.1" => "15.07.2016 function 'diffValue' changed, write '-' if no value ", "3.3.0" => "12.07.2016 function 'diffValue' added ", "3.1.1" => "10.07.2016 state turns to initialized and connected after attr 'disabled' is switched from '1' to '0' ", "3.1.0" => "09.07.2016 new Attr 'timeDiffToNow' and change subs according to that ", "3.0.0" => "04.07.2016 no selection if timestamp isn't set and aggregation isn't set with fetchrows, delEntries ", "2.9.8" => "01.07.2016 changed fetchrows_ParseDone to handle readingvalues with whitespaces correctly ", "2.9.5" => "30.06.2016 format of readingnames changed again (substitute ':' with '-' in time) ", "2.9.4" => "30.06.2016 change readingmap to readingNameMap, prove of unsupported characters added ", "2.9.3" => "27.06.2016 format of readingnames changed avoiding some problems after restart and splitting ", "2.9.0" => "25.06.2016 attributes showproctime, timeout added ", "2.8.0" => "24.06.2016 function averageValue changed to nonblocking function ", "2.7.0" => "23.06.2016 changed function countEntries to nonblocking ", "2.6.2" => "21.06.2016 aggregation week corrected ", "2.6.1" => "20.06.2016 routine maxval_ParseDone corrected ", "2.6.0" => "31.05.2016 maxValue changed to nonblocking function ", "2.4.0" => "29.05.2016 changed to nonblocking function for sumValue ", "2.0.0" => "24.05.2016 added nonblocking function for fetchrow ", "1.2.0" => "21.05.2016 function and attribute for delEntries added ", "1.0.0" => "19.05.2016 Initial" ); # Hint Hash en my %DbRep_vHintsExt_en = ( "6" => "In some places in DbRep SQL wildcard characters can be used. It is explicitly pointed out.
". "A wildcard character can be used to replace any other character(s) in a string.
". "SQL wildcards are described in more detail here. ", "5" => "The grassland temperature sum (GTS) is a special form of the growth degree days, which is used in agricultural meteorology. ". "It is used to determine the date for the beginning of field work after winter in Central Europe.
". "All positive daily averages are recorded from the beginning of the year. In January is multiplied by the factor 0.5, in February ". " by the factor 0.75, and from March onwards the „full“ daily value (times factor 1) is then included in the calculation.
". "If the sum of 200 is exceeded in spring, the sustainable vegetation start is reached. The background is the ". " nitrogen uptake and processing of the soil, which is dependent on this temperature sum. In middle latitudes ". "this is usually achieved in the course of March, at the turn from early spring to mid-spring.
". "(see also Grünlandtemperatursumme in Wikipedia) ", "4" => "The attribute 'valueFilter' can specify a REGEXP expression that is used for additional field selection as described in set-function. " ."If you need more assistance please to the manual of your used database. For example the overview about REGEXP for " ."MariaDB refer to Regular Expressions " ."Overview. ", "3" => "Features and restrictions of complex device specifications (devspec) ", "2" => "With the set attribute averageCalcForm = avgDailyMeanGWS the average evaluation is calculated according to the specifications of the ". "German weather service.
Since the 01.04.2001 the standard was determined as follows:
". "
    ". "
  • Calcuation of the daily average from 24 hour values
  • ". "
  • If more than 3 hourly values are missing -> calculation from the 4 main dates (00, 06, 12, 18 UTC)
  • ". "
  • reference time for a day usually 23:51 UTC of the previous day until 23:50 UTC
  • ". "
". "If the requirements are not met, the message insufficient values appears in the evaluation.
". "See also the information on
regulations of the German weather service for the calculation of average temperatures. ", "1" => "Some helpful FHEM-Wiki Entries." ); # Hint Hash de my %DbRep_vHintsExt_de = ( "6" => "An einigen Stellen in DbRep können SQL Wildcard-Zeichen verwendet werden. Es wird explizit darauf hingewiesen.
". "Ein Wildcard-Zeichen kann verwendet werden um jedes andere Zeichen in einer Zeichenfolge zu ersetzen.
". "Die SQL-Wildcards sind hier näher beschrieben. ", "5" => "Die Grünlandtemperatursumme (GTS) ist eine Spezialform der Wachstumsgradtage, die in der Agrarmeteorologie verwendet wird. ". "Sie wird herangezogen, um in Mitteleuropa den Termin für das Einsetzen der Feldarbeit nach dem Winter zu bestimmen.
". "Es werden ab Jahresbeginn alle positiven Tagesmittel erfasst. Im Januar wird mit dem Faktor 0,5 multipliziert, im Februar ". "mit dem Faktor 0,75, und ab März geht dann der „volle“ Tageswert (mal Faktor 1) in die Rechnung ein.
". "Wird im Frühjahr die Summe von 200 überschritten, ist der nachhaltige Vegetationsbeginn erreicht. Hintergrund ist die ". "Stickstoffaufnahme und -verarbeitung des Bodens, welcher von dieser Temperatursumme abhängig ist. In mittleren Breiten ". "wird das meist im Laufe des März, an der Wende von Vorfrühling zu Mittfrühling erreicht.
". "(siehe auch Grünlandtemperatursumme in Wikipedia) ", "4" => "Im Attribut 'valueFilter' können REGEXP zur erweiterten Feldselektion angegeben werden. Welche Felder berücksichtigt ". "werden, ist in der jeweiligen set-Funktion beschrieben. Für weitere Hilfe bitte die REGEXP-Dokumentation ihrer ". "verwendeten Datenbank konsultieren. Ein Überblick über REGEXP mit MariaDB ist zum Beispiel hier verfügbar:
". "Regular Expressions Overview. ", "3" => "Merkmale und Restriktionen von komplexen Geräte-Spezifikationen (devspec) ", "2" => "Mit dem gesetzten Attribut averageCalcForm = avgDailyMeanGWS wird die Durchschnittsauswertung nach den Vorgaben des ". "deutschen Wetterdienstes vorgenommen.
Seit dem 01.04.2001 wurde der Standard wie folgt festgelegt:
". "
    ". "
  • Berechnung der Tagesmittel aus 24 Stundenwerten
  • ". "
  • Wenn mehr als 3 Stundenwerte fehlen -> Berechnung aus den 4 Hauptterminen (00, 06, 12, 18 UTC)
  • ". "
  • Bezugszeit für einen Tag i.d.R. 23:51 UTC des Vortages bis 23:50 UTC
  • ". "
". "Werden die Voraussetzungen nicht erfüllt, erscheint die Nachricht insufficient values in der Auswertung.
". "Siehe dazu auch die Informationen zu
Regularien des deutschen Wetterdienstes zur Berechnung von Durchschnittstemperaturen. ", "1" => "Hilfreiche Hinweise zu DbRep im FHEM-Wiki." ); # Hash der Main-Grundfunktionen # pk = PID-Key # timeset = einfügen Zeitgrenzen (ts,rsf,rsn) in den Übergabehash # dobp = executeBeforeProc auswerten ################################################################### my %dbrep_hmainf = ( sumValue => { fn => "DbRep_sumval", fndone => "DbRep_sumvalDone", fnabort => "DbRep_ParseAborted", pk => "RUNNING_PID", timeset => 1, dobp => 1, table => "history" }, countEntries => { fn => "DbRep_count", fndone => "DbRep_countDone", fnabort => "DbRep_ParseAborted", pk => "RUNNING_PID", timeset => 1, dobp => 1 }, sqlCmd => { fn => "DbRep_sqlCmd", fndone => "DbRep_sqlCmdDone", fnabort => "DbRep_ParseAborted", pk => "RUNNING_PID", timeset => 1, dobp => 1 }, sqlCmdHistory => { fn => "DbRep_sqlCmd", fndone => "DbRep_sqlCmdDone", fnabort => "DbRep_ParseAborted", pk => "RUNNING_PID", timeset => 1, dobp => 1 }, sqlSpecial => { fn => "DbRep_sqlCmd", fndone => "DbRep_sqlCmdDone", fnabort => "DbRep_ParseAborted", pk => "RUNNING_PID", timeset => 1, dobp => 1 }, averageValue => { fn => "DbRep_averval", fndone => "DbRep_avervalDone", fnabort => "DbRep_ParseAborted", pk => "RUNNING_PID", timeset => 1, dobp => 1, table => "history" }, fetchrows => { fn => "DbRep_fetchrows", fndone => "DbRep_fetchrowsDone", fnabort => "DbRep_ParseAborted", pk => "RUNNING_PID", timeset => 1, dobp => 1 }, maxValue => { fn => "DbRep_maxval", fndone => "DbRep_maxvalDone", fnabort => "DbRep_ParseAborted", pk => "RUNNING_PID", timeset => 1, dobp => 1, table => "history" }, minValue => { fn => "DbRep_minval", fndone => "DbRep_minvalDone", fnabort => "DbRep_ParseAborted", pk => "RUNNING_PID", timeset => 1, dobp => 1, table => "history" }, exportToFile => { fn => "DbRep_expfile", fndone => "DbRep_expfile_Done", fnabort => "DbRep_ParseAborted", pk => "RUNNING_PID", timeset => 1, dobp => 1, table => "history" }, importFromFile => { fn => "DbRep_impfile", fndone => "DbRep_impfile_Done", fnabort => "DbRep_ParseAborted", pk => "RUNNING_PID", timeset => 1, dobp => 1, table => "history" }, tableCurrentFillup => { fn => "DbRep_currentfillup", fndone => "DbRep_currentfillupDone", fnabort => "DbRep_ParseAborted", pk => "RUNNING_PID", timeset => 1, dobp => 1, table => "current" }, diffValue => { fn => "DbRep_diffval", fndone => "DbRep_diffvalDone", fnabort => "DbRep_ParseAborted", pk => "RUNNING_PID", timeset => 1, dobp => 1, table => "history" }, delEntries => { fn => "DbRep_del", fndone => "DbRep_del_Done", fnabort => "DbRep_ParseAborted", pk => "RUNNING_PID", timeset => 1, dobp => 1, table => "history" }, syncStandby => { fn => "DbRep_syncStandby", fndone => "DbRep_syncStandbyDone", fnabort => "DbRep_ParseAborted", pk => "RUNNING_PID", timeset => 1, dobp => 1, table => "history" }, delSeqDoublets => { fn => "DbRep_delseqdoubl", fndone => "DbRep_deldoubl_Done", fnabort => "DbRep_ParseAborted", pk => "RUNNING_PID", timeset => 1, dobp => 1, table => "history" }, delDoublets => { fn => "DbRep_deldoublets", fndone => "DbRep_deldoubl_Done", fnabort => "DbRep_ParseAborted", pk => "RUNNING_PID", timeset => 1, dobp => 1, table => "history" }, reduceLog => { fn => "DbRep_reduceLog", fndone => "DbRep_reduceLogDone", fnabort => "DbRep_reduceLogAborted", pk => "RUNNING_REDUCELOG", timeset => 1, dobp => 1, table => "history" }, tableCurrentPurge => { fn => "DbRep_del", fndone => "DbRep_del_Done", fnabort => "DbRep_ParseAborted", pk => "RUNNING_PID", timeset => 0, dobp => 1, table => "current" }, dbvars => { fn => "DbRep_dbmeta", fndone => "DbRep_dbmeta_Done", fnabort => "DbRep_ParseAborted", pk => "RUNNING_PID", timeset => 0, dobp => 0 }, dbstatus => { fn => "DbRep_dbmeta", fndone => "DbRep_dbmeta_Done", fnabort => "DbRep_ParseAborted", pk => "RUNNING_PID", timeset => 0, dobp => 0 }, tableinfo => { fn => "DbRep_dbmeta", fndone => "DbRep_dbmeta_Done", fnabort => "DbRep_ParseAborted", pk => "RUNNING_PID", timeset => 0, dobp => 0 }, procinfo => { fn => "DbRep_dbmeta", fndone => "DbRep_dbmeta_Done", fnabort => "DbRep_ParseAborted", pk => "RUNNING_PID", timeset => 0, dobp => 0 }, svrinfo => { fn => "DbRep_dbmeta", fndone => "DbRep_dbmeta_Done", fnabort => "DbRep_ParseAborted", pk => "RUNNING_PID", timeset => 0, dobp => 0 }, insert => { fn => "DbRep_insert", fndone => "DbRep_insertDone", fnabort => "DbRep_ParseAborted", pk => "RUNNING_PID", timeset => 0, dobp => 1, table => "history" }, deviceRename => { fn => "DbRep_changeDevRead", fndone => "DbRep_changeDone", fnabort => "DbRep_ParseAborted", pk => "RUNNING_PID", timeset => 0, dobp => 1, table => "history", renmode => "devren" }, readingRename => { fn => "DbRep_changeDevRead", fndone => "DbRep_changeDone", fnabort => "DbRep_ParseAborted", pk => "RUNNING_PID", timeset => 0, dobp => 1, table => "history", renmode => "readren" }, changeValue => { fn => "DbRep_changeVal", fndone => "DbRep_changeDone", fnabort => "DbRep_ParseAborted", pk => "RUNNING_PID", timeset => 1, dobp => 1, table => "history", renmode => "changeval" }, migrateCollation => { fn => "DbRep_migCollation", fndone => "DbRep_migCollation_Done", fnabort => "DbRep_ParseAborted", pk => "RUNNING_PID", timeset => 0, dobp => 1 }, ); my %dbrep_havgfn = ( # Schemafunktionen von averageValue avgArithmeticMean => { fn => \&_DbRep_avgArithmeticMean }, avgDailyMeanGWS => { fn => \&_DbRep_avgDailyMeanGWS }, avgDailyMeanGWSwithGTS => { fn => \&_DbRep_avgDailyMeanGWS }, avgTimeWeightMean => { fn => \&_DbRep_avgTimeWeightMean }, ); # Variablendefinitionen my %dbrep_col = ("DEVICE" => 64, "READING" => 64, ); # Standard Feldbreiten falls noch nicht getInitData ausgeführt my $dbrep_defdecplaces = 4; # Nachkommastellen Standard my $dbrep_dump_path_def = $attr{global}{modpath}."/log/"; # default Pfad für local Dumps my $dbrep_dump_remotepath_def = "./"; # default Pfad für remote Dumps my $dbrep_fName = $attr{global}{modpath}."/FHEM/FhemUtils/cacheDbRep"; # default Pfad/Name SQL Cache File my $dbrep_deftonbl = 86400; # default Timeout non-blocking Operationen my $dbrep_deftobl = 10; # default Timeout blocking Operationen ################################################################################### # DbRep_Initialize ################################################################################### sub DbRep_Initialize { my ($hash) = @_; $hash->{DefFn} = "DbRep_Define"; $hash->{UndefFn} = "DbRep_Undef"; $hash->{DeleteFn} = "DbRep_Delete"; $hash->{ShutdownFn} = "DbRep_Shutdown"; $hash->{NotifyFn} = "DbRep_Notify"; $hash->{SetFn} = "DbRep_Set"; $hash->{GetFn} = "DbRep_Get"; $hash->{AttrFn} = "DbRep_Attr"; $hash->{FW_deviceOverview} = 1; $hash->{AttrList} = "aggregation:minute,hour,day,week,month,year,no ". "disable:1,0 ". "reading ". "allowDeletion:1,0 ". "autoForward:textField-long ". "averageCalcForm:avgArithmeticMean,avgDailyMeanGWS,avgDailyMeanGWSwithGTS,avgTimeWeightMean ". "countEntriesDetail:1,0 ". "device " . "dumpComment ". "dumpCompress:1,0 ". "dumpDirLocal ". "dumpDirRemote ". "dumpMemlimit ". "dumpSpeed ". "dumpFilesKeep:0,1,2,3,4,5,6,7,8,9,10 ". "executeBeforeProc:textField-long ". "executeAfterProc:textField-long ". "expimpfile ". "fastStart:0,1 ". "fetchRoute:ascent,descent ". "fetchMarkDuplicates:red,blue,brown,green,orange ". "fetchValueFn:textField-long ". "ftpDebug:1,0 ". "ftpDir ". "ftpDumpFilesKeep:1,2,3,4,5,6,7,8,9,10 ". "ftpPassive:1,0 ". "ftpPwd ". "ftpPort ". "ftpServer ". "ftpTimeout ". "ftpUse:1,0 ". "ftpUser ". "ftpUseSSL:1,0 ". "diffAccept ". "limit ". "numDecimalPlaces:0,1,2,3,4,5,6,7 ". "optimizeTablesBeforeDump:1,0 ". "readingNameMap ". "readingPreventFromDel ". "role:Client,Agent ". "seqDoubletsVariance ". "showproctime:1,0 ". "showSvrInfo ". "showVariables ". "showStatus ". "showTableInfo ". "sqlCmdHistoryLength:slider,0,1,200 ". "sqlCmdVars ". "sqlFormatService:https://sqlformat.org,none ". "sqlResultFormat:separated,mline,sline,table,json ". "sqlResultFieldSep:|,:,\/ ". "timeYearPeriod ". "timestamp_begin ". "timestamp_end ". "timeDiffToNow ". "timeOlderThan ". "timeout ". "useAdminCredentials:1,0 ". "userExitFn:textField-long ". "valueFilter ". $readingFnAttributes; my %hash = ( Fn => 'CommandDbReadingsVal', Hlp => ' ,Get the value of a device:reading combination from database. The value next to the timestamp is returned if found, otherwise the . = name of used DbRep device, = timestamp like YYYY-MM-DD_hh:mm:ss ' ); $cmds{dbReadingsVal} = \%hash; # Umbenennen von existierenden Attributen # $hash->{AttrRenameMap} = { "reading" => "readingFilter", # "device" => "deviceFilter", # }; eval { FHEM::Meta::InitMod( __FILE__, $hash ) }; # für Meta.pm (https://forum.fhem.de/index.php/topic,97589.0.html) return; } ################################################################################### # DbRep_Define ################################################################################### sub DbRep_Define { # define DbRep # ($hash) [1] [2] # my ($hash, $def) = @_; my $name = $hash->{NAME}; return "Error: Perl module ".$DbRepMMDBI." is missing. Install it on Debian with: sudo apt-get install libdbi-perl" if($DbRepMMDBI); my @a = split("[ \t][ \t]*", $def); if(!$a[2]) { return "You need to specify more parameters.\n". "Format: define DbRep "; } elsif (!$defs{$a[2]}) { return "The specified DbLog-Device \"$a[2]\" doesn't exist."; } $hash->{LASTCMD} = " "; $hash->{ROLE} = AttrVal($name, "role", "Client"); $hash->{MODEL} = $hash->{ROLE}; $hash->{HELPER}{DBLOGDEVICE} = $a[2]; $hash->{HELPER}{IDRETRIES} = 3; # Anzahl wie oft versucht wird initiale Daten zu holen $hash->{HELPER}{MODMETAABSENT} = 1 if($modMetaAbsent); # Modul Meta.pm nicht vorhanden $hash->{NOTIFYDEV} = "global,".$name; # nur Events dieser Devices an DbRep_Notify weiterleiten my $dbconn = $defs{$a[2]}{dbconn}; $hash->{DATABASE} = (split(/;|=/, $dbconn))[1]; $hash->{UTF8} = defined($defs{$a[2]}{UTF8}) ? $defs{$a[2]}{UTF8} : 0; # wird in DbRep_getInitData aus DB abgefragt und neu gesetzt DbRep_setVersionInfo ($hash); # Versionsinformationen setzen DbRep_initSQLcmdCache ($name); # SQL Kommando Cache initialisieren Log3 ($name, 4, "DbRep $name - initialized"); ReadingsSingleUpdateValue ($hash, 'state', 'initialized', 1); RemoveInternalTimer($hash); InternalTimer(gettimeofday()+int(rand(45)), 'DbRep_firstconnect', "$name||onBoot|", 0); return; } ################################################################################### # Set ################################################################################### sub DbRep_Set { my ($hash, @a) = @_; return "\"set X\" needs at least an argument" if ( @a < 2 ); my $name = $a[0]; my $opt = $a[1]; my $prop = $a[2]; my $prop1 = $a[3]; my $dbh = $hash->{DBH}; my $dblogdevice = $hash->{HELPER}{DBLOGDEVICE}; my $dbloghash = $defs{$hash->{HELPER}{DBLOGDEVICE}}; my $dbmodel = $dbloghash->{MODEL}; my $dbname = $hash->{DATABASE}; my $sd =""; my (@bkps,$dir); $dir = AttrVal ($name, "dumpDirLocal", $dbrep_dump_path_def); # 'dumpDirRemote' (Backup-Verz. auf dem MySQL-Server) muß gemountet sein und in 'dumpDirLocal' eingetragen sein $dir = $dir."/" unless($dir =~ m/\/$/); opendir(DIR,$dir); if ($dbmodel =~ /MYSQL/) { $dbname = $hash->{DATABASE}; $sd = $dbname."_.*?(csv|sql)"; } elsif ($dbmodel =~ /SQLITE/) { $dbname = $hash->{DATABASE}; $dbname = (split /[\/]/, $dbname)[-1]; $dbname = (split /\./, $dbname)[0]; $sd = $dbname."_.*?.sqlitebkp"; } while (my $file = readdir(DIR)) { next unless (-f "$dir/$file"); next unless ($file =~ /^$sd/); push @bkps,$file; } closedir(DIR); my $cj = @bkps ? join(",",reverse(sort @bkps)) : " "; my (undef, $hl) = DbRep_listSQLcmdCache ($name); # Drop-Down Liste bisherige Befehle in "sqlCmd" erstellen if (AttrVal($name, "sqlCmdHistoryLength", 0)) { $hl .= "___purge_sqlhistory___"; $hl .= ",___list_sqlhistory___"; $hl .= ",___save_sqlhistory___"; $hl .= ",___restore_sqlhistory___"; } my $collation = join ',', qw ( utf8mb4_bin utf8mb4_general_ci utf8_bin utf8_general_ci latin1_bin latin1_general_ci latin1_general_cs ); my $specials = "50mostFreqLogsLast2days"; $specials .= ",allDevCount"; $specials .= ",allDevReadCount"; $specials .= ",50DevReadCount"; $specials .= ",recentReadingsOfDevice"; $specials .= $dbmodel eq "MYSQL" ? ",readingsDifferenceByTimeDelta" : ""; my $indl = "list_all"; $indl .= ",recreate_Search_Idx"; $indl .= ",drop_Search_Idx"; $indl .= ",recreate_Report_Idx"; $indl .= ",drop_Report_Idx"; my $setlist = "Unknown argument $opt, choose one of ". "eraseReadings:noArg ". "deviceRename ". "index:".$indl." ". (($hash->{ROLE} ne "Agent") ? "delDoublets:adviceDelete,delete " : ""). (($hash->{ROLE} ne "Agent") ? "delEntries " : ""). (($hash->{ROLE} ne "Agent") ? "changeValue " : ""). (($hash->{ROLE} ne "Agent") ? "readingRename " : ""). (($hash->{ROLE} ne "Agent") ? "exportToFile " : ""). (($hash->{ROLE} ne "Agent") ? "importFromFile " : ""). (($hash->{ROLE} ne "Agent") ? "maxValue:display,writeToDB,deleteOther " : ""). (($hash->{ROLE} ne "Agent") ? "minValue:display,writeToDB,deleteOther " : ""). (($hash->{ROLE} ne "Agent") ? "fetchrows:history,current " : ""). (($hash->{ROLE} ne "Agent") ? "diffValue:display,writeToDB " : ""). (($hash->{ROLE} ne "Agent" && $dbmodel =~ /MYSQL/) ? "adminCredentials " : ""). (($hash->{ROLE} ne "Agent") ? "insert " : ""). (($hash->{ROLE} ne "Agent") ? "reduceLog " : ""). (($hash->{ROLE} ne "Agent") ? "sqlCmd:textField-long " : ""). (($hash->{ROLE} ne "Agent" && $hl) ? "sqlCmdHistory:".$hl." " : ""). (($hash->{ROLE} ne "Agent") ? "sqlSpecial:".$specials." " : ""). (($hash->{ROLE} ne "Agent") ? "syncStandby " : ""). (($hash->{ROLE} ne "Agent") ? "tableCurrentFillup:noArg " : ""). (($hash->{ROLE} ne "Agent") ? "tableCurrentPurge:noArg " : ""). (($hash->{ROLE} ne "Agent") ? "countEntries:history,current " : ""). (($hash->{ROLE} ne "Agent") ? "sumValue:display,writeToDB,writeToDBSingle,writeToDBInTime " : ""). (($hash->{ROLE} ne "Agent") ? "averageValue:display,writeToDB,writeToDBSingle,writeToDBSingleStart,writeToDBInTime " : ""). (($hash->{ROLE} ne "Agent") ? "delSeqDoublets:adviceRemain,adviceDelete,delete " : ""). (($hash->{ROLE} ne "Agent" && $dbmodel =~ /MYSQL/) ? "dumpMySQL:clientSide,serverSide " : ""). (($hash->{ROLE} ne "Agent" && $dbmodel =~ /MYSQL/) ? "migrateCollation:".$collation." " : ""). (($hash->{ROLE} ne "Agent" && $dbmodel =~ /SQLITE/) ? "dumpSQLite:noArg " : ""). (($hash->{ROLE} ne "Agent" && $dbmodel =~ /SQLITE/) ? "repairSQLite " : ""). (($hash->{ROLE} ne "Agent" && $dbmodel =~ /MYSQL/) ? "optimizeTables:showInfo,execute " : ""). (($hash->{ROLE} ne "Agent" && $dbmodel =~ /SQLITE|POSTGRESQL/) ? "vacuum:noArg " : ""). (($hash->{ROLE} ne "Agent" && $dbmodel =~ /MYSQL/) ? "restoreMySQL:".$cj." " : ""). (($hash->{ROLE} ne "Agent" && $dbmodel =~ /SQLITE/) ? "restoreSQLite:".$cj." " : "") ; return if(IsDisabled($name)); if ($opt =~ /eraseReadings/) { DbRep_setLastCmd (@a); DbRep_delread ($hash); # Readings löschen die nicht in der Ausnahmeliste (Attr readingPreventFromDel) stehen return; } if ($opt eq "dumpMySQL" && $hash->{ROLE} ne "Agent") { DbRep_setLastCmd (@a); if ($prop eq "serverSide") { Log3 ($name, 3, "DbRep $name - ################################################################"); Log3 ($name, 3, "DbRep $name - ### New database serverSide dump ###"); Log3 ($name, 3, "DbRep $name - ################################################################"); } else { Log3 ($name, 3, "DbRep $name - ################################################################"); Log3 ($name, 3, "DbRep $name - ### New database clientSide dump ###"); Log3 ($name, 3, "DbRep $name - ################################################################"); } DbRep_beforeproc ($hash, "dump"); DbRep_Main ($hash, $opt, $prop); return; } if ($opt eq "dumpSQLite" && $hash->{ROLE} ne "Agent") { DbRep_setLastCmd (@a); Log3 ($name, 3, "DbRep $name - ################################################################"); Log3 ($name, 3, "DbRep $name - ### New SQLite dump ###"); Log3 ($name, 3, "DbRep $name - ################################################################"); DbRep_beforeproc ($hash, "dump"); DbRep_Main ($hash, $opt, $prop); return; } if ($opt eq "repairSQLite" && $hash->{ROLE} ne "Agent") { $prop = $prop ? $prop : 36000; unless ($prop =~ /^(\d+)$/) { return " The Value of $opt is not valid. Use only figures 0-9 without decimal places !"; } DbRep_setLastCmd ($name, $opt, $prop); Log3 ($name, 3, "DbRep $name - ################################################################"); Log3 ($name, 3, "DbRep $name - ### New SQLite repair attempt ###"); Log3 ($name, 3, "DbRep $name - ################################################################"); Log3 ($name, 3, "DbRep $name - start repair attempt of database ".$hash->{DATABASE}); my $dbl = $dbloghash->{NAME}; # closetime Datenbank CommandSet(undef,"$dbl reopen $prop"); DbRep_beforeproc ($hash, "repair"); DbRep_Main ($hash, $opt); return; } if ($opt =~ /restoreMySQL|restoreSQLite/ && $hash->{ROLE} ne "Agent") { if(!$prop) { return qq{The command "$opt" needs an argument.}; } DbRep_setLastCmd (@a); Log3 ($name, 3, "DbRep $name - ################################################################"); Log3 ($name, 3, "DbRep $name - ### New database Restore/Recovery ###"); Log3 ($name, 3, "DbRep $name - ################################################################"); DbRep_beforeproc ($hash, "restore"); DbRep_Main ($hash, $opt, $prop); return; } if ($opt =~ /optimizeTables|vacuum/ && $hash->{ROLE} ne "Agent") { DbRep_setLastCmd (@a); Log3 ($name, 3, "DbRep $name - ################################################################"); Log3 ($name, 3, "DbRep $name - ### New optimize table / vacuum execution ###"); Log3 ($name, 3, "DbRep $name - ################################################################"); DbRep_beforeproc ($hash, "optimize"); DbRep_Main ($hash, $opt, $prop); return; } if ($opt =~ m/delSeqDoublets|delDoublets/ && $hash->{ROLE} ne "Agent") { if ($opt eq "delSeqDoublets") { $prop //= "adviceRemain"; } elsif ($opt eq "delDoublets") { $prop //= "adviceDelete"; } DbRep_setLastCmd ($name, $opt, $prop); if ($prop =~ /delete/ && !AttrVal($hash->{NAME}, "allowDeletion", 0)) { return " Set attribute 'allowDeletion' if you want to allow deletion of any database entries. Use it with care !"; } DbRep_Main ($hash, $opt, $prop); return; } if ($opt =~ m/reduceLog/ && $hash->{ROLE} ne "Agent") { if ($hash->{HELPER}{$dbrep_hmainf{reduceLog}{pk}} && $hash->{HELPER}{$dbrep_hmainf{reduceLog}{pk}}{pid} !~ m/DEAD/) { return "reduceLog already in progress. Please wait for the current process to finish."; } else { delete $hash->{HELPER}{$dbrep_hmainf{reduceLog}{pk}}; DbRep_setLastCmd (@a); $hash->{HELPER}{REDUCELOG} = \@a; Log3 ($name, 3, "DbRep $name - ################################################################"); Log3 ($name, 3, "DbRep $name - ### new reduceLog run ###"); Log3 ($name, 3, "DbRep $name - ################################################################"); DbRep_Main ($hash, $opt, $prop); return; } } if ($hash->{HELPER}{RUNNING_BACKUP_CLIENT}) { $setlist = "Unknown argument $opt, choose one of ". (($hash->{ROLE} ne "Agent")?"cancelDump:noArg ":""); } if ($hash->{HELPER}{RUNNING_REPAIR}) { $setlist = "Unknown argument $opt, choose one of ". (($hash->{ROLE} ne "Agent")?"cancelRepair:noArg ":""); } if ($hash->{HELPER}{RUNNING_RESTORE}) { $setlist = "Unknown argument $opt, choose one of ". (($hash->{ROLE} ne "Agent")?"cancelRestore:noArg ":""); } if ($opt eq "cancelDump" && $hash->{ROLE} ne "Agent") { DbRep_setLastCmd (@a); BlockingKill($hash->{HELPER}{RUNNING_BACKUP_CLIENT}); Log3 ($name, 3, "DbRep $name -> running Dump has been canceled"); ReadingsSingleUpdateValue ($hash, "state", "Dump canceled", 1); return; } if ($opt eq "cancelRepair" && $hash->{ROLE} ne "Agent") { DbRep_setLastCmd (@a); BlockingKill($hash->{HELPER}{RUNNING_REPAIR}); Log3 ($name, 3, "DbRep $name -> running Repair has been canceled"); ReadingsSingleUpdateValue ($hash, "state", "Repair canceled", 1); return; } if ($opt eq "cancelRestore" && $hash->{ROLE} ne "Agent") { DbRep_setLastCmd (@a); BlockingKill($hash->{HELPER}{RUNNING_RESTORE}); Log3 ($name, 3, "DbRep $name -> running Restore has been canceled"); ReadingsSingleUpdateValue ($hash, "state", "Restore canceled", 1); return; } if ($opt =~ m/tableCurrentFillup/ && $hash->{ROLE} ne "Agent") { DbRep_setLastCmd (@a); DbRep_Main ($hash, $opt); return; } if ($opt eq "migrateCollation" && $hash->{ROLE} ne "Agent") { DbRep_setLastCmd (@a); DbRep_Main ($hash, $opt, $prop); return; } if ($opt eq "index") { DbRep_setLastCmd (@a); Log3 ($name, 3, "DbRep $name - ################################################################"); Log3 ($name, 3, "DbRep $name - ### New Index operation ###"); Log3 ($name, 3, "DbRep $name - ################################################################"); DbRep_beforeproc ($hash, "index"); DbRep_Main ($hash, $opt, $prop); return; } if ($opt eq "adminCredentials" && $hash->{ROLE} ne "Agent") { return "Credentials are incomplete, use username password" if (!$prop || !$prop1); my $success = DbRep_setcredentials($hash, "adminCredentials", $prop, $prop1); if($success) { return "Username and password for database root access saved successfully"; } else { return "Error while saving username / password - see logfile for details"; } } if ($opt =~ /countEntries/ && $hash->{ROLE} ne "Agent") { my $table = $prop // "history"; DbRep_setLastCmd ($name, $opt, $table); DbRep_Main ($hash, $opt, $table); return; } elsif ($opt =~ /fetchrows/ && $hash->{ROLE} ne "Agent") { my $table = $prop // "history"; DbRep_setLastCmd ($name, $opt, $table); DbRep_Main ($hash, $opt, $table); return; } ####################################################################################################### ## keine Aktionen außer die über diesem Eintrag solange Reopen xxxx im DbLog-Device läuft ####################################################################################################### if ($dbloghash->{HELPER}{REOPEN_RUNS} && $opt !~ /\?/) { my $ro = $dbloghash->{HELPER}{REOPEN_RUNS_UNTIL}; Log3 ($name, 3, "DbRep $name - connection $dblogdevice to db $dbname is closed until $ro - $opt postponed"); ReadingsSingleUpdateValue ($hash, "state", "connection $dblogdevice to $dbname is closed until $ro - $opt postponed", 1); return; } ####################################################################################################### if ($opt =~ m/(max|min|sum|average|diff)Value/ && $hash->{ROLE} ne "Agent") { if (!AttrVal($hash->{NAME}, "reading", "")) { return " The attribute reading to analyze is not set !"; } if ($prop && $prop =~ /deleteOther/ && !AttrVal($hash->{NAME}, "allowDeletion", 0)) { return " Set attribute 'allowDeletion' if you want to allow deletion of any database entries. Use it with care !"; } if ($prop && $prop =~ /writeToDB/) { if (!AttrVal($hash->{NAME}, "device", "") || AttrVal($hash->{NAME}, "device", "") =~ /[%*:=,]/ || AttrVal($hash->{NAME}, "reading", "") =~ /[,\s]/) { return "If you want write results back to database, attributes \"device\" and \"reading\" must be set.
In that case \"device\" mustn't be a devspec and mustn't contain SQL-Wildcard (%).
The \"reading\" to evaluate has to be a single reading and no list."; } } DbRep_setLastCmd (@a); DbRep_Main ($hash,$opt,$prop); } elsif ($opt =~ m/delEntries|tableCurrentPurge/ && $hash->{ROLE} ne "Agent") { if (!AttrVal($hash->{NAME}, "allowDeletion", undef)) { return " Set attribute 'allowDeletion' if you want to allow deletion of any database entries. Use it with care !"; } delete $hash->{HELPER}{DELENTRIES}; DbRep_setLastCmd (@a); shift @a; shift @a; $hash->{HELPER}{DELENTRIES} = \@a if(@a); DbRep_Main ($hash,$opt); } elsif ($opt eq "deviceRename") { shift @a; shift @a; $prop = join " ", @a; # Device Name kann Leerzeichen enthalten my ($olddev, $newdev) = split ",", $prop; if (!$olddev || !$newdev) { return qq{Both entries "old device name" and "new device name" are needed. Use "set $name deviceRename olddevname,newdevname"}; } $hash->{HELPER}{OLDDEV} = $olddev; $hash->{HELPER}{NEWDEV} = $newdev; DbRep_setLastCmd ($name, $opt, "$olddev,$newdev"); DbRep_Main ($hash, $opt, $prop); } elsif ($opt eq "readingRename") { shift @a; shift @a; $prop = join " ", @a; # Readingname kann Leerzeichen enthalten my ($oldread, $newread) = split ",", $prop; if (!$oldread || !$newread) { return qq{Both entries "old reading name" and "new reading name" are needed. Use "set $name readingRename oldreadingname,newreadingname"}; } $hash->{HELPER}{OLDREAD} = $oldread; $hash->{HELPER}{NEWREAD} = $newread; DbRep_setLastCmd ($name, $opt, "$oldread,$newread"); DbRep_Main ($hash, $opt, $prop); } elsif ($opt eq "insert" && $hash->{ROLE} ne "Agent") { shift @a; shift @a; $prop = join " ", @a; if (!$prop) { return qq{Data to insert to table 'history' are needed like this pattern: 'Date,Time,Value,[Unit],[],[]'. Parameters included in "[...]" are optional. Spaces are not allowed !}; } my ($i_date, $i_time, $i_value, $i_unit, $i_device, $i_reading) = split ",", $prop; $i_unit //= ""; $i_device //= AttrVal($name, "device", ""); # Device aus Attr lesen wenn nicht im insert angegeben $i_reading //= AttrVal($name, "reading", ""); # Reading aus Attr lesen wenn nicht im insert angegeben if (!$i_date || !$i_time || !defined $i_value) { return qq{At least data for "Date", "Time" and "Value" is needed to insert. Inputformat is "YYYY-MM-DD,HH:MM:SS,,"}; } if ($i_date !~ /^(\d{4})-(\d{2})-(\d{2})$/x || $i_time !~ /^(\d{2}):(\d{2}):(\d{2})$/x) { return "Input for date is not valid. Use format YYYY-MM-DD,HH:MM:SS"; } if (!$i_device || !$i_reading) { return qq{One or both of "device", "reading" are not set. It's mandatory to set both in the insert command or with the device / reading attributes}; } # Attribute device & reading dürfen kein SQL-Wildcard % enthalten if($i_device =~ m/%/ || $i_reading =~ m/%/ ) { return qq{One or both of "device", "reading" containing SQL wildcard "%". Wildcards are not allowed in manual function insert !} } my $i_timestamp = $i_date." ".$i_time; my ($yyyy, $mm, $dd, $hh, $min, $sec) = ($i_timestamp =~ /(\d+)-(\d+)-(\d+) (\d+):(\d+):(\d+)/); eval { my $ts = timelocal($sec, $min, $hh, $dd, $mm-1, $yyyy-1900); }; if ($@) { my @l = split (/at/, $@); return " Timestamp is out of range - $l[0]"; } DbRep_setLastCmd ($name, $opt, $prop); DbRep_Main ($hash, $opt, "$i_timestamp,$i_device,$i_reading,$i_value,$i_unit"); } elsif ($opt eq "exportToFile" && $hash->{ROLE} ne "Agent") { my ($ar, $hr) = parseParams(join ' ', @a); my $f = $ar->[2] // AttrVal($name, "expimpfile", ""); if (!$f) { return qq{"$opt" needs a file as argument or the attribute "expimpfile" (path and filename) to be set !}; } my $e = q{}; if ($hr->{MAXLINES}) { $e = "MAXLINES=".$hr->{MAXLINES}; return qq{The "MAXLINES" parameter must be a integer value !} if($e !~ /^MAXLINES=\d+$/); } $prop = $e ? $f." ".$e : $f; DbRep_setLastCmd ($name, $opt, $prop); DbRep_Main ($hash, $opt, $prop); } elsif ($opt eq "importFromFile" && $hash->{ROLE} ne "Agent") { my ($ar, $hr) = parseParams(join ' ', @a); my $f = $ar->[2] // AttrVal($name, "expimpfile", ""); if (!$f) { return qq{"$opt" needs a file as an argument or the attribute "expimpfile" (path and filename) to be set !}; } DbRep_setLastCmd ($name, $opt, $f); DbRep_Main ($hash, $opt, $f); } elsif ($opt =~ /sqlCmd|sqlSpecial|sqlCmdHistory/) { return qq{"set $opt" needs at least an argument} if ( @a < 3 ); delete $data{DbRep}{$name}{sqlcache}{temp}; my $sqlcmd; if($opt eq "sqlSpecial") { my ($tq,$gcl); if($prop eq "50mostFreqLogsLast2days") { $sqlcmd = "select Device, reading, count(0) AS `countA` from history where TIMESTAMP > (NOW() - INTERVAL 2 DAY) group by DEVICE, READING order by countA desc, DEVICE limit 50;" if($dbmodel =~ /MYSQL/); $sqlcmd = "select Device, reading, count(0) AS `countA` from history where TIMESTAMP > datetime('now' ,'-2 days') group by DEVICE, READING order by countA desc, DEVICE limit 50;" if($dbmodel =~ /SQLITE/); $sqlcmd = "select Device, reading, count(0) AS countA from history where TIMESTAMP > (NOW() - INTERVAL '2' DAY) group by DEVICE, READING order by countA desc, DEVICE limit 50;" if($dbmodel =~ /POSTGRESQL/); } elsif ($prop eq "allDevReadCount") { $sqlcmd = "select device, reading, count(*) as count from history group by DEVICE, READING order by count desc;"; } elsif ($prop eq "50DevReadCount") { $sqlcmd = "select DEVICE AS device, READING AS reading, count(0) AS number from history group by DEVICE, READING order by number DESC limit 50;"; } elsif ($prop eq "allDevCount") { $sqlcmd = "select device, count(*) from history group by DEVICE;"; } elsif ($prop eq "recentReadingsOfDevice") { if($dbmodel =~ /MYSQL/) {$tq = "NOW() - INTERVAL 1 DAY"; $gcl = "READING"}; if($dbmodel =~ /SQLITE/) {$tq = "datetime('now','-1 day')"; $gcl = "READING"}; if($dbmodel =~ /POSTGRESQL/) {$tq = "CURRENT_TIMESTAMP - INTERVAL '1 day'"; $gcl = "READING,DEVICE"}; $sqlcmd = "SELECT t1.TIMESTAMP,t1.DEVICE,t1.READING,t1.VALUE FROM history t1 INNER JOIN (select max(TIMESTAMP) AS TIMESTAMP,DEVICE,READING from history where §device§ AND TIMESTAMP > ".$tq." group by ".$gcl.") x ON x.TIMESTAMP = t1.TIMESTAMP AND x.DEVICE = t1.DEVICE AND x.READING = t1.READING;"; } elsif ($prop eq "readingsDifferenceByTimeDelta") { $sqlcmd = 'SET @diff=0; SET @delta=NULL; SELECT t1.TIMESTAMP,t1.READING,t1.VALUE,t1.DIFF,t1.TIME_DELTA FROM (SELECT TIMESTAMP,READING,VALUE, cast((VALUE-@diff) AS DECIMAL(12,4)) AS DIFF, @diff:=VALUE AS curr_V, TIMESTAMPDIFF(MINUTE,@delta,TIMESTAMP) AS TIME_DELTA, @delta:=TIMESTAMP AS curr_T FROM history WHERE §device§ AND §reading§ AND TIMESTAMP >= §timestamp_begin§ AND TIMESTAMP <= §timestamp_end§ ORDER BY TIMESTAMP ) t1;'; } } if($opt eq "sqlCmd") { my @cmd = @a; shift @cmd; shift @cmd; $sqlcmd = join ' ', @cmd; if ($sqlcmd =~ /^ckey:/ix) { my $key = (split ":", $sqlcmd)[1]; if (exists $data{DbRep}{$name}{sqlcache}{cmd}{$key}) { $sqlcmd = $data{DbRep}{$name}{sqlcache}{cmd}{$key}; } else { return qq{SQL statement with key "$key" doesn't exists in history}; } } $sqlcmd .= ';' if ($sqlcmd !~ m/\;$/x); } if($opt eq "sqlCmdHistory") { $sqlcmd = $prop; $sqlcmd =~ s/§/_ESC_ECS_/g; $sqlcmd =~ tr/ A-Za-z0-9!"#%&'()*+,-.\/:;<=>?@[\\]^_`{|}~äöüÄÖÜ߀/ /cs; $sqlcmd =~ s/_ESC_ECS_/§/g; $sqlcmd =~ s//,/g; # noch aus Kompatibilitätsgründen enthalten $sqlcmd =~ s/(\x20)*\xbc/,/g; # Forum: https://forum.fhem.de/index.php/topic,103908.0.html if($sqlcmd eq "___purge_sqlhistory___") { DbRep_deleteSQLcmdCache ($name); return "SQL command historylist of $name deleted."; } if($sqlcmd eq "___list_sqlhistory___") { my ($cache) = DbRep_listSQLcmdCache ($name); return $cache; } if($sqlcmd eq "___save_sqlhistory___") { my $err = DbRep_writeSQLcmdCache ($hash); # SQL Cache File schreiben $err //= "SQL history entries of $name successfully saved"; return $err; } if($sqlcmd eq "___restore_sqlhistory___") { my $count = DbRep_initSQLcmdCache ($name); return $count ? "SQL history entries of $name restored: $count" : undef; } } if ($sqlcmd =~ m/^\s*delete/is && !AttrVal($hash->{NAME}, "allowDeletion", undef)) { return "Attribute 'allowDeletion = 1' is needed for command '$sqlcmd'. Use it with care !"; } $sqlcmd = _DbRep_sqlFormOnline ($hash, $sqlcmd); # SQL Statement online formatieren $sqlcmd = DbRep_trim ($sqlcmd); $data{DbRep}{$name}{sqlcache}{temp} = $sqlcmd; # SQL incl. Formatierung zwischenspeichern my @cmd = split /\s+/, $sqlcmd; $sqlcmd = join ' ', @cmd; DbRep_setLastCmd ($name, $opt, $sqlcmd); DbRep_Main ($hash, $opt, $sqlcmd); } elsif ($opt =~ /changeValue/) { my ($ac, $hc) = parseParams(join ' ', @a); my $oldval = $hc->{old}; my $newval = $hc->{new}; if (!$oldval || !$newval) { return qq{Both entries old="old string" new="new string" are needed.}; } my $complex = 0; if($newval =~ m/^\s*\{"(.*)"\}\s*$/s) { $newval = $1; $complex = 1; } $hash->{HELPER}{COMPLEX} = $complex; $hash->{HELPER}{OLDVAL} = $oldval; $hash->{HELPER}{NEWVAL} = $newval; DbRep_setLastCmd ($name, $opt, "old=$oldval new=$newval"); DbRep_Main ($hash, $opt, $prop); } elsif ($opt =~ m/syncStandby/ && $hash->{ROLE} ne "Agent") { unless($prop) { return qq{A DbLog-device (standby) is needed to sync. Use "set $name syncStandby "}; } if(!exists($defs{$prop}) || $defs{$prop}->{TYPE} ne "DbLog") { return qq{The device "$prop" doesn't exist or is not a DbLog-device.}; } DbRep_setLastCmd (@a); DbRep_Main ($hash, $opt, $prop); } else { return "$setlist"; } return; } ################################################################################### # SQL Statement online formatieren ################################################################################### sub _DbRep_sqlFormOnline { my $hash = shift; my $sqlcmd = shift; my $name = $hash->{NAME}; my $fs = AttrVal ($name, 'sqlFormatService', 'none'); return $sqlcmd if($fs eq 'none'); if ($fs eq 'https://sqlformat.org') { $fs .= '/api/v1/format'; } my @cmds = split ';', $sqlcmd; my $newcmd; for my $part (@cmds) { $part = urlEncode ($part); my ($err, $dat) = HttpUtils_BlockingGet ({ url => $fs, timeout => 5, data => "reindent=1&sql=$part", method => 'POST', sslargs => { SSL_verify_mode => 0 }, httpversion => '1.1', loglevel => 4 } ); if ($err) { Log3 ($name, 3, "DbRep $name - ERROR format SQL online: ".$err); return $sqlcmd; } else { my ($success, $decoded) = evalDecodeJSON ($hash, urlDecode ($dat)); my $res = $decoded->{result}; next if(!$res); if ($success) { $newcmd .= Encode::encode_utf8 ($res).';'; } else { Log3 ($name, 3, "DbRep $name - ERROR decode JSON from SQL online formatter"); return $sqlcmd; } } } Log3 ($name, 4, "DbRep $name - SQL online formatted: ".$newcmd); return $newcmd; } ################################################################################### # Get ################################################################################### sub DbRep_Get { my ($hash, @a) = @_; return "\"get X\" needs at least an argument" if ( @a < 2 ); my $name = $a[0]; my $opt = $a[1]; my $prop = $a[2]; my $dbh = $hash->{DBH}; my $dblogdevice = $hash->{HELPER}{DBLOGDEVICE}; my $dbloghash = $defs{$hash->{HELPER}{DBLOGDEVICE}}; my $dbmodel = $dbloghash->{MODEL}; my $dbname = $hash->{DATABASE}; my $to = AttrVal ($name, 'timeout', $dbrep_deftonbl); my $getlist = "Unknown argument $opt, choose one of ". "svrinfo:noArg ". "blockinginfo:noArg ". "minTimestamp:noArg ". "initData:noArg ". "sqlCmdBlocking:textField-long ". (($dbmodel =~ /MYSQL/) ? "storedCredentials:noArg " : ""). (($dbmodel eq "MYSQL") ? "dbstatus:noArg " : ""). (($dbmodel eq "MYSQL") ? "tableinfo:noArg " : ""). (($dbmodel eq "MYSQL") ? "procinfo:noArg " : ""). (($dbmodel eq "MYSQL") ? "dbvars:noArg " : ""). "versionNotes " ; return if(IsDisabled($name)); if ($dbloghash->{HELPER}{REOPEN_RUNS} && $opt !~ /\?|procinfo|blockinginfo/) { my $ro = $dbloghash->{HELPER}{REOPEN_RUNS_UNTIL}; Log3 ($name, 3, "DbRep $name - connection $dblogdevice to db $dbname is closed until $ro - $opt postponed"); ReadingsSingleUpdateValue ($hash, "state", "connection $dblogdevice to $dbname is closed until $ro - $opt postponed", 1); return; } if ($opt =~ /dbvars|dbstatus|tableinfo|procinfo/) { return "Dump is running - try again later !" if($hash->{HELPER}{RUNNING_BACKUP_CLIENT}); return "The operation \"$opt\" isn't available with database type $dbmodel" if($dbmodel ne 'MYSQL'); DbRep_delread ($hash); # Readings löschen die nicht in der Ausnahmeliste (Attr readingPreventFromDel) stehen DbRep_setLastCmd (@a); DbRep_Main ($hash, $opt, $prop); } elsif ($opt eq "svrinfo") { return "Dump is running - try again later !" if($hash->{HELPER}{RUNNING_BACKUP_CLIENT}); DbRep_delread ($hash); # Readings löschen die nicht in der Ausnahmeliste (Attr readingPreventFromDel) stehen DbRep_setLastCmd (@a); DbRep_Main ($hash, $opt, $prop); } elsif ($opt eq "blockinginfo") { return "Dump is running - try again later !" if($hash->{HELPER}{RUNNING_BACKUP_CLIENT}); DbRep_delread ($hash); # Readings löschen die nicht in der Ausnahmeliste (Attr readingPreventFromDel) stehen DbRep_setLastCmd (@a); ReadingsSingleUpdateValue ($hash, "state", "running", 1); DbRep_getblockinginfo ($hash); } elsif ($opt eq "minTimestamp" || $opt eq "initData") { return "Dump is running - try again later !" if($hash->{HELPER}{RUNNING_BACKUP_CLIENT}); $hash->{HELPER}{IDRETRIES} = 3; # Anzahl wie oft versucht wird initiale Daten zu holen DbRep_delread ($hash); DbRep_setLastCmd (@a); ReadingsSingleUpdateValue ($hash, "state", "running", 1); $prop //= ''; DbRep_firstconnect("$name|$opt|$prop"); } elsif ($opt =~ /sqlCmdBlocking/) { return qq{get "$opt" needs at least an argument} if ( @a < 3 ); my @cmd = @a; shift @cmd; shift @cmd; my $sqlcmd = join ' ', @cmd; $sqlcmd =~ tr/ A-Za-z0-9!"#$§%&'()*+,-.\/:;<=>?@[\\]^_`{|}~äöüÄÖÜ߀/ /cs; $sqlcmd .= ';' if ($sqlcmd !~ m/\;$/x); $sqlcmd = _DbRep_sqlFormOnline ($hash, $sqlcmd); # SQL Statement online formatieren $sqlcmd = DbRep_trim ($sqlcmd); $data{DbRep}{$name}{sqlcache}{temp} = $sqlcmd; # SQL incl. Formatierung zwischenspeichern @cmd = split /\s+/, $sqlcmd; $sqlcmd = join ' ', @cmd; DbRep_setLastCmd ($name, $opt, $sqlcmd); if ($sqlcmd =~ m/^\s*delete/is && !AttrVal($name, "allowDeletion", undef)) { return "Attribute 'allowDeletion = 1' is needed for command '$sqlcmd'. Use it with care !"; } DbRep_delread ($hash); # Readings löschen die nicht in der Ausnahmeliste (Attr readingPreventFromDel) stehen ReadingsSingleUpdateValue ($hash, "state", "running", 1); return DbRep_sqlCmdBlocking($name,$sqlcmd); } elsif ($opt eq "storedCredentials") { # Credentials abrufen my $atxt; my $username = $defs{$defs{$name}->{HELPER}{DBLOGDEVICE}}->{dbuser}; my $dblogname = $defs{$defs{$name}->{HELPER}{DBLOGDEVICE}}->{NAME}; my $password = $attr{"sec$dblogname"}{secret}; my ($success,$admusername,$admpassword) = DbRep_getcredentials($hash,"adminCredentials"); if($success) { $atxt = "Username: $admusername, Password: $admpassword\n"; } else { $atxt = "Credentials of $name couldn't be read. Make sure you've set it with \"set $name adminCredentials username password\" (only valid for DbRep device type \"Client\")"; } return "Stored Credentials for database default access:\n". "===============================================\n". "Username: $username, Password: $password\n". "\n". "\n". "Stored Credentials for database admin access:\n". "=============================================\n". $atxt. "\n" ; } elsif ($opt =~ /versionNotes/) { my $header = "Module release information
"; my $header1 = "Helpful hints
"; my %hs; # Ausgabetabelle erstellen my ($ret,$val0,$val1); my $i = 0; $ret = ""; # Hints if(!$prop || $prop =~ /hints/ || $prop =~ /[\d]+/) { $ret .= sprintf("
$header1
"); $ret .= ""; $ret .= ""; $ret .= ""; if($prop && $prop =~ /[\d]+/) { if(AttrVal("global","language","EN") eq "DE") { %hs = ( $prop => $DbRep_vHintsExt_de{$prop} ); } else { %hs = ( $prop => $DbRep_vHintsExt_en{$prop} ); } } else { if(AttrVal("global","language","EN") eq "DE") { %hs = %DbRep_vHintsExt_de; } else { %hs = %DbRep_vHintsExt_en; } } $i = 0; for my $key (sortTopicNum("desc",keys %hs)) { $val0 = $hs{$key}; $ret .= sprintf("" ); $ret .= ""; $i++; if ($i & 1) { # $i ist ungerade $ret .= ""; } else { $ret .= ""; } } $ret .= ""; $ret .= ""; $ret .= "
$key $val0
"; $ret .= "
"; } if(!$prop || $prop =~ /rel/) { # Notes $ret .= sprintf("
$header
"); $ret .= ""; $ret .= ""; $ret .= ""; $i = 0; for my $key (sortTopicNum("desc",keys %DbRep_vNotesExtern)) { ($val0,$val1) = split(/\s/,$DbRep_vNotesExtern{$key},2); $ret .= sprintf("" ); $ret .= ""; $i++; if ($i & 1) { # $i ist ungerade $ret .= ""; } else { $ret .= ""; } } $ret .= ""; $ret .= ""; $ret .= "
$key $val0 $val1
"; $ret .= "
"; } $ret .= ""; return $ret; } else { return "$getlist"; } return; } ################################################################################### # Attr ################################################################################### sub DbRep_Attr { my ($cmd,$name,$aName,$aVal) = @_; my $hash = $defs{$name}; my $dbloghash = $defs{$hash->{HELPER}{DBLOGDEVICE}}; my $dbmodel = $dbloghash->{MODEL}; my $do; # $cmd can be "del" or "set" # $name is device name # aName and aVal are Attribute name and value # nicht erlaubte / nicht setzbare Attribute wenn role = Agent my @agentnoattr = qw(aggregation allowDeletion autoForward dumpDirLocal reading readingNameMap readingPreventFromDel device diffAccept executeBeforeProc executeAfterProc expimpfile ftpUse ftpUser ftpUseSSL ftpDebug ftpDir ftpPassive ftpPort ftpPwd ftpServer ftpTimeout dumpMemlimit dumpComment dumpSpeed optimizeTablesBeforeDump seqDoubletsVariance sqlCmdHistoryLength timeYearPeriod timestamp_begin timestamp_end timeDiffToNow timeOlderThan sqlResultFormat useAdminCredentials ); if ($aName eq "disable") { if($cmd eq "set") { $do = ($aVal) ? 1 : 0; } $do = 0 if($cmd eq "del"); my $val = ($do == 1 ? "disabled" : "initialized"); ReadingsSingleUpdateValue ($hash, "state", $val, 1); if ($do == 1) { my $dbh = $hash->{DBH}; $dbh->disconnect() if($dbh); } } if ($cmd eq "set" && $hash->{ROLE} eq "Agent") { foreach (@agentnoattr) { return ("Attribute $aName is not usable due to role of $name is \"$hash->{ROLE}\" ") if ($_ eq $aName); } } if ($aName eq "readingPreventFromDel") { if($cmd eq "set") { if($aVal =~ / /) {return "Usage of $aName is wrong. Use a comma separated list of readings which are should prevent from deletion when a new selection starts.";} $hash->{HELPER}{RDPFDEL} = $aVal; } else { delete $hash->{HELPER}{RDPFDEL} if($hash->{HELPER}{RDPFDEL}); } } if ($aName eq "fetchValueFn") { if($cmd eq "set") { my $VALUE = "Hello"; if( $aVal =~ m/^\s*(\{.*\})\s*$/s ) { # Funktion aus Attr validieren $aVal = $1; } else { $aVal = ""; } return "Your function does not match the form \"{}\"" if(!$aVal); eval $aVal; return "Bad function: $@" if($@); } } if ($aName eq "sqlCmdHistoryLength") { if($cmd eq "set") { $do = ($aVal) ? 1 : 0; } $do = 0 if($cmd eq "del"); if ($do == 0) { DbRep_deleteSQLcmdCache ($name); } } if ($aName eq "userExitFn") { if($cmd eq "set") { if(!$aVal) { return "Usage of $aName is wrong. The function has to be specified as \" [reading:value]\" "; } if ($aVal =~ m/^\s*(\{.*\})\s*$/xs) { # unnamed Funktion direkt in userExitFn mit {...} $aVal = $1; my ($NAME,$READING,$VALUE) = ('','',''); eval $aVal; return $@ if ($@); } } } if ($aName =~ /executeAfterProc|executeBeforeProc/xs) { if($cmd eq "set") { if ($aVal =~ m/^\s*(\{.*\}|{.*|.*})\s*$/xs && $aVal !~ /{".*"}/xs) { $aVal = $1; eval $aVal; return $@ if ($@); } } } if ($aName eq "role") { if($cmd eq "set") { if ($aVal eq "Agent") { foreach(devspec2array("TYPE=DbRep")) { # check ob bereits ein Agent für die angeschlossene Datenbank existiert -> DbRep-Device kann dann keine Agent-Rolle einnehmen my $devname = $_; next if($devname eq $name); my $devrole = $defs{$_}{ROLE}; my $devdb = $defs{$_}{DATABASE}; if ($devrole eq "Agent" && $devdb eq $hash->{DATABASE}) { return "There is already an Agent device: $devname defined for database $hash->{DATABASE} !"; } } foreach (@agentnoattr) { # nicht erlaubte Attribute löschen falls gesetzt delete($attr{$name}{$_}); } $attr{$name}{icon} = "security"; } $do = $aVal; } else { $do = "Client"; } $hash->{ROLE} = $do; $hash->{MODEL} = $hash->{ROLE}; delete($attr{$name}{icon}) if($do eq "Client"); } if($aName eq "device") { my $awdev = $aVal; DbRep_modAssociatedWith ($hash,$cmd,$awdev); } if ($cmd eq "set") { if ($aName =~ /valueFilter/) { eval { "Hallo" =~ m/$aVal/ }; return "Bad regexp: $@" if($@); } if ($aName eq "autoForward") { my $em = "Usage of $aName is wrong. The function has to be specified as ". "\"{ => \" => [=> destination-reading]\" }\". ". "The specification can be made in several lines separated by comma."; if($aVal !~ m/^\{.*(=>)+?.*\}$/s) {return $em;} my $av = eval $aVal; if($@) { Log3($name, 2, "$name - Error while evaluate: ".$@); return $@; } if(ref($av) ne "HASH") { return $em; } } if ($aName =~ /seqDoubletsVariance/) { my $edge = ""; if($aVal =~ /EDGE=/) { ($aVal,$edge) = split("EDGE=", $aVal); unless ($edge =~ /^positive$|^negative$/i) { return qq{The parameter EDGE can only be "positive" or "negative" !}; } } my ($varpos,$varneg) = split(" ", $aVal); $varpos = DbRep_trim($varpos); $varneg = $varpos if(!$varneg); $varneg = DbRep_trim($varneg); unless (looks_like_number($varpos) && looks_like_number($varneg)) { return " The Value of $aName is not valid. Only figures are allowed (except \"EDGE\") !"; } } if ($aName eq "timeYearPeriod") { # 06-01 02-28 unless ($aVal =~ /^(\d{2})-(\d{2})\s(\d{2})-(\d{2})$/x ) { return "The Value of \"$aName\" isn't valid. Set the account period as \"MM-DD MM-DD\"."; } my ($mm1, $dd1, $mm2, $dd2) = ($aVal =~ /^(\d{2})-(\d{2}) (\d{2})-(\d{2})$/); my (undef,undef,undef,$mday,$mon,$year1,undef,undef,undef) = localtime(time); # Istzeit Ableitung my $year2 = $year1; # a b c d # 06-01 02-28 , wenn c < a && $mon < a -> Jahr(a)-1, sonst Jahr(c)+1 my $c = ($mon+1).$mday; my $e = $mm2.$dd2; if ($mm2 <= $mm1 && $c <= $e) { $year1--; } else { $year2++; } eval { my $t1 = timelocal(00, 00, 00, $dd1, $mm1-1, $year1-1900); my $t2 = timelocal(00, 00, 00, $dd2, $mm2-1, $year2-1900); }; if ($@) { my @l = split (/at/, $@); return " The Value of $aName is out of range - $l[0]"; } delete($attr{$name}{timestamp_begin}) if ($attr{$name}{timestamp_begin}); delete($attr{$name}{timestamp_end}) if ($attr{$name}{timestamp_end}); delete($attr{$name}{timeDiffToNow}) if ($attr{$name}{timeDiffToNow}); delete($attr{$name}{timeOlderThan}) if ($attr{$name}{timeOlderThan}); return; } if ($aName eq "timestamp_begin" || $aName eq "timestamp_end") { my @dtas = qw(current_year_begin current_year_end previous_year_begin previous_year_end current_month_begin current_month_end previous_month_begin previous_month_end current_week_begin current_week_end previous_week_begin previous_week_end current_day_begin current_day_end previous_day_begin previous_day_end next_day_begin next_day_end current_hour_begin current_hour_end previous_hour_begin previous_hour_end ); if ($aVal ~~ @dtas) { delete($attr{$name}{timeDiffToNow}); delete($attr{$name}{timeOlderThan}); delete($attr{$name}{timeYearPeriod}); return; } $aVal = DbRep_formatpicker($aVal); if ($aVal !~ /^(\d{4})-(\d{2})-(\d{2})\s(\d{2}):(\d{2}):(\d{2})$/x) {return "The Value of $aName is not valid. Use format YYYY-MM-DD HH:MM:SS or one of:\n". "current_[year|month|day|hour]_begin, current_[year|month|day|hour]_end,\n". "previous_[year|month|day|hour]_begin, previous_[year|month|day|hour]_end,\n". "next_day_begin, next_day_end";} my ($yyyy, $mm, $dd, $hh, $min, $sec) = ($aVal =~ /(\d+)-(\d+)-(\d+)\s(\d+):(\d+):(\d+)/x); eval { my $epoch_seconds_begin = timelocal($sec, $min, $hh, $dd, $mm-1, $yyyy-1900); }; if ($@) { my @l = split (/at/, $@); return " The Value of $aName is out of range - $l[0]"; } delete($attr{$name}{timeDiffToNow}); delete($attr{$name}{timeOlderThan}); delete($attr{$name}{timeYearPeriod}); } if ($aName =~ /ftpTimeout|timeout/) { unless ($aVal =~ /^[0-9]+$/) { return " The Value of $aName is not valid. Use only figures 0-9 without decimal places !"; } } if ($aName =~ /diffAccept/) { my ($sign, $daval) = DbRep_ExplodeDiffAcc ($aVal); if (!$daval) { return " The Value of $aName is not valid. Use only figures 0-9 without decimal places !"; } } if ($aName eq "readingNameMap") { unless ($aVal =~ m/^[A-Za-z\d_\.-]+$/) { return " Unsupported character in $aName found. Use only A-Z a-z _ . -"; } } if ($aName eq "timeDiffToNow") { unless ($aVal =~ /^[0-9]+$/ || $aVal =~ /^\s*[ydhms]:([\d]+)\s*/ && $aVal !~ /.*,.*/ ) { return "The Value of \"$aName\" isn't valid. Set simple seconds like \"86400\" or use form like \"y:1 d:10 h:6 m:12 s:20\". Refer to commandref !"; } delete($attr{$name}{timestamp_begin}); delete($attr{$name}{timestamp_end}); delete($attr{$name}{timeYearPeriod}); } if ($aName eq "timeOlderThan") { unless ($aVal =~ /^[0-9]+$/ || $aVal =~ /^\s*[ydhms]:([\d]+)\s*/ && $aVal !~ /.*,.*/ ) { return "The Value of \"$aName\" isn't valid. Set simple seconds like \"86400\" or use form like \"y:1 d:10 h:6 m:12 s:20\". Refer to commandref !"; } delete($attr{$name}{timestamp_begin}); delete($attr{$name}{timestamp_end}); delete($attr{$name}{timeYearPeriod}); } if ($aName eq "dumpMemlimit" || $aName eq "dumpSpeed") { unless ($aVal =~ /^[0-9]+$/) { return "The Value of $aName is not valid. Use only figures 0-9 without decimal places."; } my $dml = AttrVal($name, "dumpMemlimit", 100000); my $ds = AttrVal($name, "dumpSpeed", 10000); if($aName eq "dumpMemlimit") { unless($aVal >= (10 * $ds)) { return "The Value of $aName has to be at least '10 x dumpSpeed' ! "; } } if($aName eq "dumpSpeed") { unless($aVal <= ($dml / 10)) { return "The Value of $aName mustn't be greater than 'dumpMemlimit / 10' ! "; } } } if ($aName eq "ftpUse") { delete($attr{$name}{ftpUseSSL}); } if ($aName eq "ftpUseSSL") { delete($attr{$name}{ftpUse}); } if ($aName eq "useAdminCredentials" && $aVal) { my ($success,$admusername,$admpassword) = DbRep_getcredentials($hash,"adminCredentials"); unless ($success) { return "The credentials of a database admin user couldn't be read. ". "Make shure you have set them with command \"set $name adminCredentials \" before."; } } } return; } ################################################################################### # Eventverarbeitung ################################################################################### sub DbRep_Notify { # Es werden nur die Events von Geräten verarbeitet die im Hash $hash->{NOTIFYDEV} gelistet sind (wenn definiert). # Dadurch kann die Menge der Events verringert werden. In sub DbRep_Define angeben. # Beispiele: # $hash->{NOTIFYDEV} = "global"; # $hash->{NOTIFYDEV} = "global,Definition_A,Definition_B"; my ($own_hash, $dev_hash) = @_; my $myName = $own_hash->{NAME}; # Name des eigenen Devices my $devName = $dev_hash->{NAME}; # Device welches Events erzeugt hat return if(IsDisabled($myName)); # Return if the module is disabled my $events = deviceEvents($dev_hash,0); return if(!$events); for my $event (@{$events}) { $event = "" if(!defined($event)); my @evl = split("[ \t][ \t]*", $event); if($event =~ /DELETED/) { my $awdev = AttrVal($own_hash->{NAME}, "device", ""); DbRep_modAssociatedWith ($own_hash,"set",$awdev); } if ($own_hash->{ROLE} eq "Agent") { # wenn Rolle "Agent" Verbeitung von RENAMED Events next if ($event !~ /RENAMED/); my $strucChanged; # altes in neues device in der DEF des angeschlossenen DbLog-device ändern (neues device loggen) my $dblog_name = $own_hash->{HELPER}{DBLOGDEVICE}; # Name des an den DbRep-Agenten angeschlossenen DbLog-Dev my $dblog_hash = $defs{$dblog_name}; if ( $dblog_hash->{DEF} =~ m/( |\(|\|)$evl[1]( |\)|\||:)/ ) { $dblog_hash->{DEF} =~ s/$evl[1]/$evl[2]/; $dblog_hash->{REGEXP} =~ s/$evl[1]/$evl[2]/; $strucChanged = 1; # Definitionsänderung wurde vorgenommen Log3 ($myName, 3, "DbRep Agent $myName - $dblog_name substituted in DEF, old: \"$evl[1]\", new: \"$evl[2]\" "); } # DEVICE innerhalb angeschlossener Datenbank umbenennen Log3 ($myName, 4, "DbRep Agent $myName - Evt RENAMED rec - old device: $evl[1], new device: $evl[2] -> start deviceRename in DB: $own_hash->{DATABASE} "); $own_hash->{HELPER}{OLDDEV} = $evl[1]; $own_hash->{HELPER}{NEWDEV} = $evl[2]; $own_hash->{HELPER}{RENMODE} = "devren"; DbRep_Main($own_hash, "deviceRename"); for my $repname (devspec2array("TYPE=DbRep")) { # die Attribute "device" in allen DbRep-Devices mit der Datenbank = DB des Agenten von alten Device in neues Device ändern next if($repname eq $myName); my $repattrdevice = $attr{$repname}{device}; next if(!$repattrdevice); my $repdb = $defs{$repname}{DATABASE}; if ($repattrdevice eq $evl[1] && $repdb eq $own_hash->{DATABASE}) { $attr{$repname}{device} = $evl[2]; $strucChanged = 1; # Definitionsänderung wurde vorgenommen Log3 ($myName, 3, "DbRep Agent $myName - $repname attr device changed, old: \"$evl[1]\", new: \"$evl[2]\" "); } } # if ($strucChanged) {CommandSave("","")}; } } return; } ################################################################################### # DbRep_Undef ################################################################################### sub DbRep_Undef { my ($hash, $arg) = @_; RemoveInternalTimer($hash); my $dbh = $hash->{DBH}; $dbh->disconnect() if(defined($dbh)); BlockingKill($hash->{HELPER}{RUNNING_PID}) if (exists($hash->{HELPER}{RUNNING_PID})); BlockingKill($hash->{HELPER}{RUNNING_BACKUP_CLIENT}) if (exists($hash->{HELPER}{RUNNING_BACKUP_CLIENT})); BlockingKill($hash->{HELPER}{RUNNING_RESTORE}) if (exists($hash->{HELPER}{RUNNING_RESTORE})); BlockingKill($hash->{HELPER}{RUNNING_BCKPREST_SERVER}) if (exists($hash->{HELPER}{RUNNING_BCKPREST_SERVER})); BlockingKill($hash->{HELPER}{RUNNING_OPTIMIZE}) if (exists($hash->{HELPER}{RUNNING_OPTIMIZE})); BlockingKill($hash->{HELPER}{RUNNING_REPAIR}) if (exists($hash->{HELPER}{RUNNING_REPAIR})); DbRep_delread($hash,1); return; } ################################################################################### # Wenn ein Gerät in FHEM gelöscht wird, wird zuerst die Funktion # X_Undef aufgerufen um offene Verbindungen zu schließen, # anschließend wird die Funktion X_Delete aufgerufen. # Funktion: Aufräumen von dauerhaften Daten, welche durch das # Modul evtl. für dieses Gerät spezifisch erstellt worden sind. # Es geht hier also eher darum, alle Spuren sowohl im laufenden # FHEM-Prozess, als auch dauerhafte Daten bspw. im physikalischen # Gerät zu löschen die mit dieser Gerätedefinition zu tun haben. ################################################################################### sub DbRep_Delete { my $hash = shift; my $arg = shift; my $name = $hash->{NAME}; # gespeicherte Credentials löschen my $index = $hash->{TYPE}."_".$name."_adminCredentials"; setKeyValue($index, undef); # gespeichertes SQL Cache löschen DbRep_deleteSQLhistFromFile ($name); return; } ################################################################################### # DbRep_Shutdown ################################################################################### sub DbRep_Shutdown { my $hash = shift; my $dbh = $hash->{DBH}; $dbh->disconnect() if(defined($dbh)); DbRep_delread ($hash,1); RemoveInternalTimer ($hash); DbRep_writeSQLcmdCache ($hash); # SQL Cache File schreiben return; } ################################################################################### # First Init DB Connect # Verbindung zur DB aufbauen und Datenbankeigenschaften ermitteln ################################################################################### sub DbRep_firstconnect { my $string = shift; my ($name,$opt,$prop,$fret) = split("\\|", $string); my $hash = $defs{$name}; my $to = AttrVal ($name, 'timeout', $dbrep_deftonbl); RemoveInternalTimer ($hash, "DbRep_firstconnect"); return if(IsDisabled($name)); if ($init_done == 1) { my $dbloghash = $defs{$hash->{HELPER}{DBLOGDEVICE}}; my $dbconn = $dbloghash->{dbconn}; my $dbuser = $dbloghash->{dbuser}; my $fadef = $hash->{MODEL} eq "Client" ? 1 : 0; # fastStart default immer 1 für Clients (0 für Agenten) if (AttrVal($name, "fastStart", $fadef) && $prop eq "onBoot" ) { DbRep_setLastCmd ($name, "initial database connect stopped due to attribute 'fastStart'"); return; } # DB Struktur aus DbLog Instanz übernehmen $hash->{HELPER}{DBREPCOL}{COLSET} = $dbloghash->{HELPER}{COLSET}; $hash->{HELPER}{DBREPCOL}{DEVICE} = $dbloghash->{HELPER}{DEVICECOL}; $hash->{HELPER}{DBREPCOL}{TYPE} = $dbloghash->{HELPER}{TYPECOL}; $hash->{HELPER}{DBREPCOL}{EVENT} = $dbloghash->{HELPER}{EVENTCOL}; $hash->{HELPER}{DBREPCOL}{READING} = $dbloghash->{HELPER}{READINGCOL}; $hash->{HELPER}{DBREPCOL}{VALUE} = $dbloghash->{HELPER}{VALUECOL}; $hash->{HELPER}{DBREPCOL}{UNIT} = $dbloghash->{HELPER}{UNITCOL}; # DB Strukturelemente abrufen Log3 ($name, 3, "DbRep $name - Connectiontest to database $dbconn with user $dbuser") if($hash->{LASTCMD} ne "minTimestamp"); ReadingsSingleUpdateValue ($hash, "state", "running read database properties", 1); my $params = { hash => $hash, name => $name, opt => $opt, prop => $prop, fret => $fret, }; $hash->{HELPER}{RUNNING_PID} = BlockingCall("DbRep_getInitData", $params, "DbRep_getInitDataDone", $to, "DbRep_getInitDataAborted", $hash); if($hash->{HELPER}{RUNNING_PID}) { $hash->{HELPER}{RUNNING_PID}{loglevel} = 5; # Forum #77057 Log3 ($name, 5, qq{DbRep $name - start BlockingCall with PID "$hash->{HELPER}{RUNNING_PID}{pid}"}); } } else { InternalTimer(time+1, "DbRep_firstconnect", "$name|$opt|$prop|$fret", 0); } return; } #################################################################################################### # Datenbankeigenschaften ermitteln #################################################################################################### sub DbRep_getInitData { my $paref = shift; my $hash = $paref->{hash}; my $name = $paref->{name}; my $opt = $paref->{opt}; my $prop = $paref->{prop}; my $fret = $paref->{fret} // ''; my $database = $hash->{DATABASE}; my $bst = [gettimeofday]; # Background-Startzeit my ($err,$dbh,$dbmodel) = DbRep_dbConnect($name, 0); return "$name|$err" if ($err); my $st = [gettimeofday]; # SQL-Startzeit # ältesten Datensatz der DB ermitteln ###################################### $paref->{dbh} = $dbh; my $mints = _DbRep_getInitData_mints ($paref); # Encoding der Datenbank und Verbindung ermitteln ################################################## my $enc = qq{}; my $encc = qq{}; my (@se,@sec); if($dbmodel =~ /MYSQL/) { eval { @se = $dbh->selectrow_array("SELECT default_character_set_name FROM information_schema.SCHEMATA WHERE schema_name = '$database'") }; $enc = $se[0] // $enc; eval { @sec = $dbh->selectrow_array("SHOW VARIABLES LIKE 'character_set_connection'") }; $encc = $sec[1] // $encc; } elsif($dbmodel =~ /SQLITE/) { eval { @se = $dbh->selectrow_array("PRAGMA encoding;") }; $enc = $se[0] // $enc; } elsif($dbmodel =~ /POSTGRESQL/) { eval { @se = $dbh->selectrow_array("SELECT pg_encoding_to_char(encoding) FROM pg_database WHERE datname = '$database'") }; $enc = $se[0] // $enc; eval { @sec = $dbh->selectrow_array("SHOW CLIENT_ENCODING") }; $encc = $sec[0] // $encc; } Log3 ($name, 4, "DbRep $name - Encoding of database determined: $enc"); # Report_Idx Status ermitteln ############################## my $idxstate = ''; my $idx = "Report_Idx"; my ($ava,$sqlava); if($dbmodel =~ /MYSQL/) { $sqlava = "SHOW INDEX FROM history where Key_name='$idx';"; } elsif($dbmodel =~ /SQLITE/) { $sqlava = "SELECT name FROM sqlite_master WHERE type='index' AND name='$idx';"; } elsif($dbmodel =~ /POSTGRESQL/) { $sqlava = "SELECT indexname FROM pg_indexes WHERE tablename='history' and indexname ='$idx';"; } eval { $ava = $dbh->selectrow_array($sqlava) }; if($@) { $idxstate = "state of Index $idx can't be determined !"; Log3($name, 2, "DbRep $name - WARNING - $idxstate"); } else { if($hash->{LASTCMD} ne "minTimestamp") { if($ava) { $idxstate = qq{Index $idx exists}; Log3($name, 3, "DbRep $name - $idxstate. Check ok"); } else { $idxstate = qq{Index $idx doesn't exist. Please create the index by "set $name index recreate_Report_Idx" command !}; Log3($name, 3, "DbRep $name - WARNING - $idxstate"); } } } # Userrechte ermitteln ####################### $paref->{dbmodel} = $dbmodel; $paref->{database} = $database; my $grants = _DbRep_getInitData_grants ($paref); $dbh->disconnect; my $rt = tv_interval($st); # SQL-Laufzeit ermitteln $enc = encode_base64($enc, ""); $encc = encode_base64($encc, ""); $mints = encode_base64($mints, ""); $idxstate = encode_base64($idxstate, ""); $grants = encode_base64($grants, ""); my $brt = tv_interval($bst); # Background-Laufzeit ermitteln $rt = $rt.",".$brt; $opt = DbRep_trim ($opt) if($opt); if($prop) { $prop = DbRep_trim ($prop); $prop = encode_base64 ($prop, ""); } $err = q{}; return "$name|$err|$mints|$rt|$opt|$prop|$fret|$idxstate|$grants|$enc|$encc"; } #################################################################################################### # ältesten Datensatz der DB ermitteln #################################################################################################### sub _DbRep_getInitData_mints { my $paref = shift; my $name = $paref->{name}; my $dbh = $paref->{dbh}; my $mintsdef = "1970-01-01 01:00:00"; my $mints = qq{undefined - $mintsdef is used instead}; eval { my $fr = $dbh->selectrow_array("SELECT min(TIMESTAMP) FROM history;"); $mints = $fr if($fr); }; Log3 ($name, 4, "DbRep $name - Oldest timestamp determined: $mints"); $mints = $mints =~ /undefined/x ? $mintsdef : $mints; return $mints; } #################################################################################################### # effektive Userrechte ermitteln #################################################################################################### sub _DbRep_getInitData_grants { my $paref = shift; my $name = $paref->{name}; my $dbmodel = $paref->{dbmodel}; my $dbh = $paref->{dbh}; my $database = $paref->{database}; my $grants = q{}; return $grants if($dbmodel eq 'SQLITE'); my ($sth,@uniq); if($dbmodel eq 'MYSQL') { eval {$sth = $dbh->prepare("SHOW GRANTS FOR CURRENT_USER();"); $sth->execute(); 1; } or do { Log3($name, 2, "DbRep $name - WARNING - user rights couldn't be determined: ".$@); return $grants; }; my $row = q{}; while (my @line = $sth->fetchrow_array()) { for my $l (@line) { next if($l !~ /(\s+ON \*\.\*\s+|\s+ON `$database`)/ ); $row .= "," if($row); $row .= (split(" ON ",(split("GRANT ", $l, 2))[1], 2))[0]; } } $sth->finish; my %seen = (); my @g = split(/,(\s?)/, $row); for my $e (@g) { next if(!$e || $e =~ /^\s+$/); $seen{$e}++; } @uniq = keys %seen; $grants = join ",", @uniq; Log3 ($name, 4, "DbRep $name - Grants determined: $grants"); } return $grants; } #################################################################################################### # Auswertungsroutine DbRep_getInitData #################################################################################################### sub DbRep_getInitDataDone { my $string = shift; my @a = split "\\|", $string; my $name = $a[0]; my $err = $a[1] ? decode_base64($a[1]) : ''; my $mints = decode_base64($a[2]); my $bt = $a[3]; my $opt = $a[4]; my $prop = $a[5] ? decode_base64($a[5]) : ''; my $fret = $a[6] ? \&{$a[6]} : ''; my $idxstate = decode_base64($a[7]); my $grants = $a[8] ? decode_base64($a[8]) : ''; my $enc = $a[9] ? decode_base64($a[9]) : ''; my $encc = $a[10] ? decode_base64($a[10]) : ''; my $hash = $defs{$name}; Log3 ($name, 5, qq{DbRep $name - getInitData finished PID "$hash->{HELPER}{RUNNING_PID}{pid}"}); delete($hash->{HELPER}{RUNNING_PID}); if ($err) { readingsBeginUpdate ($hash); ReadingsBulkUpdateValue ($hash, "errortext", $err); ReadingsBulkUpdateValue ($hash, "state", "disconnected"); readingsEndUpdate ($hash, 1); Log3 ($name, 2, "DbRep $name - DB connect failed. Make sure credentials of database $hash->{DATABASE} are valid and database is reachable."); } else { my $dbloghash = $defs{$hash->{HELPER}{DBLOGDEVICE}}; my $dbconn = $dbloghash->{dbconn}; my ($rt,$brt) = split ",", $bt; Log3 ($name, 3, "DbRep $name - Initial data information retrieved - total time used: ".sprintf("%.4f",$brt)." seconds"); my $state = $hash->{LASTCMD} =~ /minTimestamp|initData/x ? "done" : "connected"; $state = qq{invalid timestamp "$mints" found in database - please delete it} if($mints =~ /^0000-00-00.*$/); readingsBeginUpdate ($hash); if($hash->{LASTCMD} eq "minTimestamp") { ReadingsBulkUpdateValue ($hash, "timestamp_oldest_dataset", $mints); } else { ReadingsBulkUpdateValue ($hash, "dbEncoding", $enc); ReadingsBulkUpdateValue ($hash, "connectionEncoding", $encc) if($encc); ReadingsBulkUpdateValue ($hash, "indexState", $idxstate); ReadingsBulkUpdateValue ($hash, "timestamp_oldest_dataset", $mints); ReadingsBulkUpdateValue ($hash, "userRights", $grants) if($grants); } ReadingsBulkUpdateTimeState ($hash,$brt,$rt,$state); readingsEndUpdate ($hash, 1); Log3 ($name, 3, "DbRep $name - Connectiontest to db $dbconn successful") if($hash->{LASTCMD} !~ /minTimestamp|initData/x); $hash->{HELPER}{MINTS} = $mints; $hash->{HELPER}{GRANTS} = $grants if($grants); $hash->{UTF8} = $enc =~ /utf-?8/xi ? 1 : 0; } return if(!$fret); return &$fret($hash,$opt,$prop); } #################################################################################################### # Abbruchroutine DbRep_getInitData #################################################################################################### sub DbRep_getInitDataAborted { my $hash = shift; my $cause = shift // "Timeout: process terminated"; my $name = $hash->{NAME}; Log3 ($name, 1, "DbRep $name -> BlockingCall $hash->{HELPER}{RUNNING_PID}{fn} pid:$hash->{HELPER}{RUNNING_PID}{pid} $cause"); delete($hash->{HELPER}{RUNNING_PID}); readingsBeginUpdate ($hash); ReadingsBulkUpdateValue ($hash, "errortext", $cause); ReadingsBulkUpdateValue ($hash, "state", "disconnected"); readingsEndUpdate ($hash, 1); return; } ################################################################################################################ # Hauptroutine ################################################################################################################ sub DbRep_Main { my $hash = shift; my $opt = shift; my $prop = shift // q{}; my $name = $hash->{NAME}; my $to = AttrVal ($name, 'timeout', $dbrep_deftonbl); my $reading = AttrVal ($name, 'reading', '%'); my $device = AttrVal ($name, 'device', '%'); my $dbloghash = $defs{$hash->{HELPER}{DBLOGDEVICE}}; my $dbmodel = $dbloghash->{MODEL}; my $params; # Entkommentieren für Testroutine im Vordergrund # DbRep_testexit($hash); return if( ($hash->{HELPER}{RUNNING_BACKUP_CLIENT} || $hash->{HELPER}{RUNNING_BCKPREST_SERVER} || $hash->{HELPER}{RUNNING_RESTORE} || $hash->{HELPER}{RUNNING_REPAIR} || $hash->{HELPER}{RUNNING_REDUCELOG} || $hash->{HELPER}{RUNNING_OPTIMIZE}) && $opt !~ /dumpMySQL|restoreMySQL|dumpSQLite|restoreSQLite|optimizeTables|vacuum|repairSQLite/ ); DbRep_delread($hash); # Readings löschen die nicht in der Ausnahmeliste (Attr readingPreventFromDel) stehen if ($opt =~ /dumpMySQL|dumpSQLite/) { BlockingKill($hash->{HELPER}{RUNNING_BACKUP_CLIENT}) if (exists($hash->{HELPER}{RUNNING_BACKUP_CLIENT})); BlockingKill($hash->{HELPER}{RUNNING_BCKPREST_SERVER}) if (exists($hash->{HELPER}{RUNNING_BCKPREST_SERVER})); BlockingKill($hash->{HELPER}{RUNNING_OPTIMIZE}) if (exists($hash->{HELPER}{RUNNING_OPTIMIZE})); $params = { hash => $hash, name => $name, table => "history" }; if($dbmodel =~ /MYSQL/) { if ($prop eq "serverSide") { $hash->{HELPER}{RUNNING_BCKPREST_SERVER} = BlockingCall("DbRep_mysql_DumpServerSide", $params, "DbRep_DumpDone", $to, "DbRep_DumpAborted", $hash); $hash->{HELPER}{RUNNING_BCKPREST_SERVER}{loglevel} = 5 if(exists $hash->{HELPER}{RUNNING_BCKPREST_SERVER}); ReadingsSingleUpdateValue ($hash, "state", "serverSide Dump is running - be patient and see Logfile !", 1); } else { $hash->{HELPER}{RUNNING_BACKUP_CLIENT} = BlockingCall("DbRep_mysql_DumpClientSide", $params, "DbRep_DumpDone", $to, "DbRep_DumpAborted", $hash); $hash->{HELPER}{RUNNING_BACKUP_CLIENT}{loglevel} = 5 if(exists $hash->{HELPER}{RUNNING_BACKUP_CLIENT}); ReadingsSingleUpdateValue ($hash, "state", "clientSide Dump is running - be patient and see Logfile !", 1); } } if($dbmodel =~ /SQLITE/) { $hash->{HELPER}{RUNNING_BACKUP_CLIENT} = BlockingCall("DbRep_sqlite_Dump", $params, "DbRep_DumpDone", $to, "DbRep_DumpAborted", $hash); $hash->{HELPER}{RUNNING_BACKUP_CLIENT}{loglevel} = 5 if(exists $hash->{HELPER}{RUNNING_BACKUP_CLIENT}); ReadingsSingleUpdateValue ($hash, "state", "SQLite Dump is running - be patient and see Logfile !", 1); } return; } if ($opt =~ /restoreMySQL/) { BlockingKill($hash->{HELPER}{RUNNING_RESTORE}) if (exists($hash->{HELPER}{RUNNING_RESTORE})); BlockingKill($hash->{HELPER}{RUNNING_OPTIMIZE}) if (exists($hash->{HELPER}{RUNNING_OPTIMIZE})); $params = { hash => $hash, name => $name, prop => $prop }; if($prop =~ /csv/) { $hash->{HELPER}{RUNNING_RESTORE} = BlockingCall("DbRep_mysql_RestoreServerSide", $params, "DbRep_restoreDone", $to, "DbRep_restoreAborted", $hash); } elsif ($prop =~ /sql/) { $hash->{HELPER}{RUNNING_RESTORE} = BlockingCall("DbRep_mysql_RestoreClientSide", $params, "DbRep_restoreDone", $to, "DbRep_restoreAborted", $hash); } else { ReadingsSingleUpdateValue ($hash, "state", "restore database error - unknown fileextension \"$prop\"", 1); } $hash->{HELPER}{RUNNING_RESTORE}{loglevel} = 5 if(exists $hash->{HELPER}{RUNNING_RESTORE}); ReadingsSingleUpdateValue ($hash, "state", "restore database is running - be patient and see Logfile !", 1); return; } if ($opt =~ /restoreSQLite/) { BlockingKill($hash->{HELPER}{RUNNING_RESTORE}) if (exists($hash->{HELPER}{RUNNING_RESTORE})); BlockingKill($hash->{HELPER}{RUNNING_OPTIMIZE}) if (exists($hash->{HELPER}{RUNNING_OPTIMIZE})); $params = { hash => $hash, name => $name, prop => $prop }; $hash->{HELPER}{RUNNING_RESTORE} = BlockingCall("DbRep_sqliteRestore", $params, "DbRep_restoreDone", $to, "DbRep_restoreAborted", $hash); $hash->{HELPER}{RUNNING_RESTORE}{loglevel} = 5 if(exists $hash->{HELPER}{RUNNING_RESTORE}); ReadingsSingleUpdateValue ($hash, "state", "database restore is running - be patient and see Logfile !", 1); return; } if ($opt =~ /optimizeTables|vacuum/) { BlockingKill($hash->{HELPER}{RUNNING_OPTIMIZE}) if (exists($hash->{HELPER}{RUNNING_OPTIMIZE})); BlockingKill($hash->{HELPER}{RUNNING_RESTORE}) if (exists($hash->{HELPER}{RUNNING_RESTORE})); $params = { hash => $hash, name => $name, prop => $prop }; $hash->{HELPER}{RUNNING_OPTIMIZE} = BlockingCall("DbRep_optimizeTables", $params, "DbRep_OptimizeDone", $to, "DbRep_OptimizeAborted", $hash); $hash->{HELPER}{RUNNING_OPTIMIZE}{loglevel} = 5 if(exists $hash->{HELPER}{RUNNING_OPTIMIZE}); ReadingsSingleUpdateValue ($hash, "state", "optimize tables is running - be patient and see Logfile !", 1); return; } if ($opt =~ /repairSQLite/) { BlockingKill($hash->{HELPER}{RUNNING_BACKUP_CLIENT}) if (exists($hash->{HELPER}{RUNNING_BACKUP_CLIENT})); BlockingKill($hash->{HELPER}{RUNNING_OPTIMIZE}) if (exists($hash->{HELPER}{RUNNING_OPTIMIZE})); BlockingKill($hash->{HELPER}{RUNNING_REPAIR}) if (exists($hash->{HELPER}{RUNNING_REPAIR})); $params = { hash => $hash, name => $name }; $hash->{HELPER}{RUNNING_REPAIR} = BlockingCall("DbRep_sqliteRepair", $params, "DbRep_RepairDone", $to, "DbRep_RepairAborted", $hash); $hash->{HELPER}{RUNNING_REPAIR}{loglevel} = 5 if(exists $hash->{HELPER}{RUNNING_REPAIR}); ReadingsSingleUpdateValue ($hash, "state", "repair database is running - be patient and see Logfile !", 1); return; } if ($opt =~ /index/) { if (exists($hash->{HELPER}{RUNNING_INDEX})) { Log3 ($name, 3, "DbRep $name - WARNING - running process $hash->{HELPER}{RUNNING_INDEX}{pid} will be killed now to start a new index operation"); BlockingKill($hash->{HELPER}{RUNNING_INDEX}); } Log3 ($name, 3, "DbRep $name - Command: $opt $prop"); $params = { hash => $hash, name => $name, prop => $prop }; $hash->{HELPER}{RUNNING_INDEX} = BlockingCall("DbRep_Index", $params, "DbRep_IndexDone", $to, "DbRep_IndexAborted", $hash); $hash->{HELPER}{RUNNING_INDEX}{loglevel} = 5 if(exists $hash->{HELPER}{RUNNING_INDEX}); # Forum #77057 ReadingsSingleUpdateValue ($hash, "state", "index operation in database is running - be patient and see Logfile !", 1); return; } ## eventuell bereits laufenden BlockingCall beenden ##################################################### if (exists($hash->{HELPER}{$dbrep_hmainf{$opt}{pk}}) && $hash->{ROLE} ne "Agent") { Log3 ($name, 3, "DbRep $name - WARNING - running process $hash->{HELPER}{$dbrep_hmainf{$opt}{pk}}{pid} will be killed now to start a new operation"); BlockingKill($hash->{HELPER}{$dbrep_hmainf{$opt}{pk}}); } # initiale Datenermittlung wie minimal Timestamp, Datenbankstrukturen, ... ############################################################################ if(!$hash->{HELPER}{MINTS} or !$hash->{HELPER}{DBREPCOL}{COLSET}) { my $dbname = $hash->{DATABASE}; $hash->{HELPER}{IDRETRIES} = 3 if($hash->{HELPER}{IDRETRIES} < 0); Log3 ($name, 3, "DbRep $name - get initial structure information of database \"$dbname\", remaining attempts: ".$hash->{HELPER}{IDRETRIES}); $prop //= ''; DbRep_firstconnect("$name|$opt|$prop|DbRep_Main") if($hash->{HELPER}{IDRETRIES} > 0); $hash->{HELPER}{IDRETRIES}--; return; } ## Funktionsaufrufe ###################### ReadingsSingleUpdateValue ($hash, "state", "running", 1); Log3 ($name, 4, "DbRep $name - -------- New selection --------- "); Log3 ($name, 4, "DbRep $name - Command: $opt $prop"); my ($epoch_seconds_begin,$epoch_seconds_end,$runtime_string_first,$runtime_string_next); if($dbrep_hmainf{$opt} && exists &{$dbrep_hmainf{$opt}{fn}}) { $params = { hash => $hash, name => $name, opt => $opt, prop => $prop, table => $dbrep_hmainf{$opt}{table} // $prop, device => $device, reading => $reading }; if($dbrep_hmainf{$opt}{timeset}) { # zentrales Timestamp-Array und Zeitgrenzen bereitstellen my ($IsTimeSet, $IsAggrSet, $aggregation) = DbRep_checktimeaggr($hash); my $ts = "no_aggregation"; # Dummy für eine Select-Schleife wenn != $IsTimeSet || $IsAggrSet if($IsTimeSet || $IsAggrSet) { ($epoch_seconds_begin, $epoch_seconds_end, $runtime_string_first, $runtime_string_next, $ts) = DbRep_createTimeArray($hash, $aggregation, $opt); } else { Log3 ($name, 4, "DbRep $name - Timestamp begin human readable: not set") if($opt !~ /tableCurrentPurge/); Log3 ($name, 4, "DbRep $name - Timestamp end human readable: not set") if($opt !~ /tableCurrentPurge/); } Log3 ($name, 4, "DbRep $name - Aggregation: $aggregation") if($opt !~ /tableCurrentPurge|tableCurrentFillup|fetchrows|insert|reduceLog|delEntries|^sql/x); $params->{ts} = $ts; $params->{rsf} = $runtime_string_first; $params->{rsn} = $runtime_string_next; } if(exists $dbrep_hmainf{$opt}{renmode}) { $params->{renmode} = $dbrep_hmainf{$opt}{renmode}; } if ($opt eq "delEntries" || $opt =~ /reduceLog/xi) { # Forum:#113202 DbRep_checkValidTimeSequence ($hash, $runtime_string_first, $runtime_string_next) or return; if ($opt =~ /reduceLog/xi) { ReadingsSingleUpdateValue ($hash, "state", "reduceLog database is running - be patient and see Logfile !", 1); } } if ($dbrep_hmainf{$opt}{dobp}) { # Prozedur vor Command ausführen DbRep_beforeproc ($hash, $opt); } $hash->{HELPER}{$dbrep_hmainf{$opt}{pk}} = BlockingCall ($dbrep_hmainf{$opt}{fn}, $params, $dbrep_hmainf{$opt}{fndone}, $to, $dbrep_hmainf{$opt}{fnabort}, $hash ); delete $hash->{HELPER}{DELENTRIES}; if(exists $hash->{HELPER}{$dbrep_hmainf{$opt}{pk}}) { $hash->{HELPER}{$dbrep_hmainf{$opt}{pk}}{loglevel} = 5; # Forum https://forum.fhem.de/index.php/topic,77057.msg689918.html#msg689918 Log3 ($name, 5, qq{DbRep $name - BlockingCall with PID "$hash->{HELPER}{$dbrep_hmainf{$opt}{pk}}{pid}" started}); } } return; } ################################################################################################################ # Create zentrales Timsstamp-Array ################################################################################################################ sub DbRep_createTimeArray { my $hash = shift; my $aggregation = shift; my $opt = shift; my $name = $hash->{NAME}; # year als Jahre seit 1900 # $mon als 0..11 # $time = timelocal( $sec, $min, $hour, $mday, $mon, $year ); my ($sec,$min,$hour,$mday,$mon,$year,$wday,$yday,$isdst) = localtime(time); # Istzeit Ableitung my ($tsbegin,$tsend,$dim,$tsub,$tadd); my ($rsec,$rmin,$rhour,$rmday,$rmon,$ryear); # absolute Auswertungszeiträume statische und dynamische (Beginn / Ende) berechnen if($hash->{HELPER}{MINTS} && $hash->{HELPER}{MINTS} =~ m/0000-00-00/) { Log3 ($name, 1, "DbRep $name - ERROR - wrong timestamp \"$hash->{HELPER}{MINTS}\" found in database. Please delete it !"); delete $hash->{HELPER}{MINTS}; } my $mints = $hash->{HELPER}{MINTS} // "1970-01-01 01:00:00"; # Timestamp des 1. Datensatzes verwenden falls ermittelt $tsbegin = AttrVal($name, "timestamp_begin", $mints); $tsbegin = DbRep_formatpicker($tsbegin); $tsend = AttrVal($name, "timestamp_end", strftime "%Y-%m-%d %H:%M:%S", localtime(time)); $tsend = DbRep_formatpicker($tsend); if ( my $tap = AttrVal($name, "timeYearPeriod", undef)) { # a b c d # 06-01 02-28 , wenn c < a && $mon < a -> Jahr(a)-1, sonst Jahr(c)+1 my $ybp = $year+1900; my $yep = $year+1900; $tap =~ qr/^(\d{2})-(\d{2}) (\d{2})-(\d{2})$/p; my $mbp = $1; my $dbp = $2; my $mep = $3; my $dep = $4; my $c = ($mon+1).$mday; my $e = $mep.$dep; if ($mep <= $mbp && $c <= $e) { $ybp--; } else { $yep++; } $tsbegin = "$ybp-$mbp-$dbp 00:00:00"; $tsend = "$yep-$mep-$dep 23:59:59"; } if (AttrVal($name,"timestamp_begin","") eq "current_year_begin" || AttrVal($name,"timestamp_end","") eq "current_year_begin") { $tsbegin = strftime "%Y-%m-%d %T",localtime(timelocal(0,0,0,1,0,$year)) if(AttrVal($name,"timestamp_begin","") eq "current_year_begin"); $tsend = strftime "%Y-%m-%d %T",localtime(timelocal(0,0,0,1,0,$year)) if(AttrVal($name,"timestamp_end","") eq "current_year_begin"); } if (AttrVal($name, "timestamp_begin", "") eq "current_year_end" || AttrVal($name, "timestamp_end", "") eq "current_year_end") { $tsbegin = strftime "%Y-%m-%d %T",localtime(timelocal(59,59,23,31,11,$year)) if(AttrVal($name,"timestamp_begin","") eq "current_year_end"); $tsend = strftime "%Y-%m-%d %T",localtime(timelocal(59,59,23,31,11,$year)) if(AttrVal($name,"timestamp_end","") eq "current_year_end"); } if (AttrVal($name, "timestamp_begin", "") eq "previous_year_begin" || AttrVal($name, "timestamp_end", "") eq "previous_year_begin") { $tsbegin = strftime "%Y-%m-%d %T",localtime(timelocal(0,0,0,1,0,$year-1)) if(AttrVal($name, "timestamp_begin", "") eq "previous_year_begin"); $tsend = strftime "%Y-%m-%d %T",localtime(timelocal(0,0,0,1,0,$year-1)) if(AttrVal($name, "timestamp_end", "") eq "previous_year_begin"); } if (AttrVal($name, "timestamp_begin", "") eq "previous_year_end" || AttrVal($name, "timestamp_end", "") eq "previous_year_end") { $tsbegin = strftime "%Y-%m-%d %T",localtime(timelocal(59,59,23,31,11,$year-1)) if(AttrVal($name, "timestamp_begin", "") eq "previous_year_end"); $tsend = strftime "%Y-%m-%d %T",localtime(timelocal(59,59,23,31,11,$year-1)) if(AttrVal($name, "timestamp_end", "") eq "previous_year_end"); } if (AttrVal($name, "timestamp_begin", "") eq "current_month_begin" || AttrVal($name, "timestamp_end", "") eq "current_month_begin") { $tsbegin = strftime "%Y-%m-%d %T",localtime(timelocal(0,0,0,1,$mon,$year)) if(AttrVal($name, "timestamp_begin", "") eq "current_month_begin"); $tsend = strftime "%Y-%m-%d %T",localtime(timelocal(0,0,0,1,$mon,$year)) if(AttrVal($name, "timestamp_end", "") eq "current_month_begin"); } if (AttrVal($name, "timestamp_begin", "") eq "current_month_end" || AttrVal($name, "timestamp_end", "") eq "current_month_end") { $dim = $mon-1?30+(($mon+1)*3%7<4):28+!($year%4||$year%400*!($year%100)); $tsbegin = strftime "%Y-%m-%d %T",localtime(timelocal(59,59,23,$dim,$mon,$year)) if(AttrVal($name, "timestamp_begin", "") eq "current_month_end"); $tsend = strftime "%Y-%m-%d %T",localtime(timelocal(59,59,23,$dim,$mon,$year)) if(AttrVal($name, "timestamp_end", "") eq "current_month_end"); } if (AttrVal($name, "timestamp_begin", "") eq "previous_month_begin" || AttrVal($name, "timestamp_end", "") eq "previous_month_begin") { $ryear = ($mon-1<0)?$year-1:$year; $rmon = ($mon-1<0)?11:$mon-1; $tsbegin = strftime "%Y-%m-%d %T",localtime(timelocal(0,0,0,1,$rmon,$ryear)) if(AttrVal($name, "timestamp_begin", "") eq "previous_month_begin"); $tsend = strftime "%Y-%m-%d %T",localtime(timelocal(0,0,0,1,$rmon,$ryear)) if(AttrVal($name, "timestamp_end", "") eq "previous_month_begin"); } if (AttrVal($name, "timestamp_begin", "") eq "previous_month_end" || AttrVal($name, "timestamp_end", "") eq "previous_month_end") { $ryear = ($mon-1<0)?$year-1:$year; $rmon = ($mon-1<0)?11:$mon-1; $dim = $rmon-1?30+(($rmon+1)*3%7<4):28+!($ryear%4||$ryear%400*!($ryear%100)); $tsbegin = strftime "%Y-%m-%d %T",localtime(timelocal(59,59,23,$dim,$rmon,$ryear)) if(AttrVal($name, "timestamp_begin", "") eq "previous_month_end"); $tsend = strftime "%Y-%m-%d %T",localtime(timelocal(59,59,23,$dim,$rmon,$ryear)) if(AttrVal($name, "timestamp_end", "") eq "previous_month_end"); } if (AttrVal($name, "timestamp_begin", "") eq "current_week_begin" || AttrVal($name, "timestamp_end", "") eq "current_week_begin") { $tsub = 0 if($wday == 1); # wenn Start am "Mo" keine Korrektur $tsub = 86400 if($wday == 2); # wenn Start am "Di" dann Korrektur -1 Tage $tsub = 172800 if($wday == 3); # wenn Start am "Mi" dann Korrektur -2 Tage $tsub = 259200 if($wday == 4); # wenn Start am "Do" dann Korrektur -3 Tage $tsub = 345600 if($wday == 5); # wenn Start am "Fr" dann Korrektur -4 Tage $tsub = 432000 if($wday == 6); # wenn Start am "Sa" dann Korrektur -5 Tage $tsub = 518400 if($wday == 0); # wenn Start am "So" dann Korrektur -6 Tage ($rsec,$rmin,$rhour,$rmday,$rmon,$ryear) = localtime(time-$tsub); $tsbegin = strftime "%Y-%m-%d %T",localtime(timelocal(0,0,0,$rmday,$rmon,$ryear)) if(AttrVal($name, "timestamp_begin", "") eq "current_week_begin"); $tsend = strftime "%Y-%m-%d %T",localtime(timelocal(0,0,0,$rmday,$rmon,$ryear)) if(AttrVal($name, "timestamp_end", "") eq "current_week_begin"); } if (AttrVal($name, "timestamp_begin", "") eq "current_week_end" || AttrVal($name, "timestamp_end", "") eq "current_week_end") { $tadd = 518400 if($wday == 1); # wenn Start am "Mo" dann Korrektur +6 Tage $tadd = 432000 if($wday == 2); # wenn Start am "Di" dann Korrektur +5 Tage $tadd = 345600 if($wday == 3); # wenn Start am "Mi" dann Korrektur +4 Tage $tadd = 259200 if($wday == 4); # wenn Start am "Do" dann Korrektur +3 Tage $tadd = 172800 if($wday == 5); # wenn Start am "Fr" dann Korrektur +2 Tage $tadd = 86400 if($wday == 6); # wenn Start am "Sa" dann Korrektur +1 Tage $tadd = 0 if($wday == 0); # wenn Start am "So" keine Korrektur ($rsec,$rmin,$rhour,$rmday,$rmon,$ryear) = localtime(time+$tadd); $tsbegin = strftime "%Y-%m-%d %T",localtime(timelocal(59,59,23,$rmday,$rmon,$ryear)) if(AttrVal($name, "timestamp_begin", "") eq "current_week_end"); $tsend = strftime "%Y-%m-%d %T",localtime(timelocal(59,59,23,$rmday,$rmon,$ryear)) if(AttrVal($name, "timestamp_end", "") eq "current_week_end"); } if (AttrVal($name, "timestamp_begin", "") eq "previous_week_begin" || AttrVal($name, "timestamp_end", "") eq "previous_week_begin") { $tsub = 604800 if($wday == 1); # wenn Start am "Mo" dann Korrektur -7 Tage $tsub = 691200 if($wday == 2); # wenn Start am "Di" dann Korrektur -8 Tage $tsub = 777600 if($wday == 3); # wenn Start am "Mi" dann Korrektur -9 Tage $tsub = 864000 if($wday == 4); # wenn Start am "Do" dann Korrektur -10 Tage $tsub = 950400 if($wday == 5); # wenn Start am "Fr" dann Korrektur -11 Tage $tsub = 1036800 if($wday == 6); # wenn Start am "Sa" dann Korrektur -12 Tage $tsub = 1123200 if($wday == 0); # wenn Start am "So" dann Korrektur -13 Tage ($rsec,$rmin,$rhour,$rmday,$rmon,$ryear) = localtime(time-$tsub); $tsbegin = strftime "%Y-%m-%d %T",localtime(timelocal(0,0,0,$rmday,$rmon,$ryear)) if(AttrVal($name, "timestamp_begin", "") eq "previous_week_begin"); $tsend = strftime "%Y-%m-%d %T",localtime(timelocal(0,0,0,$rmday,$rmon,$ryear)) if(AttrVal($name, "timestamp_end", "") eq "previous_week_begin"); } if (AttrVal($name, "timestamp_begin", "") eq "previous_week_end" || AttrVal($name, "timestamp_end", "") eq "previous_week_end") { $tsub = 86400 if($wday == 1); # wenn Start am "Mo" dann Korrektur -1 Tage $tsub = 172800 if($wday == 2); # wenn Start am "Di" dann Korrektur -2 Tage $tsub = 259200 if($wday == 3); # wenn Start am "Mi" dann Korrektur -3 Tage $tsub = 345600 if($wday == 4); # wenn Start am "Do" dann Korrektur -4 Tage $tsub = 432000 if($wday == 5); # wenn Start am "Fr" dann Korrektur -5 Tage $tsub = 518400 if($wday == 6); # wenn Start am "Sa" dann Korrektur -6 Tage $tsub = 604800 if($wday == 0); # wenn Start am "So" dann Korrektur -7 Tage ($rsec,$rmin,$rhour,$rmday,$rmon,$ryear) = localtime(time-$tsub); $tsbegin = strftime "%Y-%m-%d %T",localtime(timelocal(59,59,23,$rmday,$rmon,$ryear)) if(AttrVal($name, "timestamp_begin", "") eq "previous_week_end"); $tsend = strftime "%Y-%m-%d %T",localtime(timelocal(59,59,23,$rmday,$rmon,$ryear)) if(AttrVal($name, "timestamp_end", "") eq "previous_week_end"); } if (AttrVal($name, "timestamp_begin", "") eq "current_day_begin" || AttrVal($name, "timestamp_end", "") eq "current_day_begin") { $tsbegin = strftime "%Y-%m-%d %T",localtime(timelocal(0,0,0,$mday,$mon,$year)) if(AttrVal($name, "timestamp_begin", "") eq "current_day_begin"); $tsend = strftime "%Y-%m-%d %T",localtime(timelocal(0,0,0,$mday,$mon,$year)) if(AttrVal($name, "timestamp_end", "") eq "current_day_begin"); } if (AttrVal($name, "timestamp_begin", "") eq "current_day_end" || AttrVal($name, "timestamp_end", "") eq "current_day_end") { $tsbegin = strftime "%Y-%m-%d %T",localtime(timelocal(59,59,23,$mday,$mon,$year)) if(AttrVal($name, "timestamp_begin", "") eq "current_day_end"); $tsend = strftime "%Y-%m-%d %T",localtime(timelocal(59,59,23,$mday,$mon,$year)) if(AttrVal($name, "timestamp_end", "") eq "current_day_end"); } if (AttrVal($name, "timestamp_begin", "") eq "next_day_begin" || AttrVal($name, "timestamp_end", "") eq "next_day_begin") { ($rsec,$rmin,$rhour,$rmday,$rmon,$ryear) = localtime(time+86400); # Istzeit + 1 Tag $tsbegin = strftime "%Y-%m-%d %T",localtime(timelocal(0,0,0,$rmday,$rmon,$ryear)) if(AttrVal($name, "timestamp_begin", "") eq "next_day_begin"); $tsend = strftime "%Y-%m-%d %T",localtime(timelocal(0,0,0,$rmday,$rmon,$ryear)) if(AttrVal($name, "timestamp_end", "") eq "next_day_begin"); } if (AttrVal($name, "timestamp_begin", "") eq "next_day_end" || AttrVal($name, "timestamp_end", "") eq "next_day_end") { ($rsec,$rmin,$rhour,$rmday,$rmon,$ryear) = localtime(time+86400); # Istzeit + 1 Tag $tsbegin = strftime "%Y-%m-%d %T",localtime(timelocal(59,59,23,$rmday,$rmon,$ryear)) if(AttrVal($name, "timestamp_begin", "") eq "next_day_end"); $tsend = strftime "%Y-%m-%d %T",localtime(timelocal(59,59,23,$rmday,$rmon,$ryear)) if(AttrVal($name, "timestamp_end", "") eq "next_day_end"); } if (AttrVal($name, "timestamp_begin", "") eq "previous_day_begin" || AttrVal($name, "timestamp_end", "") eq "previous_day_begin") { $rmday = $mday-1; $rmon = $mon; $ryear = $year; if($rmday<1) { $rmon--; if ($rmon<0) { $rmon=11; $ryear--; } $rmday = $rmon-1?30+(($rmon+1)*3%7<4):28+!($ryear%4||$ryear%400*!($ryear%100)); # Achtung: Monat als 1...12 (statt 0...11) } $tsbegin = strftime "%Y-%m-%d %T",localtime(timelocal(0,0,0,$rmday,$rmon,$ryear)) if(AttrVal($name, "timestamp_begin", "") eq "previous_day_begin"); $tsend = strftime "%Y-%m-%d %T",localtime(timelocal(0,0,0,$rmday,$rmon,$ryear)) if(AttrVal($name, "timestamp_end", "") eq "previous_day_begin"); } if (AttrVal($name, "timestamp_begin", "") eq "previous_day_end" || AttrVal($name, "timestamp_end", "") eq "previous_day_end") { $rmday = $mday-1; $rmon = $mon; $ryear = $year; if($rmday<1) { $rmon--; if ($rmon<0) { $rmon=11; $ryear--; } $rmday = $rmon-1?30+(($rmon+1)*3%7<4):28+!($ryear%4||$ryear%400*!($ryear%100)); # Achtung: Monat als 1...12 (statt 0...11) } $tsbegin = strftime "%Y-%m-%d %T",localtime(timelocal(59,59,23,$rmday,$rmon,$ryear)) if(AttrVal($name, "timestamp_begin", "") eq "previous_day_end"); $tsend = strftime "%Y-%m-%d %T",localtime(timelocal(59,59,23,$rmday,$rmon,$ryear)) if(AttrVal($name, "timestamp_end", "") eq "previous_day_end"); } if (AttrVal($name, "timestamp_begin", "") eq "current_hour_begin" || AttrVal($name, "timestamp_end", "") eq "current_hour_begin") { $tsbegin = strftime "%Y-%m-%d %T",localtime(timelocal(0,0,$hour,$mday,$mon,$year)) if(AttrVal($name, "timestamp_begin", "") eq "current_hour_begin"); $tsend = strftime "%Y-%m-%d %T",localtime(timelocal(0,0,$hour,$mday,$mon,$year)) if(AttrVal($name, "timestamp_end", "") eq "current_hour_begin"); } if (AttrVal($name, "timestamp_begin", "") eq "current_hour_end" || AttrVal($name, "timestamp_end", "") eq "current_hour_end") { $tsbegin = strftime "%Y-%m-%d %T",localtime(timelocal(59,59,$hour,$mday,$mon,$year)) if(AttrVal($name, "timestamp_begin", "") eq "current_hour_end"); $tsend = strftime "%Y-%m-%d %T",localtime(timelocal(59,59,$hour,$mday,$mon,$year)) if(AttrVal($name, "timestamp_end", "") eq "current_hour_end"); } if (AttrVal($name, "timestamp_begin", "") eq "previous_hour_begin" || AttrVal($name, "timestamp_end", "") eq "previous_hour_begin") { $rhour = $hour-1; $rmday = $mday; $rmon = $mon; $ryear = $year; if($rhour<0) { $rhour = 23; $rmday = $mday-1; if($rmday<1) { $rmon--; if ($rmon<0) { $rmon=11; $ryear--; } $rmday = $rmon-1?30+(($rmon+1)*3%7<4):28+!($ryear%4||$ryear%400*!($ryear%100)); # Achtung: Monat als 1...12 (statt 0...11) } } $tsbegin = strftime "%Y-%m-%d %T",localtime(timelocal(0,0,$rhour,$rmday,$rmon,$ryear)) if(AttrVal($name, "timestamp_begin", "") eq "previous_hour_begin"); $tsend = strftime "%Y-%m-%d %T",localtime(timelocal(0,0,$rhour,$rmday,$rmon,$ryear)) if(AttrVal($name, "timestamp_end", "") eq "previous_hour_begin"); } if (AttrVal($name, "timestamp_begin", "") eq "previous_hour_end" || AttrVal($name, "timestamp_end", "") eq "previous_hour_end") { $rhour = $hour-1; $rmday = $mday; $rmon = $mon; $ryear = $year; if($rhour<0) { $rhour = 23; $rmday = $mday-1; if($rmday<1) { $rmon--; if ($rmon<0) { $rmon=11; $ryear--; } $rmday = $rmon-1?30+(($rmon+1)*3%7<4):28+!($ryear%4||$ryear%400*!($ryear%100)); # Achtung: Monat als 1...12 (statt 0...11) } } $tsbegin = strftime "%Y-%m-%d %T",localtime(timelocal(59,59,$rhour,$rmday,$rmon,$ryear)) if(AttrVal($name, "timestamp_begin", "") eq "previous_hour_end"); $tsend = strftime "%Y-%m-%d %T",localtime(timelocal(59,59,$rhour,$rmday,$rmon,$ryear)) if(AttrVal($name, "timestamp_end", "") eq "previous_hour_end"); } my ($yyyy1, $mm1, $dd1, $hh1, $min1, $sec1) = $tsbegin =~ /(\d+)-(\d+)-(\d+)\s(\d+):(\d+):(\d+)/x; # extrahieren der Einzelwerte von Datum/Zeit Beginn my ($yyyy2, $mm2, $dd2, $hh2, $min2, $sec2) = $tsend =~ /(\d+)-(\d+)-(\d+)\s(\d+):(\d+):(\d+)/x; # extrahieren der Einzelwerte von Datum/Zeit Ende my ($timeolderthan,$timedifftonow,$fdopt) = DbRep_normRelTime($hash); # relative Zeit normieren ### relative Auswertungszeit Beginn berücksichtigen, Umwandeln in Epochesekunden Beginn ### my $epoch_seconds_begin; $epoch_seconds_begin = fhemTimeLocal($sec1, $min1, $hh1, $dd1, $mm1-1, $yyyy1-1900) if($tsbegin); if($timedifftonow) { $epoch_seconds_begin = time() - $timedifftonow; Log3 ($name, 4, "DbRep $name - Time difference to current time for calculating Timestamp begin: $timedifftonow sec"); } elsif ($timeolderthan) { $mints =~ /^(\d+)-(\d+)-(\d+)\s(\d+):(\d+):(\d+)$/; $epoch_seconds_begin = fhemTimeLocal ($6, $5, $4, $3, $2-1, $1-1900); } if($fdopt) { # FullDay Option ist gesetzt my $tbs = strftime "%Y-%m-%d %H:%M:%S", localtime($epoch_seconds_begin); $tbs =~ /^(\d+)-(\d+)-(\d+)\s(\d+):(\d+):(\d+)$/; $epoch_seconds_begin = fhemTimeLocal(00, 00, 00, $3, $2-1, $1-1900); } my $tsbegin_string = strftime "%Y-%m-%d %H:%M:%S", localtime($epoch_seconds_begin); if($opt !~ /tableCurrentPurge/) { Log3 ($name, 5, "DbRep $name - Timestamp begin epocheseconds: $epoch_seconds_begin"); Log3 ($name, 4, "DbRep $name - Timestamp begin human readable: $tsbegin_string"); } ########################################################################################### ### relative Auswertungszeit Ende berücksichtigen, Umwandeln in Epochesekunden Endezeit ### my $epoch_seconds_end = fhemTimeLocal($sec2, $min2, $hh2, $dd2, $mm2-1, $yyyy2-1900); if($timeolderthan) { $epoch_seconds_end = time() - $timeolderthan; } Log3 ($name, 4, "DbRep $name - Time difference to current time for calculating Timestamp end: $timeolderthan sec") if(AttrVal($name, "timeOlderThan", undef)); if($fdopt) { # FullDay Option ist gesetzt my $tes = strftime "%Y-%m-%d %H:%M:%S", localtime($epoch_seconds_end); $tes =~ /^(\d+)-(\d+)-(\d+)\s(\d+):(\d+):(\d+)$/; $epoch_seconds_end = fhemTimeLocal(59, 59, 23, $3, $2-1, $1-1900); } my $tsend_string = strftime "%Y-%m-%d %H:%M:%S", localtime($epoch_seconds_end); if($opt !~ /tableCurrentPurge/) { Log3 ($name, 5, "DbRep $name - Timestamp end epocheseconds: $epoch_seconds_end"); Log3 ($name, 4, "DbRep $name - Timestamp end human readable: $tsend_string"); } ########################################################################################### # Erstellung Wertehash für Aggregationen my $runtime = $epoch_seconds_begin; # Schleifenlaufzeit auf Beginn der Zeitselektion setzen my $runtime_string; # Datum/Zeit im SQL-Format für Readingname Teilstring my $runtime_string_first; # Datum/Zeit Auswertungsbeginn im SQL-Format für SQL-Statement my $runtime_string_next; # Datum/Zeit + Periode (Granularität) für Auswertungsende im SQL-Format my $reading_runtime_string; # zusammengesetzter Readingname+Aggregation für Update my $wdadd; my $tsstr = strftime "%H:%M:%S", localtime($runtime); # für Berechnung Tagesverschieber / Stundenverschieber my $testr = strftime "%H:%M:%S", localtime($epoch_seconds_end); # für Berechnung Tagesverschieber / Stundenverschieber my $dsstr = strftime "%Y-%m-%d", localtime($runtime); # für Berechnung Tagesverschieber / Stundenverschieber my $destr = strftime "%Y-%m-%d", localtime($epoch_seconds_end); # für Berechnung Tagesverschieber / Stundenverschieber my $msstr = strftime "%m", localtime($runtime); # Startmonat für Berechnung Monatsverschieber my $mestr = strftime "%m", localtime($epoch_seconds_end); # Endemonat für Berechnung Monatsverschieber my $ysstr = strftime "%Y", localtime($runtime); # Startjahr für Berechnung Monatsverschieber my $yestr = strftime "%Y", localtime($epoch_seconds_end); # Endejahr für Berechnung Monatsverschieber my $wd = strftime "%a", localtime($runtime); # Wochentag des aktuellen Startdatum/Zeit $wdadd = 604800 if($wd eq "Mo"); # wenn Start am "Mo" dann nächste Grenze +7 Tage $wdadd = 518400 if($wd eq "Di"); # wenn Start am "Di" dann nächste Grenze +6 Tage $wdadd = 432000 if($wd eq "Mi"); # wenn Start am "Mi" dann nächste Grenze +5 Tage $wdadd = 345600 if($wd eq "Do"); # wenn Start am "Do" dann nächste Grenze +4 Tage $wdadd = 259200 if($wd eq "Fr"); # wenn Start am "Fr" dann nächste Grenze +3 Tage $wdadd = 172800 if($wd eq "Sa"); # wenn Start am "Sa" dann nächste Grenze +2 Tage $wdadd = 86400 if($wd eq "So"); # wenn Start am "So" dann nächste Grenze +1 Tage Log3 ($name, 5, "DbRep $name - weekday start for selection: $wd -> wdadd: $wdadd") if($wdadd); my $aggsec; if ($aggregation eq "minute") { $aggsec = 60; } elsif ($aggregation eq "hour") { $aggsec = 3600; } elsif ($aggregation eq "day") { $aggsec = 86400; } elsif ($aggregation eq "week") { $aggsec = 604800; } elsif ($aggregation eq "month") { $aggsec = 2678400; # Initialwert } elsif ($aggregation eq "year") { $aggsec = 31536000; # Initialwert } elsif ($aggregation eq "no") { $aggsec = 1; } else { return; } $hash->{HELPER}{CV}{tsstr} = $tsstr; $hash->{HELPER}{CV}{testr} = $testr; $hash->{HELPER}{CV}{dsstr} = $dsstr; $hash->{HELPER}{CV}{destr} = $destr; $hash->{HELPER}{CV}{msstr} = $msstr; $hash->{HELPER}{CV}{mestr} = $mestr; $hash->{HELPER}{CV}{ysstr} = $ysstr; $hash->{HELPER}{CV}{yestr} = $yestr; $hash->{HELPER}{CV}{aggsec} = $aggsec; $hash->{HELPER}{CV}{aggregation} = $aggregation; $hash->{HELPER}{CV}{epoch_seconds_end} = $epoch_seconds_end; $hash->{HELPER}{CV}{wdadd} = $wdadd; my $ts; # für Erstellung Timestamp-Array zur nonblocking SQL-Abarbeitung my $i = 1; # Schleifenzähler -> nur Indikator für ersten Durchlauf -> anderer $runtime_string_first my $ll; # loopindikator, wenn 1 = loopausstieg # Aufbau Timestampstring mit Zeitgrenzen entsprechend Aggregation while (!$ll) { # collect aggregation strings ($runtime,$runtime_string,$runtime_string_first,$runtime_string_next,$ll) = _DbRep_collaggstr( { hash => $hash, rtm => $runtime, i => $i, rsn => $runtime_string_next } ); $ts .= $runtime_string."#".$runtime_string_first."#".$runtime_string_next."|"; $i++; } return ($epoch_seconds_begin,$epoch_seconds_end,$runtime_string_first,$runtime_string_next,$ts); } #################################################################################################### # # Zusammenstellung Aggregationszeiträume # $runtime = Beginnzeit in Epochesekunden # #################################################################################################### sub _DbRep_collaggstr { my $paref = shift; my $hash = $paref->{hash}; my $runtime = $paref->{rtm}; my $i = $paref->{i}; my $runtime_string_next = $paref->{rsn}; my $name = $hash->{NAME}; my $runtime_string; # Datum/Zeit im SQL-Format für Readingname Teilstring my $runtime_string_first; # Datum/Zeit Auswertungsbeginn im SQL-Format für SQL-Statement my $ll; # loopindikator, wenn 1 = loopausstieg my $runtime_orig; # orig. runtime als Grundlage für Addition mit $aggsec my $tsstr = $hash->{HELPER}{CV}{tsstr}; # für Berechnung Tagesverschieber / Stundenverschieber my $testr = $hash->{HELPER}{CV}{testr}; # für Berechnung Tagesverschieber / Stundenverschieber my $dsstr = $hash->{HELPER}{CV}{dsstr}; # für Berechnung Tagesverschieber / Stundenverschieber my $destr = $hash->{HELPER}{CV}{destr}; # für Berechnung Tagesverschieber / Stundenverschieber my $msstr = $hash->{HELPER}{CV}{msstr}; # Startmonat für Berechnung Monatsverschieber my $mestr = $hash->{HELPER}{CV}{mestr}; # Endemonat für Berechnung Monatsverschieber my $ysstr = $hash->{HELPER}{CV}{ysstr}; # Startjahr für Berechnung Monatsverschieber my $yestr = $hash->{HELPER}{CV}{yestr}; # Endejahr für Berechnung Monatsverschieber my $aggregation = $hash->{HELPER}{CV}{aggregation}; # Aggregation my $aggsec = $hash->{HELPER}{CV}{aggsec}; # laufende Aggregationssekunden my $epoch_seconds_end = $hash->{HELPER}{CV}{epoch_seconds_end}; my $wdadd = $hash->{HELPER}{CV}{wdadd}; # Ergänzungstage. Starttag + Ergänzungstage = der folgende Montag (für week-Aggregation) # only for this block because of warnings if some values not set no warnings 'uninitialized'; # keine Aggregation (all between timestamps) if ($aggregation eq "no") { $runtime_string = "no_aggregation"; # für Readingname $runtime_string_first = strftime "%Y-%m-%d %H:%M:%S", localtime($runtime); $runtime_string_next = strftime "%Y-%m-%d %H:%M:%S", localtime($epoch_seconds_end); $ll = 1; } # Jahresaggregation if ($aggregation eq "year") { $runtime_orig = $runtime; # Hilfsrechnungen my $rm = strftime "%m", localtime($runtime); # Monat des aktuell laufenden Startdatums d. SQL-Select my $cy = strftime "%Y", localtime($runtime); # Jahr des aktuell laufenden Startdatums d. SQL-Select my $yf = 365; $yf = 366 if(DbRep_IsLeapYear($name,$cy)); # ist aktuelles Jahr ein Schaltjahr ? Log3 ($name, 5, "DbRep $name - current year: $cy, endyear: $yestr"); $aggsec = $yf * 86400; $runtime = $runtime + 3600 if(DbRep_dsttest($hash,$runtime,$aggsec) && (strftime "%m", localtime($runtime)) > 6); # Korrektur Winterzeitumstellung (Uhr wurde 1 Stunde zurück gestellt) $runtime_string = strftime "%Y", localtime($runtime); # für Readingname if ($i == 1) { # nur im ersten Durchlauf $runtime_string_first = strftime "%Y-%m-%d %H:%M:%S", localtime($runtime_orig); } if ($ysstr == $yestr || $cy == $yestr) { $runtime_string_first = strftime "%Y-01-01", localtime($runtime) if($i>1); $runtime_string_next = strftime "%Y-%m-%d %H:%M:%S", localtime($epoch_seconds_end); $ll = 1; } else { if(($runtime) > $epoch_seconds_end) { $runtime_string_first = strftime "%Y-01-01", localtime($runtime); $runtime_string_next = strftime "%Y-%m-%d %H:%M:%S", localtime($epoch_seconds_end); $ll = 1; } else { $runtime_string_first = strftime "%Y-01-01", localtime($runtime) if($i>1); $runtime_string_next = strftime "%Y-01-01", localtime($runtime + ($yf * 86400)); } } # neue Beginnzeit in Epoche-Sekunden $runtime = $runtime_orig + $aggsec; } # Monatsaggregation if ($aggregation eq "month") { $runtime_orig = $runtime; # Hilfsrechnungen my $rm = strftime "%m", localtime($runtime); # Monat des aktuell laufenden Startdatums d. SQL-Select my $ry = strftime "%Y", localtime($runtime); # Jahr des aktuell laufenden Startdatums d. SQL-Select my $dim = $rm-2 ? 30+($rm*3%7<4) : 28+!($ry%4||$ry%400*!($ry%100)); # Anzahl Tage des aktuell laufenden Monats Log3 ($name, 5, "DbRep $name - act year: $ry, act month: $rm, days in month: $dim"); $aggsec = $dim * 86400; $runtime = $runtime + 3600 if(DbRep_dsttest($hash,$runtime,$aggsec) && (strftime "%m", localtime($runtime)) > 6); # Korrektur Winterzeitumstellung (Uhr wurde 1 Stunde zurück gestellt) $runtime_string = strftime "%Y-%m", localtime($runtime); # für Readingname if ($i == 1) { # nur im ersten Durchlauf $runtime_string_first = strftime "%Y-%m-%d %H:%M:%S", localtime($runtime_orig); } if ($ysstr == $yestr && $msstr == $mestr || $ry == $yestr && $rm == $mestr) { $runtime_string_first = strftime "%Y-%m-01", localtime($runtime) if($i>1); $runtime_string_first = strftime "%Y-%m-01", localtime($runtime); $runtime_string_next = strftime "%Y-%m-%d %H:%M:%S", localtime($epoch_seconds_end); $ll = 1; } else { if(($runtime) > $epoch_seconds_end) { #$runtime_string_first = strftime "%Y-%m-01", localtime($runtime) if($i>11); # ausgebaut 24.02.2018 $runtime_string_first = strftime "%Y-%m-01", localtime($runtime); $runtime_string_next = strftime "%Y-%m-%d %H:%M:%S", localtime($epoch_seconds_end); $ll = 1; } else { $runtime_string_first = strftime "%Y-%m-01", localtime($runtime) if($i>1); $runtime_string_next = strftime "%Y-%m-01", localtime($runtime + ($dim * 86400)); } } # neue Beginnzeit in Epoche-Sekunden #$runtime = $runtime_orig + $aggsec; # ausgebaut 04.11.2022 $runtime = $runtime + $aggsec; } # Wochenaggregation if ($aggregation eq "week") { $runtime = $runtime + 3600 if($i!=1 && DbRep_dsttest($hash,$runtime,$aggsec) && (strftime "%m", localtime($runtime)) > 6); # Korrektur Winterzeitumstellung (Uhr wurde 1 Stunde zurück gestellt) $runtime_orig = $runtime; my $w = strftime "%V", localtime($runtime); # Wochennummer des aktuellen Startdatum/Zeit $runtime_string = "week_".$w; # für Readingname my $ms = strftime "%m", localtime($runtime); # Startmonat (01-12) my $me = strftime "%m", localtime($epoch_seconds_end); # Endemonat (01-12) if ($i == 1) { # nur im ersten Schleifendurchlauf $runtime_string_first = strftime "%Y-%m-%d %H:%M:%S", localtime($runtime); # Korrektur $runtime_orig für Berechnung neue Beginnzeit für nächsten Durchlauf my ($yyyy1, $mm1, $dd1) = ($runtime_string_first =~ /(\d+)-(\d+)-(\d+)/); $runtime = timelocal("00", "00", "00", $dd1, $mm1-1, $yyyy1-1900); $runtime = $runtime + 3600 if(DbRep_dsttest($hash,$runtime,$aggsec) && (strftime "%m", localtime($runtime)) > 6); # Korrektur Winterzeitumstellung (Uhr wurde 1 Stunde zurück gestellt) $runtime = $runtime + $wdadd; $runtime_orig = $runtime - $aggsec; # die Woche Beginn ist gleich der Woche vom Ende Auswertung if((strftime "%V", localtime($epoch_seconds_end)) eq ($w) && ($ms+$me != 13)) { $runtime_string_next = strftime "%Y-%m-%d %H:%M:%S", localtime($epoch_seconds_end); $ll = 1; } else { $runtime_string_next = strftime "%Y-%m-%d", localtime($runtime); } } else { # weitere Durchläufe if(($runtime + $aggsec) > $epoch_seconds_end) { $runtime_string_first = strftime "%Y-%m-%d", localtime($runtime_orig); $runtime_string_next = strftime "%Y-%m-%d %H:%M:%S", localtime($epoch_seconds_end); $ll = 1; } else { $runtime_string_first = strftime "%Y-%m-%d", localtime($runtime_orig) ; $runtime_string_next = strftime "%Y-%m-%d", localtime($runtime + $aggsec); } } # neue Beginnzeit in Epoche-Sekunden $runtime = $runtime_orig + $aggsec; } # Tagesaggregation if ($aggregation eq "day") { $runtime_string = strftime "%Y-%m-%d", localtime($runtime); # für Readingname $runtime_string_first = strftime "%Y-%m-%d %H:%M:%S", localtime($runtime) if($i==1); $runtime_string_first = strftime "%Y-%m-%d", localtime($runtime) if($i>1); $runtime = $runtime + 3600 if(DbRep_dsttest($hash,$runtime,$aggsec) && (strftime "%m", localtime($runtime)) > 6); # Korrektur Winterzeitumstellung (Uhr wurde 1 Stunde zurück gestellt) if((($tsstr gt $testr) ? $runtime : ($runtime+$aggsec)) > $epoch_seconds_end) { $runtime_string_first = strftime "%Y-%m-%d", localtime($runtime); $runtime_string_first = strftime "%Y-%m-%d %H:%M:%S", localtime($runtime) if( $dsstr eq $destr); $runtime_string_next = strftime "%Y-%m-%d %H:%M:%S", localtime($epoch_seconds_end); $ll=1; } else { $runtime_string_next = strftime "%Y-%m-%d", localtime($runtime+$aggsec); } Log3 ($name, 5, "DbRep $name - runtime_string: $runtime_string, runtime_string_first: $runtime_string_first, runtime_string_next: $runtime_string_next"); # neue Beginnzeit in Epoche-Sekunden $runtime = $runtime + $aggsec; } # Stundenaggregation if ($aggregation eq "hour") { $runtime_string = strftime "%Y-%m-%d_%H", localtime($runtime); # für Readingname $runtime_string_first = strftime "%Y-%m-%d %H:%M:%S", localtime($runtime) if($i==1); $runtime = $runtime + 3600 if(DbRep_dsttest($hash,$runtime,$aggsec) && (strftime "%m", localtime($runtime)) > 6); # Korrektur Winterzeitumstellung (Uhr wurde 1 Stunde zurück gestellt) $runtime_string_first = strftime "%Y-%m-%d %H", localtime($runtime) if($i>1); my @a = split (":",$tsstr); my $hs = $a[0]; my $msstr = $a[1].":".$a[2]; @a = split (":",$testr); my $he = $a[0]; my $mestr = $a[1].":".$a[2]; if((($msstr gt $mestr) ? $runtime : ($runtime+$aggsec)) > $epoch_seconds_end) { $runtime_string_first = strftime "%Y-%m-%d %H", localtime($runtime); $runtime_string_first = strftime "%Y-%m-%d %H:%M:%S", localtime($runtime) if( $dsstr eq $destr && $hs eq $he); $runtime_string_next = strftime "%Y-%m-%d %H:%M:%S", localtime($epoch_seconds_end); $ll = 1; } else { $runtime_string_next = strftime "%Y-%m-%d %H", localtime($runtime+$aggsec); } # neue Beginnzeit in Epoche-Sekunden $runtime = $runtime + $aggsec; } # Minutenaggregation if ($aggregation eq "minute") { $runtime_string = strftime "%Y-%m-%d_%H_%M", localtime($runtime); # für Readingname $runtime_string_first = strftime "%Y-%m-%d %H:%M:%S", localtime($runtime) if($i==1); $runtime = $runtime + 60 if(DbRep_dsttest($hash,$runtime,$aggsec) && (strftime "%m", localtime($runtime)) > 6); # Korrektur Winterzeitumstellung (Uhr wurde 1 Stunde zurück gestellt) $runtime_string_first = strftime "%Y-%m-%d %H:%M", localtime($runtime) if($i>1); my @a = split (":",$tsstr); my $ms = $a[1]; my $ssstr = $a[2]; @a = split (":",$testr); my $me = $a[1]; my $sestr = $a[2]; if((($ssstr gt $sestr) ? $runtime : ($runtime+$aggsec)) > $epoch_seconds_end) { $runtime_string_first = strftime "%Y-%m-%d %H:%M", localtime($runtime); # $runtime_string_first = strftime "%Y-%m-%d %H:%M", localtime($runtime) if( $dsstr eq $destr && $ms eq $me); $runtime_string_next = strftime "%Y-%m-%d %H:%M:%S", localtime($epoch_seconds_end); $ll = 1; } else { $runtime_string_next = strftime "%Y-%m-%d %H:%M", localtime($runtime + $aggsec); } # neue Beginnzeit in Epoche-Sekunden $runtime = $runtime + $aggsec; } return ($runtime,$runtime_string,$runtime_string_first,$runtime_string_next,$ll); } #################################################################################################### # nichtblockierende DB-Abfrage averageValue #################################################################################################### sub DbRep_averval { my $paref = shift; my $hash = $paref->{hash}; my $name = $paref->{name}; my $table = $paref->{table}; my $device = $paref->{device}; my $reading = $paref->{reading}; my $prop = $paref->{prop}; my $ts = $paref->{ts}; my $bst = [gettimeofday]; # Background-Startzeit my $acf = AttrVal ($name, 'averageCalcForm', 'avgArithmeticMean'); # Festlegung Berechnungsschema f. Mittelwert my $qlf = "avg"; my ($gts, $gtsstr) = (0, q{}); # Variablen für Grünlandtemperatursumme GTS my ($err,$dbh,$dbmodel) = DbRep_dbConnect($name, 0); return "$name|$err" if ($err); my ($IsTimeSet,$IsAggrSet) = DbRep_checktimeaggr($hash); # ist Zeiteingrenzung und/oder Aggregation gesetzt ? (wenn ja -> "?" in SQL sonst undef) my @ts = split "\\|", $ts; # Timestampstring to Array $paref->{qlf} = $qlf; $paref->{tsaref} = \@ts; $paref->{dbmodel} = $dbmodel; $paref->{IsTimeSet} = $IsTimeSet; $paref->{IsAggrSet} = $IsAggrSet; $paref->{dbh} = $dbh; Log3 ($name, 4, "DbRep $name - averageValue calculation sceme: ".$acf); Log3 ($name, 5, "DbRep $name - IsTimeSet: $IsTimeSet, IsAggrSet: $IsAggrSet"); Log3 ($name, 5, "DbRep $name - Timestamp-Array: \n@ts"); my $st = [gettimeofday]; # SQL-Startzeit ($err, my $arrstr, my $wrstr, $qlf, $gtsstr, my $gtsreached) = &{$dbrep_havgfn{$acf}{fn}} ($paref); return "$name|$err" if ($err); $dbh->disconnect; my $rt = tv_interval($st); # SQL-Laufzeit ermitteln my ($wrt,$irowdone); if($prop =~ /writeToDB/) { # Ergebnisse in Datenbank schreiben ($err,$wrt,$irowdone) = DbRep_OutputWriteToDB ($name,$device,$reading,$wrstr,$qlf); return "$name|$err" if($err); $rt = $rt+$wrt; } no warnings 'uninitialized'; $arrstr = encode_base64($arrstr, ""); # Daten müssen als Einzeiler zurückgegeben werden $device = encode_base64($device, ""); $gtsstr = encode_base64($gtsstr, ""); my $brt = tv_interval($bst); # Background-Laufzeit ermitteln $rt = $rt.",".$brt; return "$name|$err|$arrstr|$device|$reading|$rt|$irowdone|$gtsstr|$gtsreached"; } #################################################################################################### # averageValue Typ avgArithmeticMean # arithmetischer Mittelwert (Standard) #################################################################################################### sub _DbRep_avgArithmeticMean { my $paref = shift; my $hash = $paref->{hash}; my $name = $paref->{name}; my $table = $paref->{table}; my $device = $paref->{device}; my $reading = $paref->{reading}; my $qlf = $paref->{qlf}; my $tsaref = $paref->{tsaref}; my $dbmodel = $paref->{dbmodel}; my $dbh = $paref->{dbh}; my $IsTimeSet = $paref->{IsTimeSet}; my $IsAggrSet = $paref->{IsAggrSet}; my ($err, $sth, $sql, $arrstr, $wrstr); my (@rsf, @rsn); my $aval = (DbRep_checktimeaggr($hash))[2]; $qlf = 'avgam'; my $addon = q{}; my $selspec = 'AVG(VALUE)'; if ($dbmodel eq "POSTGRESQL") { $selspec = 'AVG(VALUE::numeric)'; } for my $row (@{$tsaref}) { my @ar = split "#", $row; my $runtime_string = $ar[0]; my $runtime_string_first = $ar[1]; my $runtime_string_next = $ar[2]; my $avg = '-'; if ($IsTimeSet || $IsAggrSet) { $sql = DbRep_createSelectSql($hash,$table,$selspec,$device,$reading,"'$runtime_string_first'","'$runtime_string_next'",$addon); } else { $sql = DbRep_createSelectSql($hash,$table,$selspec,$device,$reading,undef,undef,$addon); } ($err, $sth) = DbRep_prepareExecuteQuery ($name, $dbh, $sql); return $err if ($err); my @line = $sth->fetchrow_array(); $avg = $line[0] if($line[0]); Log3 ($name, 5, "DbRep $name - SQL result: $avg "); if($aval eq "hour") { @rsf = split /[ :]/, $runtime_string_first; @rsn = split /[ :]/, $runtime_string_next; $arrstr .= $runtime_string."#".$avg."#".$rsf[0]."_".$rsf[1]."|"; } elsif ($aval eq "minute") { @rsf = split /[ :]/, $runtime_string_first; @rsn = split /[ :]/, $runtime_string_next; $arrstr .= $runtime_string."#".$avg."#".$rsf[0]."_".$rsf[1]."-".$rsf[2]."|"; } else { @rsf = split " ", $runtime_string_first; @rsn = split " ", $runtime_string_next; $arrstr .= $runtime_string."#".$avg."#".$rsf[0]."|"; } next if($avg eq '-'); # Schreiben von '-' als Durchschnitt verhindern my @wsf = split " ", $runtime_string_first; my @wsn = split " ", $runtime_string_next; my $wsft = $wsf[1] ? '_'.$wsf[1] : q{}; my $wsnt = $wsn[1] ? '_'.$wsn[1] : q{}; $wrstr .= $runtime_string."#".$avg."#".$wsf[0].$wsft."#".$wsn[0].$wsnt."|"; # Kombi zum Rückschreiben in die DB } $sth->finish; return ($err, $arrstr, $wrstr, $qlf); } #################################################################################################### # averageValue Typ avgDailyMeanGWS # Berechnung des Tagesmittelwertes (Temperatur) nach der Vorschrift des deutschen Wetterdienstes # # Berechnung der Tagesmittel aus 24 Stundenwerten, Bezugszeit für einen Tag i.d.R. 23:51 UTC des # Vortages bis 23:50 UTC, d.h. 00:51 bis 23:50 MEZ # Wenn mehr als 3 Stundenwerte fehlen -> Berechnung aus den 4 Hauptterminen (00, 06, 12, 18 UTC), # d.h. 01, 07, 13, 19 MEZ # https://www.dwd.de/DE/leistungen/klimadatendeutschland/beschreibung_tagesmonatswerte.html # #################################################################################################### sub _DbRep_avgDailyMeanGWS { my $paref = shift; my $hash = $paref->{hash}; my $name = $paref->{name}; my $table = $paref->{table}; my $device = $paref->{device}; my $reading = $paref->{reading}; my $qlf = $paref->{qlf}; my $tsaref = $paref->{tsaref}; my $dbh = $paref->{dbh}; my ($err, $sth, $arrstr, $wrstr, $gtsreached); my (@rsf, @rsn); my ($gts,$gtsstr) = (0, q{}); # Variablen für Grünlandtemperatursumme GTS my $aval = (DbRep_checktimeaggr($hash))[2]; my $acf = AttrVal ($name, 'averageCalcForm', 'avgArithmeticMean'); # Festlegung Berechnungsschema f. Mittelwert my $addon = "ORDER BY TIMESTAMP DESC LIMIT 1"; my $selspec = "VALUE"; $qlf = "avgdmgws"; for my $row (@{$tsaref}) { my @ar = split "#", $row; my $runtime_string = $ar[0]; my $runtime_string_first = $ar[1]; my $runtime_string_next = $ar[2]; my $sum = 0; my $anz = 0; # Anzahl der Messwerte am Tag my ($t01,$t07,$t13,$t19); # Temperaturen der Haupttermine my ($bdate,undef) = split " ", $runtime_string_first; for my $i (0..23) { my $bsel = $bdate." ".sprintf("%02d",$i).":00:00"; my $esel = ($i < 23) ? $bdate." ".sprintf("%02d",$i).":59:59" : $runtime_string_next; my $sql = DbRep_createSelectSql ($hash,$table,$selspec,$device,$reading,"'$bsel'","'$esel'",$addon); ($err, $sth) = DbRep_prepareExecuteQuery ($name, $dbh, $sql); return $err if ($err); my $val = $sth->fetchrow_array(); Log3 ($name, 5, "DbRep $name - SQL result: $val") if($val); $val = DbRep_numval ($val); # nichtnumerische Zeichen eliminieren if(defined $val && looks_like_number($val)) { $sum += $val; $t01 = $val if($val && $i == 00); # Wert f. Stunde 01 ist zw. letzter Wert vor 01 $t07 = $val if($val && $i == 06); $t13 = $val if($val && $i == 12); $t19 = $val if($val && $i == 18); $anz++; } } if($anz >= 21) { $sum = $sum/24; } elsif ($anz >= 4 && $t01 && $t07 && $t13 && $t19) { $sum = ($t01+$t07+$t13+$t19)/4; } else { $sum = qq{insufficient values - execute get $name versionNotes 2 for further information}; } if($aval eq "hour") { @rsf = split /[ :]/, $runtime_string_first; @rsn = split /[ :]/, $runtime_string_next; $arrstr .= $runtime_string."#".$sum."#".$rsf[0]."_".$rsf[1]."|"; } elsif ($aval eq "minute") { @rsf = split /[ :]/, $runtime_string_first; @rsn = split /[ :]/, $runtime_string_next; $arrstr .= $runtime_string."#".$sum."#".$rsf[0]."_".$rsf[1]."-".$rsf[2]."|"; } else { @rsf = split " ", $runtime_string_first; @rsn = split " ", $runtime_string_next; $arrstr .= $runtime_string."#".$sum."#".$rsf[0]."|"; } my @wsf = split " ", $runtime_string_first; my @wsn = split " ", $runtime_string_next; my $wsft = $wsf[1] ? '_'.$wsf[1] : q{}; my $wsnt = $wsn[1] ? '_'.$wsn[1] : q{}; $wrstr .= $runtime_string."#".$sum."#".$wsf[0].$wsft."#".$wsn[0].$wsnt."|"; # Kombi zum Rückschreiben in die DB ### Grünlandtemperatursumme lt. https://de.wikipedia.org/wiki/Gr%C3%BCnlandtemperatursumme ### my ($y,$m,$d) = split "-", $runtime_string; if ($acf eq 'avgDailyMeanGWSwithGTS' && looks_like_number($sum)) { $m = DbRep_removeLeadingZero ($m); $d = DbRep_removeLeadingZero ($d); $gts = 0 if($m == 1 && $d == 1); my $f = $sum <= 0 ? 0 : $m >= 3 ? 1.00 : # Faktorenberechnung lt. https://de.wikipedia.org/wiki/Gr%C3%BCnlandtemperatursumme $m == 2 ? 0.75 : 0.5; $gts += $sum*$f; if($gts >= 200) { $gtsreached = $gtsreached // $runtime_string; } $gtsstr .= $runtime_string."#".$gts."#".$rsf[0]."|"; } } $sth->finish; return ($err, $arrstr, $wrstr, $qlf, $gtsstr, $gtsreached); } #################################################################################################### # averageValue Typ avgTimeWeightMean # zeitgewichteter Mittelwert # # http://massmatics.de/merkzettel/#!837:Gewichteter_Mittelwert # # $tsum = timestamp letzter Messpunkt - timestamp erster Messpunkt # $t1 = timestamp wert1 # $t2 = timestamp wert2 # $dt = $t2 - $t1 # $t1 = $t2 # ..... # (val1*$dt/$tsum) + (val2*$dt/$tsum) + .... + (valn*$dt/$tsum) # #################################################################################################### sub _DbRep_avgTimeWeightMean { my $paref = shift; my $hash = $paref->{hash}; my $name = $paref->{name}; my $table = $paref->{table}; my $device = $paref->{device}; my $reading = $paref->{reading}; my $qlf = $paref->{qlf}; my $tsaref = $paref->{tsaref}; my $dbh = $paref->{dbh}; my $IsTimeSet = $paref->{IsTimeSet}; my $IsAggrSet = $paref->{IsAggrSet}; my ($err, $sth, $sql, $arrstr, $wrstr, $bin_end, $val1); my (@rsf, @rsn); my $aval = (DbRep_checktimeaggr($hash))[2]; $qlf = 'avgtwm'; my $selspec = 'TIMESTAMP,VALUE'; my $addon = 'ORDER BY TIMESTAMP ASC'; my $addonl = 'ORDER BY TIMESTAMP DESC LIMIT 1'; for my $row (@{$tsaref}) { my @ar = split "#", $row; my $runtime_string = $ar[0]; my $runtime_string_first = $ar[1]; my $runtime_string_next = $ar[2]; my ($tf,$tl,$tn,$to,$dt,$val); if ($bin_end) { # das $bin_end des letzten Bin ist der effektive Zeitpunkt des letzten Datenwertes $tf = $bin_end; # der vorherigen Periode, die in die aktuelle Periode übernommen wird } else { # dies ist der erste Mittelungsplatz, und mit einem "Peek-back-in-time" wird versucht, den Wert unmittelbar vor der Startzeit zu ermitteln my ($year,$month,$day,$hour,$min,$sec) = $runtime_string_first =~ m/(\d+)-(\d+)-(\d+)\s(\d+):(\d+):(\d+)/xs; my $time = timelocal ($sec,$min,$hour,$day,$month-1,$year); if ($aval eq 'hour' || $aval eq 'minute') { $time -= 3600; # um 1 Stunde zurückblicken } elsif ($aval eq 'day') { $time -= 24 * 3600; # um 1 Tag zurückblicken } elsif ($aval eq 'week') { $time -= 7 * 24 * 3600; # um 1 Woche zurückblicken } else { $time -= 30 * 24 * 3600; # um 1 Monat zurückblicken }; my $newtime_string = strftime ("%Y-%m-%d %H:%M:%S", localtime ($time)); $sql = DbRep_createSelectSql($hash, $table, $selspec, $device, $reading, "'$newtime_string'", "'$runtime_string_first'", $addonl); ($err, $sth) = DbRep_prepareExecuteQuery ($name, $dbh, $sql); return $err if ($err); my @twm_array = map { $_->[0]."_ESC_".$_->[1] } @{$sth->fetchall_arrayref()}; for my $twmrow (@twm_array) { ($tn,$val1) = split "_ESC_", $twmrow; $val1 = DbRep_numval ($val1); # nichtnumerische Zeichen eliminieren $bin_end = $runtime_string_first; # der letzte Wert vor dem vollständigen Zeitrahmen wird auf den Beginn des Zeitrahmens "gefälscht" $tf = $runtime_string_first; }; } my $tsum = 0; my $sum = 0; if ($IsTimeSet || $IsAggrSet) { $sql = DbRep_createSelectSql($hash, $table, $selspec, $device, $reading, "'$runtime_string_first'", "'$runtime_string_next'", $addon); } else { $sql = DbRep_createSelectSql($hash, $table, $selspec, $device, $reading, undef, undef, $addon); } ($err, $sth) = DbRep_prepareExecuteQuery ($name, $dbh, $sql); return $err if ($err); my @twm_array = map { $_->[0]."_ESC_".$_->[1] } @{$sth->fetchall_arrayref()}; if ($bin_end && $val1) { # der letzte Datenwert aus dem vorherigen Bin wird dem aktuellen Bin vorangestellt, unshift @twm_array, $bin_end.'_ESC_'.$val1; # wobei das vorherige $bin_end als Zeitstempel verwendet wird } # für jeden Bin wird die Endzeit aufgezeichnet, um sie für den nächsten Bin zu verwenden my ($yyyyf, $mmf, $ddf, $hhf, $minf, $secf) = $runtime_string_next =~ /(\d+)-*(\d+)*-*(\d+)*\s*(\d+)*:*(\d+)*:*(\d+)*/xs; $bin_end = $runtime_string_next; $bin_end .='-01' if (!$mmf); $bin_end .='-01' if (!$ddf); $bin_end .=' 00' if (!$hhf); $bin_end .=':00' if (!$minf); $bin_end .=':00' if (!$secf); for my $twmrow (@twm_array) { ($tn,$val) = split "_ESC_", $twmrow; $val = DbRep_numval ($val); # nichtnumerische Zeichen eliminieren my ($yyyyt1, $mmt1, $ddt1, $hht1, $mint1, $sect1) = $tn =~ /(\d+)-(\d+)-(\d+)\s(\d+):(\d+):(\d+)/xs; $tn = timelocal ($sect1, $mint1, $hht1, $ddt1, $mmt1-1, $yyyyt1-1900); if(!$to) { $val1 = $val; $to = $tn; next; } $dt = $tn - $to; $tsum += $dt; # Bildung der Zeitsumme für die spätere Division $sum += $val1 * $dt if ($val1); # die Division durch die Gesamtzeit wird am Ende, außerhalb der Schleife durchgeführt $val1 = $val; $to = $tn; Log3 ($name, 5, "DbRep $name - data element: $twmrow"); Log3 ($name, 5, "DbRep $name - time sum: $tsum, delta time: $dt, value: $val1, twm: ".($tsum ? $val1*($dt/$tsum) : 0)); } $dt = timelocal($secf, $minf, $hhf, $ddf, $mmf-1, $yyyyf-1900); # die Zeitspanne des letzten Datenwertes in diesem Bin wird für diesen Bin berücksichtigt $dt -= $to if ($to); # $dt ist das Zeitgewicht des letzten Wertes in diesem Bin $tsum += $dt; $sum += $val1 * $dt if ($val1); $sum /= $tsum if ($tsum > 0); $sum = "insufficient values" if ($sum == 0); if($aval eq "hour") { @rsf = split /[ :]/,$runtime_string_first; @rsn = split /[ :]/,$runtime_string_next; $arrstr .= $runtime_string."#".$sum."#".$rsf[0]."_".$rsf[1]."|"; } elsif ($aval eq "minute") { @rsf = split /[ :]/,$runtime_string_first; @rsn = split /[ :]/,$runtime_string_next; $arrstr .= $runtime_string."#".$sum."#".$rsf[0]."_".$rsf[1]."-".$rsf[2]."|"; } else { @rsf = split " ",$runtime_string_first; @rsn = split " ",$runtime_string_next; $arrstr .= $runtime_string."#".$sum."#".$rsf[0]."|"; } $runtime_string_first =~ s/\s/_/xs; $runtime_string_next =~ s/\s/_/xs; $wrstr .= $runtime_string."#".$sum."#".$runtime_string_first."#".$runtime_string_next."|"; # Kombi zum Rückschreiben in die DB } $sth->finish; return ($err, $arrstr, $wrstr, $qlf); } #################################################################################################### # Auswertungsroutine der nichtblockierenden DB-Abfrage averageValue #################################################################################################### sub DbRep_avervalDone { my $string = shift; my @a = split "\\|", $string; my $name = $a[0]; my $err = $a[1] ? decode_base64($a[1]) : ''; my $arrstr = $a[2] ? decode_base64($a[2]) : ''; my $device = $a[3] ? decode_base64($a[3]) : ''; my $reading = $a[4]; my $bt = $a[5]; my $irowdone = $a[6]; my $gtsstr = $a[7] ? decode_base64($a[7]) : ''; my $gtsreached = $a[8]; my $hash = $defs{$name}; my $ndp = AttrVal ($name, "numDecimalPlaces", $dbrep_defdecplaces); my $reading_runtime_string; Log3 ($name, 5, qq{DbRep $name - BlockingCall PID "$hash->{HELPER}{RUNNING_PID}{pid}" finished}); delete($hash->{HELPER}{RUNNING_PID}); if ($err) { ReadingsSingleUpdateValue ($hash, "errortext", $err, 1); ReadingsSingleUpdateValue ($hash, "state", "error", 1); DbRep_afterproc ($hash, $hash->{LASTCMD}); # Befehl nach Procedure ausführen incl. state return; } my ($rt,$brt) = split ",", $bt; $device =~ s/[^A-Za-z\/\d_\.-]/\//g; $reading =~ s/[^A-Za-z\/\d_\.-]/\//g; no warnings 'uninitialized'; my $acf = AttrVal($name, "averageCalcForm", "avgArithmeticMean"); if($acf eq "avgArithmeticMean") { $acf = "AM" } elsif ($acf =~ /avgDailyMeanGWS/) { $acf = "DMGWS"; } elsif ($acf eq "avgTimeWeightMean") { $acf = "TWM"; } readingsBeginUpdate($hash); # Readings für Grünlandtemperatursumme my @agts = split("\\|", $gtsstr); for my $gts (@agts) { my @ay = split "#", $gts; my $rt_string = $ay[0]; my $val = $ay[1]; my $rtf = $ay[2]."__"; my ($dev,$rdg) = ("",""); $dev = $device."__" if ($device); $rdg = $reading."__" if ($reading); my $reading_rt_string = $rtf.$dev.$rdg."GrasslandTemperatureSum"; ReadingsBulkUpdateValue ($hash, $reading_rt_string, sprintf("%.1f", $val)); } ReadingsBulkUpdateValue ($hash, "reachedGTSthreshold", $gtsreached) if($gtsreached); my @arr = split "\\|", $arrstr; for my $row (@arr) { my @a = split "#", $row; my $runtime_string = $a[0]; my $c = $a[1]; my $rsf = $a[2]."__"; if (AttrVal($hash->{NAME}, "readingNameMap", "")) { $reading_runtime_string = $rsf.AttrVal($hash->{NAME}, "readingNameMap", "")."__".$runtime_string; } else { my ($ds,$rds) = ("",""); $ds = $device."__" if ($device); $rds = $reading."__" if ($reading); $reading_runtime_string = $rsf.$ds.$rds."AVG".$acf."__".$runtime_string; } if($acf eq "DMGWS") { ReadingsBulkUpdateValue ($hash, $reading_runtime_string, looks_like_number $c ? sprintf "%.1f",$c : $c); } else { ReadingsBulkUpdateValue ($hash, $reading_runtime_string, looks_like_number $c ? sprintf "%.${ndp}f", $c : "-"); } } ReadingsBulkUpdateValue ($hash, "db_lines_processed", $irowdone) if($hash->{LASTCMD} =~ /writeToDB/); ReadingsBulkUpdateTime ($hash, $brt, $rt); readingsEndUpdate ($hash, 1); DbRep_afterproc ($hash, $hash->{LASTCMD}); # Befehl nach Procedure ausführen incl. state return; } #################################################################################################### # nichtblockierende DB-Abfrage count #################################################################################################### sub DbRep_count { my $paref = shift; my $hash = $paref->{hash}; my $name = $paref->{name}; my $table = $paref->{table}; my $device = $paref->{device}; my $reading = $paref->{reading}; my $ts = $paref->{ts}; my $ced = AttrVal($name, "countEntriesDetail", 0); my $vf = AttrVal($name, "valueFilter", ""); my ($sql,$sth); my $bst = [gettimeofday]; # Background-Startzeit my ($err,$dbh,$dbmodel) = DbRep_dbConnect($name, 0); return "$name|$err" if ($err); no warnings 'uninitialized'; # ist Zeiteingrenzung und/oder Aggregation gesetzt ? (wenn ja -> "?" in SQL sonst undef) my ($IsTimeSet,$IsAggrSet,$aggregation) = DbRep_checktimeaggr($hash); Log3 ($name, 5, "DbRep $name - IsTimeSet: $IsTimeSet, IsAggrSet: $IsAggrSet"); # Timestampstring to Array my @ts = split("\\|", $ts); Log3 ($name, 5, "DbRep $name - Timestamp-Array: \n@ts"); my $st = [gettimeofday]; # SQL-Startzeit my ($arrstr,@rsf,$ttail); my $addon = ''; my $selspec = "COUNT(*)"; if($ced) { $addon = "group by READING"; $selspec = "READING, COUNT(*)"; } for my $row (@ts) { # DB-Abfrage zeilenweise für jeden Timearray-Eintrag my @a = split("#", $row); my $runtime_string = $a[0]; my $runtime_string_first = $a[1]; my $runtime_string_next = $a[2]; my $tc = 0; if($aggregation eq "hour") { @rsf = split(/[" "\|":"]/,$runtime_string_first); $ttail = $rsf[0]."_".$rsf[1]."|"; } else { @rsf = split(" ",$runtime_string_first); $ttail = $rsf[0]."|"; } if ($IsTimeSet || $IsAggrSet) { $sql = DbRep_createSelectSql($hash, $table, $selspec, $device, $reading, "'$runtime_string_first'", "'$runtime_string_next'", $addon); } else { $sql = DbRep_createSelectSql($hash, $table, $selspec, $device, $reading, undef, undef, $addon); } ($err, $sth) = DbRep_prepareExecuteQuery ($name, $dbh, $sql); return "$name|$err" if ($err); if($ced) { # detaillierter Readings-Count while (my @line = $sth->fetchrow_array()) { Log3 ($name, 5, "DbRep $name - SQL result: @line"); $tc += $line[1] if($line[1]); # total count für Reading $arrstr .= $runtime_string."#".$line[0]."#".$line[1]."#".$ttail; } $arrstr .= $runtime_string."#"."ALLREADINGS"."#".$tc."#".$ttail; # total count (über alle selected Readings) für Zeitabschnitt einfügen } else { my @line = $sth->fetchrow_array(); Log3 ($name, 5, "DbRep $name - SQL result: $line[0]") if($line[0]); $arrstr .= $runtime_string."#"."ALLREADINGS"."#".$line[0]."#".$ttail; } } $sth->finish; $dbh->disconnect; my $rt = tv_interval($st); # SQL-Laufzeit ermitteln $arrstr = encode_base64($arrstr,""); $device = encode_base64($device,""); my $brt = tv_interval($bst); # Background-Laufzeit ermitteln $rt = $rt.",".$brt; return "$name|$err|$arrstr|$device|$rt|$table"; } #################################################################################################### # Auswertungsroutine der nichtblockierenden DB-Abfrage count #################################################################################################### sub DbRep_countDone { my $string = shift; my @a = split("\\|",$string); my $name = $a[0]; my $err = $a[1] ? decode_base64($a[1]) : ''; my $arrstr = $a[2] ? decode_base64($a[2]) : ''; my $device = $a[3] ? decode_base64($a[3]) : ''; my $bt = $a[4]; my $table = $a[5]; my $hash = $defs{$name}; my $reading_runtime_string; Log3 ($name, 5, qq{DbRep $name - BlockingCall PID "$hash->{HELPER}{RUNNING_PID}{pid}" finished}); delete($hash->{HELPER}{RUNNING_PID}); if ($err) { ReadingsSingleUpdateValue ($hash, "errortext", $err, 1); ReadingsSingleUpdateValue ($hash, "state", "error", 1); DbRep_afterproc ($hash, $hash->{LASTCMD}); # Befehl nach Procedure ausführen return; } my ($rt,$brt) = split ",", $bt; $device =~ s/[^A-Za-z\/\d_\.-]/\//g; Log3 ($name, 5, "DbRep $name - SQL result decoded: $arrstr") if($arrstr); no warnings 'uninitialized'; readingsBeginUpdate($hash); my @arr = split("\\|", $arrstr); for my $row (@arr) { my @a = split("#", $row); my $runtime_string = $a[0]; my $reading = $a[1]; $reading =~ s/[^A-Za-z\/\d_\.-]/\//g; my $c = $a[2]; my $rsf = $a[3]."__"; if (AttrVal($hash->{NAME}, "readingNameMap", "")) { $reading_runtime_string = $rsf.AttrVal($hash->{NAME}, "readingNameMap", "")."__".$runtime_string; } else { my ($ds,$rds) = ("",""); $ds = $device."__" if ($device); $rds = $reading."__" if ($reading); if(AttrVal($name,"countEntriesDetail",0)) { $reading_runtime_string = $rsf.$rds."COUNT_".$table."__".$runtime_string; } else { $reading_runtime_string = $rsf."COUNT_".$table."__".$runtime_string; } } ReadingsBulkUpdateValue ($hash, $reading_runtime_string, $c ? $c : "-"); } ReadingsBulkUpdateTime ($hash, $brt, $rt); readingsEndUpdate ($hash, 1); DbRep_afterproc ($hash, $hash->{LASTCMD}); # Befehl nach Procedure ausführen incl. state return; } #################################################################################################### # nichtblockierende DB-Abfrage maxValue #################################################################################################### sub DbRep_maxval { my $paref = shift; my $hash = $paref->{hash}; my $name = $paref->{name}; my $table = $paref->{table}; my $device = $paref->{device}; my $reading = $paref->{reading}; my $prop = $paref->{prop}; my $ts = $paref->{ts}; my ($sql,$sth); my $bst = [gettimeofday]; # Background-Startzeit my ($err,$dbh,$dbmodel) = DbRep_dbConnect($name, 0); return "$name|$err" if ($err); no warnings 'uninitialized'; my ($IsTimeSet,$IsAggrSet) = DbRep_checktimeaggr($hash); # ist Zeiteingrenzung und/oder Aggregation gesetzt ? (wenn ja -> "?" in SQL sonst undef) Log3 ($name, 5, "DbRep $name - IsTimeSet: $IsTimeSet, IsAggrSet: $IsAggrSet"); my @ts = split("\\|", $ts); # Timestampstring to Array Log3 ($name, 5, "DbRep $name - Timestamp-Array: \n@ts"); my $st = [gettimeofday]; # SQL-Startzeit my @row_array; for my $row (@ts) { # DB-Abfrage zeilenweise für jeden Array-Eintrag my @a = split("#", $row); my $runtime_string = $a[0]; my $runtime_string_first = $a[1]; my $runtime_string_next = $a[2]; $runtime_string = encode_base64($runtime_string,""); if ($IsTimeSet || $IsAggrSet) { $sql = DbRep_createSelectSql($hash, $table, "VALUE,TIMESTAMP", $device, $reading, "'$runtime_string_first'", "'$runtime_string_next'", "ORDER BY TIMESTAMP"); } else { $sql = DbRep_createSelectSql($hash, $table, "VALUE,TIMESTAMP", $device, $reading, undef, undef, "ORDER BY TIMESTAMP"); } ($err, $sth) = DbRep_prepareExecuteQuery ($name, $dbh, $sql); return "$name|$err" if ($err); my @array = map { $runtime_string." ".$_->[0]." ".$_->[1]."!_ESC_!".$runtime_string_first."|".$runtime_string_next } @{ $sth->fetchall_arrayref() }; if(!@array) { my $aval = AttrVal($name, "aggregation", ""); my @rsf; if($aval eq "hour") { @rsf = split(/[ :]/,$runtime_string_first); @array = ($runtime_string." "."0"." ".$rsf[0]."_".$rsf[1]."!_ESC_!".$runtime_string_first."|".$runtime_string_next); } elsif($aval eq "minute") { @rsf = split(/[ :]/,$runtime_string_first); @array = ($runtime_string." "."0"." ".$rsf[0]."_".$rsf[1]."-".$rsf[2]."!_ESC_!".$runtime_string_first."|".$runtime_string_next); } else { @rsf = split(" ",$runtime_string_first); @array = ($runtime_string." "."0"." ".$rsf[0]."!_ESC_!".$runtime_string_first."|".$runtime_string_next); } } push(@row_array, @array); } $sth->finish; $dbh->disconnect; my $rt = tv_interval($st); # SQL-Laufzeit ermitteln Log3 ($name, 5, "DbRep $name -> raw data of row_array result:\n @row_array"); #---------- Berechnung Ergebnishash maxValue ------------------------ my $i = 1; my %rh = (); my ($lastruntimestring,$row_max_time,$max_value); for my $row (@row_array) { my ($r,$t) = split("!_ESC_!", $row); # $t enthält $runtime_string_first."|".$runtime_string_next my @a = split("[ \t][ \t]*", $r); my $runtime_string = decode_base64($a[0]); $lastruntimestring = $runtime_string if ($i == 1); my $value = $a[1]; $a[-1] =~ s/:/-/g if($a[-1]); # substituieren unsupported characters -> siehe fhem.pl my $timestamp = $a[-1] && $a[-2] ? $a[-2]."_".$a[-1] : $a[-1]; $timestamp =~ s/\s+$//g; # Leerzeichen am Ende $timestamp entfernen if (!looks_like_number($value)) { Log3 ($name, 2, "DbRep $name - ERROR - value isn't numeric in maxValue function. Faulty dataset was \nTIMESTAMP: $timestamp, DEVICE: $device, READING: $reading, VALUE: $value."); $err = encode_base64("Value isn't numeric. Faulty dataset was - TIMESTAMP: $timestamp, VALUE: $value", ""); return "$name|$err"; } Log3 ($name, 5, "DbRep $name - Runtimestring: $runtime_string, DEVICE: $device, READING: $reading, TIMESTAMP: $timestamp, VALUE: $value"); if ($runtime_string eq $lastruntimestring) { if (!defined($max_value) || $value >= $max_value) { $max_value = $value; $row_max_time = $timestamp; $rh{$runtime_string} = $runtime_string."|".$max_value."|".$row_max_time."|".$t; } } else { # neuer Zeitabschnitt beginnt, ersten Value-Wert erfassen $lastruntimestring = $runtime_string; undef $max_value; if (!defined($max_value) || $value >= $max_value) { $max_value = $value; $row_max_time = $timestamp; $rh{$runtime_string} = $runtime_string."|".$max_value."|".$row_max_time."|".$t; } } $i++; } #--------------------------------------------------------------------------------------------- Log3 ($name, 5, "DbRep $name - result of maxValue calculation before encoding:"); for my $key (sort(keys(%rh))) { Log3 ($name, 5, "runtimestring Key: $key, value: ".$rh{$key}); } my $rows = join('§', %rh); # Ergebnishash als Einzeiler zurückgeben bzw. Übergabe Schreibroutine my ($wrt,$irowdone); if($prop =~ /writeToDB/) { # Ergebnisse in Datenbank schreiben ($err,$wrt,$irowdone) = DbRep_OutputWriteToDB($name,$device,$reading,$rows,"max"); return "$name|$err" if($err); $rt = $rt+$wrt; } if($prop =~ /deleteOther/) { # andere Werte als "MAX" aus Datenbank löschen ($err,$wrt,$irowdone) = DbRep_deleteOtherFromDB($name,$device,$reading,$rows); return "$name|$err" if ($err); $rt = $rt+$wrt; } my $rowlist = encode_base64($rows,""); $device = encode_base64($device,""); my $brt = tv_interval($bst); # Background-Laufzeit ermitteln $rt = $rt.",".$brt; return "$name|$err|$rowlist|$device|$reading|$rt|$irowdone"; } #################################################################################################### # Auswertungsroutine der nichtblockierenden DB-Abfrage maxValue #################################################################################################### sub DbRep_maxvalDone { my $string = shift; my @a = split("\\|",$string); my $name = $a[0]; my $err = $a[1] ? decode_base64($a[1]) : ''; my $rowlist = decode_base64($a[2]); my $device = decode_base64($a[3]); my $reading = $a[4]; my $bt = $a[5]; my $irowdone = $a[6]; my $ndp = AttrVal($name, "numDecimalPlaces", $dbrep_defdecplaces); my $hash = $defs{$name}; my ($reading_runtime_string); Log3 ($name, 5, qq{DbRep $name - BlockingCall PID "$hash->{HELPER}{RUNNING_PID}{pid}" finished}); delete($hash->{HELPER}{RUNNING_PID}); if ($err) { ReadingsSingleUpdateValue ($hash, "errortext", $err, 1); ReadingsSingleUpdateValue ($hash, "state", "error", 1); DbRep_afterproc ($hash, $hash->{LASTCMD}); # Befehl nach Procedure ausführen incl. state return; } $device =~ s/[^A-Za-z\/\d_\.-]/\//g; $reading =~ s/[^A-Za-z\/\d_\.-]/\//g; my ($rt,$brt) = split ",", $bt; my %rh = split "§", $rowlist; Log3 ($name, 5, "DbRep $name - result of maxValue calculation after decoding:"); for my $key (sort(keys(%rh))) { Log3 ($name, 5, "DbRep $name - runtimestring Key: $key, value: ".$rh{$key}); } readingsBeginUpdate($hash); no warnings 'uninitialized'; for my $key (sort(keys(%rh))) { my @k = split("\\|",$rh{$key}); my $rsf = ""; $rsf = $k[2]."__" if($k[2]); if (AttrVal($hash->{NAME}, "readingNameMap", "")) { $reading_runtime_string = $rsf.AttrVal($hash->{NAME}, "readingNameMap", "")."__".$k[0]; } else { my ($ds,$rds) = ("",""); $ds = $device."__" if ($device); $rds = $reading."__" if ($reading); $reading_runtime_string = $rsf.$ds.$rds."MAX__".$k[0]; } my $rv = $k[1]; ReadingsBulkUpdateValue ($hash, $reading_runtime_string, defined $rv ? sprintf "%.${ndp}f",$rv : "-"); } ReadingsBulkUpdateValue ($hash, "db_lines_processed", $irowdone) if($hash->{LASTCMD} =~ /writeToDB|deleteOther/); ReadingsBulkUpdateTime ($hash, $brt, $rt); readingsEndUpdate ($hash, 1); DbRep_afterproc ($hash, $hash->{LASTCMD}); # Befehl nach Procedure ausführen incl. state return; } #################################################################################################### # nichtblockierende DB-Abfrage minValue #################################################################################################### sub DbRep_minval { my $paref = shift; my $hash = $paref->{hash}; my $name = $paref->{name}; my $table = $paref->{table}; my $device = $paref->{device}; my $reading = $paref->{reading}; my $prop = $paref->{prop}; my $ts = $paref->{ts}; my ($sql,$sth); my $bst = [gettimeofday]; # Background-Startzeit my ($err,$dbh,$dbmodel) = DbRep_dbConnect($name, 0); return "$name|$err" if ($err); no warnings 'uninitialized'; my ($IsTimeSet,$IsAggrSet) = DbRep_checktimeaggr($hash); # ist Zeiteingrenzung und/oder Aggregation gesetzt ? (wenn ja -> "?" in SQL sonst undef) Log3 ($name, 5, "DbRep $name - IsTimeSet: $IsTimeSet, IsAggrSet: $IsAggrSet"); my @ts = split("\\|", $ts); # Timestampstring to Array Log3 ($name, 5, "DbRep $name - Timestamp-Array: \n@ts"); my $st = [gettimeofday]; # SQL-Startzeit my @row_array; for my $row (@ts) { # DB-Abfrage zeilenweise für jeden Array-Eintrag my @a = split("#", $row); my $runtime_string = $a[0]; my $runtime_string_first = $a[1]; my $runtime_string_next = $a[2]; $runtime_string = encode_base64($runtime_string,""); if ($IsTimeSet || $IsAggrSet) { $sql = DbRep_createSelectSql($hash, $table, "VALUE,TIMESTAMP", $device, $reading, "'$runtime_string_first'", "'$runtime_string_next'", "ORDER BY TIMESTAMP"); } else { $sql = DbRep_createSelectSql($hash, $table, "VALUE,TIMESTAMP", $device, $reading, undef, undef, "ORDER BY TIMESTAMP"); } ($err, $sth) = DbRep_prepareExecuteQuery ($name, $dbh, $sql); return "$name|$err" if ($err); my @array = map { $runtime_string." ".$_->[0]." ".$_->[1]."!_ESC_!".$runtime_string_first."|".$runtime_string_next } @{ $sth->fetchall_arrayref() }; if(!@array) { my $aval = AttrVal($name, "aggregation", ""); my @rsf; if($aval eq "hour") { @rsf = split(/[ :]/,$runtime_string_first); @array = ($runtime_string." "."0"." ".$rsf[0]."_".$rsf[1]."!_ESC_!".$runtime_string_first."|".$runtime_string_next); } elsif($aval eq "minute") { @rsf = split(/[ :]/,$runtime_string_first); @array = ($runtime_string." "."0"." ".$rsf[0]."_".$rsf[1]."-".$rsf[2]."!_ESC_!".$runtime_string_first."|".$runtime_string_next); } else { @rsf = split(" ",$runtime_string_first); @array = ($runtime_string." "."0"." ".$rsf[0]."!_ESC_!".$runtime_string_first."|".$runtime_string_next); } } push(@row_array, @array); } $sth->finish; $dbh->disconnect; my $rt = tv_interval($st); # SQL-Laufzeit ermitteln Log3 ($name, 5, "DbRep $name -> raw data of row_array result:\n @row_array"); #---------- Berechnung Ergebnishash minValue ------------------------ my $i = 1; my %rh = (); my ($row_min_time,$min_value,$value,$lastruntimestring); for my $row (@row_array) { my ($r,$t) = split("!_ESC_!", $row); # $t enthält $runtime_string_first."|".$runtime_string_next my @a = split("[ \t][ \t]*", $r); my $runtime_string = decode_base64($a[0]); $lastruntimestring = $runtime_string if ($i == 1); $value = $a[1]; $min_value = $a[1] if ($i == 1); $a[-1] =~ s/:/-/g if($a[-1]); # substituieren unsupported characters -> siehe fhem.pl my $timestamp = $a[-1] && $a[-2] ? $a[-2]."_".$a[-1] : $a[-1]; $timestamp =~ s/\s+$//g; # Leerzeichen am Ende $timestamp entfernen if (!looks_like_number($value)) { Log3 ($name, 2, "DbRep $name - ERROR - value isn't numeric in minValue function. Faulty dataset was \nTIMESTAMP: $timestamp, DEVICE: $device, READING: $reading, VALUE: $value."); $err = encode_base64("Value isn't numeric. Faulty dataset was - TIMESTAMP: $timestamp, VALUE: $value", ""); return "$name|$err"; } Log3 ($name, 5, "DbRep $name - Runtimestring: $runtime_string, DEVICE: $device, READING: $reading, TIMESTAMP: $timestamp, VALUE: $value"); $rh{$runtime_string} = $runtime_string."|".$min_value."|".$timestamp."|".$t if ($i == 1); # minValue des ersten SQL-Statements in hash einfügen if ($runtime_string eq $lastruntimestring) { if (!defined($min_value) || $value < $min_value) { $min_value = $value; $row_min_time = $timestamp; $rh{$runtime_string} = $runtime_string."|".$min_value."|".$row_min_time."|".$t; } } else { # neuer Zeitabschnitt beginnt, ersten Value-Wert erfassen $lastruntimestring = $runtime_string; $min_value = $value; $row_min_time = $timestamp; $rh{$runtime_string} = $runtime_string."|".$min_value."|".$row_min_time."|".$t; } $i++; } #--------------------------------------------------------------------------------------------- Log3 ($name, 5, "DbRep $name - result of minValue calculation before encoding:"); for my $key (sort(keys(%rh))) { Log3 ($name, 5, "runtimestring Key: $key, value: ".$rh{$key}); } my $rows = join('§', %rh); # Ergebnishash als Einzeiler zurückgeben bzw. an Schreibroutine übergeben my ($wrt,$irowdone); if($prop =~ /writeToDB/) { # Ergebnisse in Datenbank schreiben ($err,$wrt,$irowdone) = DbRep_OutputWriteToDB($name,$device,$reading,$rows,"min"); return "$name|$err" if($err); $rt = $rt+$wrt; } if($prop =~ /deleteOther/) { # andere Werte als "MIN" aus Datenbank löschen ($err,$wrt,$irowdone) = DbRep_deleteOtherFromDB($name,$device,$reading,$rows); return "$name|$err" if ($err); $rt = $rt + $wrt; } my $rowlist = encode_base64($rows,""); $device = encode_base64($device,""); my $brt = tv_interval($bst); # Background-Laufzeit ermitteln $rt = $rt.",".$brt; return "$name|$err|$rowlist|$device|$reading|$rt|$irowdone"; } #################################################################################################### # Auswertungsroutine der nichtblockierenden DB-Abfrage minValue #################################################################################################### sub DbRep_minvalDone { my $string = shift; my @a = split("\\|",$string); my $name = $a[0]; my $err = $a[1] ? decode_base64($a[1]) : ''; my $rowlist = $a[2] ? decode_base64($a[2]) : ''; my $device = $a[3] ? decode_base64($a[3]) : ''; my $reading = $a[4]; my $bt = $a[5]; my $irowdone = $a[6]; my $hash = $defs{$name}; Log3 ($name, 5, qq{DbRep $name - BlockingCall PID "$hash->{HELPER}{RUNNING_PID}{pid}" finished}); delete($hash->{HELPER}{RUNNING_PID}); if ($err) { ReadingsSingleUpdateValue ($hash, "errortext", $err, 1); ReadingsSingleUpdateValue ($hash, "state", "error", 1); DbRep_afterproc ($hash, $hash->{LASTCMD}); # Befehl nach Procedure ausführen return; } my ($rt,$brt) = split ",", $bt; my %rh = split "§", $rowlist; my $ndp = AttrVal($name, "numDecimalPlaces", $dbrep_defdecplaces); $device =~ s/[^A-Za-z\/\d_\.-]/\//g; $reading =~ s/[^A-Za-z\/\d_\.-]/\//g; Log3 ($name, 5, "DbRep $name - result of minValue calculation after decoding:"); for my $key (sort(keys(%rh))) { Log3 ($name, 5, "DbRep $name - runtimestring Key: $key, value: ".$rh{$key}); } no warnings 'uninitialized'; my $reading_runtime_string; readingsBeginUpdate($hash); for my $key (sort(keys(%rh))) { my @k = split("\\|",$rh{$key}); my $rsf = ""; $rsf = $k[2]."__" if($k[2]); if (AttrVal($hash->{NAME}, "readingNameMap", "")) { $reading_runtime_string = $rsf.AttrVal($hash->{NAME}, "readingNameMap", "")."__".$k[0]; } else { my ($ds,$rds) = ("",""); $ds = $device."__" if ($device); $rds = $reading."__" if ($reading); $reading_runtime_string = $rsf.$ds.$rds."MIN__".$k[0]; } my $rv = $k[1]; ReadingsBulkUpdateValue ($hash, $reading_runtime_string, defined($rv) ? sprintf("%.${ndp}f",$rv) : "-"); } ReadingsBulkUpdateValue ($hash, "db_lines_processed", $irowdone) if($hash->{LASTCMD} =~ /writeToDB|deleteOther/); ReadingsBulkUpdateTime ($hash, $brt, $rt); readingsEndUpdate ($hash, 1); DbRep_afterproc ($hash, $hash->{LASTCMD}); # Befehl nach Procedure ausführen incl. state return; } #################################################################################################### # nichtblockierende DB-Abfrage diffValue #################################################################################################### sub DbRep_diffval { my $paref = shift; my $hash = $paref->{hash}; my $name = $paref->{name}; my $table = $paref->{table}; my $device = $paref->{device}; my $reading = $paref->{reading}; my $prop = $paref->{prop}; my $ts = $paref->{ts}; my ($sql,$sth,$selspec); my $bst = [gettimeofday]; # Background-Startzeit my ($err,$dbh,$dbmodel) = DbRep_dbConnect($name, 0); return "$name|$err" if ($err); no warnings 'uninitialized'; my ($IsTimeSet,$IsAggrSet) = DbRep_checktimeaggr($hash); # ist Zeiteingrenzung und/oder Aggregation gesetzt ? (wenn ja -> "?" in SQL sonst undef) Log3 ($name, 5, "DbRep $name - IsTimeSet: $IsTimeSet, IsAggrSet: $IsAggrSet"); my @ts = split("\\|", $ts); # Timestampstring to Array Log3 ($name, 5, "DbRep $name - Timestamp-Array: \n@ts"); if($dbmodel eq "OLDMYSQLVER") { # Forum: https://forum.fhem.de/index.php/topic,130697.0.html $selspec = "TIMESTAMP,VALUE, if(VALUE-\@V < 0 OR \@RB = 1 , \@diff:= 0, \@diff:= VALUE-\@V ) as DIFF, \@V:= VALUE as VALUEBEFORE, \@RB:= '0' as RBIT "; } else { $selspec = "TIMESTAMP,VALUE"; } my @row_array; my @array; my $difflimit = AttrVal ($name, 'diffAccept', 20); # legt fest, bis zu welchem Wert Differenzen akzeptiert werden (Ausreißer eliminieren) my ($sign, $dlim) = DbRep_ExplodeDiffAcc ($difflimit); # $sign -> Vorzeichen (+-) my $st = [gettimeofday]; # SQL-Startzeit for my $row (@ts) { # DB-Abfrage zeilenweise für jeden Array-Eintrag my @a = split "#", $row; my $runtime_string = $a[0]; my $runtime_string_first = $a[1]; my $runtime_string_next = $a[2]; $runtime_string = encode_base64($runtime_string,""); if($dbmodel eq "OLDMYSQLVER") { # Forum: https://forum.fhem.de/index.php/topic,130697.0.html ($err, undef) = DbRep_dbhDo ($name, $dbh, "set \@V:= 0, \@diff:= 0, \@diffTotal:= 0, \@RB:= 1;"); # @\RB = Resetbit wenn neues Selektionsintervall beginnt return "$name|$err" if ($err); } if ($IsTimeSet || $IsAggrSet) { $sql = DbRep_createSelectSql($hash, $table, $selspec, $device , $reading, "'$runtime_string_first'", "'$runtime_string_next'", 'ORDER BY TIMESTAMP'); } else { $sql = DbRep_createSelectSql($hash, $table, $selspec, $device, $reading, undef, undef, 'ORDER BY TIMESTAMP'); } ($err, $sth) = DbRep_prepareExecuteQuery ($name, $dbh, $sql); return "$name|$err" if ($err); if($dbmodel eq "OLDMYSQLVER") { # Forum: https://forum.fhem.de/index.php/topic,130697.0.html @array = map { $runtime_string." ".$_ -> [0]." ".$_ -> [1]." ".$_ -> [2]."\n" } @{ $sth->fetchall_arrayref() }; } else { @array = map { $runtime_string." ".$_ -> [0]." ".$_ -> [1]."\n" } @{ $sth->fetchall_arrayref() }; if (@array) { my @sp; my $dse = 0; my $vold; my @db_array; for my $row (@array) { @sp = split /\s+/x, $row, 4; my $runtime_string = $sp[0]; my $timestamp = $sp[2] ? $sp[1]." ".$sp[2] : $sp[1]; my $vnew = $sp[3]; $vnew =~ tr/\n//d; if (!DbRep_IsNumeric ($vnew)) { # Test auf $value = "numeric" Log3 ($name, 3, "DbRep $name - WARNING - dataset has no numeric value >$vnew< and is ignored\ntimestamp >$timestamp<, device >$device<, reading >$reading<"); next; } if (!defined $vold) { $vold = $vnew; } if ($sign =~ /\+-/xs) { # sowohl positive als auch negative Abweichung auswerten $dse = $vnew - $vold; } else { $dse = ($vnew - $vold) > 0 ? ($vnew - $vold) : 0; # nur positive Abweichung auswerten } @sp = $runtime_string." ".$timestamp." ".$vnew." ".$dse."\n"; $vold = $vnew; push @db_array, @sp; } @array = @db_array; } } if(!@array) { my $aval = AttrVal($name, "aggregation", ""); if($aval eq "month") { my @rsf = split /[ -]/, $runtime_string_first; @array = ($runtime_string." ".$rsf[0]."_".$rsf[1]."\n"); } elsif($aval eq "hour") { my @rsf = split /[ :]/, $runtime_string_first; @array = ($runtime_string." ".$rsf[0]."_".$rsf[1]."\n"); } elsif($aval eq "minute") { my @rsf = split /[ :]/, $runtime_string_first; @array = ($runtime_string." ".$rsf[0]."_".$rsf[1]."-".$rsf[2]."\n"); } else { my $rsfe = encode_base64((split " ", $runtime_string_first)[0],""); my @rsf = split " ", $runtime_string_first; @array = ($rsfe." ".$rsf[0]."\n"); } } push @row_array, @array; } my $rt = tv_interval($st); # SQL-Laufzeit ermitteln $sth->finish; $dbh->disconnect; # Berechnung diffValue aus Selektionshash my %rh = (); # Ergebnishash, wird alle Ergebniszeilen enthalten my %ch = (); # counthash, enthält die Anzahl der verarbeiteten Datasets pro runtime_string my $i = 1; my $max = ($#row_array)+1; # Anzahl aller Listenelemente my $lastruntimestring; my $lval; # immer der letzte Wert von $value my $rslval; # runtimestring von lval my $uediff; # Übertragsdifferenz (Differenz zwischen letzten Wert einer Aggregationsperiode und dem ersten Wert der Folgeperiode) my $diff_current; # Differenzwert des aktuellen Datasets my $diff_before; # Differenzwert vorheriger Datensatz my $rejectstr; # String der ignorierten Differenzsätze my $diff_total; # Summenwert aller berücksichtigten Teildifferenzen Log3 ($name, 5, "DbRep $name - data of row_array result assigned to fields:\n"); for my $row (@row_array) { my @a = split /\s+/x, $row, 6; my $runtime_string = decode_base64($a[0]); $lastruntimestring = $runtime_string if ($i == 1); if(!$a[2]) { $rh{$runtime_string} = $runtime_string."|-|".$runtime_string; next; } my $timestamp = $a[1]."_".$a[2]; my $value = $a[3] ? $a[3] : 0; my $diff = $a[4] ? $a[4] : 0; $timestamp =~ s/\s+$//g; # Leerzeichen am Ende $timestamp entfernen if (!DbRep_IsNumeric ($value)) { # Test auf $value = "numeric" $a[3] =~ s/\s+$//g; Log3 ($name, 2, "DbRep $name - ERROR - value isn't numeric in diffValue function. Faulty dataset was \nTIMESTAMP: $timestamp, DEVICE: $device, READING: $reading, VALUE: $value."); $err = encode_base64("Value isn't numeric. Faulty dataset was - TIMESTAMP: $timestamp, VALUE: $value", ""); return "$name|$err"; } Log3 ($name, 5, "DbRep $name - Runtimestring: $runtime_string, DEVICE: $device, READING: $reading, TIMESTAMP: $timestamp, VALUE: $value, DIFF: $diff"); $diff_current = $timestamp." ".$diff; # String ignorierter Zeilen erzeugen if(abs $diff > $dlim) { $rejectstr .= $diff_before." -> ".$diff_current."\n"; } $diff_before = $diff_current; if ($runtime_string eq $lastruntimestring) { # Ergebnishash erzeugen if ($i == 1) { if(abs $diff <= $dlim) { $diff_total = $diff; } $rh{$runtime_string} = $runtime_string."|".$diff_total."|".$timestamp; $ch{$runtime_string} = 1 if(defined $a[3]); $lval = $value; $rslval = $runtime_string; } if ($diff) { if(abs $diff <= $dlim) { $diff_total = $diff_total + $diff; } $rh{$runtime_string} = $runtime_string."|".$diff_total."|".$timestamp; } $lval = $value; $rslval = $runtime_string; $ch{$runtime_string}++ if(defined $a[3] && $i > 1); } else { # neuer Zeitabschnitt beginnt, ersten Value-Wert erfassen und Übertragsdifferenz bilden $lastruntimestring = $runtime_string; $i = 1; $uediff = $value - $lval; $diff = $uediff; $lval = $value if($value); # Übertrag über Perioden mit value = 0 hinweg ! Log3 ($name, 5, "DbRep $name - balance difference of $uediff between $rslval and $runtime_string"); $rslval = $runtime_string; if(abs $diff <= $dlim) { $diff_total = $diff; } $rh{$runtime_string} = $runtime_string."|".$diff_total."|".$timestamp; $ch{$runtime_string} = 1 if(defined $a[3]); $uediff = 0; } $i++; } Log3 ($name, 5, "DbRep $name - print result of diffValue calculation before encoding ..."); for my $key (sort(keys(%rh))) { Log3 ($name, 5, "runtimestring Key: $key, value: ".$rh{$key}); } my $ncp = DbRep_calcount($hash,\%ch); my ($ncps,$ncpslist); if(%$ncp) { Log3 ($name, 3, "DbRep $name - time/aggregation periods containing only one dataset -> no diffValue calc was possible in period:"); for my $key (sort(keys%{$ncp})) { Log3 ($name, 3, $key) ; } $ncps = join '§', %$ncp; $ncpslist = encode_base64($ncps,""); } # Ergebnishash als Einzeiler zurückgeben # ignorierte Zeilen (abs $diff > $dlim) my $rowsrej; $rowsrej = encode_base64 ($rejectstr, "") if($rejectstr); my $rows = join '§', %rh; # Ergebnishash my ($wrt,$irowdone); # Ergebnisse in Datenbank schreiben if($prop =~ /writeToDB/) { ($err,$wrt,$irowdone) = DbRep_OutputWriteToDB ($name,$device,$reading,$rows,"diff"); return "$name|$err" if($err); $rt = $rt + $wrt; } my $rowlist = encode_base64($rows, ""); $device = encode_base64($device,""); my $brt = tv_interval($bst); # Background-Laufzeit ermitteln $rt = $rt.",".$brt; return "$name|$err|$rowlist|$device|$reading|$rt|$rowsrej|$ncpslist|$irowdone"; } #################################################################################################### # Auswertungsroutine der nichtblockierenden DB-Abfrage diffValue #################################################################################################### sub DbRep_diffvalDone { my $string = shift; my @a = split("\\|",$string); my $name = $a[0]; my $err = $a[1] ? decode_base64($a[1]) : ''; my $rowlist = $a[2] ? decode_base64($a[2]) : ''; my $device = $a[3] ? decode_base64($a[3]) : ''; my $reading = $a[4]; my $bt = $a[5]; my $rowsrej = $a[6] ? decode_base64($a[6]) : ''; # String von Datensätzen die nicht berücksichtigt wurden (diff Schwellenwert Überschreitung) my $ncpslist = $a[7] ? decode_base64($a[7]) : ''; # Hash von Perioden die nicht kalkuliert werden konnten "no calc in period" my $irowdone = $a[8]; my $hash = $defs{$name}; my $ndp = AttrVal ($name, "numDecimalPlaces", $dbrep_defdecplaces); my $difflimit = AttrVal ($name, 'diffAccept', 20); # legt fest, bis zu welchem Wert Differenzen akzeptiert werden (Ausreißer eliminieren) my ($sign, $dlim) = DbRep_ExplodeDiffAcc ($difflimit); my $reading_runtime_string; Log3 ($name, 5, qq{DbRep $name - BlockingCall PID "$hash->{HELPER}{RUNNING_PID}{pid}" finished}); delete($hash->{HELPER}{RUNNING_PID}); if ($err) { ReadingsSingleUpdateValue ($hash, "errortext", $err, 1); ReadingsSingleUpdateValue ($hash, "state", "error", 1); DbRep_afterproc ($hash, $hash->{LASTCMD}); # Befehl nach Procedure ausführen return; } my ($rt,$brt) = split ",", $bt; $device =~ s/[^A-Za-z\/\d_\.-]/\//g; $reading =~ s/[^A-Za-z\/\d_\.-]/\//g; no warnings 'uninitialized'; $rowsrej =~ s/_/ /g; Log3 ($name, 3, "DbRep $name -> data ignored while calc diffValue due to threshold overrun (diffAccept = $difflimit): \n$rowsrej") if($rowsrej); $rowsrej =~ s/\n/ \|\| /g; my %ncp = split("§", $ncpslist); my $ncpstr; if(%ncp) { for my $ncpkey (sort(keys(%ncp))) { $ncpstr .= $ncpkey." || "; } } my %rh = split("§", $rowlist); readingsBeginUpdate($hash); for my $key (sort(keys(%rh))) { my $valid = 0; # Datensatz hat kein Ergebnis als default my @k = split("\\|",$rh{$key}); $valid = 1 if($k[2] =~ /(\d{4})-(\d{2})-(\d{2})_(\d{2}):(\d{2}):(\d{2})/x); # Datensatz hat einen Wert wenn kompletter Timestamp ist enthalten my $rts = $k[2]."__"; $rts =~ s/:/-/g; # substituieren unsupported characters -> siehe fhem.pl if (AttrVal($hash->{NAME}, "readingNameMap", "")) { $reading_runtime_string = $rts.AttrVal($hash->{NAME}, "readingNameMap", "")."__".$k[0]; } else { my ($ds,$rds) = ("",""); $ds = $device."__" if ($device); $rds = $reading."__" if ($reading); $reading_runtime_string = $rts.$ds.$rds."DIFF__".$k[0]; } my $rv = $k[1]; ReadingsBulkUpdateValue ($hash, $reading_runtime_string, (!$valid ? "-" : defined $rv ? sprintf "%.${ndp}f", $rv : "-")); } ReadingsBulkUpdateValue ($hash, "db_lines_processed", $irowdone) if($hash->{LASTCMD} =~ /writeToDB/); ReadingsBulkUpdateValue ($hash, "diff_overrun_limit_".$dlim, $rowsrej) if($rowsrej); ReadingsBulkUpdateValue ($hash, "less_data_in_period", $ncpstr) if($ncpstr); ReadingsBulkUpdateValue ($hash, "state", qq{WARNING - see readings 'less_data_in_period' or 'diff_overrun_limit_XX'}) if($ncpstr||$rowsrej); ReadingsBulkUpdateTime ($hash, $brt, $rt); readingsEndUpdate ($hash, 1); DbRep_afterproc ($hash, $hash->{LASTCMD}); # Befehl nach Procedure ausführen incl. state return; } #################################################################################################### # nichtblockierende DB-Abfrage sumValue #################################################################################################### sub DbRep_sumval { my $paref = shift; my $hash = $paref->{hash}; my $name = $paref->{name}; my $table = $paref->{table}; my $device = $paref->{device}; my $reading = $paref->{reading}; my $prop = $paref->{prop}; my $ts = $paref->{ts}; my ($sql,$sth,$selspec); my $bst = [gettimeofday]; # Background-Startzeit my ($err,$dbh,$dbmodel) = DbRep_dbConnect($name, 0); return "$name|$err" if ($err); no warnings 'uninitialized'; # only for this block because of warnings if details of readings are not set my ($IsTimeSet,$IsAggrSet) = DbRep_checktimeaggr($hash); # ist Zeiteingrenzung und/oder Aggregation gesetzt ? (wenn ja -> "?" in SQL sonst undef) Log3 ($name, 5, "DbRep $name - IsTimeSet: $IsTimeSet, IsAggrSet: $IsAggrSet"); my @ts = split("\\|", $ts); # Timestampstring to Array Log3 ($name, 5, "DbRep $name - Timestamp-Array: \n@ts"); if ($dbmodel eq "POSTGRESQL") { #vorbereiten der DB-Abfrage, DB-Modell-abhaengig $selspec = "SUM(VALUE::numeric)"; } elsif ($dbmodel eq "MYSQL") { $selspec = "SUM(VALUE)"; } elsif ($dbmodel eq "SQLITE") { $selspec = "SUM(VALUE)"; } else { $selspec = "SUM(VALUE)"; } my $st = [gettimeofday]; # SQL-Startzeit my ($arrstr,$wrstr,@rsf,@rsn,@wsf,@wsn); for my $row (@ts) { # DB-Abfrage zeilenweise für jeden Array-Eintrag my @a = split("#", $row); my $runtime_string = $a[0]; my $runtime_string_first = $a[1]; my $runtime_string_next = $a[2]; if ($IsTimeSet || $IsAggrSet) { $sql = DbRep_createSelectSql($hash, $table, $selspec, $device, $reading, "'$runtime_string_first'", "'$runtime_string_next'", ''); } else { $sql = DbRep_createSelectSql($hash, $table, $selspec, $device, $reading, undef, undef, ''); } ($err, $sth) = DbRep_prepareExecuteQuery ($name, $dbh, $sql); return "$name|$err" if ($err); my @line = $sth->fetchrow_array(); # DB-Abfrage -> Ergebnis in @arr aufnehmen Log3 ($name, 5, "DbRep $name - SQL result: $line[0]") if($line[0]); if(AttrVal($name, "aggregation", "") eq "hour") { @rsf = split(/[ :]/,$runtime_string_first); @rsn = split(/[ :]/,$runtime_string_next); $arrstr .= $runtime_string."#".$line[0]."#".$rsf[0]."_".$rsf[1]."|"; } else { @rsf = split(" ",$runtime_string_first); @rsn = split(" ",$runtime_string_next); $arrstr .= $runtime_string."#".$line[0]."#".$rsf[0]."|"; } @wsf = split(" ",$runtime_string_first); @wsn = split(" ",$runtime_string_next); $wrstr .= $runtime_string."#".$line[0]."#".$wsf[0]."_".$wsf[1]."#".$wsn[0]."_".$wsn[1]."|"; # Kombi zum Rückschreiben in die DB } $sth->finish; $dbh->disconnect; my $rt = tv_interval($st); # SQL-Laufzeit ermitteln my ($wrt,$irowdone); # Ergebnisse in Datenbank schreiben if($prop =~ /writeToDB/) { ($err,$wrt,$irowdone) = DbRep_OutputWriteToDB($name,$device,$reading,$wrstr,"sum"); return "$name|$err" if($err); $rt = $rt+$wrt; } $arrstr = encode_base64($arrstr,""); # Daten müssen als Einzeiler zurückgegeben werden $device = encode_base64($device,""); my $brt = tv_interval($bst); # Background-Laufzeit ermitteln $rt = $rt.",".$brt; return "$name|$err|$arrstr|$device|$reading|$rt|$irowdone"; } #################################################################################################### # Auswertungsroutine der nichtblockierenden DB-Abfrage sumValue #################################################################################################### sub DbRep_sumvalDone { my $string = shift; my @a = split("\\|",$string); my $name = $a[0]; my $err = $a[1] ? decode_base64($a[1]) : ''; my $arrstr = $a[2] ? decode_base64($a[2]) : ''; my $device = $a[3] ? decode_base64($a[3]) : ''; my $reading = $a[4]; my $bt = $a[5]; my $irowdone = $a[6]; my $hash = $defs{$name}; Log3 ($name, 5, qq{DbRep $name - BlockingCall PID "$hash->{HELPER}{RUNNING_PID}{pid}" finished}); delete($hash->{HELPER}{RUNNING_PID}); if ($err) { ReadingsSingleUpdateValue ($hash, "errortext", $err, 1); ReadingsSingleUpdateValue ($hash, "state", "error", 1); DbRep_afterproc ($hash, $hash->{LASTCMD}); # Befehl nach Procedure ausführen return; } my ($rt,$brt) = split ",", $bt; my $ndp = AttrVal($name, "numDecimalPlaces", $dbrep_defdecplaces); $device =~ s/[^A-Za-z\/\d_\.-]/\//g; $reading =~ s/[^A-Za-z\/\d_\.-]/\//g; my $reading_runtime_string; no warnings 'uninitialized'; # only for this block because of warnings if details of readings are not set readingsBeginUpdate ($hash); my @arr = split("\\|", $arrstr); for my $row (@arr) { my @a = split("#", $row); my $runtime_string = $a[0]; my $c = $a[1] // ""; my $rsf = $a[2]."__"; if (AttrVal($hash->{NAME}, "readingNameMap", "")) { $reading_runtime_string = $rsf.AttrVal($hash->{NAME}, "readingNameMap", "")."__".$runtime_string; } else { my ($ds,$rds) = ("",""); $ds = $device. "__" if ($device); $rds = $reading."__" if ($reading); $reading_runtime_string = $rsf.$ds.$rds."SUM__".$runtime_string; } ReadingsBulkUpdateValue ($hash, $reading_runtime_string, $c ne "" ? sprintf "%.${ndp}f", $c : "-"); } ReadingsBulkUpdateValue ($hash, "db_lines_processed", $irowdone) if($hash->{LASTCMD} =~ /writeToDB/); ReadingsBulkUpdateTime ($hash, $brt, $rt); readingsEndUpdate ($hash, 1); DbRep_afterproc ($hash, $hash->{LASTCMD}); # Befehl nach Procedure ausführen incl. state return; } #################################################################################################### # nichtblockierendes DB delete #################################################################################################### sub DbRep_del { my $paref = shift; my $hash = $paref->{hash}; my $name = $paref->{name}; my $table = $paref->{table}; my $device = $paref->{device}; my $reading = $paref->{reading}; my $runtime_string_first = $paref->{rsf}; my $runtime_string_next = $paref->{rsn}; my ($sql,$sth,$rows); my $bst = [gettimeofday]; # Background-Startzeit my ($err,$dbh,$dbmodel) = DbRep_dbConnect($name, 0); return "$name|$err" if ($err); my ($IsTimeSet,$IsAggrSet) = DbRep_checktimeaggr($hash); # ist Zeiteingrenzung und/oder Aggregation gesetzt ? (wenn ja -> "?" in SQL sonst undef) Log3 ($name, 5, "DbRep $name - IsTimeSet: $IsTimeSet, IsAggrSet: $IsAggrSet"); BlockingInformParent("DbRep_delHashValFromBlocking", [$name, "HELPER","DELENTRIES"], 1); if ($IsTimeSet || $IsAggrSet) { $sql = DbRep_createDeleteSql($hash,$table,$device,$reading,$runtime_string_first,$runtime_string_next,''); } else { $sql = DbRep_createDeleteSql($hash,$table,$device,$reading,undef,undef,''); } my $st = [gettimeofday]; # SQL-Startzeit ($err, $sth) = DbRep_prepareExecuteQuery ($name, $dbh, $sql); return "$name|$err" if ($err); $rows = $sth->rows; $dbh->commit() if(!$dbh->{AutoCommit}); $sth->finish; $dbh->disconnect; my $rt = tv_interval($st); # SQL-Laufzeit ermitteln Log3 ($name, 5, "DbRep $name - Number of deleted rows: $rows"); my $brt = tv_interval($bst); # Background-Laufzeit ermitteln $rt = $rt.",".$brt; return "$name|$err|$rows|$rt|$table|$device|$reading"; } #################################################################################################### # Auswertungsroutine DB delete #################################################################################################### sub DbRep_del_Done { my $string = shift; my @a = split("\\|",$string); my $name = $a[0]; my $err = $a[1] ? decode_base64($a[1]) : ''; my $rows = $a[2]; my $bt = $a[3]; my $table = $a[4]; my $device = $a[5]; my $reading = $a[6]; my $hash = $defs{$name}; Log3 ($name, 5, qq{DbRep $name - BlockingCall PID "$hash->{HELPER}{RUNNING_PID}{pid}" finished}); delete($hash->{HELPER}{RUNNING_PID}); if ($err) { ReadingsSingleUpdateValue ($hash, "errortext", $err, 1); ReadingsSingleUpdateValue ($hash, "state", "error", 1); DbRep_afterproc ($hash, $hash->{LASTCMD}); # Befehl nach Procedure ausführen return; } my ($rt,$brt) = split ",", $bt; $device =~ s/[^A-Za-z\/\d_\.-]/\//g; $reading =~ s/[^A-Za-z\/\d_\.-]/\//g; no warnings 'uninitialized'; my ($reading_runtime_string, $ds, $rds); if (AttrVal($hash->{NAME}, "readingNameMap", "")) { $reading_runtime_string = AttrVal($hash->{NAME}, "readingNameMap", "")."--DELETED_ROWS"; } else { $ds = $device. "--" if ($device && $table ne "current"); $rds = $reading."--" if ($reading && $table ne "current"); $reading_runtime_string = $ds.$rds."DELETED_ROWS_".uc($table); } readingsBeginUpdate ($hash); ReadingsBulkUpdateValue ($hash, $reading_runtime_string, $rows); $rows = $table eq "current" ? $rows : $ds.$rds.$rows; Log3 ($name, 3, "DbRep $name - Entries of $hash->{DATABASE}.$table deleted: $rows"); ReadingsBulkUpdateTime ($hash, $brt, $rt); readingsEndUpdate ($hash, 1); DbRep_afterproc ($hash, $hash->{LASTCMD}); # Befehl nach Procedure ausführen incl. state return; } #################################################################################################### # nichtblockierendes DB insert #################################################################################################### sub DbRep_insert { my $paref = shift; my $hash = $paref->{hash}; my $name = $paref->{name}; my $table = $paref->{table}; my $prop = $paref->{prop}; my $dbloghash = $defs{$hash->{HELPER}{DBLOGDEVICE}}; my $bst = [gettimeofday]; # Background-Startzeit my ($err,$dbh,$dbmodel) = DbRep_dbConnect($name, 0); return "$name|$err" if ($err); # check ob PK verwendet wird, @usepkx ? Anzahl der Felder im PK : 0 wenn kein PK, # $pkx ? Namen der Felder : none wenn kein PK my ($usepkh,$usepkc,$pkh,$pkc) = DbRep_checkUsePK($hash,$dbloghash,$dbh); my ($i_timestamp,$i_device,$i_reading,$i_value,$i_unit) = split ",", $prop; my $i_type = "manual"; my $i_event = "manual"; if ($dbmodel ne 'SQLITE') { # V8.48.4 - Daten auf maximale Länge (entsprechend der Feldlänge in DbLog) beschneiden wenn nicht SQLite $i_device = substr($i_device, 0, $hash->{HELPER}{DBREPCOL}{DEVICE}); $i_reading = substr($i_reading, 0, $hash->{HELPER}{DBREPCOL}{READING}); $i_value = substr($i_value, 0, $hash->{HELPER}{DBREPCOL}{VALUE}); $i_unit = substr($i_unit, 0, $hash->{HELPER}{DBREPCOL}{UNIT}); } Log3 ($name, 5, "DbRep $name -> data to insert Timestamp: $i_timestamp, Device: $i_device, Type: $i_type, Event: $i_event, Reading: $i_reading, Value: $i_value, Unit: $i_unit"); my $st = [gettimeofday]; # SQL-Startzeit my ($sth,$sql,$irow); # insert into $table mit/ohne primary key if ($usepkh && $dbmodel eq 'MYSQL') { $sql = "INSERT IGNORE INTO $table (TIMESTAMP, DEVICE, TYPE, EVENT, READING, VALUE, UNIT) VALUES (?,?,?,?,?,?,?)"; } elsif ($usepkh && $dbmodel eq 'SQLITE') { $sql = "INSERT OR IGNORE INTO $table (TIMESTAMP, DEVICE, TYPE, EVENT, READING, VALUE, UNIT) VALUES (?,?,?,?,?,?,?)"; } elsif ($usepkh && $dbmodel eq 'POSTGRESQL') { $sql = "INSERT INTO $table (TIMESTAMP, DEVICE, TYPE, EVENT, READING, VALUE, UNIT) VALUES (?,?,?,?,?,?,?) ON CONFLICT DO NOTHING"; } else { $sql = "INSERT INTO $table (TIMESTAMP, DEVICE, TYPE, EVENT, READING, VALUE, UNIT) VALUES (?,?,?,?,?,?,?)"; } ($err, $sth) = DbRep_prepareOnly ($name, $dbh, $sql); return "$name|$err" if ($err); $err = DbRep_beginDatabaseTransaction ($name, $dbh); return "$name|$err" if ($err); eval{ $sth->execute($i_timestamp, $i_device, $i_type, $i_event, $i_reading, $i_value, $i_unit); } or do { $err = encode_base64($@,""); Log3 ($name, 2, "DbRep $name - Insert new dataset into database failed".($usepkh ? " (possible PK violation) " : ": ")."$@"); $dbh->rollback(); $dbh->disconnect(); return "$name|$err"; }; $err = DbRep_commitOnly ($name, $dbh); return "$name|$err" if ($err); $dbh->disconnect(); $err = q{}; $irow = $sth->rows; Log3 ($name, 4, "DbRep $name - Inserted into $hash->{DATABASE}.$table: $i_timestamp, $i_device, $i_type, $i_event, $i_reading, $i_value, $i_unit"); my $rt = tv_interval($st); # SQL-Laufzeit ermitteln my $brt = tv_interval($bst); # Background-Laufzeit ermitteln $rt = $rt.",".$brt; my $insert = encode_base64 ("$i_timestamp,$i_device,$i_type,$i_event,$i_reading,$i_value,$i_unit", ""); return "$name|$err|$irow|$rt|$insert"; } #################################################################################################### # Auswertungsroutine DB insert #################################################################################################### sub DbRep_insertDone { my $string = shift; my @a = split("\\|",$string); my $name = $a[0]; my $err = $a[1] ? decode_base64 ($a[1]) : ''; my $irow = $a[2]; my $bt = $a[3]; my $insert = $a[4] ? decode_base64 ($a[4]) : ''; my $hash = $defs{$name}; Log3 ($name, 5, qq{DbRep $name - BlockingCall PID "$hash->{HELPER}{RUNNING_PID}{pid}" finished}); delete($hash->{HELPER}{RUNNING_PID}); if ($err) { ReadingsSingleUpdateValue ($hash, "errortext", $err, 1); ReadingsSingleUpdateValue ($hash, "state", "error", 1); DbRep_afterproc ($hash, "insert"); # Befehl nach Procedure ausführen return; } my ($rt,$brt) = split ",", $bt; my ($i_timestamp, $i_device, $i_type, $i_event, $i_reading, $i_value, $i_unit) = split ",", $insert; no warnings 'uninitialized'; readingsBeginUpdate ($hash); ReadingsBulkUpdateValue ($hash, "number_lines_inserted", $irow); ReadingsBulkUpdateValue ($hash, "data_inserted", $i_timestamp.", ".$i_device.", ".$i_type.", ".$i_event.", ".$i_reading.", ".$i_value.", ".$i_unit); ReadingsBulkUpdateTime ($hash, $brt, $rt); readingsEndUpdate ($hash, 1); DbRep_afterproc ($hash, "insert"); # Befehl nach Procedure ausführen incl. state return; } #################################################################################################### # Current-Tabelle mit Device,Reading Kombinationen aus history auffüllen #################################################################################################### sub DbRep_currentfillup { my $paref = shift; my $hash = $paref->{hash}; my $name = $paref->{name}; my $table = $paref->{table}; my $device = $paref->{device}; my $reading = $paref->{reading}; my $runtime_string_first = $paref->{rsf}; my $runtime_string_next = $paref->{rsn}; my $dbloghash = $defs{$hash->{HELPER}{DBLOGDEVICE}}; my ($sth,$sql,$irow,$selspec,$addon,@dwc,@rwc); my $bst = [gettimeofday]; # Background-Startzeit my ($err,$dbh,$dbmodel) = DbRep_dbConnect($name, 0); return "$name|$err" if ($err); my ($usepkh,$usepkc,$pkh,$pkc) = DbRep_checkUsePK($hash,$dbloghash,$dbh); # check ob PK verwendet wird, @usepkx?Anzahl der Felder im PK:0 wenn kein PK, $pkx?Namen der Felder:none wenn kein PK my ($IsTimeSet,$IsAggrSet) = DbRep_checktimeaggr($hash); # ist Zeiteingrenzung und/oder Aggregation gesetzt ? (wenn ja -> "?" in SQL sonst undef) Log3 ($name, 5, "DbRep $name - IsTimeSet: $IsTimeSet, IsAggrSet: $IsAggrSet"); my $st = [gettimeofday]; # SQL-Startzeit if ($usepkc && $dbloghash->{MODEL} eq 'MYSQL') { $selspec = "INSERT IGNORE INTO $table (TIMESTAMP,DEVICE,READING) SELECT timestamp,device,reading FROM history where"; $addon = "group by timestamp,device,reading"; } elsif ($usepkc && $dbloghash->{MODEL} eq 'SQLITE') { $selspec = "INSERT OR IGNORE INTO $table (TIMESTAMP,DEVICE,READING) SELECT timestamp,device,reading FROM history where"; $addon = "group by timestamp,device,reading"; } elsif ($usepkc && $dbloghash->{MODEL} eq 'POSTGRESQL') { $selspec = "INSERT INTO $table (DEVICE,TIMESTAMP,READING) SELECT device, (array_agg(timestamp ORDER BY reading ASC))[1], reading FROM history where"; $addon = "group by device,reading ON CONFLICT ($pkc) DO NOTHING"; } else { if($dbloghash->{MODEL} ne 'POSTGRESQL') { # MySQL und SQLite $selspec = "INSERT INTO $table (TIMESTAMP,DEVICE,READING) SELECT timestamp,device,reading FROM history where"; $addon = "group by device,reading"; } else { # PostgreSQL $selspec = "INSERT INTO $table (DEVICE,TIMESTAMP,READING) SELECT device, (array_agg(timestamp ORDER BY reading ASC))[1], reading FROM history where"; $addon = "group by device,reading"; } } # SQL-Statement zusammenstellen my $valfilter = AttrVal($name, "valueFilter", undef); # Wertefilter my $specs = { hash => $hash, selspec => $selspec, device => $device, reading => $reading, dbmodel => $dbmodel, valfilter => $valfilter, addon => $addon }; if ($IsTimeSet || $IsAggrSet) { $specs->{rsf} = $runtime_string_first; $specs->{rsn} = $runtime_string_next; } $sql = DbRep_createCommonSql($specs); $err = DbRep_beginDatabaseTransaction ($name, $dbh); return "$name|$err" if ($err); ($err, $sth, $irow) = DbRep_prepareExecuteQuery ($name, $dbh, $sql); return "$name|$err" if ($err); $err = DbRep_commitOnly ($name, $dbh); return "$name|$err" if ($err); $dbh->disconnect(); $irow = $irow eq "0E0" ? 0 : $irow; my $rt = tv_interval($st); # SQL-Laufzeit ermitteln my $brt = tv_interval($bst); # Background-Laufzeit ermitteln $rt = $rt.",".$brt; return "$name|$err|$irow|$rt|$device|$reading"; } #################################################################################################### # Auswertungsroutine Current-Tabelle auffüllen #################################################################################################### sub DbRep_currentfillupDone { my $string = shift; my @a = split("\\|",$string); my $name = $a[0]; my $err = $a[1] ? decode_base64($a[1]) : ''; my $irow = $a[2]; my $bt = $a[3]; my $device = $a[4]; my $reading = $a[5]; my $hash = $defs{$name}; Log3 ($name, 5, qq{DbRep $name - BlockingCall PID "$hash->{HELPER}{RUNNING_PID}{pid}" finished}); delete($hash->{HELPER}{RUNNING_PID}); if ($err) { ReadingsSingleUpdateValue ($hash, "errortext", $err, 1); ReadingsSingleUpdateValue ($hash, "state", "error", 1); DbRep_afterproc ($hash, $hash->{LASTCMD}); # Befehl nach Procedure ausführen return; } my ($rt,$brt) = split ",", $bt; undef $device if ($device =~ m(^%$)); undef $reading if ($reading =~ m(^%$)); no warnings 'uninitialized'; my $rowstr; $rowstr = $irow if(!$device && !$reading); $rowstr = $irow." - limited by device: ".$device if($device && !$reading); $rowstr = $irow." - limited by reading: ".$reading if(!$device && $reading); $rowstr = $irow." - limited by device: ".$device." and reading: ".$reading if($device && $reading); readingsBeginUpdate ($hash); ReadingsBulkUpdateValue ($hash, "number_lines_inserted", $rowstr); ReadingsBulkUpdateTime ($hash, $brt, $rt); readingsEndUpdate ($hash, 1); DbRep_afterproc ($hash, $hash->{LASTCMD}); # Befehl nach Procedure ausführen incl. state Log3 ($name, 3, "DbRep $name - Table '$hash->{DATABASE}'.'current' filled up with rows: $rowstr"); return; } #################################################################################################### # nichtblockierendes DB deviceRename / readingRename #################################################################################################### sub DbRep_changeDevRead { my $paref = shift; my $hash = $paref->{hash}; my $name = $paref->{name}; my $table = $paref->{table}; my $renmode = $paref->{renmode}; my $device = $paref->{device}; my $reading = $paref->{reading}; my $db = $hash->{DATABASE}; my ($sql,$dev,$sth,$old,$new); my $bst = [gettimeofday]; # Background-Startzeit my ($err,$dbh,$dbmodel) = DbRep_dbConnect($name, 0); return "$name|$err" if ($err); my $st = [gettimeofday]; # SQL-Startzeit $err = DbRep_beginDatabaseTransaction ($name, $dbh); return "$name|$err" if ($err); if ($renmode eq "devren") { $old = delete $hash->{HELPER}{OLDDEV}; $new = delete $hash->{HELPER}{NEWDEV}; Log3 ($name, 5, qq{DbRep $name -> Rename old device name "$old" to new device name "$new" in database $db}); $old =~ s/'/''/g; # escape ' with '' $new =~ s/'/''/g; # escape ' with '' $sql = "UPDATE history SET TIMESTAMP=TIMESTAMP,DEVICE='$new' WHERE DEVICE='$old'; "; } elsif ($renmode eq "readren") { $old = delete $hash->{HELPER}{OLDREAD}; ($dev,$old) = split ":", $old,2 if($old =~ /:/); # Wert besteht aus [device]:old_readingname, device ist optional $new = delete $hash->{HELPER}{NEWREAD}; Log3 ($name, 5, qq{DbRep $name -> Rename old reading name }.($dev ? "$dev:$old" : "$old").qq{ to new reading name "$new" in database $db}); $old =~ s/'/''/g; # escape ' with '' $new =~ s/'/''/g; # escape ' with '' if($dev) { $sql = "UPDATE history SET TIMESTAMP=TIMESTAMP,READING='$new' WHERE DEVICE='$dev' AND READING='$old'; "; } else { $sql = "UPDATE history SET TIMESTAMP=TIMESTAMP,READING='$new' WHERE READING='$old'; "; } } $old =~ s/''/'/g; # escape back $new =~ s/''/'/g; # escape back my $urow; ($err, $sth) = DbRep_prepareOnly ($name, $dbh, $sql); return "$name|$err" if ($err); eval{ $sth->execute(); } or do { $err = encode_base64($@,""); my $m = ($renmode eq "devren") ? "device" : "reading"; Log3 ($name, 2, qq{DbRep $name - Failed to rename old $m name "$old" to new $m name "$new": $@}); $dbh->rollback() if(!$dbh->{AutoCommit}); $dbh->disconnect(); return "$name|$err"; }; $err = DbRep_commitOnly ($name, $dbh); return "$name|$err" if ($err); $dbh->disconnect(); $urow = $sth->rows; my $rt = tv_interval($st); # SQL-Laufzeit ermitteln my $brt = tv_interval($bst); # Background-Laufzeit ermitteln $rt = $rt.",".$brt; $old = $dev ? "$dev:$old" : $old; $err = q{}; return "$name|$err|$urow|$rt|$old|$new|$renmode"; } #################################################################################################### # nichtblockierendes DB changeValue (Field VALUE) #################################################################################################### sub DbRep_changeVal { my $paref = shift; my $hash = $paref->{hash}; my $name = $paref->{name}; my $table = $paref->{table}; my $renmode = $paref->{renmode}; my $device = $paref->{device}; my $reading = $paref->{reading}; my $runtime_string_first = $paref->{rsf}; my $runtime_string_next = $paref->{rsn}; my $ts = $paref->{ts}; my $dbloghash = $defs{$hash->{HELPER}{DBLOGDEVICE}}; my $db = $hash->{DATABASE}; my $complex = $hash->{HELPER}{COMPLEX}; # einfache oder komplexe Werteersetzung my ($sql,$urow,$sth); my $bst = [gettimeofday]; # Background-Startzeit my ($err,$dbh,$dbmodel) = DbRep_dbConnect($name, 0); return "$name|$err" if ($err); # ist Zeiteingrenzung und/oder Aggregation gesetzt ? (wenn ja -> "?" in SQL sonst undef) my ($IsTimeSet,$IsAggrSet) = DbRep_checktimeaggr($hash); Log3 ($name, 5, "DbRep $name - IsTimeSet: $IsTimeSet, IsAggrSet: $IsAggrSet"); my $st = [gettimeofday]; # SQL-Startzeit $err = DbRep_beginDatabaseTransaction ($name, $dbh); return "$name|$err" if ($err); my $old = delete $hash->{HELPER}{OLDVAL}; my $new = delete $hash->{HELPER}{NEWVAL}; if (!$complex) { Log3 ($name, 5, qq{DbRep $name -> Change old value "$old" to new value "$new" in database $db}); $old =~ s/'/''/g; # escape ' with '' $new =~ s/'/''/g; # escape ' with '' my $addon = $old =~ /%/ ? "WHERE VALUE LIKE '$old'" : "WHERE VALUE='$old'"; my $selspec = "UPDATE $table SET TIMESTAMP=TIMESTAMP,VALUE='$new' $addon AND "; my $valfilter = AttrVal($name, "valueFilter", undef); # Wertefilter my $specs = { hash => $hash, selspec => $selspec, device => $device, reading => $reading, dbmodel => $dbmodel, valfilter => $valfilter, addon => '' }; if ($IsTimeSet) { $specs->{rsf} = $runtime_string_first; $specs->{rsn} = $runtime_string_next; } $sql = DbRep_createCommonSql($specs); ($err, $sth) = DbRep_prepareOnly ($name, $dbh, $sql); return "$name|$err" if ($err); $old =~ s/''/'/g; # escape back $new =~ s/''/'/g; # escape back eval{ $sth->execute(); } or do { $err = encode_base64($@, ""); Log3 ($name, 2, qq{DbRep $name - Failed to change old value "$old" to new value "$new": $@}); $dbh->rollback() if(!$dbh->{AutoCommit}); $dbh->disconnect(); return "$name|$err"; }; $urow = $sth->rows; } else { $old =~ s/'/''/g; # escape ' with '' my @tsa = split("\\|", $ts); # Timestampstring to Array Log3 ($name, 5, "DbRep $name - Timestamp-Array: \n@tsa"); $urow = 0; my $selspec = "DEVICE,READING,TIMESTAMP,VALUE,UNIT"; my $addon = $old =~ /%/ ? "AND VALUE LIKE '$old'" : "AND VALUE='$old'"; for my $row (@tsa) { # DB-Abfrage zeilenweise für jeden Array-Eintrag my @ra = split("#", $row); my $runtime_string = $ra[0]; my $runtime_string_first = $ra[1]; my $runtime_string_next = $ra[2]; if ($IsTimeSet || $IsAggrSet) { $sql = DbRep_createSelectSql($hash,$table,$selspec,$device,$reading,"'$runtime_string_first'","'$runtime_string_next'",$addon); } else { $sql = DbRep_createSelectSql($hash,$table,$selspec,$device,$reading,undef,undef,$addon); } ($err, $sth) = DbRep_prepareExecuteQuery ($name, $dbh, $sql); return "$name|$err" if ($err); no warnings 'uninitialized'; # DEVICE _ESC_ READING _ESC_ DATE _ESC_ TIME _ESC_ VALUE _ESC_ UNIT my @row_array = map { $_->[0]."_ESC_".$_->[1]."_ESC_".($_->[2] =~ s/ /_ESC_/r)."_ESC_".$_->[3]."_ESC_".$_->[4]."\n" } @{$sth->fetchall_arrayref()}; use warnings; Log3 ($name, 4, "DbRep $name - Now change values of selected array ... "); for my $upd (@row_array) { # für jeden selektierten (zu ändernden) Datensatz Userfunktion anwenden und updaten my ($device,$reading,$date,$time,$value,$unit) = ($upd =~ /^(.*)_ESC_(.*)_ESC_(.*)_ESC_(.*)_ESC_(.*)_ESC_(.*)$/); my $oval = $value; # Selektkriterium für Update alter Valuewert my $VALUE = $value; my $UNIT = $unit; eval $new; if ($@) { $err = encode_base64($@,""); Log3 ($name, 2, "DbRep $name - $@"); $dbh->disconnect; return "$name|$err"; } $value = $VALUE if(defined $VALUE); $unit = $UNIT if(defined $UNIT); # Daten auf maximale Länge beschneiden (DbLog-Funktion !) (undef,undef,undef,undef,$value,$unit) = DbLog_cutCol($dbloghash,"1","1","1","1",$value,$unit); $value =~ s/'/''/g; # escape ' with '' $unit =~ s/'/''/g; # escape ' with '' $sql = "UPDATE history SET TIMESTAMP=TIMESTAMP,VALUE='$value',UNIT='$unit' WHERE TIMESTAMP = '$date $time' AND DEVICE = '$device' AND READING = '$reading' AND VALUE='$oval'"; ($err, $sth) = DbRep_prepareOnly ($name, $dbh, $sql); return "$name|$err" if ($err); $value =~ s/''/'/g; # escape back $unit =~ s/''/'/g; # escape back eval{ $sth->execute(); } or do { $err = encode_base64($@,""); Log3 ($name, 2, qq{DbRep $name - Failed to change old value "$old" to new value "$new": $@}); $dbh->rollback() if(!$dbh->{AutoCommit}); $dbh->disconnect(); return "$name|$err"; }; $urow++; } } } $err = DbRep_commitOnly ($name, $dbh); return "$name|$err" if ($err); $dbh->disconnect(); my $rt = tv_interval($st); # SQL-Laufzeit ermitteln my $brt = tv_interval($bst); # Background-Laufzeit ermitteln $rt = $rt.",".$brt; return "$name|$err|$urow|$rt|$old|$new|$renmode"; } #################################################################################################### # Auswertungsroutine DB deviceRename/readingRename/changeValue #################################################################################################### sub DbRep_changeDone { my $string = shift; my @a = split("\\|",$string); my $name = $a[0]; my $err = $a[1] ? decode_base64($a[1]) : ''; my $urow = $a[2]; my $bt = $a[3]; my $old = $a[4]; my $new = $a[5]; my $renmode = $a[6]; my $hash = $defs{$name}; Log3 ($name, 5, qq{DbRep $name - BlockingCall PID "$hash->{HELPER}{RUNNING_PID}{pid}" finished}); delete($hash->{HELPER}{RUNNING_PID}); if ($err) { ReadingsSingleUpdateValue ($hash, "errortext", $err, 1); ReadingsSingleUpdateValue ($hash, "state", "error", 1); DbRep_afterproc ($hash, $renmode); # Befehl nach Procedure ausführen return; } my ($rt,$brt) = split(",", $bt); no warnings 'uninitialized'; readingsBeginUpdate ($hash); ReadingsBulkUpdateValue ($hash, "number_lines_updated", $urow); if($renmode eq "devren") { ReadingsBulkUpdateValue ($hash, "device_renamed", "old: ".$old." to new: ".$new) if($urow != 0); ReadingsBulkUpdateValue ($hash, "device_not_renamed", "WARNING - old: ".$old." not found") if($urow == 0); } if($renmode eq "readren") { ReadingsBulkUpdateValue ($hash, "reading_renamed", "old: ".$old." to new: ".$new) if($urow != 0); ReadingsBulkUpdateValue ($hash, "reading_not_renamed", "WARNING - old: ".$old." not found") if ($urow == 0); } if($renmode eq "changeval") { ReadingsBulkUpdateValue ($hash, "value_changed", "old: ".$old." to new: ".$new) if($urow != 0); ReadingsBulkUpdateValue ($hash, "value_not_changed", "WARNING - old: ".$old." not found") if ($urow == 0); } ReadingsBulkUpdateTime ($hash, $brt, $rt); readingsEndUpdate ($hash, 1); DbRep_afterproc ($hash, $renmode); # Befehl nach Procedure ausführen incl. state if ($urow != 0) { Log3 ($name, 3, "DbRep ".($hash->{ROLE} eq "Agent" ? "Agent " : "")."$name - DEVICE renamed in \"$hash->{DATABASE}\" - old: \"$old\", new: \"$new\", number: $urow ") if($renmode eq "devren"); Log3 ($name, 3, "DbRep ".($hash->{ROLE} eq "Agent" ? "Agent " : "")."$name - READING renamed in \"$hash->{DATABASE}\" - old: \"$old\", new: \"$new\", number: $urow ") if($renmode eq "readren"); Log3 ($name, 3, "DbRep ".($hash->{ROLE} eq "Agent" ? "Agent " : "")."$name - VALUE changed in \"$hash->{DATABASE}\" - old: \"$old\", new: \"$new\", number: $urow ") if($renmode eq "changeval"); } else { Log3 ($name, 3, "DbRep ".($hash->{ROLE} eq "Agent" ? "Agent " : "")."$name - WARNING - old device \"$old\" was not found in database \"$hash->{DATABASE}\" ") if($renmode eq "devren"); Log3 ($name, 3, "DbRep ".($hash->{ROLE} eq "Agent" ? "Agent " : "")."$name - WARNING - old reading \"$old\" was not found in database \"$hash->{DATABASE}\" ") if($renmode eq "readren"); Log3 ($name, 3, "DbRep ".($hash->{ROLE} eq "Agent" ? "Agent " : "")."$name - WARNING - old value \"$old\" not found in database \"$hash->{DATABASE}\" ") if($renmode eq "changeval"); } return; } #################################################################################################### # nichtblockierende DB-Abfrage fetchrows #################################################################################################### sub DbRep_fetchrows { my $paref = shift; my $hash = $paref->{hash}; my $name = $paref->{name}; my $table = $paref->{table}; my $device = $paref->{device}; my $reading = $paref->{reading}; my $runtime_string_first = $paref->{rsf}; my $runtime_string_next = $paref->{rsn}; my $utf8 = $hash->{UTF8} // 0; my $limit = AttrVal($name, "limit", 1000); my $fetchroute = AttrVal($name, "fetchRoute", "descent"); $fetchroute = $fetchroute eq "descent" ? "DESC" : "ASC"; my ($sth,$sql,$rowlist,$nrows); my $bst = [gettimeofday]; # Background-Startzeit my ($err,$dbh,$dbmodel) = DbRep_dbConnect($name, 0); return "$name|$err" if ($err); my ($IsTimeSet,$IsAggrSet) = DbRep_checktimeaggr($hash); # ist Zeiteingrenzung und/oder Aggregation gesetzt ? (wenn ja -> "?" in SQL sonst undef) Log3 ($name, 5, "DbRep $name - IsTimeSet: $IsTimeSet, IsAggrSet: $IsAggrSet"); if ($IsTimeSet) { # SQL zusammenstellen für DB-Abfrage $sql = DbRep_createSelectSql($hash, $table, "DEVICE,READING,TIMESTAMP,VALUE,UNIT", $device, $reading, "'$runtime_string_first'", "'$runtime_string_next'", "ORDER BY TIMESTAMP $fetchroute LIMIT ".($limit+1)); } else { $sql = DbRep_createSelectSql($hash, $table, "DEVICE,READING,TIMESTAMP,VALUE,UNIT", $device, $reading, undef, undef, "ORDER BY TIMESTAMP $fetchroute LIMIT ".($limit+1)); } my $st = [gettimeofday]; # SQL-Startzeit ($err, $sth) = DbRep_prepareExecuteQuery ($name, $dbh, $sql); return "$name|$err" if ($err); no warnings 'uninitialized'; my @row_array = map { $_->[0]."_ESC_".$_->[1]."_ESC_".($_->[2] =~ s/ /_ESC_/r)."_ESC_".$_->[3]."_ESC_".$_->[4]."\n" } @{$sth->fetchall_arrayref()}; use warnings; $nrows = $#row_array+1; # Anzahl der Ergebniselemente pop @row_array if($nrows > $limit); # das zuviel selektierte Element wegpoppen wenn Limit überschritten s/\|/_E#S#C_/g for @row_array; # escape Pipe "|" if ($utf8 && $dbmodel ne "SQLITE") { $rowlist = Encode::encode_utf8(join('|', @row_array)); } else { $rowlist = join('|', @row_array); } Log3 ($name, 5, "DbRep $name -> row result list:\n$rowlist"); my $rt = tv_interval($st); # SQL-Laufzeit ermitteln $dbh->disconnect; $rowlist = encode_base64($rowlist,""); # Daten müssen als Einzeiler zurückgegeben werden my $brt = tv_interval($bst); # Background-Laufzeit ermitteln $rt = $rt.",".$brt; $err = q{}; return "$name|$err|$rowlist|$rt|$nrows"; } #################################################################################################### # Auswertungsroutine der nichtblockierenden DB-Abfrage fetchrows #################################################################################################### sub DbRep_fetchrowsDone { my $string = shift; my @a = split("\\|",$string); my $name = $a[0]; my $err = $a[1] ? decode_base64($a[1]) : ''; my $rowlist = $a[2] ? decode_base64($a[2]) : ''; my $bt = $a[3]; my $nrows = $a[4]; my $hash = $defs{$name}; Log3 ($name, 5, qq{DbRep $name - BlockingCall PID "$hash->{HELPER}{RUNNING_PID}{pid}" finished}); delete($hash->{HELPER}{RUNNING_PID}); if ($err) { ReadingsSingleUpdateValue ($hash, "errortext", $err, 1); ReadingsSingleUpdateValue ($hash, "state", "error", 1); DbRep_afterproc ($hash, $hash->{LASTCMD}); # Befehl nach Procedure ausführen return; } my ($rt,$brt) = split ",", $bt; my $reading = AttrVal($name, "reading", ''); my $limit = AttrVal($name, "limit", 1000); my $fvfn = AttrVal($name, "fetchValueFn", ''); my $color = ""; # Highlighting doppelter DB-Einträge $color =~ s/#// if($color =~ /red|blue|brown|green|orange/); my $ecolor = ""; # Ende Highlighting my @row; my $reading_runtime_string; my @row_array = split("\\|", $rowlist); s/_E#S#C_/\|/g for @row_array; # escaped Pipe return to "|" Log3 ($name, 5, "DbRep $name - row_array decoded:\n @row_array"); readingsBeginUpdate($hash); my ($orow,$nrow,$oval,$nval); my $dz = 1; # Index des Vorkommens im Selektionsarray my $zs = ""; # Zusatz wenn device + Reading + Timestamp von folgenden DS gleich ist UND Value unterschiedlich my $zsz = 1; # Zusatzzähler for my $row (@row_array) { chomp $row; my @a = split("_ESC_", $row, 6); my $dev = $a[0]; my $rea = $a[1]; $a[3] =~ s/:/-/g; # substituieren unsupported characters ":" -> siehe fhem.pl my $ts = $a[2]."_".$a[3]; my $val = $a[4]; my $unt = $a[5]; $val = $unt ? $val." ".$unt : $val; $nrow = $ts.$dev.$rea; $nval = $val; if($orow) { if($orow.$oval eq $nrow.$val) { $dz++; $zs = ""; $zsz = 1; } else { # wenn device + Reading + Timestamp gleich ist UND Value unterschiedlich -> dann Zusatz an Reading hängen if(($orow eq $nrow) && ($oval ne $val)) { $zs = "_".$zsz; $zsz++; } else { $zs = ""; $zsz = 1; } $dz = 1; } } $orow = $nrow; $oval = $val; if ($reading && AttrVal($hash->{NAME}, "readingNameMap", "")) { if($dz > 1 && AttrVal($name, "fetchMarkDuplicates", undef)) { $reading_runtime_string = $ts."__".$color.$dz."__".AttrVal($hash->{NAME}, "readingNameMap", "").$zs.$ecolor; } else { $reading_runtime_string = $ts."__".$dz."__".AttrVal($hash->{NAME}, "readingNameMap", "").$zs; } } else { if($dz > 1 && AttrVal($name, "fetchMarkDuplicates", undef)) { $reading_runtime_string = $ts."__".$color.$dz."__".$dev."__".$rea.$zs.$ecolor; } else { $reading_runtime_string = $ts."__".$dz."__".$dev."__".$rea.$zs; } } if($fvfn) { my $VALUE = $val; if( $fvfn =~ m/^\s*(\{.*\})\s*$/s ) { $fvfn = $1; } else { $fvfn = ""; } if ($fvfn) { eval $fvfn; $val = $VALUE if(!$@); } } ReadingsBulkUpdateValue($hash, $reading_runtime_string, $val); } my $sfx = AttrVal("global", "language", "EN"); $sfx = $sfx eq "EN" ? "" : "_$sfx"; ReadingsBulkUpdateValue ($hash, "number_fetched_rows", ($nrows>$limit) ? $nrows-1 : $nrows); ReadingsBulkUpdateTime ($hash, $brt, $rt); ReadingsBulkUpdateValue ($hash, "state", "done - Warning: present rows exceed specified limit, adjust attribute limit") if($nrows-$limit>0); readingsEndUpdate($hash, 1); DbRep_afterproc ($hash, $hash->{LASTCMD}); # Befehl nach Procedure ausführen incl. state return; } #################################################################################################### # Doubletten finden und löschen #################################################################################################### sub DbRep_deldoublets { my $paref = shift; my $hash = $paref->{hash}; my $name = $paref->{name}; my $table = $paref->{table}; my $device = $paref->{device}; my $reading = $paref->{reading}; my $prop = $paref->{prop}; my $ts = $paref->{ts}; my $utf8 = $hash->{UTF8} // 0; my $limit = AttrVal($name, "limit", 1000); my ($sth,$sql,$rowlist,$selspec,$st,$addon,$dsql); my $bst = [gettimeofday]; # Background-Startzeit my ($err,$dbh,$dbmodel) = DbRep_dbConnect($name, 0); return "$name|$err" if ($err); my @ts = split("\\|", $ts); # Timestampstring to Array Log3 ($name, 5, "DbRep $name - Timestamp-Array: \n@ts"); # mehrfache Datensätze finden $selspec = "TIMESTAMP,DEVICE,READING,VALUE,count(*)"; # $addon = "GROUP BY TIMESTAMP, DEVICE, READING, VALUE ASC HAVING count(*) > 1"; # 18.10.2019 / V 8.28.2 $addon = "GROUP BY TIMESTAMP, DEVICE, READING, VALUE HAVING count(*) > 1 ORDER BY TIMESTAMP ASC"; # Forum: https://forum.fhem.de/index.php/topic,53584.msg914489.html#msg914489 # und Forum: https://forum.fhem.de/index.php/topic,104593.msg985007.html#msg985007 $sql = DbRep_createSelectSql($hash,$table,$selspec,$device,$reading,"?","?",$addon); # SQL zusammenstellen für DB-Abfrage eval { $sth = $dbh->prepare_cached($sql); } or do { $err = encode_base64($@,""); Log3 ($name, 2, "DbRep $name - $@"); $dbh->disconnect; return "$name|$err"; }; # DB-Abfrage zeilenweise für jeden Timearray-Eintrag my @todel; my $ntodel = 0; my $ndel = 0; my $rt = 0; no warnings 'uninitialized'; for my $row (@ts) { my @a = split("#", $row); my $runtime_string = $a[0]; my $runtime_string_first = $a[1]; my $runtime_string_next = $a[2]; $runtime_string = encode_base64($runtime_string,""); $st = [gettimeofday]; # SQL-Startzeit # SQL zusammenstellen für Logausgabe my $sql1 = DbRep_createSelectSql($hash, $table, $selspec, $device, $reading, "'$runtime_string_first'", "'$runtime_string_next'", $addon); Log3 ($name, 4, "DbRep $name - SQL execute: $sql1"); eval { $sth->execute($runtime_string_first, $runtime_string_next); } or do { $err = encode_base64($@,""); Log3 ($name, 2, "DbRep $name - $@"); $dbh->disconnect; return "$name|$err"; }; $rt = $rt+tv_interval($st); # SQL-Laufzeit ermitteln # Beginn Löschlogik, Zusammenstellen der zu löschenden DS (warping) # Array @warp -> die zu löschenden Datensätze my (@warp); my $i = 0; for my $nr (map { $_->[1]."_ESC_".$_->[2]."_ESC_".($_->[0] =~ s/ /_ESC_/r)."_ESC_".$_->[3]."_|_".($_->[4]-1) } @{$sth->fetchall_arrayref()}) { # Reihenfolge geändert in: DEVICE,READING,DATE,TIME,VALUE,count(*) if($prop =~ /adviceDelete/x) { push(@warp,$i."_".$nr) if($#todel+1 < $limit); # die zu löschenden Datensätze (nur zur Anzeige) } else { push(@warp,$i."_".$nr); # Array der zu löschenden Datensätze } my $c = (split("|",$nr))[-1]; Log3 ($name, 4, "DbRep $name - WARP: $nr, ntodel: $ntodel, c: $c"); $ntodel = $ntodel + $c; if ($prop =~ /delete/x) { # delete Datensätze my ($dev,$read,$date,$time,$val,$limit) = split(/_ESC_|_\|_/, $nr); my $dt = $date." ".$time; chomp($val); $dev =~ s/'/''/g; # escape ' with '' $read =~ s/'/''/g; # escape ' with '' $val =~ s/'/''/g; # escape ' with '' $val =~ s/\\/\\\\/g if($dbmodel eq "MYSQL"); # escape \ with \\ für MySQL $st = [gettimeofday]; if($dbmodel =~ /MYSQL/x) { $dsql = "delete FROM $table WHERE TIMESTAMP = '$dt' AND DEVICE = '$dev' AND READING = '$read' AND VALUE = '$val' limit $limit;"; } elsif ($dbmodel eq "SQLITE") { # Forum: https://forum.fhem.de/index.php/topic,122791.0.html $dsql = "delete FROM $table where rowid in (select rowid from $table WHERE TIMESTAMP = '$dt' AND DEVICE = '$dev' AND READING = '$read' AND VALUE = '$val' LIMIT $limit);"; } elsif ($dbmodel eq "POSTGRESQL") { $dsql = "DELETE FROM $table WHERE ctid = any (array(SELECT ctid FROM $table WHERE TIMESTAMP = '$dt' AND DEVICE = '$dev' AND READING = '$read' AND VALUE = '$val' ORDER BY timestamp LIMIT $limit));"; } Log3 ($name, 4, "DbRep $name - SQL execute: $dsql"); my $sthd = $dbh->prepare($dsql); eval { $sthd->execute(); } or do { $err = encode_base64($@,""); Log3 ($name, 2, "DbRep $name - $@"); $dbh->disconnect; return "$name|$err"; }; $ndel = $ndel+$sthd->rows; $dbh->commit() if(!$dbh->{AutoCommit}); $rt = $rt+tv_interval($st); } $i++; } if(@warp && $prop =~ /adviceDelete/x) { push(@todel,@warp); } } Log3 ($name, 3, "DbRep $name - number records identified to delete by \"$hash->{LASTCMD}\": $ntodel") if($ntodel && $prop =~ /advice/); Log3 ($name, 3, "DbRep $name - rows deleted by \"$hash->{LASTCMD}\": $ndel") if($ndel); my $retn = $prop =~ /adviceDelete/x ? $ntodel : $ndel; my @retarray = $prop =~ /adviceDelete/x ? @todel : " "; s/\|/_E#S#C_/g for @retarray; # escape Pipe "|" if ($utf8 && @retarray) { $rowlist = Encode::encode_utf8(join('|', @retarray)); } elsif (@retarray) { $rowlist = join('|', @retarray); } else { $rowlist = 0; } use warnings; Log3 ($name, 5, "DbRep $name -> row result list:\n$rowlist"); $dbh->disconnect; $rowlist = encode_base64($rowlist,""); my $brt = tv_interval($bst); # Background-Laufzeit ermitteln $rt = $rt.",".$brt; $err = q{}; return "$name|$err|$rowlist|$rt|$retn|$prop"; } #################################################################################################### # sequentielle Doubletten löschen #################################################################################################### sub DbRep_delseqdoubl { my $paref = shift; my $hash = $paref->{hash}; my $name = $paref->{name}; my $table = $paref->{table}; my $device = $paref->{device}; my $reading = $paref->{reading}; my $prop = $paref->{prop}; my $ts = $paref->{ts}; my $utf8 = $hash->{UTF8} // 0; my $limit = AttrVal($name, "limit", 1000); my $var = AttrVal($name, "seqDoubletsVariance", undef); # allgemeine Varianz my ($sth,$sql,$rowlist,$nrows,$selspec,$st,$varo,$varu); my $bst = [gettimeofday]; # Background-Startzeit my ($err,$dbh,$dbmodel) = DbRep_dbConnect($name, 0); return "$name|$err" if ($err); my $edge = "balanced"; # positive und negative Flankenvarianz spezifizieren if($var && $var =~ /EDGE=/) { ($var,$edge) = split("EDGE=", $var); } my ($varpos,$varneg); if (defined $var) { ($varpos,$varneg) = split(" ",$var); $varpos = DbRep_trim($varpos); $varneg = $varpos if(!$varneg); $varneg = DbRep_trim($varneg); } Log3 ($name, 4, "DbRep $name - delSeqDoublets params -> positive variance: ".(defined $varpos ? $varpos : "") .", negative variance: ".(defined $varneg ? $varneg : "").", EDGE: $edge"); my @ts = split("\\|", $ts); # Timestampstring to Array Log3 ($name, 5, "DbRep $name - Timestamp-Array: \n@ts"); $selspec = "DEVICE,READING,TIMESTAMP,VALUE"; # SQL zusammenstellen für DB-Abfrage $sql = DbRep_createSelectSql($hash,$table,$selspec,$device,$reading,"?","?","ORDER BY DEVICE,READING,TIMESTAMP ASC"); $sth = $dbh->prepare_cached($sql); # DB-Abfrage zeilenweise für jeden Timearray-Eintrag my @remain; my @todel; my $nremain = 0; my $ntodel = 0; my $ndel = 0; my $rt = 0; no warnings 'uninitialized'; for my $row (@ts) { my @a = split("#", $row); my $runtime_string = $a[0]; my $runtime_string_first = $a[1]; my $runtime_string_next = $a[2]; $runtime_string = encode_base64($runtime_string,""); $st = [gettimeofday]; # SQL-Startzeit # SQL zusammenstellen für Logausgabe my $sql1 = DbRep_createSelectSql($hash,$table,$selspec,$device,$reading,"'$runtime_string_first'","'$runtime_string_next'",''); Log3 ($name, 4, "DbRep $name - SQL execute: $sql1"); eval{$sth->execute($runtime_string_first, $runtime_string_next);}; if ($@) { $err = encode_base64($@,""); Log3 ($name, 2, "DbRep $name - $@"); $dbh->disconnect; return "$name|$err"; } $rt = $rt+tv_interval($st); # SQL-Laufzeit ermitteln # Beginn Löschlogik, Zusammenstellen der löschenden DS (warping) # Array @sel -> die VERBLEIBENDEN Datensätze, @warp -> die zu löschenden Datensätze my (@sel,@warp); my ($or,$oor,$odev,$oread,$oval,$ooval,$ndev,$nread,$nval); my $i = 0; for my $nr (map { $_->[0]."_ESC_".$_->[1]."_ESC_".($_->[2] =~ s/ /_ESC_/r)."_ESC_".$_->[3] } @{$sth->fetchall_arrayref()}) { ($ndev,$nread,undef,undef,$nval) = split("_ESC_", $nr); # Werte des aktuellen Elements $or = pop @sel; # das letzte Element der Liste ($odev,$oread,undef,undef,$oval) = split("_ESC_", $or); # Value des letzten Elements if (looks_like_number($oval) && defined $varpos && defined $varneg) { # unterschiedliche Varianz +/- für numerische Werte $varo = $oval + $varpos; $varu = $oval - $varneg; } elsif (looks_like_number($oval) && defined $varpos && !defined $varneg) { # identische Varianz +/- für numerische Werte $varo = $oval + $varpos; $varu = $oval - $varpos; } else { undef $varo; undef $varu; } $oor = pop @sel; # das vorletzte Element der Liste $ooval = (split '_ESC_', $oor)[-1]; # Value des vorletzten Elements if ($ndev.$nread ne $odev.$oread) { $i = 0; # neues Device/Reading in einer Periode -> ooor soll erhalten bleiben push (@sel,$oor) if($oor); push (@sel,$or) if($or); push (@sel,$nr); } elsif ($i>=2 && ($ooval eq $oval && $oval eq $nval) || ($i>=2 && $varo && $varu && ($ooval <= $varo) && ($varu <= $ooval) && ($nval <= $varo) && ($varu <= $nval)) ) { if ($edge =~ /negative/i && ($ooval > $oval)) { push (@sel,$oor); # negative Flanke -> der fallende DS und desssen Vorgänger push (@sel,$or); # werden behalten obwohl im Löschkorridor push (@sel,$nr); } elsif ($edge =~ /positive/i && ($ooval < $oval)) { push (@sel,$oor); # positive Flanke -> der steigende DS und desssen Vorgänger push (@sel,$or); # werden behalten obwohl im Löschkorridor push (@sel,$nr); } else { push (@sel,$oor); # Array der zu behaltenden Datensätze push (@sel,$nr); # Array der zu behaltenden Datensätze push (@warp,$or); # Array der zu löschenden Datensätze } if ($prop =~ /delete/ && $or) { # delete Datensätze my ($dev,$read,$date,$time,$val) = split("_ESC_", $or); my $dt = $date." ".$time; chomp($val); $dev =~ s/'/''/g; # escape ' with '' $read =~ s/'/''/g; # escape ' with '' $val =~ s/'/''/g; # escape ' with '' $st = [gettimeofday]; my $dsql = "delete FROM $table where TIMESTAMP = '$dt' AND DEVICE = '$dev' AND READING = '$read' AND VALUE = '$val';"; my $sthd = $dbh->prepare($dsql); Log3 ($name, 4, "DbRep $name - SQL execute: $dsql"); eval {$sthd->execute();}; if ($@) { $err = encode_base64($@,""); Log3 ($name, 2, "DbRep $name - $@"); $dbh->disconnect; return "$name|$err"; } $ndel = $ndel+$sthd->rows; $dbh->commit() if(!$dbh->{AutoCommit}); $rt = $rt+tv_interval($st); } } else { push (@sel,$oor) if($oor); push (@sel,$or) if($or); push (@sel,$nr); } $i++; } if(@sel && $prop =~ /adviceRemain/) { # die verbleibenden Datensätze nach Ausführung (nur zur Anzeige) push(@remain,@sel) if($#remain+1 < $limit); } if(@warp && $prop =~ /adviceDelete/) { # die zu löschenden Datensätze (nur zur Anzeige) push(@todel,@warp) if($#todel+1 < $limit); } $nremain = $nremain + $#sel+1 if(@sel); $ntodel = $ntodel + $#warp+1 if(@warp); my $sum = $nremain + $ntodel; Log3 ($name, 3, "DbRep $name - rows analyzed by \"$hash->{LASTCMD}\": $sum") if($sum && $prop =~ /advice/); } Log3 ($name, 3, "DbRep $name - rows deleted by \"$hash->{LASTCMD}\": $ndel") if($ndel); my $retn = $prop =~ /adviceRemain/ ? $nremain : $prop =~ /adviceDelete/ ? $ntodel : $ndel; my @retarray = $prop =~ /adviceRemain/ ? @remain : $prop =~ /adviceDelete/ ? @todel : " "; s/\|/_E#S#C_/g for @retarray; # escape Pipe "|" if ($utf8 && @retarray) { $rowlist = Encode::encode_utf8(join('|', @retarray)); } elsif(@retarray) { $rowlist = join('|', @retarray); } else { $rowlist = 0; } use warnings; Log3 ($name, 5, "DbRep $name - row result list:\n$rowlist"); $dbh->disconnect; $rowlist = encode_base64($rowlist,""); # Daten müssen als Einzeiler zurückgegeben werden my $brt = tv_interval($bst); # Background-Laufzeit ermitteln $rt = $rt.",".$brt; $err = q{}; return "$name|$err|$rowlist|$rt|$retn|$prop"; } #################################################################################################### # Auswertungsroutine delSeqDoublets / delDoublets #################################################################################################### sub DbRep_deldoubl_Done { my $string = shift; my @a = split("\\|",$string); my $name = $a[0]; my $err = $a[1] ? decode_base64($a[1]) : ''; my $rowlist = $a[2] ? decode_base64($a[2]) : ''; my $bt = $a[3]; my $nrows = $a[4]; my $prop = $a[5]; my $reading = AttrVal($name, "reading", ''); my $limit = AttrVal($name, "limit", 1000); my $hash = $defs{$name}; my @row; my $l = 1; my $reading_runtime_string; Log3 ($name, 5, qq{DbRep $name - BlockingCall PID "$hash->{HELPER}{RUNNING_PID}{pid}" finished}); delete($hash->{HELPER}{RUNNING_PID}); if ($err) { ReadingsSingleUpdateValue ($hash, "errortext", $err, 1); ReadingsSingleUpdateValue ($hash, "state", "error", 1); DbRep_afterproc ($hash, $hash->{LASTCMD}); # Befehl nach Procedure ausführen return; } my ($rt,$brt) = split ",", $bt; no warnings 'uninitialized'; readingsBeginUpdate($hash); if ($prop !~ /delete/ && $rowlist) { my @row_array = split("\\|", $rowlist); s/_E#S#C_/\|/g for @row_array; # escaped Pipe return to "|" Log3 ($name, 5, "DbRep $name - row_array decoded: @row_array"); for my $row (@row_array) { last if($l >= $limit); my @a = split("_ESC_", $row, 5); my $dev = $a[0]; my $rea = $a[1]; $a[3] =~ s/:/-/g; # substituieren unsupported characters ":" -> siehe fhem.pl my $ts = $a[2]."_".$a[3]; my $val = $a[4]; if ($reading && AttrVal($hash->{NAME}, "readingNameMap", "")) { $reading_runtime_string = $ts."__".AttrVal($hash->{NAME}, "readingNameMap", "") ; } else { $reading_runtime_string = $ts."__".$dev."__".$rea; } ReadingsBulkUpdateValue($hash, $reading_runtime_string, $val); $l++; } } use warnings; my $sfx = AttrVal("global", "language", "EN"); $sfx = $sfx eq "EN" ? "" : "_$sfx"; my $rnam = $prop =~ /adviceRemain/ ? "number_rows_to_remain" : $prop =~ /adviceDelete/ ? "number_rows_to_delete" : "number_rows_deleted"; ReadingsBulkUpdateValue ($hash, "$rnam", "$nrows"); ReadingsBulkUpdateValue ($hash, 'state', "done - Warning: not all items are shown, adjust attribute limit if you want see more") if($l >= $limit); readingsEndUpdate ($hash, 1); DbRep_afterproc ($hash, $hash->{LASTCMD}); # Befehl nach Procedure ausführen incl. state return; } #################################################################################################### # nichtblockierende DB-Funktion expfile #################################################################################################### sub DbRep_expfile { my $paref = shift; my $hash = $paref->{hash}; my $name = $paref->{name}; my $table = $paref->{table}; my $device = $paref->{device}; my $reading = $paref->{reading}; my $rsf = $paref->{rsf}; my $file = $paref->{prop}; my $ts = $paref->{ts}; my ($sth,$sql); my $bst = [gettimeofday]; # Background-Startzeit my ($err,$dbh,$dbmodel) = DbRep_dbConnect($name, 0); return "$name|$err" if ($err); if (!$rsf) { # ältesten Datensatz der DB ermitteln Log3 ($name, 4, "DbRep $name - no time limits defined - determine the oldest record ..."); $paref->{dbh} = $dbh; $rsf = _DbRep_getInitData_mints ($paref); } my $ml; my $part = "."; if($file =~ /MAXLINES=/) { my ($ar, $hr) = parseParams($file); $file = $ar->[0]; $ml = $hr->{MAXLINES}; $part = "_part1."; } $rsf =~ s/[:\s]/_/g; my ($f,$e) = $file =~ /(.*)\.(.*)/; $e //= ""; $f =~ s/%TSB/$rsf/g; my @t = localtime; $f = ResolveDateWildcards($f, @t); my $outfile = $f.$part.$e; Log3 ($name, 4, "DbRep $name - Export data to file: $outfile ".($ml ? "splitted to parts of $ml lines" : "") ); if (open(FH, ">", $outfile)) { binmode (FH); } else { $err = encode_base64("could not open ".$outfile.": ".$!,""); return "$name|$err"; } my ($IsTimeSet,$IsAggrSet) = DbRep_checktimeaggr($hash); # ist Zeiteingrenzung und/oder Aggregation gesetzt ? (wenn ja -> "?" in SQL sonst undef) Log3 ($name, 5, "DbRep $name - IsTimeSet: $IsTimeSet, IsAggrSet: $IsAggrSet"); my @ts = split("\\|", $ts); Log3 ($name, 5, "DbRep $name - Timestamp-Array: \n@ts"); my $st = [gettimeofday]; # SQL-Startzeit my $arrstr; my ($nrows,$frows) = (0,0); my $p = 2; my $addon = "ORDER BY TIMESTAMP"; no warnings 'uninitialized'; for my $row (@ts) { # DB-Abfrage zeilenweise für jeden Array-Eintrag my @a = split("#", $row); my $runtime_string = $a[0]; my $runtime_string_first = $a[1]; my $runtime_string_next = $a[2]; if ($IsTimeSet || $IsAggrSet) { $sql = DbRep_createSelectSql($hash, $table, "TIMESTAMP,DEVICE,TYPE,EVENT,READING,VALUE,UNIT", $device, $reading, "'$runtime_string_first'", "'$runtime_string_next'", $addon); } else { $sql = DbRep_createSelectSql($hash, $table, "TIMESTAMP,DEVICE,TYPE,EVENT,READING,VALUE,UNIT", $device, $reading, undef, undef, $addon); } Log3 ($name, 4, "DbRep $name - SQL execute: $sql"); eval{ $sth = $dbh->prepare($sql); $sth->execute(); 1; } or do { $err = encode_base64($@,""); Log3 ($name, 2, "DbRep $name - $@"); $dbh->disconnect; return "$name|$err"; }; while (my $row = $sth->fetchrow_arrayref) { print FH DbRep_charfilter(join(',', map { s{"}{""}g; "\"$_\"";} @$row)), "\n"; Log3 ($name, 5, "DbRep $name -> write row: @$row"); $nrows++; # Anzahl der Datensätze $frows++; if($ml && $frows >= $ml) { Log3 ($name, 3, "DbRep $name - Number of exported datasets from $hash->{DATABASE} to file $outfile: ".$frows); close(FH); $outfile = $f."_part$p.".$e; if (open(FH, ">", $outfile)) { binmode (FH); } else { $err = encode_base64("could not open ".$outfile.": ".$!,""); return "$name|$err"; } $p++; $frows = 0; } } } close(FH); Log3 ($name, 3, "DbRep $name - Number of exported datasets from $hash->{DATABASE} to file $outfile: ".$frows); my $rt = tv_interval($st); # SQL-Laufzeit ermitteln $sth->finish; $dbh->disconnect; my $brt = tv_interval($bst); # Background-Laufzeit ermitteln $rt = $rt.",".$brt; return "$name|$err|$nrows|$rt|$device|$reading|$outfile"; } #################################################################################################### # Auswertungsroutine der nichtblockierenden DB-Funktion expfile #################################################################################################### sub DbRep_expfile_Done { my $string = shift; my @a = split("\\|",$string); my $name = $a[0]; my $err = $a[1] ? decode_base64($a[1]) : ''; my $nrows = $a[2]; my $bt = $a[3]; my $device = $a[4]; my $reading = $a[5]; my $outfile = $a[6]; my $hash = $defs{$name}; Log3 ($name, 5, qq{DbRep $name - BlockingCall PID "$hash->{HELPER}{RUNNING_PID}{pid}" finished}); delete($hash->{HELPER}{RUNNING_PID}); if ($err) { ReadingsSingleUpdateValue ($hash, "errortext", $err, 1); ReadingsSingleUpdateValue ($hash, "state", "error", 1); DbRep_afterproc ($hash, "export"); # Befehl nach Procedure ausführen return; } my ($rt,$brt) = split ",", $bt; $device =~ s/[^A-Za-z\/\d_\.-]/\//g; $reading =~ s/[^A-Za-z\/\d_\.-]/\//g; no warnings 'uninitialized'; my ($ds,$rds) = ("",""); $ds = $device." -- " if ($device); $rds = $reading." -- " if ($reading); my $export_string = $ds.$rds." -- ROWS EXPORTED TO FILE(S) -- "; readingsBeginUpdate ($hash); ReadingsBulkUpdateValue ($hash, $export_string, $nrows); ReadingsBulkUpdateTime ($hash, $brt, $rt); readingsEndUpdate ($hash, 1); DbRep_afterproc ($hash, "export"); # Befehl nach Procedure ausführen incl. state return; } #################################################################################################### # nichtblockierende DB-Funktion impfile #################################################################################################### sub DbRep_impfile { my $paref = shift; my $hash = $paref->{hash}; my $name = $paref->{name}; my $table = $paref->{table}; my $rsf = $paref->{rsf}; my $infile = $paref->{prop}; my $dbloghash = $defs{$hash->{HELPER}{DBLOGDEVICE}}; my $bst = [gettimeofday]; # Background-Startzeit my ($err,$dbh,$dbmodel) = DbRep_dbConnect($name, 0); return "$name|$err" if ($err); if (!$rsf) { # ältesten Datensatz der DB ermitteln Log3 ($name, 4, "DbRep $name - no time limits defined - determine the oldest record ..."); $paref->{dbh} = $dbh; $rsf = _DbRep_getInitData_mints ($paref); } my ($usepkh,$usepkc,$pkh,$pkc) = DbRep_checkUsePK($hash,$dbloghash,$dbh); # check ob PK verwendet wird, @usepkx?Anzahl der Felder im PK:0 wenn kein PK, $pkx?Namen der Felder:none wenn kein PK $rsf =~ s/[:\s]/_/g; $infile =~ s/%TSB/$rsf/g; my @t = localtime; $infile = ResolveDateWildcards($infile, @t); if (open(FH, "<", "$infile")) { binmode (FH); } else { $err = encode_base64("could not open ".$infile.": ".$!,""); return "$name|$err"; } no warnings 'uninitialized'; my $st = [gettimeofday]; # SQL-Startzeit my $al; # Datei zeilenweise einlesen und verarbeiten ! # Beispiel Inline: # "2016-09-25 08:53:56","STP_5000","SMAUTILS","etotal: 11859.573","etotal","11859.573","" # insert history mit/ohne primary key my $sql; if ($usepkh && $dbloghash->{MODEL} eq 'MYSQL') { $sql = "INSERT IGNORE INTO $table (TIMESTAMP, DEVICE, TYPE, EVENT, READING, VALUE, UNIT) VALUES (?,?,?,?,?,?,?)"; } elsif ($usepkh && $dbloghash->{MODEL} eq 'SQLITE') { $sql = "INSERT OR IGNORE INTO $table (TIMESTAMP, DEVICE, TYPE, EVENT, READING, VALUE, UNIT) VALUES (?,?,?,?,?,?,?)"; } elsif ($usepkh && $dbloghash->{MODEL} eq 'POSTGRESQL') { $sql = "INSERT INTO $table (TIMESTAMP, DEVICE, TYPE, EVENT, READING, VALUE, UNIT) VALUES (?,?,?,?,?,?,?) ON CONFLICT DO NOTHING"; } else { $sql = "INSERT INTO $table (TIMESTAMP, DEVICE, TYPE, EVENT, READING, VALUE, UNIT) VALUES (?,?,?,?,?,?,?)"; } my $sth; eval { $sth = $dbh->prepare_cached($sql); } or do { $err = encode_base64($@,""); Log3 ($name, 2, "DbRep $name - $@"); $dbh->disconnect(); return "$name|$err"; }; $err = DbRep_beginDatabaseTransaction ($name, $dbh, "begin import as one transaction"); return "$name|$err" if ($err); my $irowdone = 0; my $irowcount = 0; my $warn = 0; while () { $al = $_; chomp $al; my @alarr = split("\",\"", $al); for (@alarr) { tr/"//d; } my $i_timestamp = DbRep_trim($alarr[0]); my $i_device = DbRep_trim($alarr[1]); my $i_type = DbRep_trim($alarr[2]); my $i_event = DbRep_trim($alarr[3]); my $i_reading = DbRep_trim($alarr[4]); my $i_value = DbRep_trim($alarr[5]); my $i_unit = DbRep_trim($alarr[6] ? $alarr[6]: ""); $irowcount++; next if(!$i_timestamp); #leerer Datensatz my ($i_date, $i_time) = split(" ",$i_timestamp); # check ob TIMESTAMP Format ok ? if ($i_date !~ /(\d{4})-(\d{2})-(\d{2})/ || $i_time !~ /(\d{2}):(\d{2}):(\d{2})/) { $err = encode_base64("Format of date/time is not valid in row $irowcount of $infile. Must be format \"YYYY-MM-DD HH:MM:SS\" !",""); Log3 ($name, 2, "DbRep $name -> ERROR - Import from file $infile was not done. Invalid date/time field format in row $irowcount."); close(FH); $dbh->rollback; return "$name|$err"; } # Daten auf maximale Länge (entsprechend der Feldlänge in DbLog DB create-scripts) beschneiden wenn nicht SQLite if ($dbmodel ne 'SQLITE') { $i_device = substr($i_device,0, $hash->{HELPER}{DBREPCOL}{DEVICE}); $i_event = substr($i_event,0, $hash->{HELPER}{DBREPCOL}{EVENT}); $i_reading = substr($i_reading,0, $hash->{HELPER}{DBREPCOL}{READING}); $i_value = substr($i_value,0, $hash->{HELPER}{DBREPCOL}{VALUE}); $i_unit = substr($i_unit,0, $hash->{HELPER}{DBREPCOL}{UNIT}) if($i_unit); } Log3 ($name, 5, "DbRep $name -> data to insert Timestamp: $i_timestamp, Device: $i_device, Type: $i_type, Event: $i_event, Reading: $i_reading, Value: $i_value, Unit: $i_unit"); if($i_timestamp && $i_device && $i_reading) { eval { $sth->execute($i_timestamp, $i_device, $i_type, $i_event, $i_reading, $i_value, $i_unit); } or do { $err = encode_base64($@,""); Log3 ($name, 2, "DbRep $name - Failed to insert new dataset into database: $@"); close(FH); $dbh->rollback; $dbh->disconnect; return "$name|$err"; }; $irowdone++; } else { my $c = !$i_timestamp ? "field \"timestamp\" is empty" : !$i_device ? "field \"device\" is empty" : "field \"reading\" is empty"; $err = encode_base64("format error in in row $irowcount of $infile - cause: $c",""); Log3 ($name, 2, "DbRep $name -> ERROR - Import of datasets NOT done. Formaterror in row $irowcount of $infile - cause: $c"); close(FH); $dbh->rollback; $dbh->disconnect; return "$name|$err"; } } $err = DbRep_commitOnly ($name, $dbh, "import committed"); return "$name|$err" if ($err); $dbh->disconnect; close(FH); my $rt = tv_interval($st); # SQL-Laufzeit ermitteln my $brt = tv_interval($bst); # Background-Laufzeit ermitteln $rt = $rt.",".$brt; return "$name|$err|$irowdone|$rt|$infile"; } #################################################################################################### # Auswertungsroutine der nichtblockierenden DB-Funktion impfile #################################################################################################### sub DbRep_impfile_Done { my $string = shift; my @a = split("\\|",$string); my $name = $a[0]; my $err = $a[1] ? decode_base64($a[1]) : ''; my $irowdone = $a[2]; my $bt = $a[3]; my $infile = $a[4]; my $hash = $defs{$name}; Log3 ($name, 5, qq{DbRep $name - BlockingCall PID "$hash->{HELPER}{RUNNING_PID}{pid}" finished}); delete($hash->{HELPER}{RUNNING_PID}); if ($err) { ReadingsSingleUpdateValue ($hash, "errortext", $err, 1); ReadingsSingleUpdateValue ($hash, "state", "error", 1); DbRep_afterproc ($hash, "import"); # Befehl nach Procedure ausführen return; } my ($rt,$brt) = split ",", $bt; no warnings 'uninitialized'; my $import_string = " -- ROWS IMPORTED FROM FILE -- "; readingsBeginUpdate ($hash); ReadingsBulkUpdateValue ($hash, $import_string, $irowdone); ReadingsBulkUpdateTime ($hash, $brt, $rt); readingsEndUpdate ($hash, 1); DbRep_afterproc ($hash, "import"); # Befehl nach Procedure ausführen incl. state Log3 ($name, 3, "DbRep $name - Number of imported datasets to $hash->{DATABASE} from file $infile: $irowdone"); return; } #################################################################################################### # nichtblockierende DB-Abfrage sqlCmd - generischer SQL-Befehl - name | opt | sqlcommand #################################################################################################### # set logdbrep sqlCmd select count(*) from history # set logdbrep sqlCmd select DEVICE,count(*) from history group by DEVICE HAVING count(*) > 10000 sub DbRep_sqlCmd { my $paref = shift; my $hash = $paref->{hash}; my $name = $paref->{name}; my $opt = $paref->{opt}; my $device = $paref->{device}; my $reading = $paref->{reading}; my $rsf = $paref->{rsf}; my $rsn = $paref->{rsn}; my $cmd = $paref->{prop}; my $srs = AttrVal($name, "sqlResultFieldSep", "|"); my $bst = [gettimeofday]; # Background-Startzeit my ($err,$dbh,$dbmodel) = DbRep_dbConnect($name); return "$name|$err" if ($err); no warnings 'uninitialized'; $cmd =~ s/\;\;/ESC_ESC_ESC/gx; # ersetzen von escapeten ";" (;;) $cmd .= ";" if ($cmd !~ m/\;$/x); my $sql = $cmd; my @pms; $err = _DbRep_setSessAttrVars ($name, $dbh); return "$name|$err" if ($err); $err = _DbRep_setSessVars ($name, $dbh, \$sql); return "$name|$err" if ($err); $err = _DbRep_setSessPragma ($name, $dbh, \$sql); return "$name|$err" if ($err); $err = _DbRep_execSessPrepare ($name, $dbh, \$sql); return "$name|$err" if ($err); # Ersetzung von Schlüsselwörtern für Timing, Gerät, Lesen (unter Verwendung der Attributsyntax) ($err, $sql) = _DbRep_sqlReplaceKeywords ( { hash => $hash, sql => $sql, device => $device, reading => $reading, dbmodel => $dbmodel, rsf => $rsf, rsn => $rsn } ); return "$name|$err" if ($err); $sql =~ s/ESC_ESC_ESC/;/gx; # wiederherstellen von escapeten ";" -> umwandeln von ";;" in ";" my $st = [gettimeofday]; # SQL-Startzeit my ($sth,$r); ($err, $sth, $r) = DbRep_prepareExecuteQuery ($name, $dbh, $sql); return "$name|$err" if ($err); my (@rows,$row,@head); my $nrows = 0; if($sql =~ m/^\s*(call|explain|select|pragma|show|describe)/is) { @head = map { uc($sth->{NAME}[$_]) } keys @{$sth->{NAME}}; # https://metacpan.org/pod/DBI#NAME1 if (@head) { $row = join("$srs", @head); push(@rows, $row); } while (my @line = $sth->fetchrow_array()) { Log3 ($name, 4, "DbRep $name - SQL result: @line"); $row = join("$srs", @line); $row =~ s/§/|°escaped°|/g; # join Delimiter "§" escapen push(@rows, $row); $nrows++; # Anzahl der Datensätze } } else { $nrows = $sth->rows; $err = DbRep_commitOnly ($name, $dbh); return "$name|$err" if ($err); push(@rows, $r); my $com = (split(" ",$sql, 2))[0]; Log3 ($name, 3, "DbRep $name - Number of entries processed in db $hash->{DATABASE}: $nrows by $com"); } $sth->finish; my $rt = tv_interval($st); # SQL-Laufzeit ermitteln $dbh->disconnect; my $rowstring = join("§", @rows); # Daten müssen als Einzeiler zurückgegeben werden $rowstring = encode_base64($rowstring,""); $cmd =~ s/ESC_ESC_ESC/;;/gx; # wiederherstellen der escapeten ";" -> ";;" my $brt = tv_interval($bst); # Background-Laufzeit ermitteln $rt = $rt.",".$brt; $err = q{}; return "$name|$err|$rowstring|$opt|$cmd|$nrows|$rt"; } #################################################################################################### # blockierende DB-Abfrage # liefert Ergebnis sofort zurück, setzt keine Readings #################################################################################################### sub DbRep_sqlCmdBlocking { my $name = shift; my $cmd = shift; my $hash = $defs{$name}; my $srs = AttrVal ($name, 'sqlResultFieldSep', '|'); my $to = AttrVal ($name, 'timeout', $dbrep_deftobl); my ($ret); my ($err,$dbh,$dbmodel) = DbRep_dbConnect($name); if ($err) { _DbRep_sqlBlckgErrorState ($hash, $err); return $err; } $cmd =~ s/\;\;/ESC_ESC_ESC/gx; # ersetzen von escapeten ";" (;;) $cmd .= ";" if ($cmd !~ m/\;$/x); my $sql = $cmd; Log3 ($name, 4, "DbRep $name - -------- New selection --------- "); Log3 ($name, 4, "DbRep $name - sqlCmdBlocking Command:\n$sql"); my @pms; $err = _DbRep_setSessAttrVars ($name, $dbh); if ($err) { _DbRep_sqlBlckgErrorState ($hash, $err); return $err; } $err = _DbRep_setSessVars ($name, $dbh, \$sql); if ($err) { _DbRep_sqlBlckgErrorState ($hash, $err); return $err; } $err = _DbRep_setSessPragma ($name, $dbh, \$sql); if ($err) { _DbRep_sqlBlckgErrorState ($hash, $err); return $err; } $err = _DbRep_execSessPrepare ($name, $dbh, \$sql); if ($err) { _DbRep_sqlBlckgErrorState ($hash, $err); return $err; } my $st = [gettimeofday]; # SQL-Startzeit my $totxt = qq{Timeout occured (limit: $to seconds). You may be able to adjust the "Timeout" attribute.}; my ($sth,$r,$failed); eval { # outer eval fängt Alarm auf, der gerade vor diesem Alarm feuern könnte(0) POSIX::sigaction(SIGALRM, POSIX::SigAction->new(sub {die "Timeout\n"})); # \n ist nötig ! alarm($to); eval { $sth = $dbh->prepare($sql); $r = $sth->execute(); }; alarm(0); # Alarm aufheben (wenn der Code schnell lief) if ($@) { if($@ eq "Timeout\n") { # timeout $failed = $totxt; } else { # ein anderer Fehler $failed = $@; } } 1; } or $failed = $@; alarm(0); # Schutz vor Race Condition if ($failed) { $err = $failed eq "Timeout\n" ? $totxt : $failed; Log3 ($name, 2, "DbRep $name - $err"); my $encerr = encode_base64($err, ""); $sth->finish if($sth); $dbh->disconnect; _DbRep_sqlBlckgErrorState ($hash, $encerr); return $err; } my $nrows = 0; if($sql =~ m/^\s*(call|explain|select|pragma|show|describe)/is) { while (my @line = $sth->fetchrow_array()) { Log3 ($name, 4, "DbRep $name - SQL result: @line"); $ret .= "\n" if($nrows); # Forum: #103295 $ret .= join("$srs", @line); $nrows++; # Anzahl der Datensätze } } else { $nrows = $sth->rows; $err = DbRep_commitOnly ($name, $dbh); if ($err) { _DbRep_sqlBlckgErrorState ($hash, $err); return $err; } $ret = $nrows; } $sth->finish; $dbh->disconnect; my $rt = tv_interval($st); # SQL-Laufzeit ermitteln my $com = (split " ", $sql, 2)[0]; Log3 ($name, 4, "DbRep $name - Number of entries processed in db $hash->{DATABASE}: $nrows"); readingsBeginUpdate ($hash); if (defined $data{DbRep}{$name}{sqlcache}{temp}) { # SQL incl. Formatierung aus Zwischenspeicherzwischenspeichern my $tmpsql = delete $data{DbRep}{$name}{sqlcache}{temp}; ReadingsBulkUpdateValue ($hash, 'sqlCmd', $tmpsql); } ReadingsBulkUpdateTimeState ($hash, undef, $rt, 'done'); readingsEndUpdate ($hash, 1); return $ret; } ################################################################ # Set Session Variablen "SET" oder PRAGMA aus # Attribut "sqlCmdVars" ################################################################ sub _DbRep_setSessAttrVars { my $name = shift; my $dbh = shift; my $vars = AttrVal($name, "sqlCmdVars", ""); # Set Session Variablen "SET" oder PRAGMA aus Attribut "sqlCmdVars" if ($vars) { my @pms = split ';', $vars; for my $pm (@pms) { if($pm !~ /PRAGMA|SET/i) { next; } $pm = ltrim($pm).';'; $pm =~ s/ESC_ESC_ESC/;/gx; # wiederherstellen von escapeten ";" -> umwandeln von ";;" in ";" (my $err, undef) = DbRep_dbhDo ($name, $dbh, $pm, "Set VARIABLE or PRAGMA: $pm"); return $err if ($err); } } return; } ################################################################ # Abarbeitung von Session Variablen vor einem SQL-Statement # z.B. SET @open:=NULL, @closed:=NULL; Select ... ################################################################ sub _DbRep_setSessVars { my $name = shift; my $dbh = shift; my $sqlref = shift; if(${$sqlref} =~ /^\s*SET.*;/i) { my @pms = split ';', ${$sqlref}; ${$sqlref} = q{}; for my $pm (@pms) { if($pm !~ /SET/i) { ${$sqlref} .= $pm.';'; next; } $pm = ltrim($pm).';'; $pm =~ s/ESC_ESC_ESC/;/gx; # wiederherstellen von escapeten ";" -> umwandeln von ";;" in ";" (my $err, undef) = DbRep_dbhDo ($name, $dbh, $pm, "Set SQL session variable: $pm"); return $err if ($err); } } return; } ################################################################ # Abarbeitung aller Pragmas vor einem SQLite Statement, # SQL wird extrahiert wenn Pragmas im SQL vorangestellt sind ################################################################ sub _DbRep_setSessPragma { my $name = shift; my $dbh = shift; my $sqlref = shift; if(${$sqlref} =~ /^\s*PRAGMA.*;/i) { my @pms = split ';', ${$sqlref}; ${$sqlref} = q{}; for my $pm (@pms) { if($pm !~ /PRAGMA.*=/i) { # PRAGMA ohne "=" werden als SQL-Statement mit Abfrageergebnis behandelt ${$sqlref} .= $pm.';'; next; } $pm = ltrim($pm).';'; $pm =~ s/ESC_ESC_ESC/;/gx; # wiederherstellen von escapeten ";" -> umwandeln von ";;" in ";" (my $err, undef) = DbRep_dbhDo ($name, $dbh, $pm, "Exec PRAGMA Statement: $pm"); return $err if ($err); } } return; } #################################################################### # Abarbeitung von PREPARE statement als Befehl als Bestandteil # des SQL # Forum: #114293 / https://forum.fhem.de/index.php?topic=114293.0 # z.B. PREPARE statement FROM @CMD #################################################################### sub _DbRep_execSessPrepare { my $name = shift; my $dbh = shift; my $sqlref = shift; if(${$sqlref} =~ /^\s*PREPARE.*;/i) { my @pms = split ';', ${$sqlref}; ${$sqlref} = q{}; for my $pm (@pms) { if($pm !~ /PREPARE/i) { ${$sqlref} .= $pm.';'; next; } $pm = ltrim($pm).';'; $pm =~ s/ESC_ESC_ESC/;/gx; # wiederherstellen von escapeten ";" -> umwandeln von ";;" in ";" (my $err, undef) = DbRep_dbhDo ($name, $dbh, $pm, "Exec PREPARE statement: $pm"); return $err if ($err); } } return; } #################################################################### # Error -> Readings errortext und state #################################################################### sub _DbRep_sqlBlckgErrorState { my $hash = shift; my $err = shift; my $name = $hash->{NAME}; $err = decode_base64 ($err); Log3 ($name, 2, "DbRep $name - ERROR - $err"); readingsBeginUpdate ($hash); if (defined $data{DbRep}{$name}{sqlcache}{temp}) { # SQL incl. Formatierung aus Zwischenspeicherzwischenspeichern my $tmpsql = delete $data{DbRep}{$name}{sqlcache}{temp}; ReadingsBulkUpdateValue ($hash, 'sqlCmd', $tmpsql); } ReadingsBulkUpdateValue ($hash, 'errortext', $err); ReadingsBulkUpdateValue ($hash, 'state', 'error'); readingsEndUpdate ($hash, 1); return; } #################################################################################################### # Ersetzung von Schlüsselwörtern für Time*, Devices und Readings # in SQL-Statements (unter Verwendung der Attributsyntax) #################################################################################################### sub _DbRep_sqlReplaceKeywords { my $paref = shift; my $hash = $paref->{hash}; my $sql = $paref->{sql}; my $device = $paref->{device}; my $reading = $paref->{reading}; my $dbmodel = $paref->{dbmodel}; my $rsf = $paref->{rsf}; my $rsn = $paref->{rsn}; my $err = q{}; my $name = $hash->{NAME}; my $sfx = AttrVal("global", "language", "EN"); $sfx = $sfx eq 'EN' ? '' : "_$sfx"; $sql =~ s/§timestamp_begin§/'$rsf'/g; $sql =~ s/§timestamp_end§/'$rsn'/g; my $rdspec; my @keywords = qw(device reading); for my $kw (@keywords) { next if ($sql !~ /§${kw}§/xs); my $vna = $kw eq "device" ? $device : $kw eq "reading" ? $reading : ''; if ($vna eq "%") { $err = qq{You must specify ${kw}(s) in attribute "${kw}" if you use the placeholder "§${kw}§" in your statement}; Log3 ($name, 2, "DbRep $name - ERROR - $err"); $err = qq{ $err }; $err =~ s/"${kw}"/${kw}<\/a>/xs; $err = encode_base64($err,""); return $err; } $rdspec = DbRep_createCommonSql( {hash => $hash, ${kw} => $vna, dbmodel => $dbmodel} ); $rdspec = (split /AND\s(?:1|true)/xis, $rdspec)[0]; $sql =~ s/§${kw}§/$rdspec/xg; } return ($err, $sql); } #################################################################################################### # Auswertungsroutine der nichtblockierenden DB-Abfrage sqlCmd #################################################################################################### sub DbRep_sqlCmdDone { my $string = shift; my @a = split("\\|",$string); my $name = $a[0]; my $err = $a[1] ? decode_base64($a[1]) : ''; my $rowstring = $a[2] ? decode_base64($a[2]) : ''; my $opt = $a[3]; my $cmd = $a[4]; my $nrows = $a[5]; my $bt = $a[6]; my $hash = $defs{$name}; Log3 ($name, 5, qq{DbRep $name - BlockingCall PID "$hash->{HELPER}{RUNNING_PID}{pid}" finished}); delete($hash->{HELPER}{RUNNING_PID}); my $tmpsql = $data{DbRep}{$name}{sqlcache}{temp}; # SQL incl. Formatierung aus Zwischenspeicher holen if ($err) { readingsBeginUpdate ($hash); ReadingsBulkUpdateValue ($hash, 'sqlCmd', $tmpsql); ReadingsBulkUpdateValue ($hash, "errortext", $err ); ReadingsBulkUpdateValue ($hash, "state", "error"); readingsEndUpdate ($hash, 1); DbRep_afterproc ($hash, $hash->{LASTCMD}); # Befehl nach Procedure ausführen return; } DbRep_addSQLcmdCache ($name); # Drop-Down Liste bisherige sqlCmd-Befehle füllen und in Key-File sichern my ($rt,$brt) = split ",", $bt; my $srf = AttrVal($name, "sqlResultFormat", "separated"); my $srs = AttrVal($name, "sqlResultFieldSep", "|"); Log3 ($name, 5, "DbRep $name - SQL result decoded: $rowstring") if($rowstring); no warnings 'uninitialized'; readingsBeginUpdate ($hash); ReadingsBulkUpdateValue ($hash, 'sqlCmd', $tmpsql); ReadingsBulkUpdateValue ($hash, 'sqlResultNumRows', $nrows); if ($srf eq "sline") { $rowstring =~ s/§/]|[/g; $rowstring =~ s/\|°escaped°\|/§/g; ReadingsBulkUpdateValue ($hash, "SqlResult", $rowstring); } elsif ($srf eq "table") { my $res = ""; my @rows = split( /§/, $rowstring ); my $row; for $row ( @rows ) { $row =~ s/\|°escaped°\|/§/g; $row =~ s/$srs/\|/g if($srs !~ /\|/); $row =~ s/\|/<\/td>"; } $row .= $res."
/g; $res .= "
".$row."
"; ReadingsBulkUpdateValue ($hash,"SqlResult", $row); } elsif ($srf eq "mline") { my $res = ""; my @rows = split( /§/, $rowstring ); my $row; for $row ( @rows ) { $row =~ s/\|°escaped°\|/§/g; $res .= $row."
"; } $row .= $res.""; ReadingsBulkUpdateValue ($hash, "SqlResult", $row ); } elsif ($srf eq "separated") { my @rows = split( /§/, $rowstring ); my $bigint = @rows; my $numd = ceil(log10($bigint)); my $formatstr = sprintf('%%%d.%dd', $numd, $numd); my $i = 0; for my $row ( @rows ) { $i++; $row =~ s/\|°escaped°\|/§/g; my $fi = sprintf($formatstr, $i); ReadingsBulkUpdateValue ($hash, "SqlResultRow_".$fi, $row); } } elsif ($srf eq "json") { my %result = (); my @rows = split( /§/, $rowstring ); my $bigint = @rows; my $numd = ceil(log10($bigint)); my $formatstr = sprintf('%%%d.%dd', $numd, $numd); my $i = 0; for my $row ( @rows ) { $i++; $row =~ s/\|°escaped°\|/§/g; my $fi = sprintf($formatstr, $i); $result{$fi} = $row; } my $json = toJSON(\%result); # need at least fhem.pl 14348 2017-05-22 20:25:06Z ReadingsBulkUpdateValue ($hash, "SqlResult", $json); } ReadingsBulkUpdateTime ($hash, $brt, $rt); readingsEndUpdate ($hash, 1); DbRep_afterproc ($hash, $hash->{LASTCMD}); # Befehl nach Procedure ausführen incl. state return; } #################################################################################################### # nichtblockierende DB-Abfrage get db Metadaten #################################################################################################### sub DbRep_dbmeta { my $paref = shift; my $hash = $paref->{hash}; my $name = $paref->{name}; my $opt = $paref->{opt}; my $db = $hash->{DATABASE}; my $utf8 = $hash->{UTF8} // 0; my ($sth,$sql); my $bst = [gettimeofday]; # Background-Startzeit my ($err,$dbh,$dbmodel) = DbRep_dbConnect($name, 0); return "$name|$err" if ($err); no warnings 'uninitialized'; my $param; # Liste der anzuzeigenden Parameter erzeugen, sonst alle ("%"), abhängig von $opt $param = AttrVal($name, "showVariables", "%") if($opt eq "dbvars"); $param = AttrVal($name, "showSvrInfo", "[A-Z_]") if($opt eq "svrinfo"); $param = AttrVal($name, "showStatus", "%") if($opt eq "dbstatus"); $param = "1" if($opt =~ /tableinfo|procinfo/); # Dummy-Eintrag für einen Schleifendurchlauf my @parlist = split ",", $param; my $st = [gettimeofday]; # SQL-Startzeit my @row_array; # due to incompatible changes made in MyQL 5.7.5, see http://johnemb.blogspot.de/2014/09/adding-or-removing-individual-sql-modes.html if($dbmodel eq "MYSQL") { ($err, undef) = DbRep_dbhDo ($name, $dbh, "SET sql_mode=(SELECT REPLACE(\@\@sql_mode,'ONLY_FULL_GROUP_BY',''));"); return "$name|$err" if ($err); } if ($opt ne "svrinfo") { for my $ple (@parlist) { if ($opt eq "dbvars") { $sql = "show variables like '$ple';"; } elsif ($opt eq "dbstatus") { $sql = "show global status like '$ple';"; } elsif ($opt eq "tableinfo") { $sql = "show Table Status from $db;"; } elsif ($opt eq "procinfo") { $sql = "show full processlist;"; } ($err, $sth) = DbRep_prepareExecuteQuery ($name, $dbh, $sql); return "$name|$err" if ($err); if ($opt eq "tableinfo") { $param = AttrVal($name, "showTableInfo", "[A-Z_]"); $param =~ s/,/\|/g; $param =~ tr/%//d; while (my $line = $sth->fetchrow_hashref()) { Log3 ($name, 5, "DbRep $name - SQL result: $line->{Name}, $line->{Version}, $line->{Row_format}, $line->{Rows}, $line->{Avg_row_length}, $line->{Data_length}, $line->{Max_data_length}, $line->{Index_length}, $line->{Data_free}, $line->{Auto_increment}, $line->{Create_time}, $line->{Check_time}, $line->{Collation}, $line->{Checksum}, $line->{Create_options}, $line->{Comment}"); if($line->{Name} =~ m/($param)/i) { push(@row_array, $line->{Name}.".engine ".$line->{Engine}) if($line->{Engine}); push(@row_array, $line->{Name}.".version ".$line->{Version}) if($line->{Version}); push(@row_array, $line->{Name}.".row_format ".$line->{Row_format}) if($line->{Row_format}); push(@row_array, $line->{Name}.".number_of_rows ".$line->{Rows}) if($line->{Rows}); push(@row_array, $line->{Name}.".avg_row_length ".$line->{Avg_row_length}) if($line->{Avg_row_length}); push(@row_array, $line->{Name}.".data_length_MB ".sprintf("%.2f",$line->{Data_length}/1024/1024)) if($line->{Data_length}); push(@row_array, $line->{Name}.".max_data_length_MB ".sprintf("%.2f",$line->{Max_data_length}/1024/1024)) if($line->{Max_data_length}); push(@row_array, $line->{Name}.".index_length_MB ".sprintf("%.2f",$line->{Index_length}/1024/1024)) if($line->{Index_length}); push(@row_array, $line->{Name}.".data_index_length_MB ".sprintf("%.2f",($line->{Data_length}+$line->{Index_length})/1024/1024)); push(@row_array, $line->{Name}.".data_free_MB ".sprintf("%.2f",$line->{Data_free}/1024/1024)) if($line->{Data_free}); push(@row_array, $line->{Name}.".auto_increment ".$line->{Auto_increment}) if($line->{Auto_increment}); push(@row_array, $line->{Name}.".create_time ".$line->{Create_time}) if($line->{Create_time}); push(@row_array, $line->{Name}.".update_time ".$line->{Update_time}) if($line->{Update_time}); push(@row_array, $line->{Name}.".check_time ".$line->{Check_time}) if($line->{Check_time}); push(@row_array, $line->{Name}.".collation ".$line->{Collation}) if($line->{Collation}); push(@row_array, $line->{Name}.".checksum ".$line->{Checksum}) if($line->{Checksum}); push(@row_array, $line->{Name}.".create_options ".$line->{Create_options}) if($line->{Create_options}); push(@row_array, $line->{Name}.".comment ".$line->{Comment}) if($line->{Comment}); } } } elsif ($opt eq "procinfo") { my $row; my $res = ""; $res .= ""; $res .= ""; $res .= ""; $res .= ""; $res .= ""; $res .= ""; $res .= ""; $res .= ""; $res .= ""; while (my @line = $sth->fetchrow_array()) { Log3 ($name, 4, "DbRep $name - SQL result: @line"); $row = join("|", @line); $row =~ tr/ A-Za-z0-9!"#$§%&'()*+,-.\/:;<=>?@[\]^_`{|}~//cd; $row =~ s/\|/<\/td>"; } my $tab .= $res."
IDUSERHOSTDBCMDTIME_SecSTATEINFOPROGRESS
/g; $res .= "
".$row."
"; push(@row_array, "ProcessList ".$tab); } else { while (my @line = $sth->fetchrow_array()) { Log3 ($name, 4, "DbRep $name - SQL result: @line"); my $row = join("§", @line); $row =~ s/ /_/g; @line = split("§", $row); push(@row_array, $line[0]." ".$line[1]); } } $sth->finish; } } else { $param =~ s/,/\|/g; $param =~ tr/%//d; if($dbmodel eq 'SQLITE') { my $sf; eval{ $sf = $dbh->sqlite_db_filename(); 1; } or do { $err = encode_base64($@,""); Log3 ($name, 2, "DbRep $name - $@"); $dbh->disconnect; return "$name|$err"; }; my $key = "SQLITE_DB_FILENAME"; push(@row_array, $key." ".$sf) if($key =~ m/($param)/i); my @fi = split(' ',qx(du -m $hash->{DATABASE})) if ($^O =~ m/linux/i || $^O =~ m/unix/i); $key = "SQLITE_FILE_SIZE_MB"; push(@row_array, $key." ".$fi[0]) if($key =~ m/($param)/i); } my $info; while( my ($key,$value) = each(%GetInfoType) ) { eval{ $info = $dbh->get_info($GetInfoType{"$key"}); 1; } or do { $err = encode_base64($@,""); Log3 ($name, 2, "DbRep $name - $@"); $dbh->disconnect; return "$name|$err"; }; if($utf8) { $info = Encode::encode_utf8($info) if($info); } push(@row_array, $key." ".$info) if($key =~ m/($param)/i); } } $dbh->disconnect; my $rt = tv_interval($st); # SQL-Laufzeit ermitteln my $rowlist = join('§', @row_array); Log3 ($name, 5, "DbRep $name -> row_array: \n@row_array"); $rowlist = encode_base64($rowlist,""); # Daten müssen als Einzeiler zurückgegeben werden my $brt = tv_interval($bst); # Background-Laufzeit ermitteln $rt = $rt.",".$brt; $err = q{}; return "$name|$err|$rowlist|$rt|$opt"; } #################################################################################################### # Auswertungsroutine der nichtblockierenden DB-Abfrage get db Metadaten #################################################################################################### sub DbRep_dbmeta_Done { my $string = shift; my @a = split("\\|",$string); my $name = $a[0]; my $err = $a[1] ? decode_base64($a[1]) : ''; my $rowlist = $a[2] ? decode_base64($a[2]) : ''; my $bt = $a[3]; my $opt = $a[4]; my $hash = $defs{$name}; Log3 ($name, 5, qq{DbRep $name - BlockingCall PID "$hash->{HELPER}{RUNNING_PID}{pid}" finished}); delete($hash->{HELPER}{RUNNING_PID}); if ($err) { ReadingsSingleUpdateValue ($hash, "errortext", $err, 1); ReadingsSingleUpdateValue ($hash, "state", "error", 1); return; } my ($rt,$brt) = split ",", $bt; no warnings 'uninitialized'; readingsBeginUpdate($hash); my @row_array = split("§", $rowlist); Log3 ($name, 5, "DbRep $name - SQL result decoded: \n@row_array") if(@row_array); my $pre = ""; $pre = "VAR_" if($opt eq "dbvars"); $pre = "STAT_" if($opt eq "dbstatus"); $pre = "INFO_" if($opt eq "tableinfo"); for my $row (@row_array) { my @va = split " ", $row, 2; my $k = $va[0]; my $v = $va[1]; ReadingsBulkUpdateValue ($hash, $pre.$k, $v); } ReadingsBulkUpdateTimeState ($hash, $brt, $rt, "done"); readingsEndUpdate ($hash, 1); return; } #################################################################################################### # Index operations - (re)create, drop, ... # list_all # recreate_Search_Idx # drop_Search_Idx # recreate_Report_Idx # drop_Report_Idx # #################################################################################################### sub DbRep_Index { my $paref = shift; my $hash = $paref->{hash}; my $name = $paref->{name}; my $cmdidx = $paref->{prop}; my $dbloghash = $defs{$hash->{HELPER}{DBLOGDEVICE}}; my $database = $hash->{DATABASE}; my $dbuser = $dbloghash->{dbuser}; my ($sqldel,$sqlcre,$sqlava,$sqlallidx,$ret) = ("","","","",""); my $p = 0; my ($sth,$rows,@six); my $bst = [gettimeofday]; # Background-Startzeit my ($err,$dbh,$dbmodel) = DbRep_dbConnect($name, $p); return "$name|$err" if ($err); # Userrechte ermitteln ####################### $paref->{dbmodel} = $dbmodel; $paref->{dbh} = $dbh; $paref->{database} = $database; my $grants = _DbRep_getInitData_grants ($paref); if($cmdidx ne "list_all" && $dbmodel =~ /MYSQL/) { # Rechte Check MYSQL if($grants && $grants ne "ALL PRIVILEGES") { # Rechte INDEX und ALTER benötigt my $i = index($grants, "INDEX"); my $a = index($grants, "ALTER"); if($i == -1 || $a == -1) { $p = 1; } } elsif (!$grants) { $p = 1; } } if($p) { Log3 ($name, 2, qq{DbRep $name - user "$dbuser" doesn't have rights "INDEX" and "ALTER" as needed - try use adminCredentials automatically !}); $dbh->disconnect(); ($err,$dbh,$dbmodel) = DbRep_dbConnect($name, $p); return "$name|$err" if ($err); } my ($cmd,$idx) = split "_", $cmdidx, 2; my $st = [gettimeofday]; # SQL-Startzeit if($dbmodel =~ /MYSQL/) { $sqlallidx = "SELECT TABLE_NAME,INDEX_NAME,COLUMN_NAME FROM INFORMATION_SCHEMA.STATISTICS WHERE TABLE_SCHEMA = '$database';"; $sqlava = "SHOW INDEX FROM history where Key_name='$idx';"; if($cmd =~ /recreate/) { $sqldel = "ALTER TABLE `history` DROP INDEX `$idx`;"; $sqlcre = "ALTER TABLE `history` ADD INDEX `Search_Idx` (DEVICE, READING, TIMESTAMP) USING BTREE;" if($idx eq "Search_Idx"); $sqlcre = "ALTER TABLE `history` ADD INDEX `Report_Idx` (TIMESTAMP, READING) USING BTREE;" if($idx eq "Report_Idx"); } if($cmd =~ /drop/) { $sqldel = "ALTER TABLE `history` DROP INDEX `$idx`;"; } } elsif($dbmodel =~ /SQLITE/) { $sqlallidx = "SELECT tbl_name,name,sql FROM sqlite_master WHERE type='index' ORDER BY tbl_name,name DESC;"; $sqlava = "SELECT tbl_name,name FROM sqlite_master WHERE type='index' AND name='$idx';"; if($cmd =~ /recreate/) { $sqldel = "DROP INDEX '$idx';"; $sqlcre = "CREATE INDEX Search_Idx ON `history` (DEVICE, READING, TIMESTAMP);" if($idx eq "Search_Idx"); $sqlcre = "CREATE INDEX Report_Idx ON `history` (TIMESTAMP,READING);" if($idx eq "Report_Idx"); } if($cmd =~ /drop/) { $sqldel = "DROP INDEX '$idx';"; } } elsif($dbmodel =~ /POSTGRESQL/) { $sqlallidx = "SELECT tablename,indexname,indexdef FROM pg_indexes WHERE tablename NOT LIKE 'pg%' ORDER BY tablename,indexname DESC;"; $sqlava = "SELECT * FROM pg_indexes WHERE tablename='history' and indexname ='$idx';"; if($cmd =~ /recreate/) { $sqldel = "DROP INDEX \"$idx\";"; $sqlcre = "CREATE INDEX \"Search_Idx\" ON history USING btree (device, reading, \"timestamp\");" if($idx eq "Search_Idx"); $sqlcre = "CREATE INDEX \"Report_Idx\" ON history USING btree (\"timestamp\", reading);" if($idx eq "Report_Idx"); } if($cmd =~ /drop/) { $sqldel = "DROP INDEX \"$idx\";"; } } else { $err = "database model unknown"; Log3 ($name, 2, "DbRep $name - DbRep_Index - $err"); $err = encode_base64($err,""); $dbh->disconnect(); return "$name|$err"; } # alle Indizes auflisten Log3($name, 4, "DbRep $name - List all indexes: $sqlallidx"); my ($sql_table,$sql_idx,$sql_column); eval {$sth = $dbh->prepare($sqlallidx); $sth->execute(); $sth->bind_columns(\$sql_table, \$sql_idx, \$sql_column); }; $ret = ""; my ($lt,$li) = ("",""); my $i = 0; while($sth->fetch()) { if($lt ne $sql_table || $li ne $sql_idx) { $ret .= "\n" if($i>0); if($dbmodel =~ /SQLITE/ or $dbmodel =~ /POSTGRESQL/) { $sql_column =~ /.*\((.*)\).*/; $sql_column = uc($1); $sql_column =~ s/"//g; } $ret .= "Table: $sql_table, Idx: $sql_idx, Col: $sql_column"; } else { $ret .= ", $sql_column"; } $lt = $sql_table; $li = $sql_idx; $i++; } Log3($name, 3, "DbRep $name - Index found in database:\n$ret"); $ret = "Index found in database:\n========================\n".$ret; if($cmd !~ /list/) { Log3($name, 4, "DbRep $name - SQL execute: $sqlava $sqldel $sqlcre"); if($sqldel) { eval {@six = $dbh->selectrow_array($sqlava);}; if (@six) { Log3 ($name, 3, "DbRep $name - dropping index $idx ... "); eval {$rows = $dbh->do($sqldel);}; if ($@) { if($cmd !~ /recreate/) { $err = encode_base64($@,""); Log3 ($name, 2, "DbRep $name - DbRep_Index - $@"); $dbh->disconnect(); return "$name|$err"; } } else { $ret = "Index $idx dropped"; Log3 ($name, 3, "DbRep $name - $ret"); } } else { $ret = "Index $idx doesn't exist, no need to drop it"; Log3 ($name, 3, "DbRep $name - $ret"); } } if($sqlcre) { Log3 ($name, 3, "DbRep $name - creating index $idx ... "); eval {$rows = $dbh->do($sqlcre);}; if ($@) { $err = encode_base64($@,""); Log3 ($name, 2, "DbRep $name - DbRep_Index - $@"); $dbh->disconnect(); return "$name|$err"; } else { $ret = "Index $idx created"; Log3 ($name, 3, "DbRep $name - $ret"); } } $rows = $rows eq "0E0" ? 0 : $rows if(defined $rows); # always return true if no error } my $rt = tv_interval($st); # SQL-Laufzeit ermitteln $dbh->disconnect(); $ret = encode_base64($ret,""); my $brt = tv_interval($bst); # Background-Laufzeit ermitteln $rt = $rt.",".$brt; $err = q{}; return "$name|$err|$ret|$rt"; } #################################################################################################### # Auswertungsroutine Index Operation #################################################################################################### sub DbRep_IndexDone { my $string = shift; my @a = split("\\|",$string); my $name = $a[0]; my $err = $a[1] ? decode_base64($a[1]) : ''; my $ret = $a[2] ? decode_base64($a[2]) : ''; my $bt = $a[3]; my $hash = $defs{$name}; Log3 ($name, 5, qq{DbRep $name - BlockingCall PID "$hash->{HELPER}{RUNNING_INDEX}{pid}" finished}); delete($hash->{HELPER}{RUNNING_INDEX}); if ($err) { ReadingsSingleUpdateValue ($hash, "errortext", $err, 1); ReadingsSingleUpdateValue ($hash, "state", "error", 1); DbRep_afterproc ($hash, "index"); # Befehl nach Procedure ausführen incl. state return; } my ($rt,$brt) = split ",", $bt; readingsBeginUpdate ($hash); ReadingsBulkUpdateValue ($hash, "index_state", $ret); ReadingsBulkUpdateTime ($hash, $brt, $rt); readingsEndUpdate ($hash, 1); DbRep_afterproc ($hash, "index"); # Befehl nach Procedure ausführen incl. state return; } #################################################################################################### # Abbruchroutine Index operation #################################################################################################### sub DbRep_IndexAborted { my $hash = shift; my $cause = shift // "Timeout: process terminated"; my $name = $hash->{NAME}; my $dbh = $hash->{DBH}; Log3 ($name, 1, "DbRep $name -> BlockingCall $hash->{HELPER}{RUNNING_INDEX}{fn} pid:$hash->{HELPER}{RUNNING_INDEX}{pid} $cause"); ReadingsSingleUpdateValue ($hash, 'state', 'Abort', 0); my $erread = DbRep_afterproc ($hash, "index"); # Befehl nach Procedure ausführen $erread = ", ".(split("but", $erread))[1] if($erread); my $state = $cause.$erread; $dbh->disconnect() if(defined($dbh)); ReadingsSingleUpdateValue ($hash, "state", $state, 1); Log3 ($name, 2, "DbRep $name - Database index operation aborted due to \"$cause\" "); delete($hash->{HELPER}{RUNNING_INDEX}); return; } #################################################################################################### # optimize Tables alle Datenbanken #################################################################################################### sub DbRep_optimizeTables { my $paref = shift; my $hash = $paref->{hash}; my $name = $paref->{name}; my $prop = $paref->{prop} // ''; # default execute wenn nichts angegeben (wg. Kompatibilität) my $dbname = $hash->{DATABASE}; my $value = 0; my ($sth,$query,$db_MB_start,$db_MB_end); my (%db_tables,@tablenames); my $bst = [gettimeofday]; # Background-Startzeit my ($err,$dbh,$dbmodel) = DbRep_dbConnect($name, 0); return "$name|$err" if ($err); my $st = [gettimeofday]; # SQL-Startzeit if ($dbmodel =~ /MYSQL/) { $query = "SHOW TABLE STATUS FROM `$dbname`"; # Eigenschaften der vorhandenen Tabellen ermitteln (SHOW TABLE STATUS -> Rows sind nicht exakt !!) ($err, $sth) = DbRep_prepareExecuteQuery ($name, $dbh, $query, "Searching for tables inside database $dbname...."); return "$name|$err" if ($err); while ( $value = $sth->fetchrow_hashref()) { Log3 ($name, 5, "DbRep $name - ......... Table definition found: ........."); for my $tk (sort(keys(%$value))) { Log3 ($name, 5, "DbRep $name - $tk: $value->{$tk}") if(defined($value->{$tk}) && $tk ne "Rows"); } Log3 ($name, 5, "DbRep $name - ......... Table definition END ............"); if (defined $value->{Type}) { # check for old MySQL3-Syntax Type=xxx $value->{Engine} = $value->{Type}; # port old index type to index engine, so we can use the index Engine in the rest of the script } $db_tables{$value->{Name}} = $value; } @tablenames = sort(keys(%db_tables)); if (@tablenames < 1) { $err = "There are no tables inside database $dbname ! It doesn't make sense to backup an empty database. Skipping this one."; Log3 ($name, 2, "DbRep $name - $err"); $err = encode_base64($@,""); $sth->finish; $dbh->disconnect; return "$name|$err"; } $hash->{HELPER}{DBTABLES} = \%db_tables; # Tabellen optimieren my $opars = { hash => $hash, dbh => $dbh, omode => $prop, tables => \@tablenames }; ($err, $db_MB_start, $db_MB_end) = _DbRep_mysqlOptimizeTables ($opars); return "$name|$err" if ($err); } if ($dbmodel =~ /SQLITE/) { $db_MB_start = (split(' ',qx(du -m $hash->{DATABASE})))[0] if ($^O =~ m/linux/i || $^O =~ m/unix/i); # Anfangsgröße ermitteln Log3 ($name, 3, "DbRep $name - Size of database $dbname before optimize (MB): $db_MB_start"); $query = "PRAGMA auto_vacuum = FULL;"; $err = _DbRep_setSessPragma ($name, $dbh, \$query); return "$name|$err" if ($err); $query = "VACUUM"; ($err, $sth) = DbRep_prepareExecuteQuery ($name, $dbh, $query, "VACUUM database $dbname...."); return "$name|$err" if ($err); $db_MB_end = (split(' ',qx(du -m $hash->{DATABASE})))[0] if ($^O =~ m/linux/i || $^O =~ m/unix/i); # Endgröße ermitteln Log3 ($name, 3, "DbRep $name - Size of database $dbname after optimize (MB): $db_MB_end"); } if ($dbmodel =~ /POSTGRESQL/) { $query = "SELECT pg_size_pretty(pg_database_size('$dbname'))"; # Anfangsgröße ermitteln ($err, $sth) = DbRep_prepareExecuteQuery ($name, $dbh, $query); return "$name|$err" if ($err); $value = $sth->fetchrow(); $value =~ tr/MB//d; $db_MB_start = sprintf("%.2f",$value); Log3 ($name, 3, "DbRep $name - Size of database $dbname before optimize (MB): $db_MB_start"); $query = "vacuum history"; ($err, $sth) = DbRep_prepareExecuteQuery ($name, $dbh, $query, "VACUUM database $dbname...."); return "$name|$err" if ($err); $query = "SELECT pg_size_pretty(pg_database_size('$dbname'))"; # Endgröße ermitteln ($err, $sth) = DbRep_prepareExecuteQuery ($name, $dbh, $query); return "$name|$err" if ($err); $value = $sth->fetchrow(); $value =~ tr/MB//d; $db_MB_end = sprintf("%.2f",$value); Log3 ($name, 3, "DbRep $name - Size of database $dbname after optimize (MB): $db_MB_end"); } $sth->finish; $dbh->disconnect; $db_MB_start = encode_base64($db_MB_start,""); $db_MB_end = encode_base64($db_MB_end, ""); my $rt = tv_interval($st); # SQL-Laufzeit ermitteln my $brt = tv_interval($bst); # Background-Laufzeit ermitteln $rt = $rt.",".$brt; $err = qq{}; Log3 ($name, 3, "DbRep $name - Optimize tables of $dbname finished - total time (hh:mm:ss): ".DbRep_sec2hms($brt)); return "$name|$err|$rt|$db_MB_start|$db_MB_end"; } #################################################################################################### # Tabellenoptimierung MySQL #################################################################################################### sub _DbRep_mysqlOptimizeTables { my $opars = shift; my $hash = $opars->{hash}; my $dbh = $opars->{dbh}; my $omode = $opars->{omode}; my $tables = $opars->{tables}; my $name = $hash->{NAME}; my $dbname = $hash->{DATABASE}; my $db_tables = $hash->{HELPER}{DBTABLES}; my $result = 0; my $opttbl = 0; my $err = qq{}; my ($sth,$db_MB_start,$db_MB_end); ($err, $db_MB_start) = _DbRep_mysqlOpdAndFreeSpace ($hash, $dbh); return $err if ($err); Log3 ($name, 3, "DbRep $name - Estimate of $dbname before optimize (MB): $db_MB_start"); if($omode eq "showInfo") { # nur Info, keine Ausführung return ('',$db_MB_start,''); } Log3 ($name, 3, "DbRep $name - Optimizing tables"); for my $tablename (@{$tables}) { # optimize table if engine supports optimization my $engine = ''; $engine = uc($db_tables->{$tablename}{Engine}) if($db_tables->{$tablename}{Engine}); if ($engine =~ /(MYISAM|BDB|INNODB|ARIA)/xi) { Log3($name, 3, "DbRep $name - Optimizing table `$tablename` ($engine). It may take a while ..."); ($err, $sth, $result) = DbRep_prepareExecuteQuery ($name, $dbh, "OPTIMIZE TABLE `$tablename`"); return $err if ($err); if ($result) { Log3($name, 3, "DbRep $name - Table ".($opttbl+1)." `$tablename` optimized successfully."); $opttbl++; } else { Log3($name, 2, "DbRep $name - Error while optimizing table $tablename. Continue with next table or backup."); } } } Log3($name, 3, "DbRep $name - $opttbl tables have been optimized.") if($opttbl > 0); ($err, $db_MB_end) = _DbRep_mysqlOpdAndFreeSpace ($hash, $dbh); return $err if ($err); Log3 ($name, 3, "DbRep $name - Estimate of $dbname after optimize (MB): $db_MB_end"); return ($err,$db_MB_start,$db_MB_end); } #################################################################################################### # MySQL Datenbank belegten und freien Speicher ermitteln #################################################################################################### sub _DbRep_mysqlOpdAndFreeSpace { my $hash = shift; my $dbh = shift; my $name = $hash->{NAME}; my $dbname = $hash->{DATABASE}; my $query = qq{SELECT table_name, }; # SQL zur Größenermittlung $query .= qq{round (data_length / 1024 / 1024, 2) "data size in MB", }; $query .= qq{round (index_length / 1024 / 1024, 2) "index size in MB", }; $query .= qq{round (data_free / 1024 / 1024, 2) "free space in MB" }; $query .= qq{FROM information_schema.TABLES where table_schema = '$dbname'; }; my ($err, $sth) = DbRep_prepareExecuteQuery ($name, $dbh, $query); # Anfangsgröße ermitteln return $err if ($err); my ($dl,$il,$fs) = (0,0,0); my $tn = ''; while (my @line = $sth->fetchrow_array()) { $tn = $line[0] // ''; $dl += $line[1] // 0; $il += $line[2] // 0; $fs += $line[3] // 0; # Log3 ($name, 5, "DbRep $name - Size details: table name -> $line[0], data size -> $line[1] MB, index size -> $line[2] MB, Space free -> $line[3] MB"); } $query = qq{SELECT round ((COUNT(*) * 300 * 1024)/1048576 + 150, 2) "overhead in MB" }; $query .= qq{FROM information_schema.TABLES where table_schema = '$dbname'; }; ($err, $sth) = DbRep_prepareExecuteQuery ($name, $dbh, $query); # Overhead ermitteln return $err if ($err); my $ovh = $sth->fetchrow_array(); my $db_MB_size = "Data size: $dl, Index size: $il, Space free: $fs, Overhead: $ovh"; return ($err, $db_MB_size); } #################################################################################################### # Auswertungsroutine optimize tables #################################################################################################### sub DbRep_OptimizeDone { my $string = shift; my @a = split("\\|",$string); my $name = $a[0]; my $err = $a[1] ? decode_base64($a[1]) : ''; my $bt = $a[2]; my $db_MB_start = $a[3] ? decode_base64($a[3]) : ''; my $db_MB_end = $a[4] ? decode_base64($a[4]) : ''; my $hash = $defs{$name}; delete($hash->{HELPER}{RUNNING_OPTIMIZE}); if ($err) { ReadingsSingleUpdateValue ($hash, "errortext", $err, 1); ReadingsSingleUpdateValue ($hash, "state", "error", 1); DbRep_afterproc ($hash, "optimize"); # Befehl nach Procedure ausführen return; } my ($rt,$brt) = split(",", $bt); no warnings 'uninitialized'; readingsBeginUpdate ($hash); ReadingsBulkUpdateValue ($hash, "SizeDbBegin_MB", $db_MB_start); ReadingsBulkUpdateValue ($hash, "SizeDbEnd_MB", $db_MB_end ); ReadingsBulkUpdateTime ($hash, $brt, undef); readingsEndUpdate ($hash, 1); DbRep_afterproc ($hash, "optimize"); # Befehl nach Procedure ausführen incl. state Log3 ($name, 3, "DbRep $name - Optimize tables finished successfully. "); return; } #################################################################################################### # nicht blockierende Dump-Routine für MySQL (clientSide) #################################################################################################### sub DbRep_mysql_DumpClientSide { my $paref = shift; my $hash = $paref->{hash}; my $name = $paref->{name}; my $dbname = $hash->{DATABASE}; my $dump_path = AttrVal($name, "dumpDirLocal", $dbrep_dump_path_def); $dump_path = $dump_path."/" unless($dump_path =~ m/\/$/); my $optimize_tables_beforedump = AttrVal($name, "optimizeTablesBeforeDump", 0); my $memory_limit = AttrVal($name, "dumpMemlimit", 100000); my $my_comment = AttrVal($name, "dumpComment", ""); my $dumpspeed = AttrVal($name, "dumpSpeed", 10000); my $ebd = AttrVal($name, "executeBeforeProc", undef); my $ead = AttrVal($name, "executeAfterProc", undef); my $mysql_commentstring = "-- "; my $character_set = "utf8"; my $repver = $hash->{HELPER}{VERSION}; my $sql_text = ''; my $sql_file = ''; my $dbpraefix = ""; my ($sth,$tablename,$sql_create,$rct,$insert,$first_insert,$backupfile,$drc,$drh,$e, $sql_daten,$inhalt,$filesize,$totalrecords,$status_start,$status_end); my (@ar,@tablerecords,@tablenames,@tables,@ergebnis); my (%db_tables); my $bst = [gettimeofday]; # Background-Startzeit Log3 ($name, 3, "DbRep $name - Starting dump of database '$dbname'"); ##################### Beginn Dump ######################## ############################################################ undef(%db_tables); # Startzeit ermitteln my ($Sekunden, $Minuten, $Stunden, $Monatstag, $Monat, $Jahr, $Wochentag, $Jahrestag, $Sommerzeit) = localtime(time); $Jahr += 1900; $Monat += 1; $Jahrestag += 1; my $CTIME_String = strftime "%Y-%m-%d %T", localtime(time); my $time_stamp = $Jahr."_".sprintf("%02d",$Monat)."_".sprintf("%02d",$Monatstag)."_".sprintf("%02d",$Stunden)."_".sprintf("%02d",$Minuten); my $starttime = sprintf("%02d",$Monatstag).".".sprintf("%02d",$Monat).".".$Jahr." ".sprintf("%02d",$Stunden).":".sprintf("%02d",$Minuten); my $fieldlist = ""; my ($err, $dbh, $dbmodel) = DbRep_dbConnect($name, 0); return "$name|$err" if ($err); $dbh->{mysql_enable_utf8} = 0; # Dump Performance !!! Forum: https://forum.fhem.de/index.php/topic,53584.msg1204535.html#msg1204535 my $st = [gettimeofday]; # SQL-Startzeit ($err, $sth) = DbRep_prepareExecuteQuery ($name, $dbh, "SELECT VERSION()"); # Mysql-Version ermitteln return "$name|$err" if ($err); my @mysql_version = $sth->fetchrow; my @v = split(/\./,$mysql_version[0]); if($v[0] >= 5 || ($v[0] >= 4 && $v[1] >= 1) ) { # mysql Version >= 4.1 ($err, $sth) = DbRep_prepareExecuteQuery ($name, $dbh, "SET NAMES '".$character_set."'"); # get standard encoding of MySQl-Server return "$name|$err" if ($err); ($err, $sth) = DbRep_prepareExecuteQuery ($name, $dbh, "SHOW VARIABLES LIKE 'character_set_connection'"); return "$name|$err" if ($err); @ar = $sth->fetchrow; $character_set = $ar[1]; } else { # mysql Version < 4.1 -> no SET NAMES available ($err, $sth) = DbRep_prepareExecuteQuery ($name, $dbh, "SHOW VARIABLES LIKE 'character_set'"); # get standard encoding of MySQl-Server return "$name|$err" if ($err); @ar = $sth->fetchrow; if (defined($ar[1])) { $character_set = $ar[1]; } } Log3 ($name, 3, "DbRep $name - Characterset of collection set to $character_set. "); undef(@tables); undef(@tablerecords); my %db_tables_views; my $t = 0; my $r = 0; my $st_e = "\n"; my $value = 0; my $engine = ''; my $query ="SHOW TABLE STATUS FROM `$dbname`"; # Eigenschaften der vorhandenen Tabellen ermitteln (SHOW TABLE STATUS -> Rows sind nicht exakt !!) if ($dbpraefix ne "") { $query.=" LIKE '$dbpraefix%'"; Log3 ($name, 3, "DbRep $name - Searching for tables inside database $dbname with prefix $dbpraefix...."); } else { Log3 ($name, 3, "DbRep $name - Searching for tables inside database $dbname...."); } ($err, $sth) = DbRep_prepareExecuteQuery ($name, $dbh, $query); return "$name|$err" if ($err); while ( $value = $sth->fetchrow_hashref()) { $value->{skip_data} = 0; #defaut -> backup data of table Log3 ($name, 5, "DbRep $name - ......... Table definition found: ........."); for my $tk (sort(keys(%$value))) { Log3 ($name, 5, "DbRep $name - $tk: $value->{$tk}") if(defined($value->{$tk}) && $tk ne "Rows"); } Log3 ($name, 5, "DbRep $name - ......... Table definition END ............"); # decide if we need to skip the data while dumping (VIEWs and MEMORY) # check for old MySQL3-Syntax Type=xxx if (defined $value->{Type}) { # port old index type to index engine, so we can use the index Engine in the rest of the script $value->{Engine} = $value->{Type}; $engine = uc($value->{Type}); if ($engine eq "MEMORY") { $value->{skip_data} = 1; } } if (defined $value->{Engine}) { # check for > MySQL3 Engine = xxx $engine = uc($value->{Engine}); if ($engine eq "MEMORY") { $value->{skip_data} = 1; } } if (defined $value->{Comment} && uc(substr($value->{Comment},0,4)) eq 'VIEW') { # check for Views - if it is a view the comment starts with "VIEW" $value->{skip_data} = 1; $value->{Engine} = 'VIEW'; $value->{Update_time} = ''; $db_tables_views{$value->{Name}} = $value; } else { $db_tables{$value->{Name}} = $value; } $value->{Rows} += 0; # cast indexes to int, cause they are used for builing the statusline $value->{Data_length} += 0; $value->{Index_length} += 0; } $sth->finish; @tablenames = sort(keys(%db_tables)); @tablenames = (@tablenames,sort(keys(%db_tables_views))); # add VIEW at the end as they need all tables to be created before %db_tables = (%db_tables,%db_tables_views); $tablename = ''; if (@tablenames < 1) { $err = "There are no tables inside database $dbname ! It doesn't make sense to backup an empty database. Skipping this one."; Log3 ($name, 2, "DbRep $name - $err"); $err = encode_base64($@,""); $dbh->disconnect; return "$name|$err"; } if($optimize_tables_beforedump) { # Tabellen optimieren vor dem Dump $hash->{HELPER}{DBTABLES} = \%db_tables; my $opars = { hash => $hash, dbh => $dbh, omode => "execute", tables => \@tablenames }; ($err) = _DbRep_mysqlOptimizeTables ($opars); return $err if($err); } $st_e .= "-- TABLE-INFO\n"; # Tabelleneigenschaften für SQL-File ermitteln for $tablename (@tablenames) { my $dump_table = 1; if ($dbpraefix ne "") { if (substr($tablename,0,length($dbpraefix)) ne $dbpraefix) { # exclude table from backup because it doesn't fit to praefix $dump_table = 0; } } if ($dump_table == 1) { # how many rows $sql_create = "SELECT count(*) FROM `$tablename`"; ($err, $sth) = DbRep_prepareExecuteQuery ($name, $dbh, $sql_create); return "$name|$err" if ($err); $db_tables{$tablename}{Rows} = $sth->fetchrow; $sth->finish; $r += $db_tables{$tablename}{Rows}; push(@tables,$db_tables{$tablename}{Name}); # add tablename to backuped tables $t++; if (!defined $db_tables{$tablename}{Update_time}) { $db_tables{$tablename}{Update_time} = 0; } $st_e .= $mysql_commentstring."TABLE: $db_tables{$tablename}{Name} | Rows: $db_tables{$tablename}{Rows} | Length: ".($db_tables{$tablename}{Data_length}+$db_tables{$tablename}{Index_length})." | Engine: $db_tables{$tablename}{Engine}\n"; if($db_tables{$tablename}{Name} eq "current") { $drc = $db_tables{$tablename}{Rows}; } if($db_tables{$tablename}{Name} eq "history") { $drh = $db_tables{$tablename}{Rows}; } } } $st_e .= "-- EOF TABLE-INFO"; Log3 ($name, 3, "DbRep $name - Found ".(@tables)." tables with $r records."); # AUFBAU der Statuszeile in SQL-File: # -- Status | tabellenzahl | datensaetze | Datenbankname | Kommentar | MySQLVersion | Charset | EXTINFO # $status_start = $mysql_commentstring."Status | Tables: $t | Rows: $r "; $status_end = "| DB: $dbname | Comment: $my_comment | MySQL-Version: $mysql_version[0] "; $status_end .= "| Charset: $character_set $st_e\n". $mysql_commentstring."Dump created on $CTIME_String by DbRep-Version $repver\n".$mysql_commentstring; $sql_text = $status_start.$status_end; # neues SQL-Ausgabefile anlegen ($err, $sql_text, $first_insert, $sql_file, $backupfile) = DbRep_NewDumpFilename($sql_text, $dump_path, $dbname, $time_stamp, $character_set); if ($err) { Log3 ($name, 2, "DbRep $name - $err"); $err = encode_base64($err,""); return "$name|$err"; } else { Log3 ($name, 5, "DbRep $name - New dumpfile $sql_file has been created."); } ##################### jede einzelne Tabelle dumpen ######################## $totalrecords = 0; for $tablename (@tables) { # first get CREATE TABLE Statement if($dbpraefix eq "" || ($dbpraefix ne "" && substr($tablename,0,length($dbpraefix)) eq $dbpraefix)) { Log3 ($name, 3, "DbRep $name - Dumping table $tablename (Type ".$db_tables{$tablename}{Engine}."):"); $a = "\n\n$mysql_commentstring\n$mysql_commentstring"."Table structure for table `$tablename`\n$mysql_commentstring\n"; if ($db_tables{$tablename}{Engine} ne 'VIEW' ) { $a .= "DROP TABLE IF EXISTS `$tablename`;\n"; } else { $a .= "DROP VIEW IF EXISTS `$tablename`;\n"; } $sql_text .= $a; $sql_create = "SHOW CREATE TABLE `$tablename`"; ($err, $sth) = DbRep_prepareExecuteQuery ($name, $dbh, $sql_create); return "$name|$err" if ($err); @ergebnis = $sth->fetchrow; $sth->finish; $a = $ergebnis[1].";\n"; if (length($a) < 10) { $err = "Fatal error! Couldn't read CREATE-Statement of table `$tablename`! This backup might be incomplete! Check your database for errors. MySQL-Error: ".$DBI::errstr; Log3 ($name, 2, "DbRep $name - $err"); } else { $sql_text .= $a; Log3 ($name, 5, "DbRep $name - Create-SQL found:\n$a"); } if ($db_tables{$tablename}{skip_data} == 0) { $sql_text .= "\n$mysql_commentstring\n$mysql_commentstring"."Dumping data for table `$tablename`\n$mysql_commentstring\n"; $sql_text .= "/*!40000 ALTER TABLE `$tablename` DISABLE KEYS */;"; DbRep_WriteToDumpFile($sql_text, $sql_file); $sql_text = ""; $fieldlist = "("; $sql_create = "SHOW FIELDS FROM `$tablename`"; # build fieldlist ($err, $sth) = DbRep_prepareExecuteQuery ($name, $dbh, $sql_create); return "$name|$err" if ($err); while (@ar = $sth->fetchrow) { $fieldlist .= "`".$ar[0]."`,"; } $sth->finish; Log3 ($name, 5, "DbRep $name - Fieldlist found: $fieldlist"); $fieldlist = substr($fieldlist, 0, length($fieldlist)-1).")"; # remove trailing ',' and add ')' $rct = $db_tables{$tablename}{Rows}; # how many rows Log3 ($name, 5, "DbRep $name - Number entries of table $tablename: $rct"); for (my $ttt = 0; $ttt < $rct; $ttt += $dumpspeed) { # create insert Statements $insert = "INSERT INTO `$tablename` $fieldlist VALUES ("; # default beginning for INSERT-String $first_insert = 0; $sql_daten = "SELECT * FROM `$tablename` LIMIT ".$ttt.",".$dumpspeed.";"; # get rows (parts) ($err, $sth) = DbRep_prepareExecuteQuery ($name, $dbh, $sql_daten); return "$name|$err" if ($err); while ( @ar = $sth->fetchrow) { # Start the insert if($first_insert == 0) { $a = "\n$insert"; } else { $a = "\n("; } for $inhalt(@ar) { # quote all values $a .= $dbh->quote($inhalt).","; } $a = substr($a,0, length($a)-1).");"; # remove trailing ',' and add end-sql $sql_text .= $a; if($memory_limit > 0 && length($sql_text) > $memory_limit) { ($err, $filesize) = DbRep_WriteToDumpFile($sql_text, $sql_file); # Log3 ($name, 5, "DbRep $name - Memory limit '$memory_limit' exceeded. Wrote to '$sql_file'. Filesize: '"._DbRep_byteOutput($filesize)."'"); $sql_text = ""; } } $sth->finish; } $sql_text .= "\n/*!40000 ALTER TABLE `$tablename` ENABLE KEYS */;\n"; } ($err, $filesize) = DbRep_WriteToDumpFile($sql_text, $sql_file); # write sql commands to file $sql_text = ""; if ($db_tables{$tablename}{skip_data} == 0) { Log3 ($name, 3, "DbRep $name - $rct records inserted (size of backupfile: "._DbRep_byteOutput($filesize).")") if($filesize); $totalrecords += $rct; } else { Log3 ($name, 3, "DbRep $name - Dumping structure of $tablename (Type ".$db_tables{$tablename}{Engine}." ) (size of backupfile: "._DbRep_byteOutput($filesize).")"); } } } # end DbRep_WriteToDumpFile("\nSET FOREIGN_KEY_CHECKS=1;\n", $sql_file); ($err, $filesize) = DbRep_WriteToDumpFile($mysql_commentstring."EOB\n", $sql_file); # Datenbankverbindung schliessen $sth->finish(); $dbh->disconnect(); my $rt = tv_interval($st); # SQL-Laufzeit ermitteln my $compress = AttrVal($name, "dumpCompress", 0); # Dumpfile komprimieren wenn dumpCompress=1 if($compress) { ($err, $backupfile, $filesize) = DbRep_dumpCompress($hash, $backupfile); } my ($ftperr,$ftpmsg,@ftpfd) = DbRep_sendftp($hash,$backupfile); # Dumpfile per FTP senden und versionieren my $ftp = $ftperr ? encode_base64($ftperr,"") : $ftpmsg ? encode_base64($ftpmsg,"") : 0; my $ffd = join ", ", @ftpfd; $ffd = $ffd ? encode_base64($ffd,"") : 0; my @fd = DbRep_deldumpfiles($hash,$backupfile); # alte Dumpfiles löschen my $bfd = join ", ", @fd; $bfd = $bfd ? encode_base64($bfd,"") : 0; my $brt = tv_interval($bst); # Background-Laufzeit ermitteln $rt = $rt.",".$brt; my $fsize = _DbRep_byteOutput($filesize); $fsize = encode_base64 ($fsize,""); $err = q{}; Log3 ($name, 3, "DbRep $name - Finished backup of database $dbname - total time used (hh:mm:ss): ".DbRep_sec2hms($brt)); return "$name|$err|$rt|$dump_path$backupfile|$drc|$drh|$fsize|$ftp|$bfd|$ffd"; } #################################################################################################### # nicht blockierende Dump-Routine für MySQL (serverSide) #################################################################################################### sub DbRep_mysql_DumpServerSide { my $paref = shift; my $hash = $paref->{hash}; my $name = $paref->{name}; my $table = $paref->{table}; my $dbname = $hash->{DATABASE}; my $optimize_tables_beforedump = AttrVal($name, "optimizeTablesBeforeDump", 0); my $dump_path_rem = AttrVal($name, "dumpDirRemote", $dbrep_dump_remotepath_def); $dump_path_rem = $dump_path_rem."/" unless($dump_path_rem =~ m/\/$/); my $dump_path_loc = AttrVal($name, "dumpDirLocal", $dbrep_dump_path_def); $dump_path_loc = $dump_path_loc."/" unless($dump_path_loc =~ m/\/$/); my $ebd = AttrVal($name, "executeBeforeProc", undef); my $ead = AttrVal($name, "executeAfterProc", undef); my ($sth,$drh); my (%db_tables,@tablenames); my $bst = [gettimeofday]; # Background-Startzeit my ($err,$dbh,$dbmodel) = DbRep_dbConnect($name, 0); return "$name|$err" if ($err); my $value = 0; my $query ="SHOW TABLE STATUS FROM `$dbname`"; # Eigenschaften der vorhandenen Tabellen ermitteln (SHOW TABLE STATUS -> Rows sind nicht exakt !!) Log3 ($name, 3, "DbRep $name - Searching for tables inside database $dbname...."); ($err, $sth) = DbRep_prepareExecuteQuery ($name, $dbh, $query); return "$name|$err" if ($err); while ( $value = $sth->fetchrow_hashref()) { Log3 ($name, 5, "DbRep $name - ......... Table definition found: ........."); for my $tk (sort(keys(%$value))) { Log3 ($name, 5, "DbRep $name - $tk: $value->{$tk}") if(defined($value->{$tk}) && $tk ne "Rows"); } Log3 ($name, 5, "DbRep $name - ......... Table definition END ............"); if (defined $value->{Type}) { # check for old MySQL3-Syntax Type=xxx $value->{Engine} = $value->{Type}; # port old index type to index engine, so we can use the index Engine in the rest of the script } $db_tables{$value->{Name}} = $value; } $sth->finish; @tablenames = sort(keys(%db_tables)); if (@tablenames < 1) { $err = "There are no tables inside database $dbname ! It doesn't make sense to backup an empty database. Skipping this one."; Log3 ($name, 2, "DbRep $name - $err"); $err = encode_base64($@,""); $dbh->disconnect; return "$name|$err"; } if($optimize_tables_beforedump) { # Tabellen optimieren vor dem Dump $hash->{HELPER}{DBTABLES} = \%db_tables; my $opars = { hash => $hash, dbh => $dbh, omode => "execute", tables => \@tablenames }; ($err) = _DbRep_mysqlOptimizeTables($opars); return "$name|$err" if ($err); } Log3 ($name, 3, "DbRep $name - Starting dump of database '$dbname', table '$table'"); # Startzeit ermitteln my ($Sekunden, $Minuten, $Stunden, $Monatstag, $Monat, $Jahr, $Wochentag, $Jahrestag, $Sommerzeit) = localtime(time); $Jahr += 1900; $Monat += 1; $Jahrestag += 1; my $time_stamp = $Jahr."_".sprintf("%02d",$Monat)."_".sprintf("%02d",$Monatstag)."_".sprintf("%02d",$Stunden)."_".sprintf("%02d",$Minuten); my $bfile = $dbname."_".$table."_".$time_stamp.".csv"; Log3 ($name, 5, "DbRep $name - Use Outfile: $dump_path_rem$bfile"); my $st = [gettimeofday]; # SQL-Startzeit my $sql = "SELECT * FROM $table INTO OUTFILE '$dump_path_rem$bfile' FIELDS TERMINATED BY ',' ENCLOSED BY '\"' LINES TERMINATED BY '\n'; "; ($err, $sth, $drh) = DbRep_prepareExecuteQuery ($name, $dbh, $sql); return "$name|$err" if ($err); $sth->finish; $dbh->disconnect; my $rt = tv_interval($st); # SQL-Laufzeit ermitteln my $fsBytes = _DbRep_fsizeInBytes ($dump_path_loc.$bfile); # Größe Dumpfile ermitteln my $fsize = _DbRep_byteOutput ($fsBytes); Log3 ($name, 3, "DbRep $name - Size of backupfile: ".$fsize); my $compress = AttrVal($name, "dumpCompress", 0); # Dumpfile komprimieren wenn dumpCompress=1 if($compress) { # $err nicht auswerten -> wenn compress fehlerhaft wird unkomprimiertes dumpfile verwendet ($err, $bfile, $fsBytes) = DbRep_dumpCompress ($hash, $bfile); $fsize = _DbRep_byteOutput ($fsBytes); } Log3 ($name, 3, "DbRep $name - Number of exported datasets: $drh"); my ($ftperr,$ftpmsg,@ftpfd) = DbRep_sendftp($hash,$bfile); # Dumpfile per FTP senden und versionieren my $ftp = $ftperr ? encode_base64($ftperr,"") : $ftpmsg ? encode_base64($ftpmsg,"") : 0; my $ffd = join(", ", @ftpfd); $ffd = $ffd ? encode_base64($ffd,"") : 0; my @fd = DbRep_deldumpfiles($hash,$bfile); # alte Dumpfiles löschen my $bfd = join(", ", @fd ); $bfd = $bfd ? encode_base64($bfd,"") : 0; my $brt = tv_interval($bst); # Background-Laufzeit ermitteln $fsize = encode_base64 ($fsize,""); $rt = $rt.",".$brt; $err = q{}; Log3 ($name, 3, "DbRep $name - Finished backup of database $dbname - total time used (hh:mm:ss): ".DbRep_sec2hms($brt)); return "$name|$err|$rt|$dump_path_rem$bfile|n.a.|$drh|$fsize|$ftp|$bfd|$ffd"; } #################################################################################################### # Dump-Routine SQLite #################################################################################################### sub DbRep_sqlite_Dump { my $paref = shift; my $hash = $paref->{hash}; my $name = $paref->{name}; my $dbname = $hash->{DATABASE}; my $dump_path = AttrVal($name, "dumpDirLocal", $dbrep_dump_path_def); $dump_path = $dump_path."/" unless($dump_path =~ m/\/$/); my $optimize_tables_beforedump = AttrVal($name, "optimizeTablesBeforeDump", 0); my $ebd = AttrVal($name, "executeBeforeProc", undef); my $ead = AttrVal($name, "executeAfterProc", undef); my ($db_MB,$r,$query,$sth,$fsBytes); my $bst = [gettimeofday]; # Background-Startzeit my ($err,$dbh,$dbmodel) = DbRep_dbConnect($name, 0); return "$name|$err" if ($err); if($optimize_tables_beforedump) { # Vacuum vor Dump # Anfangsgröße ermitteln $fsBytes = _DbRep_fsizeInBytes ($dbname); $db_MB = _DbRep_byteOutput ($fsBytes); Log3 ($name, 3, "DbRep $name - Size of database $dbname before optimize (MB): $db_MB"); $query ="VACUUM"; Log3 ($name, 3, "DbRep $name - VACUUM database $dbname...."); ($err, $sth, $r) = DbRep_prepareExecuteQuery ($name, $dbh, $query); return "$name|$err" if ($err); $fsBytes = _DbRep_fsizeInBytes ($dbname); $db_MB = _DbRep_byteOutput ($fsBytes); Log3 ($name, 3, "DbRep $name - Size of database $dbname after optimize (MB): $db_MB"); } $dbname = (split /[\/]/, $dbname)[-1]; Log3 ($name, 3, "DbRep $name - Starting dump of database '$dbname'"); # Startzeit ermitteln my ($Sekunden, $Minuten, $Stunden, $Monatstag, $Monat, $Jahr, $Wochentag, $Jahrestag, $Sommerzeit) = localtime(time); $Jahr += 1900; $Monat += 1; $Jahrestag += 1; my $time_stamp = $Jahr."_".sprintf("%02d",$Monat)."_".sprintf("%02d",$Monatstag)."_".sprintf("%02d",$Stunden)."_".sprintf("%02d",$Minuten); $dbname = (split /\./, $dbname)[0]; my $bfile = $dbname."_".$time_stamp.".sqlitebkp"; Log3 ($name, 5, "DbRep $name - Use Outfile: $dump_path$bfile"); my $st = [gettimeofday]; # SQL-Startzeit eval { $dbh->sqlite_backup_to_file($dump_path.$bfile); }; if ($@) { $err = encode_base64($@,""); Log3 ($name, 2, "DbRep $name - $@"); $dbh->disconnect; return "$name|$err"; } $dbh->disconnect; my $rt = tv_interval($st); # SQL-Laufzeit ermitteln $fsBytes = _DbRep_fsizeInBytes ($dump_path.$bfile); # Größe Dumpfile ermitteln my $fsize = _DbRep_byteOutput ($fsBytes); Log3 ($name, 3, "DbRep $name - Size of backupfile: ".$fsize); my $compress = AttrVal($name, "dumpCompress", 0); # Dumpfile komprimieren if($compress) { # $err nicht auswerten -> wenn compress fehlerhaft wird unkomprimiertes dumpfile verwendet ($err, $bfile, $fsBytes) = DbRep_dumpCompress ($hash, $bfile); $fsize = _DbRep_byteOutput ($fsBytes); } my ($ftperr,$ftpmsg,@ftpfd) = DbRep_sendftp($hash,$bfile); # Dumpfile per FTP senden und versionieren my $ftp = $ftperr ? encode_base64($ftperr,"") : $ftpmsg ? encode_base64($ftpmsg,"") : 0; my $ffd = join ", ", @ftpfd; $ffd = $ffd ? encode_base64($ffd,"") : 0; my @fd = DbRep_deldumpfiles($hash,$bfile); # alte Dumpfiles löschen my $bfd = join ", ", @fd; $bfd = $bfd ? encode_base64($bfd,"") : 0; my $brt = tv_interval($bst); # Background-Laufzeit ermitteln $fsize = encode_base64($fsize,""); $rt = $rt.",".$brt; $err = q{}; Log3 ($name, 3, "DbRep $name - Finished backup of database $dbname - total time used (hh:mm:ss): ".DbRep_sec2hms($brt)); return "$name|$err|$rt|$dump_path$bfile|n.a.|n.a.|$fsize|$ftp|$bfd|$ffd"; } #################################################################################################### # Auswertungsroutine der nicht blockierenden DB-Funktion Dump #################################################################################################### sub DbRep_DumpDone { my $string = shift; my @a = split("\\|",$string); my $name = $a[0]; my $err = $a[1] ? decode_base64($a[1]) : ''; my $bt = $a[2]; my $bfile = $a[3]; my $drc = $a[4]; my $drh = $a[5]; my $fs = $a[6] ? decode_base64($a[6]) : ''; my $ftp = $a[7] ? decode_base64($a[7]) : ''; my $bfd = $a[8] ? decode_base64($a[8]) : ''; my $ffd = $a[9] ? decode_base64($a[9]) : ''; my $hash = $defs{$name}; delete($hash->{HELPER}{RUNNING_BACKUP_CLIENT}); delete($hash->{HELPER}{RUNNING_BCKPREST_SERVER}); if ($err) { ReadingsSingleUpdateValue ($hash, "errortext", $err, 1); ReadingsSingleUpdateValue ($hash, "state", "error", 1); DbRep_afterproc ($hash, "dump"); # Befehl nach Procedure ausführen return; } my ($rt,$brt) = split ",", $bt; no warnings 'uninitialized'; readingsBeginUpdate ($hash); ReadingsBulkUpdateValue ($hash, "DumpFileCreated", $bfile); ReadingsBulkUpdateValue ($hash, "DumpFileCreatedSize", $fs); ReadingsBulkUpdateValue ($hash, "DumpFilesDeleted", $bfd); ReadingsBulkUpdateValue ($hash, "DumpRowsCurrent", $drc); ReadingsBulkUpdateValue ($hash, "DumpRowsHistory", $drh); ReadingsBulkUpdateValue ($hash, "FTP_Message", $ftp) if($ftp); ReadingsBulkUpdateValue ($hash, "FTP_DumpFilesDeleted", $ffd) if($ffd); ReadingsBulkUpdateValue ($hash, "background_processing_time", sprintf("%.4f",$brt)); readingsEndUpdate ($hash, 1); DbRep_afterproc ($hash, "dump"); # Befehl nach Procedure ausführen incl. state Log3 ($name, 3, "DbRep $name - Database dump finished successfully. "); return; } #################################################################################################### # Dump-Routine SQLite #################################################################################################### sub DbRep_sqliteRepair { my $paref = shift; my $hash = $paref->{hash}; my $name = $paref->{name}; my $dbloghash = $defs{$hash->{HELPER}{DBLOGDEVICE}}; my $db = $hash->{DATABASE}; my $dbname = (split /[\/]/, $db)[-1]; my $dbpath = (split /$dbname/, $db)[0]; my $dblogname = $dbloghash->{NAME}; my $sqlfile = $dbpath."dump_all.sql"; my $err; my $bst = [gettimeofday]; # Background-Startzeit my $c = "echo \".mode insert\n.output $sqlfile\n.dump\n.exit\" | sqlite3 $db; "; my $clog = $c; $clog =~ s/\n/ /g; Log3 ($name, 4, "DbRep $name - Systemcall: $clog"); my $ret = system qq($c); if($ret) { $err = "Error in step \"dump corrupt database\" - see logfile"; $err = encode_base64($err,""); return "$name|$err"; } $c = "mv $db $db.corrupt"; $clog = $c; $clog =~ s/\n/ /g; Log3 ($name, 4, "DbRep $name - Systemcall: $clog"); $ret = system qq($c); if($ret) { $err = "Error in step \"move atabase to corrupt-db\" - see logfile"; $err = encode_base64($err,""); return "$name|$err"; } $c = "echo \".read $sqlfile\n.exit\" | sqlite3 $db;"; $clog = $c; $clog =~ s/\n/ /g; Log3 ($name, 4, "DbRep $name - Systemcall: $clog"); $ret = system qq($c); if($ret) { $err = "Error in step \"read dump to new database\" - see logfile"; $err = encode_base64($err,""); return "$name|$err"; } $c = "rm $sqlfile"; $clog = $c; $clog =~ s/\n/ /g; Log3 ($name, 4, "DbRep $name - Systemcall: $clog"); $ret = system qq($c); if($ret) { $err = "Error in step \"delete $sqlfile\" - see logfile"; $err = encode_base64($err,""); return "$name|$err"; } my $brt = tv_interval($bst); # Background-Laufzeit ermitteln $err = q{}; return "$name|$err|$brt"; } #################################################################################################### # Auswertungsroutine der nicht blockierenden DB-Funktion Dump #################################################################################################### sub DbRep_RepairDone { my $string = shift; my @a = split("\\|",$string); my $name = $a[0]; my $err = $a[1] ? decode_base64($a[1]) : ''; my $brt = $a[2]; my $hash = $defs{$name}; my $dbloghash = $defs{$hash->{HELPER}{DBLOGDEVICE}}; delete($hash->{HELPER}{RUNNING_REPAIR}); CommandSet(undef,"$dbloghash->{NAME} reopen"); # Datenbankverbindung in DbLog wieder öffenen if ($err) { ReadingsSingleUpdateValue ($hash, "errortext", $err, 1); ReadingsSingleUpdateValue ($hash, "state", "error", 1); DbRep_afterproc ($hash, "repair"); # Befehl nach Procedure ausführen return; } no warnings 'uninitialized'; readingsBeginUpdate ($hash); ReadingsBulkUpdateValue ($hash, "background_processing_time", sprintf("%.4f",$brt)); readingsEndUpdate ($hash, 1); DbRep_afterproc ($hash, "repair"); # Befehl nach Procedure ausführen incl. state Log3 ($name, 3, "DbRep $name - Database repair $hash->{DATABASE} finished - total time used (hh:mm:ss): ".DbRep_sec2hms($brt)); return; } #################################################################################################### # Restore SQLite #################################################################################################### sub DbRep_sqliteRestore { my $paref = shift; my $hash = $paref->{hash}; my $name = $paref->{name}; my $bfile = $paref->{prop}; my $dump_path = AttrVal($name, "dumpDirLocal", $dbrep_dump_path_def); $dump_path = $dump_path."/" unless($dump_path =~ m/\/$/); my $bst = [gettimeofday]; # Background-Startzeit my ($err,$dbh,$dbmodel) = DbRep_dbConnect($name, 0); return "$name|$err" if ($err); my $dbname; eval{ $dbname = $dbh->sqlite_db_filename(); } or do { $err = encode_base64($@,""); Log3 ($name, 2, "DbRep $name - $@"); $dbh->disconnect; return "$name|$err"; }; $dbname = (split /[\/]/, $dbname)[-1]; if($bfile =~ m/.*.gzip$/) { # Dumpfile dekomprimieren wenn gzip ($err,$bfile) = DbRep_dumpUnCompress($hash,$bfile); if ($err) { $err = encode_base64($err,""); $dbh->disconnect; return "$name|$err"; } } Log3 ($name, 3, "DbRep $name - Starting restore of database '$dbname'"); my $st = [gettimeofday]; # SQL-Startzeit eval{ $dbh->sqlite_backup_from_file($dump_path.$bfile); } or do { $err = encode_base64($@,""); Log3 ($name, 2, "DbRep $name - $@"); $dbh->disconnect; return "$name|$err"; }; $dbh->disconnect; my $rt = tv_interval($st); # SQL-Laufzeit ermitteln my $brt = tv_interval($bst); # Background-Laufzeit ermitteln $rt = $rt.",".$brt; $err = q{}; Log3 ($name, 3, "DbRep $name - Restore of $dump_path$bfile into '$dbname' finished - total time used (hh:mm:ss): ".DbRep_sec2hms($brt)); return "$name|$err|$rt|$dump_path$bfile|n.a."; } #################################################################################################### # Restore MySQL (serverSide) #################################################################################################### sub DbRep_mysql_RestoreServerSide { my $paref = shift; my $hash = $paref->{hash}; my $name = $paref->{name}; my $bfile = $paref->{prop}; my $dbname = $hash->{DATABASE}; my $dump_path_rem = AttrVal($name, "dumpDirRemote", $dbrep_dump_remotepath_def); $dump_path_rem = $dump_path_rem."/" unless($dump_path_rem =~ m/\/$/); my $table = "history"; my ($sth,$drh); my $bst = [gettimeofday]; # Background-Startzeit my ($err,$dbh,$dbmodel) = DbRep_dbConnect($name, 0); return "$name|$err" if ($err); if($bfile =~ m/.*.gzip$/) { # Dumpfile dekomprimieren wenn gzip ($err,$bfile) = DbRep_dumpUnCompress($hash,$bfile); if ($err) { $err = encode_base64($err,""); $dbh->disconnect; return "$name|$err"; } } Log3 ($name, 3, "DbRep $name - Starting restore of database '$dbname', table '$table'."); my $st = [gettimeofday]; # SQL-Startzeit my $sql = "LOAD DATA CONCURRENT INFILE '$dump_path_rem$bfile' IGNORE INTO TABLE $table FIELDS TERMINATED BY ',' ENCLOSED BY '\"' LINES TERMINATED BY '\n'; "; eval{ $sth = $dbh->prepare($sql); $drh = $sth->execute(); 1; } or do { $err = encode_base64($@,""); Log3 ($name, 2, "DbRep $name - $@"); $dbh->disconnect; return "$name|$err"; }; $sth->finish; $dbh->disconnect; my $rt = tv_interval($st); # SQL-Laufzeit ermitteln my $brt = tv_interval($bst); # Background-Laufzeit ermitteln $rt = $rt.",".$brt; $err = q{}; Log3 ($name, 3, "DbRep $name - Restore of $dump_path_rem$bfile into '$dbname', '$table' finished - total time used (hh:mm:ss): ".DbRep_sec2hms($brt)); return "$name|$err|$rt|$dump_path_rem$bfile|n.a."; } #################################################################################################### # Restore MySQL (ClientSide) #################################################################################################### sub DbRep_mysql_RestoreClientSide { my $paref = shift; my $hash = $paref->{hash}; my $name = $paref->{name}; my $bfile = $paref->{prop}; my $dbname = $hash->{DATABASE}; my $i_max = AttrVal($name, "dumpMemlimit", 100000); # max. Anzahl der Blockinserts my $dump_path = AttrVal($name, "dumpDirLocal", $dbrep_dump_path_def); $dump_path = $dump_path."/" if($dump_path !~ /.*\/$/); my ($v1,$v2,$e); my $bst = [gettimeofday]; # Background-Startzeit my ($err,$dbh,$dbmodel) = DbRep_dbConnect($name, 0); return "$name|$err" if ($err); $dbh->{mysql_enable_utf8} = 0; # identisch zu DbRep_mysql_DumpClientSide setzen ! my @row_ary; my $sql = "show variables like 'max_allowed_packet'"; # maximal mögliche Packetgröße ermitteln (in Bits) -> Umrechnen in max. Zeichen eval {@row_ary = $dbh->selectrow_array($sql);}; my $max_packets = $row_ary[1]; # Bits $i_max = ($max_packets/8)-500; # Characters mit Sicherheitszuschlag if($bfile =~ m/.*.gzip$/) { # Dumpfile dekomprimieren wenn gzip ($err,$bfile) = DbRep_dumpUnCompress($hash,$bfile); if ($err) { $err = encode_base64($err,""); $dbh->disconnect; return "$name|$err"; } } if(!open(FH, "<$dump_path$bfile")) { $err = encode_base64("could not open ".$dump_path.$bfile.": ".$!,""); return "$name|$err"; } Log3 ($name, 3, "DbRep $name - Restore of database '$dbname' started. Sourcefile: $dump_path$bfile"); Log3 ($name, 3, "DbRep $name - Max packet lenght of insert statement: $i_max"); my $st = [gettimeofday]; # SQL-Startzeit my $nc = 0; # Insert Zähler current my $nh = 0; # Insert Zähler history my $n = 0; # Insert Zähler my $i = 0; # Array Zähler my $tmp = ''; my $line = ''; my $base_query = ''; my $query = ''; while() { $tmp = $_; chomp($tmp); if(!$tmp || substr($tmp,0,2) eq "--") { next; } $line .= $tmp; if(substr($line,-1) eq ";") { if($line !~ /^INSERT INTO.*$/) { eval {$dbh->do($line); }; if ($@) { $e = $@; $err = encode_base64($e,""); Log3 ($name, 1, "DbRep $name - last query: $line"); Log3 ($name, 1, "DbRep $name - $e"); close(FH); $dbh->disconnect; return "$name|$err"; } $line = ''; next; } if(!$base_query) { $line =~ /INSERT INTO (.*) VALUES \((.*)\);/; $v1 = $1; $v2 = $2; $base_query = qq{INSERT INTO $v1 VALUES }; $query = $base_query; $nc++ if($base_query =~ /INSERT INTO `current`.*/); $nh++ if($base_query =~ /INSERT INTO `history`.*/); $query .= "," if($i); $query .= "(".$v2.")"; $i++; } else { $line =~ /INSERT INTO (.*) VALUES \((.*)\);/; $v1 = $1; $v2 = $2; my $ln = qq{INSERT INTO $v1 VALUES }; if($base_query eq $ln) { $nc++ if($base_query =~ /INSERT INTO `current`.*/); $nh++ if($base_query =~ /INSERT INTO `history`.*/); $query .= "," if($i); $query .= "(".$v2.")"; $i++; } else { $query = $query.";"; eval {$dbh->do($query); }; if ($@) { $e = $@; $err = encode_base64($e,""); Log3 ($name, 1, "DbRep $name - last query: $query"); Log3 ($name, 1, "DbRep $name - $e"); close(FH); $dbh->disconnect; return "$name|$err"; } $i = 0; $line =~ /INSERT INTO (.*) VALUES \((.*)\);/; $v1 = $1; $v2 = $2; $base_query = qq{INSERT INTO $v1 VALUES }; $query = $base_query; $query .= "(".$v2.")"; $nc++ if($base_query =~ /INSERT INTO `current`.*/); $nh++ if($base_query =~ /INSERT INTO `history`.*/); $i++; } } if(length($query) >= $i_max) { $query = $query.";"; eval {$dbh->do($query); }; if ($@) { $e = $@; $err = encode_base64($e,""); Log3 ($name, 1, "DbRep $name - last query: $query"); Log3 ($name, 1, "DbRep $name - $e"); close(FH); $dbh->disconnect; return "$name|$err"; } $i = 0; $query = ''; $base_query = ''; } $line = ''; } } eval { $dbh->do($query) if($i); }; if ($@) { $e = $@; $err = encode_base64($e,""); Log3 ($name, 1, "DbRep $name - last query: $query"); Log3 ($name, 1, "DbRep $name - $e"); close(FH); $dbh->disconnect; return "$name|$err"; } $dbh->disconnect; close(FH); my $rt = tv_interval($st); # SQL-Laufzeit ermitteln my $brt = tv_interval($bst); # Background-Laufzeit ermitteln $rt = $rt.",".$brt; $err = q{}; Log3 ($name, 3, "DbRep $name - Restore of '$dbname' finished - inserted history: $nh, inserted curent: $nc, time used: ".sprintf("%.0f",$brt)." seconds."); return "$name|$err|$rt|$dump_path$bfile|$nh|$nc"; } #################################################################################################### # Auswertungsroutine Restore #################################################################################################### sub DbRep_restoreDone { my $string = shift; my @a = split("\\|",$string); my $name = $a[0]; my $err = $a[1] ? decode_base64($a[1]) : ''; my $bt = $a[2]; my $bfile = $a[3]; my $drh = $a[4]; my $drc = $a[5]; my $hash = $defs{$name}; delete($hash->{HELPER}{RUNNING_RESTORE}); if ($err) { ReadingsSingleUpdateValue ($hash, "errortext", $err, 1); ReadingsSingleUpdateValue ($hash, "state", "error", 1); DbRep_afterproc ($hash, "restore", $bfile); # Befehl nach Procedure ausführen return; } my ($rt,$brt) = split ",", $bt; readingsBeginUpdate ($hash); ReadingsBulkUpdateValue ($hash, "RestoreRowsHistory", $drh) if($drh); ReadingsBulkUpdateValue ($hash, "RestoreRowsCurrent", $drc) if($drc); ReadingsBulkUpdateTime ($hash, $brt, undef); readingsEndUpdate ($hash, 1); DbRep_afterproc ($hash, "restore", $bfile); # Befehl nach Procedure ausführen incl. state Log3 ($name, 3, "DbRep $name - Database restore finished successfully. "); return; } #################################################################################################### # Übertragung Datensätze in weitere DB #################################################################################################### sub DbRep_syncStandby { my $paref = shift; my $hash = $paref->{hash}; my $name = $paref->{name}; my $stbyname = $paref->{prop}; my $table = $paref->{table}; my $device = $paref->{device}; my $reading = $paref->{reading}; my $runtime_string_first = $paref->{rsf}; my $runtime_string_next = $paref->{rsn}; my $ts = $paref->{ts}; my $utf8 = $hash->{UTF8} // 0; my ($dbhstby,$sql); # Standby-DB my $stbyhash = $defs{$stbyname}; my $stbyconn = $stbyhash->{dbconn}; my $stbyuser = $stbyhash->{dbuser}; my $stbypasswd = $attr{"sec$stbyname"}{secret}; my $stbyutf8 = defined($stbyhash->{UTF8}) ? $stbyhash->{UTF8} : 0; my $bst = [gettimeofday]; # Background-Startzeit # Verbindung zur Quell-DB my ($err,$dbh,$dbmodel) = DbRep_dbConnect($name, 0); return "$name|$err" if ($err); # Verbindung zur Standby-DB eval {$dbhstby = DBI->connect("dbi:$stbyconn", $stbyuser, $stbypasswd, { PrintError => 0, RaiseError => 1, AutoCommit => 1, mysql_enable_utf8 => $stbyutf8 });}; if ($@) { $err = encode_base64($@,""); Log3 ($name, 2, "DbRep $name - $@"); return "$name|$err"; } my ($IsTimeSet,$IsAggrSet) = DbRep_checktimeaggr($hash); # ist Zeiteingrenzung und/oder Aggregation gesetzt ? (wenn ja -> "?" in SQL sonst undef) Log3 ($name, 5, "DbRep $name - IsTimeSet: $IsTimeSet, IsAggrSet: $IsAggrSet"); my $st = [gettimeofday]; # SQL-Startzeit my ($sth,$old,$new); $err = DbRep_beginDatabaseTransaction ($name, $dbhstby); return "$name|$err" if ($err); my @ts = split("\\|", $ts); # Timestampstring to Array Log3 ($name, 5, "DbRep $name - Timestamp-Array: \n@ts"); my $irows = 0; # DB-Abfrage zeilenweise für jeden Array-Eintrag my $selspec = "TIMESTAMP,DEVICE,TYPE,EVENT,READING,VALUE,UNIT"; my $addon = ''; for my $row (@ts) { my @a = split("#", $row); my $runtime_string = $a[0]; my $runtime_string_first = $a[1]; my $runtime_string_next = $a[2]; if ($IsTimeSet || $IsAggrSet) { $sql = DbRep_createSelectSql($hash, $table, $selspec, $device, $reading, "'$runtime_string_first'", "'$runtime_string_next'", $addon); } else { $sql = DbRep_createSelectSql($hash, $table, $selspec, $device, $reading, undef, undef, $addon); } Log3 ($name, 4, "DbRep $name - SQL execute: $sql"); ($err, $sth) = DbRep_prepareExecuteQuery ($name, $dbh, $sql); return "$name|$err" if ($err); no warnings 'uninitialized'; # DATE _ESC_ TIME _ESC_ DEVICE _ESC_ TYPE _ESC_ EVENT _ESC_ READING _ESC_ VALUE _ESC_ UNIT my @row_array = map { ($_->[0] =~ s/ /_ESC_/r)."_ESC_".$_->[1]."_ESC_".$_->[2]."_ESC_".$_->[3]."_ESC_".$_->[4]."_ESC_".$_->[5]."_ESC_".$_->[6] } @{$sth->fetchall_arrayref()}; use warnings; my $irowdone = 0; ($err, $irowdone) = DbRep_WriteToDB($name, $dbhstby, $stbyhash, 0, @row_array) if(@row_array); if ($err) { Log3 ($name, 2, "DbRep $name - $err"); $err = encode_base64($err,""); $dbh->disconnect; $dbhstby->disconnect(); return "$name|$err"; } $irows += $irowdone; } $err = DbRep_commitOnly ($name, $dbhstby); return "$name|$err" if ($err); $dbh->disconnect(); $dbhstby->disconnect(); my $rt = tv_interval($st); # SQL-Laufzeit ermitteln my $brt = tv_interval($bst); # Background-Laufzeit ermitteln $rt = $rt.",".$brt; $err = 0; return "$name|$err|$irows|$rt"; } #################################################################################################### # Auswertungsroutine Übertragung Datensätze in weitere DB #################################################################################################### sub DbRep_syncStandbyDone { my $string = shift; my @a = split("\\|",$string); my $name = $a[0]; my $err = $a[1] ? decode_base64($a[1]) : ''; my $irows = $a[2]; my $bt = $a[3]; my $hash = $defs{$name}; Log3 ($name, 5, qq{DbRep $name - BlockingCall PID "$hash->{HELPER}{RUNNING_PID}{pid}" finished}); delete($hash->{HELPER}{RUNNING_PID}); if ($err) { ReadingsSingleUpdateValue ($hash, "errortext", $err, 1); ReadingsSingleUpdateValue ($hash, "state", "error", 1); DbRep_afterproc ($hash, "syncStandby"); # Befehl nach Procedure ausführen return; } my ($rt,$brt) = split ",", $bt; readingsBeginUpdate ($hash); ReadingsBulkUpdateValue ($hash, "number_lines_inserted_Standby", $irows); ReadingsBulkUpdateTime ($hash, $brt, $rt); readingsEndUpdate ($hash, 1); DbRep_afterproc ($hash, "syncStandby"); # Befehl nach Procedure ausführen incl. state return; } #################################################################################################### # reduceLog - Historische Werte ausduennen non-blocking > Forum #41089 # # $nts - reduce Logs neuer als: Attribut "timeDiffToNow" oder "timestamp_begin" # $ots - reduce Logs älter als: Attribut "timeOlderThan" oder "timestamp_end" #################################################################################################### sub DbRep_reduceLog { my $paref = shift; my $hash = $paref->{hash}; my $name = $paref->{name}; my $table = $paref->{table}; my $d = $paref->{device}; my $r = $paref->{reading}; my $nts = $paref->{rsf}; my $ots = $paref->{rsn} // ""; my @a = @{$hash->{HELPER}{REDUCELOG}}; my $err = q{}; if (!$ots) { $err = qq{reduceLog needs at least one of attributes "timeOlderThan", "timeDiffToNow", "timestamp_begin" or "timestamp_end" to be set}; Log3 ($name, 2, "DbRep $name - ERROR - $err"); $err = encode_base64($err,""); return "$name|$err"; } BlockingInformParent("DbRep_delHashValFromBlocking", [$name, "HELPER","REDUCELOG"], 1); shift @a; # Devicenamen aus @a entfernen my @b; for my $w (@a) { # ausfiltern von optionalen Zeitangaben, z.B. 700:750 next if($w =~ /\b(\d+(:\d+)?)\b/); push @b, $w; } @a = @b; my ($pa,$ph) = parseParams(join ' ', @a); my $mode = (@$pa[1] && @$pa[1] =~ /average/i) ? 'average' : ($ph->{average} && $ph->{average} eq "day") ? 'average=day' : (@$pa[1] && @$pa[1] =~ /max/i) ? 'max' : ($ph->{max} && $ph->{max} eq "day") ? 'max=day' : (@$pa[1] && @$pa[1] =~ /min/i) ? 'min' : ($ph->{min} && $ph->{min} eq "day") ? 'min=day' : (@$pa[1] && @$pa[1] =~ /sum/i) ? 'sum' : ($ph->{sum} && $ph->{sum} eq "day") ? 'sum=day' : q{}; my $mstr = $mode =~ /average/i ? 'average' : $mode =~ /max/i ? 'max' : $mode =~ /min/i ? 'min' : $mode =~ /sum/i ? 'sum' : q{}; my $excludes = $ph->{EXCLUDE} // q{}; my $includes = $ph->{INCLUDE} // q{}; my @excludeRegex; if ($excludes) { @excludeRegex = split ',', $excludes; } my ($dbh, $dbmodel); ($err,$dbh,$dbmodel) = DbRep_dbConnect($name, 0); return "$name|$err" if ($err); my ($idevs,$idevswc,$idanz,$ireading,$iranz,$irdswc,$edevs,$edevswc,$edanz,$ereading,$eranz,$erdswc) = DbRep_specsForSql($hash,$d,$r); my ($IsTimeSet,$IsAggrSet,$aggregation) = DbRep_checktimeaggr($hash); # ist Zeiteingrenzung und/oder Aggregation gesetzt ? (wenn ja -> "?" in SQL sonst undef) Log3 ($name, 5, "DbRep $name - IsTimeSet: $IsTimeSet, IsAggrSet: $IsAggrSet"); my $selspec = "SELECT TIMESTAMP,DEVICE,'',READING,VALUE FROM $table where "; my $addon = "ORDER BY TIMESTAMP ASC"; my $valfilter = AttrVal($name, "valueFilter", undef); # Wertefilter my $specs = { hash => $hash, selspec => $selspec, device => $d, reading => $r, dbmodel => $dbmodel, valfilter => $valfilter, addon => $addon }; my $sql; if($includes) { # Option EX/INCLUDE wurde angegeben $sql = "SELECT TIMESTAMP,DEVICE,'',READING,VALUE FROM $table WHERE " .($includes =~ /^(.+):(.+)$/i ? "DEVICE like '$1' AND READING like '$2' AND " : '') ."TIMESTAMP <= '$ots'" .($nts ? " AND TIMESTAMP >= '$nts' " : " ") ."ORDER BY TIMESTAMP ASC"; } elsif ($IsTimeSet || $IsAggrSet) { $specs->{rsf} = $nts; $specs->{rsn} = $ots; $sql = DbRep_createCommonSql ($specs); } else { $sql = DbRep_createCommonSql ($specs); } Log3 ($name, 3, "DbRep $name - reduce data older than: $ots, newer than: $nts"); Log3 ($name, 3, "DbRep $name - reduceLog requested with options: " .($mode ? "\n".$mode : '') .($includes ? "\nINCLUDE -> $includes " : ((($idanz || $idevswc || $iranz || $irdswc) ? "\nINCLUDE -> " : '') . (($idanz || $idevswc) ? "Devs: ".($idevs ? $idevs : '').($idevswc ? $idevswc : '').' ' : '').(($iranz || $irdswc) ? "Readings: ".($ireading ? $ireading : '').($irdswc ? $irdswc : '') : '') )) .($excludes ? "\nEXCLUDE -> $excludes " : ((($edanz || $edevswc || $eranz || $erdswc) ? "\nEXCLUDE -> " : '') . (($edanz || $edevswc) ? "Devs: ".($edevs ? $edevs : '').($edevswc ? $edevswc : '').' ' : '').(($eranz || $erdswc) ? "Readings: ".($ereading ? $ereading : '').($erdswc ? $erdswc : '') : '') )) ); ($err, my $sth_del) = DbRep_prepareOnly ($name, $dbh, "DELETE FROM $table WHERE (DEVICE=?) AND (READING=?) AND (TIMESTAMP=?) AND (VALUE=?)"); return "$name|$err" if ($err); ($err, my $sth_delNull) = DbRep_prepareOnly ($name, $dbh, "DELETE FROM $table WHERE (DEVICE=?) AND (READING=?) AND (TIMESTAMP=?) AND VALUE IS NULL"); return "$name|$err" if ($err); ($err, my $sth_upd) = DbRep_prepareOnly ($name, $dbh, "UPDATE $table SET TIMESTAMP=?, EVENT=?, VALUE=? WHERE (DEVICE=?) AND (READING=?) AND (TIMESTAMP=?) AND (VALUE=?)"); return "$name|$err" if ($err); ($err, my $sth_delD) = DbRep_prepareOnly ($name, $dbh, "DELETE FROM $table WHERE (DEVICE=?) AND (READING=?) AND (TIMESTAMP=?)"); return "$name|$err" if ($err); ($err, my $sth_updD) = DbRep_prepareOnly ($name, $dbh, "UPDATE $table SET TIMESTAMP=?, EVENT=?, VALUE=? WHERE (DEVICE=?) AND (READING=?) AND (TIMESTAMP=?)"); return "$name|$err" if ($err); ($err, my $sth_get) = DbRep_prepareExecuteQuery ($name, $dbh, $sql); return "$name|$err" if ($err); ## Start ############################################ # Ergebnis von $sth_get->fetchrow_arrayref: # $row->[0] = Datum (YYYY-MM-DD hh:mm:ss) # $row->[1] = Device # $row->[2] = leer # $row->[3] = Reading # $row->[4] = Value my $ndp = AttrVal($name, "numDecimalPlaces", $dbrep_defdecplaces); my ($day, $hour, $processingDay, $params); my (%hourlyKnown,@dayRows,@updateHour,@updateDay); my ($startTime,$currentHour,$currentDay,$deletedCount,$updateCount,$rowCount,$excludeCount) = (time(),99,0,0,0,0,0); do { my $row = $sth_get->fetchrow_arrayref || ['0000-00-00 00:00:00','D','','R','V']; # || execute last-day dummy my $ts = $row->[0]; my $device = $row->[1]; my $reading = $row->[3]; my $value = $row->[4]; ($day,$hour) = $ts =~ /-(\d{2})\s(\d{2}):/; $rowCount++ if($day != 00); ## verarbeiten der unten vorbereiteten Arrays und Hashes ######################################################### if ($day != $currentDay) { if ($currentDay) { # nicht am ersten ausgeführten Tag if (scalar @dayRows) { # alle Tageseinträge löschen $params = { name => $name, dbh => $dbh, sth_del => $sth_del, sth_delNull => $sth_delNull, table => $table, dayRowsref => \@dayRows, deletedCountref => \$deletedCount, processingDay => $processingDay, ndp => $ndp }; $err = _DbRep_rl_deleteDayRows ($params); return "$name|$err" if ($err); undef @dayRows; } if ($mode =~ /average|max|min|sum/i) { $params = { name => $name, dbh => $dbh, sth_upd => $sth_upd, mode => $mode, mstr => $mstr, table => $table, hourlyKnownref => \%hourlyKnown, updateHourref => \@updateHour, updateDayref => \@updateDay, updateCountref => \$updateCount, processingDay => $processingDay, ndp => $ndp }; $err = _DbRep_rl_updateHour ($params); return "$name|$err" if ($err); undef @updateHour; } if ($mode =~ /=day/i && scalar @updateDay) { $params = { name => $name, dbh => $dbh, sth_delD => $sth_delD, sth_updD => $sth_updD, mode => $mode, mstr => $mstr, table => $table, updateDayref => \@updateDay, deletedCountref => \$deletedCount, updateCountref => \$updateCount, processingDay => $processingDay, ndp => $ndp }; $err = _DbRep_rl_updateDay ($params); return "$name|$err" if ($err); } undef %hourlyKnown; undef @updateHour; undef @updateDay; $currentHour = 99; } $currentDay = $day; } ## Füllen Arrays und Hashes ############################ if ($hour != $currentHour) { # forget records from last hour, but remember these for average if ($mode =~ /average|max|min|sum/i && keys(%hourlyKnown)) { push(@updateHour, {%hourlyKnown}); } undef %hourlyKnown; $currentHour = $hour; } if (defined $hourlyKnown{$device.$reading}) { # das erste reading pro device und Stunde wird nicht in @dayRows (zum Löschen) gespeichert, die anderen können gelöscht werden push(@dayRows, [@$row]); if ($mode =~ /average|max|min|sum/i && defined($value) && DbRep_IsNumeric ($value) && $hourlyKnown{$device.$reading}->[0]) { if ($hourlyKnown{$device.$reading}->[0]) { push(@{$hourlyKnown{$device.$reading}->[4]}, $value); } } } else { my $exclude = 0; for my $exreg (@excludeRegex) { $exclude = 1 if("$device:$reading" =~ /^$exreg$/); } if ($exclude) { $excludeCount++ if($day != 00); } else { $hourlyKnown{$device.$reading} = DbRep_IsNumeric ($value) ? [$ts,$device,$row->[2],$reading,[$value]] : [0]; } } $processingDay = (split ' ', $ts)[0]; # $ts = Datum (YYYY-MM-DD hh:mm:ss) } while ($day != 00); # die do...while-Anweisung überprüft die Bedingung am Ende jeder Iteration. ######################################### Ende my $brt = time() - $startTime; my $result = "Rows processed: $rowCount, deleted: $deletedCount" .($mode =~ /average|max|min|sum/i ? ", updated: $updateCount" : '') .($excludeCount ? ", excluded: $excludeCount" : ''); Log3 ($name, 3, "DbRep $name - reduceLog finished. $result"); $dbh->disconnect(); my $ret = encode_base64("reduceLog finished. $result", ""); return "$name|$err|$ret|$brt"; } #################################################################################################### # reduceLog alle im @dayRows Array enthaltene DB Einträge löschen #################################################################################################### sub _DbRep_rl_deleteDayRows { my $paref = shift; my $name = $paref->{name}; my $dbh = $paref->{dbh}; my $sth_del = $paref->{sth_del}; my $sth_delNull = $paref->{sth_delNull}; my $table = $paref->{table}; my $dayRowsref = $paref->{dayRowsref}; my $deletedCountref = $paref->{deletedCountref}; my $processingDay = $paref->{processingDay}; my $err = q{}; my $c = 0; my @dayRows = @{$dayRowsref}; #Log3 ($name, 3, "DbRep $name - content dayRows Array:\n".Dumper @dayRows); for my $delRow (@dayRows) { $c++; } if($c) { ${$deletedCountref} += $c; Log3 ($name, 3, "DbRep $name - reduceLog deleting $c records of day: $processingDay"); $err = DbRep_beginDatabaseTransaction ($name, $dbh); return $err if ($err); eval { my $i = 0; my $k = 1; my $th = _DbRep_rl_logThreshold ($#dayRows); for my $delRow (@dayRows) { my $device = $delRow->[1]; my $reading = $delRow->[3]; my $time = $delRow->[0]; my $value = $delRow->[4] // 'NULL'; if ($value eq 'NULL') { Log3 ($name, 5, "DbRep $name - DELETE FROM $table WHERE (DEVICE=$device) AND (READING=$reading) AND (TIMESTAMP=$time) AND VALUE IS $value"); $sth_delNull->execute($device, $reading, $time); } else { Log3 ($name, 5, "DbRep $name - DELETE FROM $table WHERE (DEVICE=$device) AND (READING=$reading) AND (TIMESTAMP=$time) AND (VALUE=$value)"); $sth_del->execute($device, $reading, $time, $value); } $i++; my $params = { name => $name, logtxt => "deletion", iref => \$i, kref => \$k, th => $th, processingDay => $processingDay }; _DbRep_rl_logProgress ($params); } 1; } or do { $err = encode_base64($@, ""); Log3 ($name, 2, "DbRep $name - ERROR - reduceLog failed for day $processingDay: $@"); DbRep_rollbackOnly ($name, $dbh); return $err; }; $err = DbRep_commitOnly ($name, $dbh); return $err if ($err); } return $err; } #################################################################################################### # reduceLog # Stundenupdates vornehmen und @updateDay füllen bei # $mode = *=day #################################################################################################### sub _DbRep_rl_updateHour { my $paref = shift; my $name = $paref->{name}; my $dbh = $paref->{dbh}; my $sth_upd = $paref->{sth_upd}; my $mode = $paref->{mode}; my $mstr = $paref->{mstr}; my $table = $paref->{table}; my $hourlyKnownref = $paref->{hourlyKnownref}; my $updateHourref = $paref->{updateHourref}; my $updateDayref = $paref->{updateDayref}; my $updateCountref = $paref->{updateCountref}; my $processingDay = $paref->{processingDay}; my $ndp = $paref->{ndp}; my $err = q{}; my $c = 0; #Log3 ($name, 3, "DbRep $name - content hourlyKnown Hash:\n".Dumper %$hourlyKnownref); push(@$updateHourref, {%$hourlyKnownref}); for my $hourHash (@$updateHourref) { # Only count for logging... for my $hourKey (keys %$hourHash) { $c++ if ($hourHash->{$hourKey}->[0] && scalar @{$hourHash->{$hourKey}->[4]} > 1); } } ${$updateCountref} += $c; if($c) { Log3 ($name, 3, "DbRep $name - reduceLog (hourly-$mstr) updating $c records of day: $processingDay"); $err = DbRep_beginDatabaseTransaction ($name, $dbh); return $err if ($err); } my ($params, $value); my $i = 0; my $k = 1; my $th = _DbRep_rl_logThreshold ($c); my $event = $mstr eq 'average' ? 'rl_av_h' : $mstr eq 'max' ? 'rl_max_h' : $mstr eq 'min' ? 'rl_min_h' : $mstr eq 'sum' ? 'rl_sum_h' : 'rl_h'; my $updminutes = $mstr eq 'average' ? '30:00' : $mstr eq 'max' ? '59:59' : $mstr eq 'min' ? '00:01' : $mstr eq 'sum' ? '00:00' : '00:00'; #Log3 ($name, 3, "DbRep $name - content updateHour Array:\n".Dumper @$updateHourref); $paref->{updminutes} = $updminutes; $paref->{event} = $event; $paref->{th} = $th; $paref->{iref} = \$i; $paref->{kref} = \$k; for my $hourHash (@$updateHourref) { for my $hourKey (keys %$hourHash) { next if (!$hourHash->{$hourKey}->[0]); my ($updDate,$updHour) = $hourHash->{$hourKey}->[0] =~ /(.*\d+)\s(\d{2}):/; $paref->{updDate} = $updDate; $paref->{updHour} = $updHour; $paref->{timestamp} = $hourHash->{$hourKey}->[0]; $paref->{device} = $hourHash->{$hourKey}->[1]; $paref->{reading} = $hourHash->{$hourKey}->[3]; $paref->{oldvalue} = $hourHash->{$hourKey}->[4]->[0]; if (scalar @{$hourHash->{$hourKey}->[4]} > 1) { # wahr wenn reading hat mehrere Datensätze diese Stunde $i++; $paref->{hourHashKeyRef} = $hourHash->{$hourKey}->[4]; if ($mstr eq 'average') { # Berechnung Average $value = __DbRep_rl_calcAverageHourly ($paref); } elsif ($mstr eq 'max') { # Berechnung Max $value = __DbRep_rl_calcMaxHourly ($paref); } elsif ($mstr eq 'min') { # Berechnung Min $value = __DbRep_rl_calcMinHourly ($paref); } elsif ($mstr eq 'sum') { # Berechnung Summary $value = __DbRep_rl_calcSumHourly ($paref); } $paref->{logtxt} = "(hourly-$mstr) updating"; $paref->{newvalue} = $value; $err = __DbRep_rl_updateHourDatabase ($paref); if ($err) { Log3 ($name, 2, "DbRep $name - ERROR - reduceLog $mstr failed for day $processingDay: $err"); $err = encode_base64($err, ""); DbRep_rollbackOnly ($name, $dbh); return $err; } } else { __DbRep_rl_onlyFillDayArray ($paref); } } } if($c) { $err = DbRep_commitOnly ($name, $dbh); return $err if ($err); } return $err; } #################################################################################################### # reduceLog stündlichen average Wert berechnen #################################################################################################### sub __DbRep_rl_calcAverageHourly { my $paref = shift; my $name = $paref->{name}; my $hourHashKeyRef = $paref->{hourHashKeyRef}; my $ndp = $paref->{ndp}; my $sum = 0; for my $val (@{$hourHashKeyRef}) { $sum += $val; } my $value = sprintf "%.${ndp}f", $sum / scalar @{$hourHashKeyRef}; return $value; } #################################################################################################### # reduceLog stündlichen Max Wert berechnen #################################################################################################### sub __DbRep_rl_calcMaxHourly { my $paref = shift; my $name = $paref->{name}; my $hourHashKeyRef = $paref->{hourHashKeyRef}; my $ndp = $paref->{ndp}; my $max; for my $val (@{$hourHashKeyRef}) { if (!defined $max) { $max = $val; } else { $max = $val if ($val > $max); } } my $value = sprintf "%.${ndp}f", $max; return $value; } #################################################################################################### # reduceLog stündlichen Min Wert berechnen #################################################################################################### sub __DbRep_rl_calcMinHourly { my $paref = shift; my $name = $paref->{name}; my $hourHashKeyRef = $paref->{hourHashKeyRef}; my $ndp = $paref->{ndp}; my $min; for my $val (@{$hourHashKeyRef}) { if (!defined $min) { $min = $val; } else { $min = $val if ($val < $min); } } my $value = sprintf "%.${ndp}f", $min; return $value; } #################################################################################################### # reduceLog stündlichen summary Wert berechnen #################################################################################################### sub __DbRep_rl_calcSumHourly { my $paref = shift; my $name = $paref->{name}; my $hourHashKeyRef = $paref->{hourHashKeyRef}; my $ndp = $paref->{ndp}; my $sum = 0; for my $val (@{$hourHashKeyRef}) { $sum += $val; } my $value = sprintf "%.${ndp}f", $sum; return $value; } ################################################################ # reduceLog Stundenupdate Datenbank und # füllen Tages Update Array ################################################################ sub __DbRep_rl_updateHourDatabase { my $paref = shift; my $name = $paref->{name}; my $mode = $paref->{mode}; my $table = $paref->{table}; my $sth_upd = $paref->{sth_upd}; my $updateDayref = $paref->{updateDayref}; my $updDate = $paref->{updDate}; my $updHour = $paref->{updHour}; my $updminutes = $paref->{updminutes}; my $event = $paref->{event}; my $newvalue = $paref->{newvalue}; my $device = $paref->{device}; my $reading = $paref->{reading}; my $timestamp = $paref->{timestamp}; my $oldvalue = $paref->{oldvalue}; Log3 ($name, 4, "DbRep $name - UPDATE $table SET TIMESTAMP=$updDate $updHour:$updminutes, EVENT=$event, VALUE=$newvalue WHERE DEVICE=$device AND READING=$reading AND TIMESTAMP=$timestamp AND VALUE=$oldvalue"); eval { $sth_upd->execute("$updDate $updHour:$updminutes", $event, $newvalue, $device, $reading, $timestamp, $oldvalue); } or do { return $@; }; _DbRep_rl_logProgress ($paref); if ($mode =~ /=day/i) { push(@$updateDayref, ["$updDate $updHour:$updminutes", $event, $newvalue, $device, $reading, $updDate]); } return; } ################################################################ # reduceLog Tages Array füllen ################################################################ sub __DbRep_rl_onlyFillDayArray { my $paref = shift; my $mode = $paref->{mode}; my $updateDayref = $paref->{updateDayref}; my $timestamp = $paref->{timestamp}; my $event = $paref->{event}; my $oldvalue = $paref->{oldvalue}; my $device = $paref->{device}; my $reading = $paref->{reading}; my $updDate = $paref->{updDate}; if ($mode =~ /=day/i) { push(@$updateDayref, [$timestamp, $event, $oldvalue, $device, $reading, $updDate]); } return; } #################################################################################################### # reduceLog Tagesupdates vornehmen #################################################################################################### sub _DbRep_rl_updateDay { my $paref = shift; my $name = $paref->{name}; my $dbh = $paref->{dbh}; my $sth_delD = $paref->{sth_delD}; my $sth_updD = $paref->{sth_updD}; my $mode = $paref->{mode}; my $mstr = $paref->{mstr}; my $table = $paref->{table}; my $updateDayref = $paref->{updateDayref}; my $deletedCountref = $paref->{deletedCountref}; my $updateCountref = $paref->{updateCountref}; my $processingDay = $paref->{processingDay}; my $ndp = $paref->{ndp}; my $err = q{}; #Log3 ($name, 3, "DbRep $name - content updateDay Array:\n".Dumper @$updateDayref); my %updateHash; for my $row (@$updateDayref) { $updateHash{$row->[3].$row->[4]}->{date} = $row->[5]; push @{$updateHash{$row->[3].$row->[4]}->{tedr}}, [$row->[0], $row->[1], $row->[3], $row->[4]]; # tedr -> time, event, device, reading if ($mstr eq 'average') { # Day Average $updateHash{$row->[3].$row->[4]}->{sum} += $row->[2]; # Summe aller Werte } elsif ($mstr eq 'max') { # Day Max if (!defined $updateHash{$row->[3].$row->[4]}->{max}) { $updateHash{$row->[3].$row->[4]}->{max} = $row->[2]; } else { $updateHash{$row->[3].$row->[4]}->{max} = $row->[2] if ($row->[2] > $updateHash{$row->[3].$row->[4]}->{max}); } } elsif ($mstr eq 'min') { # Day Min if (!defined $updateHash{$row->[3].$row->[4]}->{min}) { $updateHash{$row->[3].$row->[4]}->{min} = $row->[2]; } else { $updateHash{$row->[3].$row->[4]}->{min} = $row->[2] if ($row->[2] < $updateHash{$row->[3].$row->[4]}->{min}); } } elsif ($mstr eq 'sum') { # Day Summary $updateHash{$row->[3].$row->[4]}->{sum} += $row->[2]; # Summe aller Werte } } my $c = 0; for my $key (keys %updateHash) { if(scalar @{$updateHash{$key}->{tedr}} == 1) { delete $updateHash{$key}; } else { $c += (scalar @{$updateHash{$key}->{tedr}} - 1); } } ${$deletedCountref} += $c; ${$updateCountref} += keys %updateHash; my ($params, $value); my ($id,$iu) = (0,0); my ($kd,$ku) = (1,1); my $thd = _DbRep_rl_logThreshold ($c); my $thu = _DbRep_rl_logThreshold (scalar keys %updateHash); my $event = $mstr eq 'average' ? 'rl_av_d' : $mstr eq 'max' ? 'rl_max_d' : $mstr eq 'min' ? 'rl_min_d' : $mstr eq 'sum' ? 'rl_sum_d' : 'rl_d'; my $time = $mstr eq 'average' ? '12:00:00' : $mstr eq 'max' ? '23:59:59' : $mstr eq 'min' ? '00:00:01' : $mstr eq 'sum' ? '12:00:00' : '00:00:00'; $paref->{time} = $time; $paref->{event} = $event; if(keys %updateHash) { Log3 ($name, 3, "DbRep $name - reduceLog (daily-$mstr) updating ".(keys %updateHash).", deleting $c records of day: $processingDay"); $err = DbRep_beginDatabaseTransaction ($name, $dbh); return $err if ($err); } for my $uhk (keys %updateHash) { if ($mstr eq 'average') { # Day Average $value = sprintf "%.${ndp}f", $updateHash{$uhk}->{sum} / scalar @{$updateHash{$uhk}->{tedr}}; } elsif ($mstr eq 'max') { # Day Max $value = sprintf "%.${ndp}f", $updateHash{$uhk}->{max}; } elsif ($mstr eq 'min') { # Day Min $value = sprintf "%.${ndp}f", $updateHash{$uhk}->{min}; } elsif ($mstr eq 'sum') { # Day Summary $value = sprintf "%.${ndp}f", $updateHash{$uhk}->{sum}; } my $lastUpdH = pop @{$updateHash{$uhk}->{tedr}}; for my $tedr (@{$updateHash{$uhk}->{tedr}}) { $id++; $paref->{logtxt} = "(daily-$mstr) deleting"; $paref->{iref} = \$id; $paref->{kref} = \$kd; $paref->{th} = $thd; $paref->{timestamp} = $tedr->[0]; $paref->{device} = $tedr->[2]; $paref->{reading} = $tedr->[3]; $err = __DbRep_rl_deleteDayDatabase ($paref); if ($err) { Log3 ($name, 3, "DbRep $name - ERROR - reduceLog $mstr=day failed for day $processingDay: $err"); $err = encode_base64($err, ""); DbRep_rollbackOnly ($name, $dbh); return $err; } } $iu++; $paref->{logtxt} = "(daily-$mstr) updating"; $paref->{iref} = \$iu; $paref->{kref} = \$ku; $paref->{th} = $thu; $paref->{date} = $updateHash{$uhk}->{date}; $paref->{timestamp} = $lastUpdH->[0]; $paref->{device} = $lastUpdH->[2]; $paref->{reading} = $lastUpdH->[3]; $paref->{value} = $value; $err = __DbRep_rl_updateDayDatabase ($paref); if ($err) { Log3 ($name, 3, "DbRep $name - ERROR - reduceLog $mstr=day failed for day $processingDay: $err"); $err = encode_base64($err, ""); DbRep_rollbackOnly ($name, $dbh); return $err; } } if(keys %updateHash) { $err = DbRep_commitOnly ($name, $dbh); return $err if ($err); } return $err; } ################################################################ # reduceLog Tageswerte löschen ################################################################ sub __DbRep_rl_deleteDayDatabase { my $paref = shift; my $name = $paref->{name}; my $table = $paref->{table}; my $sth_delD = $paref->{sth_delD}; my $device = $paref->{device}; my $reading = $paref->{reading}; my $timestamp = $paref->{timestamp}; Log3 ($name, 4, "DbRep $name - DELETE FROM $table WHERE DEVICE='$device' AND READING='$reading' AND TIMESTAMP='$timestamp'"); eval { $sth_delD->execute($device, $reading, $timestamp); } or do { return $@; }; _DbRep_rl_logProgress ($paref); return; } ################################################################ # reduceLog Tageswerte updaten ################################################################ sub __DbRep_rl_updateDayDatabase { my $paref = shift; my $name = $paref->{name}; my $table = $paref->{table}; my $sth_updD = $paref->{sth_updD}; my $event = $paref->{event}; my $device = $paref->{device}; my $reading = $paref->{reading}; my $value = $paref->{value}; my $date = $paref->{date}; my $time = $paref->{time}; my $timestamp = $paref->{timestamp}; Log3 ($name, 4, "DbRep $name - UPDATE $table SET TIMESTAMP=$date $time, EVENT=$event, VALUE=$value WHERE (DEVICE=$device) AND (READING=$reading) AND (TIMESTAMP=$timestamp)"); eval { $sth_updD->execute("$date $time", $event, $value, $device, $reading, $timestamp); } or do { return $@; }; _DbRep_rl_logProgress ($paref); return; } #################################################################################################### # reduceLog Grenzen für Logausgabe abhängig von der Zeilenanzahl #################################################################################################### sub _DbRep_rl_logThreshold { my $rn = shift; my $th = ($rn <= 2000) ? 100 : ($rn <= 30000) ? 1000 : 10000; return $th; } ################################################################ # reduceLog Logausgabe Fortschritt ################################################################ sub _DbRep_rl_logProgress { my $paref = shift; my $name = $paref->{name}; my $logtxt = $paref->{logtxt}; my $iref = $paref->{iref}; my $kref = $paref->{kref}; my $th = $paref->{th}; my $processingDay = $paref->{processingDay}; if(${$iref} == $th) { my $prog = ${$kref} * ${$iref}; Log3 ($name, 3, "DbRep $name - reduceLog $logtxt progress of day: $processingDay is: $prog"); ${$iref} = 0; ${$kref}++; } return; } #################################################################################################### # reduceLog non-blocking Rückkehrfunktion #################################################################################################### sub DbRep_reduceLogDone { my $string = shift; my @a = split("\\|",$string); my $name = $a[0]; my $err = $a[1] ? decode_base64($a[1]) : ''; my $ret = $a[2] ? decode_base64($a[2]) : ''; my $brt = $a[3]; my $hash = $defs{$name}; my $dbloghash = $defs{$hash->{HELPER}{DBLOGDEVICE}}; delete $hash->{HELPER}{RUNNING_REDUCELOG}; delete $hash->{HELPER}{REDUCELOG}; if ($err) { ReadingsSingleUpdateValue ($hash, "errortext", $err, 1); ReadingsSingleUpdateValue ($hash, "state", "error", 1); DbRep_afterproc ($hash, "reduceLog"); # Befehl nach Procedure ausführen return; } readingsBeginUpdate ($hash); ReadingsBulkUpdateValue ($hash, "background_processing_time", sprintf("%.2f", $brt)); ReadingsBulkUpdateValue ($hash, "reduceLogState", $ret); readingsEndUpdate ($hash, 1); DbRep_afterproc ($hash, "reduceLog"); # Befehl nach Procedure ausführen return; } #################################################################################################### # Migration DB / Tabellen Charset und Collation #################################################################################################### sub DbRep_migCollation { my $paref = shift; my $hash = $paref->{hash}; my $name = $paref->{name}; my $opt = $paref->{opt}; my $collation = $paref->{prop}; my $db = $hash->{DATABASE}; my $utf8 = $hash->{UTF8} // 0; my @se = (); my ($sth, $table); my $bst = [gettimeofday]; # Background-Startzeit my $charset = (split '_', $collation, 2)[0]; my ($err,$dbh,$dbmodel) = DbRep_dbConnect($name); return "$name|$err" if ($err); my $st = [gettimeofday]; # SQL-Startzeit # DB Migration ############### Log3 ($name, 3, "DbRep $name - migrate database >$db< collation to >$collation<, please be patient ..."); ($err, $sth) = DbRep_prepareExecuteQuery ($name, $dbh, qq(ALTER DATABASE $db CHARACTER SET = $charset COLLATE = $collation)); return "$name|$err" if ($err); ($err, @se) = DbRep_prepareExec2Array ($name, $dbh, qq(SHOW VARIABLES LIKE 'collation_database')); return "$name|$err" if ($err); my $dcs = @se ? $se[1] : 'no result'; Log3 ($name, 4, "DbRep $name - new Collation of database >$db< is >$dcs<"); # Tabelle history Migration ############################# ($err, my $hcs) = _DbRep_migCollTable ( {name => $name, dbh => $dbh, table => 'history', db => $db, charset => $charset, collation => $collation } ); return "$name|$err" if ($err); # Tabelle current Migration ############################# ($err, my $ccs) = _DbRep_migCollTable ( {name => $name, dbh => $dbh, table => 'current', db => $db, charset => $charset, collation => $collation } ); return "$name|$err" if ($err); Log3 ($name, 3, "DbRep $name - migration done"); $dbh->disconnect; my $rt = tv_interval($st); # SQL-Laufzeit ermitteln my $brt = tv_interval($bst); # Background-Laufzeit ermitteln $rt = $rt.",".$brt; $err = q{}; return "$name|$err|$dcs|$ccs|$hcs|$rt|$opt"; } #################################################################################################### # Migration Tabellen Charset und Collation #################################################################################################### sub _DbRep_migCollTable { my $paref = shift; my $name = $paref->{name}; my $dbh = $paref->{dbh}; my $table = $paref->{table}; my $db = $paref->{db}; my $charset = $paref->{charset}; my $collation = $paref->{collation}; Log3 ($name, 3, "DbRep $name - migrate table >$table< collation to >$collation< ... be patient ..."); my ($err, $sth) = DbRep_prepareExecuteQuery ($name, $dbh, qq(ALTER TABLE $table CONVERT TO CHARACTER SET $charset COLLATE $collation)); return $err if ($err); ($err, my @se) = DbRep_prepareExec2Array ($name, $dbh, qq(SELECT TABLE_COLLATION FROM INFORMATION_SCHEMA.TABLES WHERE TABLE_NAME = "$table" and TABLE_SCHEMA = "$db")); return $err if ($err); my $col = @se ? $se[0] : 'no result'; Log3 ($name, 4, "DbRep $name - new Collation of table >$table< is >$col<"); return ($err, $col); } #################################################################################################### # Auswertungsroutine Migration DB / Tabellen Charset und Collation #################################################################################################### sub DbRep_migCollation_Done { my $string = shift; my @a = split("\\|",$string); my $name = $a[0]; my $err = $a[1] ? decode_base64($a[1]) : ''; my $dcs = $a[2]; my $ccs = $a[3]; my $hcs = $a[4]; my $bt = $a[5]; my $opt = $a[6]; my $hash = $defs{$name}; Log3 ($name, 5, qq{DbRep $name - BlockingCall PID "$hash->{HELPER}{RUNNING_PID}{pid}" finished}); delete($hash->{HELPER}{RUNNING_PID}); if ($err) { ReadingsSingleUpdateValue ($hash, "errortext", $err, 1); ReadingsSingleUpdateValue ($hash, "state", "error", 1); DbRep_afterproc ($hash, $hash->{LASTCMD}); # Befehl nach Procedure ausführen return; } my ($rt,$brt) = split ",", $bt; readingsBeginUpdate ($hash); ReadingsBulkUpdateValue ($hash, 'collation_database', $dcs); ReadingsBulkUpdateValue ($hash, 'collation_table_current', $ccs); ReadingsBulkUpdateValue ($hash, 'collation_table_history', $hcs); ReadingsBulkUpdateTime ($hash, $brt, $rt); readingsEndUpdate ($hash, 1); DbRep_afterproc ($hash, $hash->{LASTCMD}); # Befehl nach Procedure ausführen incl. state return; } #################################################################################################### # Abbruchroutine Timeout DB-Abfrage #################################################################################################### sub DbRep_ParseAborted { my $hash = shift; my $cause = shift // "Timeout: process terminated"; my $name = $hash->{NAME}; my $dbh = $hash->{DBH}; Log3 ($name, 5, qq{DbRep $name - BlockingCall PID "$hash->{HELPER}{RUNNING_PID}{pid}" finished}); Log3 ($name, 1, "DbRep $name -> BlockingCall $hash->{HELPER}{RUNNING_PID}{fn} pid:$hash->{HELPER}{RUNNING_PID}{pid} $cause"); delete($hash->{HELPER}{RUNNING_PID}); ReadingsSingleUpdateValue ($hash, 'state', 'Abort', 0); my $erread = DbRep_afterproc ($hash, "command"); # Befehl nach Procedure ausführen $erread = ", ".(split("but", $erread))[1] if($erread); my $state = $cause.$erread; $dbh->disconnect() if(defined($dbh)); ReadingsSingleUpdateValue ($hash, "state", $state, 1); Log3 ($name, 2, "DbRep $name - Database command aborted: \"$cause\" "); return; } #################################################################################################### # Abbruchroutine Timeout reduceLog #################################################################################################### sub DbRep_reduceLogAborted { my $hash = shift; my $cause = shift // "Timeout: process terminated"; my $name = $hash->{NAME}; my $dbh = $hash->{DBH}; Log3 ($name, 1, "DbRep $name - BlockingCall $hash->{HELPER}{RUNNING_REDUCELOG}{fn} pid:$hash->{HELPER}{RUNNING_REDUCELOG}{pid} $cause") if($hash->{HELPER}{RUNNING_REDUCELOG}); ReadingsSingleUpdateValue ($hash, 'state', 'Abort', 0); my $erread = DbRep_afterproc ($hash, "reduceLog"); # Befehl nach Procedure ausführen $erread = ", ".(split("but", $erread))[1] if($erread); my $state = $cause.$erread; $dbh->disconnect() if(defined($dbh)); ReadingsSingleUpdateValue ($hash, "state", $state, 1); Log3 ($name, 2, "DbRep $name - Database reduceLog aborted: \"$cause\" "); delete($hash->{HELPER}{RUNNING_REDUCELOG}); delete $hash->{HELPER}{REDUCELOG}; return; } #################################################################################################### # Abbruchroutine Timeout Restore #################################################################################################### sub DbRep_restoreAborted { my $hash = shift; my $cause = shift // "Timeout: process terminated"; my $name = $hash->{NAME}; my $dbh = $hash->{DBH}; Log3 ($name, 1, "DbRep $name - BlockingCall $hash->{HELPER}{RUNNING_RESTORE}{fn} pid:$hash->{HELPER}{RUNNING_RESTORE}{pid} $cause") if($hash->{HELPER}{RUNNING_RESTORE}); ReadingsSingleUpdateValue ($hash, 'state', 'Abort', 0); my $erread = DbRep_afterproc ($hash, "restore"); # Befehl nach Procedure ausführen $erread = ", ".(split("but", $erread))[1] if($erread); my $state = $cause.$erread; $dbh->disconnect() if(defined($dbh)); ReadingsSingleUpdateValue ($hash, "state", $state, 1); Log3 ($name, 2, "DbRep $name - Database restore aborted: \"$cause\" "); delete($hash->{HELPER}{RUNNING_RESTORE}); return; } #################################################################################################### # Abbruchroutine Timeout DB-Dump #################################################################################################### sub DbRep_DumpAborted { my $hash = shift; my $cause = shift // "Timeout: process terminated"; my $name = $hash->{NAME}; my $dbh = $hash->{DBH}; Log3 ($name, 1, "DbRep $name - BlockingCall $hash->{HELPER}{RUNNING_BACKUP_CLIENT}{fn} pid:$hash->{HELPER}{RUNNING_BACKUP_CLIENT}{pid} $cause") if($hash->{HELPER}{RUNNING_BACKUP_CLIENT}); Log3 ($name, 1, "DbRep $name - BlockingCall $hash->{HELPER}{RUNNING_BCKPREST_SERVER}{fn} pid:$hash->{HELPER}{RUNNING_BCKPREST_SERVER}{pid} $cause") if($hash->{HELPER}{RUNNING_BCKPREST_SERVER}); ReadingsSingleUpdateValue ($hash, 'state', 'Abort', 0); my $erread = DbRep_afterproc ($hash, "dump"); # Befehl nach Procedure ausführen $erread = ", ".(split("but", $erread))[1] if($erread); my $state = $cause.$erread; $dbh->disconnect() if(defined($dbh)); ReadingsSingleUpdateValue ($hash, "state", $state, 1); Log3 ($name, 2, "DbRep $name - Database dump aborted: \"$cause\" "); delete($hash->{HELPER}{RUNNING_BACKUP_CLIENT}); delete($hash->{HELPER}{RUNNING_BCKPREST_SERVER}); return; } #################################################################################################### # Abbruchroutine Timeout DB-Abfrage #################################################################################################### sub DbRep_OptimizeAborted { my $hash = shift; my $cause = shift // "Timeout: process terminated"; my $name = $hash->{NAME}; my $dbh = $hash->{DBH}; Log3 ($name, 1, "DbRep $name -> BlockingCall $hash->{HELPER}{RUNNING_OPTIMIZE}}{fn} pid:$hash->{HELPER}{RUNNING_OPTIMIZE}{pid} $cause"); ReadingsSingleUpdateValue ($hash, 'state', 'Abort', 0); my $erread = DbRep_afterproc ($hash, "optimize"); # Befehl nach Procedure ausführen $erread = ", ".(split("but", $erread))[1] if($erread); my $state = $cause.$erread; $dbh->disconnect() if(defined($dbh)); ReadingsSingleUpdateValue ($hash, "state", $state, 1); Log3 ($name, 2, "DbRep $name - Database optimize aborted: \"$cause\" "); delete($hash->{HELPER}{RUNNING_OPTIMIZE}); return; } #################################################################################################### # Abbruchroutine Repair SQlite #################################################################################################### sub DbRep_RepairAborted { my $hash = shift; my $cause = shift // "Timeout: process terminated"; my $name = $hash->{NAME}; my $dbh = $hash->{DBH}; my $dbloghash = $defs{$hash->{HELPER}{DBLOGDEVICE}}; Log3 ($name, 1, "DbRep $name -> BlockingCall $hash->{HELPER}{RUNNING_REPAIR}{fn} pid:$hash->{HELPER}{RUNNING_REPAIR}{pid} $cause"); # Datenbankverbindung in DbLog wieder öffenen my $dbl = $dbloghash->{NAME}; CommandSet(undef,"$dbl reopen"); ReadingsSingleUpdateValue ($hash, 'state', 'Abort', 0); my $erread = DbRep_afterproc ($hash, "repair"); # Befehl nach Procedure ausführen $erread = ", ".(split("but", $erread))[1] if($erread); my $state = $cause.$erread; $dbh->disconnect() if(defined($dbh)); ReadingsSingleUpdateValue ($hash,"state",$state, 1); Log3 ($name, 2, "DbRep $name - Database repair aborted: \"$cause\" "); delete($hash->{HELPER}{RUNNING_REPAIR}); return; } #################################################################################################### # SQL-Statement zusammenstellen Common #################################################################################################### sub DbRep_createCommonSql { my $specs = shift; my $hash = $specs->{hash}; my $selspec = $specs->{selspec} // q{}; my $device = $specs->{device}; my $reading = $specs->{reading}; my $dbmodel = $specs->{dbmodel}; my $rsf = $specs->{rsf}; my $rsn = $specs->{rsn}; my $valfilter = $specs->{valfilter}; my $addon = $specs->{addon} // q{}; my ($sql,$vf,@dwc,@rwc); my ($idevs,$idevswc,$idanz,$ireading,$iranz,$irdswc,$edevs,$edevswc,$edanz,$ereading,$eranz,$erdswc) = DbRep_specsForSql($hash,$device,$reading); my $tnfull = 0; if($rsn && $rsn =~ /(\d{4})-(\d{2})-(\d{2}) (\d{2}):(\d{2}):(\d{2})/) { $tnfull = 1; } if(defined $valfilter) { if ($dbmodel eq "POSTGRESQL") { $vf = "VALUE ~ '$valfilter' AND "; } else { $vf = "VALUE REGEXP '$valfilter' AND "; } } $sql = $selspec." " if($selspec); # included devices ################### $sql .= "( " if(($idanz || $idevswc) && $idevs !~ m(^%$)); if($idevswc && $idevs !~ m(^%$)) { @dwc = split ",", $idevswc; my $i = 1; my $len = scalar(@dwc); for (@dwc) { if($i<$len) { $sql .= "DEVICE LIKE '$_' OR "; } else { $sql .= "DEVICE LIKE '$_' "; } $i++; } if($idanz) { $sql .= "OR "; } } $sql .= "DEVICE = '$idevs' " if($idanz == 1 && $idevs && $idevs !~ m(^%$)); $sql .= "DEVICE IN ($idevs) " if($idanz > 1); $sql .= ") AND " if(($idanz || $idevswc) && $idevs !~ m(^%$)); # excluded devices ################### if($edevswc) { @dwc = split ",", $edevswc; for (@dwc) { $sql .= "DEVICE NOT LIKE '$_' AND "; } } $sql .= "DEVICE != '$edevs' " if($edanz == 1 && $edanz && $edevs !~ m(^%$)); $sql .= "DEVICE NOT IN ($edevs) " if($edanz > 1); $sql .= "AND " if($edanz && $edevs !~ m(^%$)); # included readings #################### $sql .= "( " if(($iranz || $irdswc) && $ireading !~ m(^%$)); if($irdswc && $ireading !~ m(^%$)) { @rwc = split ",", $irdswc; my $i = 1; my $len = scalar(@rwc); for (@rwc) { if($i < $len) { $sql .= "READING LIKE '$_' OR "; } else { $sql .= "READING LIKE '$_' "; } $i++; } if($iranz) { $sql .= "OR "; } } $sql .= "READING = '$ireading' " if($iranz == 1 && $ireading && $ireading !~ m(\%)); $sql .= "READING IN ($ireading) " if($iranz > 1); $sql .= ") AND " if(($iranz || $irdswc) && $ireading !~ m(^%$)); # excluded readings #################### if($erdswc) { @dwc = split ",", $erdswc; for (@dwc) { $sql .= "READING NOT LIKE '$_' AND "; } } $sql .= "READING != '$ereading' " if($eranz && $eranz == 1 && $ereading !~ m(\%)); $sql .= "READING NOT IN ($ereading) " if($eranz > 1); $sql .= "AND " if($eranz && $ereading !~ m(^%$)); # add valueFilter ################## $sql .= $vf if(defined $vf); # Timestamp Filter ################### if (($rsf && $rsn)) { $sql .= "TIMESTAMP >= '$rsf' AND TIMESTAMP ".($tnfull ? "<=" : "<")." '$rsn' "; } else { if ($dbmodel eq "POSTGRESQL") { $sql .= "true "; } else { $sql .= "1 "; } } $sql .= "$addon;"; return $sql; } #################################################################################################### # SQL-Statement zusammenstellen für DB-Abfrage Select #################################################################################################### sub DbRep_createSelectSql { my ($hash,$table,$selspec,$device,$reading,$rsf,$rsn,$addon) = @_; my $name = $hash->{NAME}; my $dbloghash = $defs{$hash->{HELPER}{DBLOGDEVICE}}; my $dbmodel = $dbloghash->{MODEL}; my $valfilter = AttrVal($name, "valueFilter", undef); # Wertefilter my ($sql,$vf,@dwc,@rwc); my ($idevs,$idevswc,$idanz,$ireading,$iranz,$irdswc,$edevs,$edevswc,$edanz,$ereading,$eranz,$erdswc) = DbRep_specsForSql($hash,$device,$reading); my $tnfull = 0; if($rsn && $rsn =~ /(\d{4})-(\d{2})-(\d{2}) (\d{2}):(\d{2}):(\d{2})/) { $tnfull = 1; } if(defined $valfilter) { if ($dbmodel eq "POSTGRESQL") { $vf = "VALUE ~ '$valfilter' AND "; } else { $vf = "VALUE REGEXP '$valfilter' AND "; } } $sql = "SELECT $selspec FROM $table where "; # included devices ################### $sql .= "( " if(($idanz || $idevswc) && $idevs !~ m(^%$)); if($idevswc && $idevs !~ m(^%$)) { @dwc = split ",", $idevswc; my $i = 1; my $len = scalar(@dwc); for (@dwc) { if($i<$len) { $sql .= "DEVICE LIKE '$_' OR "; } else { $sql .= "DEVICE LIKE '$_' "; } $i++; } if($idanz) { $sql .= "OR "; } } $sql .= "DEVICE = '$idevs' " if($idanz == 1 && $idevs && $idevs !~ m(^%$)); $sql .= "DEVICE IN ($idevs) " if($idanz > 1); $sql .= ") AND " if(($idanz || $idevswc) && $idevs !~ m(^%$)); # excluded devices ################### if($edevswc) { @dwc = split(",",$edevswc); for (@dwc) { $sql .= "DEVICE NOT LIKE '$_' AND "; } } $sql .= "DEVICE != '$edevs' " if($edanz == 1 && $edanz && $edevs !~ m(^%$)); $sql .= "DEVICE NOT IN ($edevs) " if($edanz > 1); $sql .= "AND " if($edanz && $edevs !~ m(^%$)); # included readings #################### $sql .= "( " if(($iranz || $irdswc) && $ireading !~ m(^%$)); if($irdswc && $ireading !~ m(^%$)) { @rwc = split ",", $irdswc; my $i = 1; my $len = scalar(@rwc); for (@rwc) { if($i<$len) { $sql .= "READING LIKE '$_' OR "; } else { $sql .= "READING LIKE '$_' "; } $i++; } if($iranz) { $sql .= "OR "; } } $sql .= "READING = '$ireading' " if($iranz == 1 && $ireading && $ireading !~ m(\%)); $sql .= "READING IN ($ireading) " if($iranz > 1); $sql .= ") AND " if(($iranz || $irdswc) && $ireading !~ m(^%$)); # excluded readings #################### if($erdswc) { @dwc = split ",", $erdswc; for (@dwc) { $sql .= "READING NOT LIKE '$_' AND "; } } $sql .= "READING != '$ereading' " if($eranz && $eranz == 1 && $ereading !~ m(\%)); $sql .= "READING NOT IN ($ereading) " if($eranz > 1); $sql .= "AND " if($eranz && $ereading !~ m(^%$)); # add valueFilter ################## $sql .= $vf if(defined $vf); # Timestamp Filter ################### if (($rsf && $rsn)) { $sql .= "TIMESTAMP >= $rsf AND TIMESTAMP ".($tnfull?"<=":"<")." $rsn "; } else { if ($dbmodel eq "POSTGRESQL") { $sql .= "true "; } else { $sql .= "1 "; } } $sql .= "$addon;"; return $sql; } #################################################################################################### # SQL-Statement zusammenstellen für Löschvorgänge #################################################################################################### sub DbRep_createDeleteSql { my ($hash,$table,$device,$reading,$rsf,$rsn,$addon) = @_; my $name = $hash->{NAME}; my $dbloghash = $defs{$hash->{HELPER}{DBLOGDEVICE}}; my $dbmodel = $dbloghash->{MODEL}; my $valfilter = AttrVal($name, "valueFilter", undef); # Wertefilter my $tnfull = 0; my ($sql,$vf,@dwc,@rwc); if($table eq "current") { $sql = "delete FROM $table; "; return $sql; } my ($idevs,$idevswc,$idanz,$ireading,$iranz,$irdswc,$edevs,$edevswc,$edanz,$ereading,$eranz,$erdswc) = DbRep_specsForSql($hash,$device,$reading); if($rsn && $rsn =~ /(\d{4})-(\d{2})-(\d{2}) (\d{2}):(\d{2}):(\d{2})/) { $tnfull = 1; } if(defined $valfilter) { if ($dbmodel eq "POSTGRESQL") { $vf = "VALUE ~ '$valfilter' AND "; } else { $vf = "VALUE REGEXP '$valfilter' AND "; } } $sql = "delete FROM $table where "; # included devices ################### $sql .= "( " if(($idanz || $idevswc) && $idevs !~ m(^%$)); if($idevswc && $idevs !~ m(^%$)) { @dwc = split(",",$idevswc); my $i = 1; my $len = scalar(@dwc); for (@dwc) { if($i<$len) { $sql .= "DEVICE LIKE '$_' OR "; } else { $sql .= "DEVICE LIKE '$_' "; } $i++; } if($idanz) { $sql .= "OR "; } } $sql .= "DEVICE = '$idevs' " if($idanz == 1 && $idevs && $idevs !~ m(^%$)); $sql .= "DEVICE IN ($idevs) " if($idanz > 1); $sql .= ") AND " if(($idanz || $idevswc) && $idevs !~ m(^%$)); # excluded devices ################### if($edevswc) { @dwc = split(",",$edevswc); for (@dwc) { $sql .= "DEVICE NOT LIKE '$_' AND "; } } $sql .= "DEVICE != '$edevs' " if($edanz == 1 && $edanz && $edevs !~ m(^%$)); $sql .= "DEVICE NOT IN ($edevs) " if($edanz > 1); $sql .= "AND " if($edanz && $edevs !~ m(^%$)); # included readings #################### $sql .= "( " if(($iranz || $irdswc) && $ireading !~ m(^%$)); if($irdswc && $ireading !~ m(^%$)) { @rwc = split(",",$irdswc); my $i = 1; my $len = scalar(@rwc); for (@rwc) { if($i<$len) { $sql .= "READING LIKE '$_' OR "; } else { $sql .= "READING LIKE '$_' "; } $i++; } if($iranz) { $sql .= "OR "; } } $sql .= "READING = '$ireading' " if($iranz == 1 && $ireading && $ireading !~ m(\%)); $sql .= "READING IN ($ireading) " if($iranz > 1); $sql .= ") AND " if(($iranz || $irdswc) && $ireading !~ m(^%$)); # excluded readings #################### if($erdswc) { @dwc = split(",",$erdswc); for (@dwc) { $sql .= "READING NOT LIKE '$_' AND "; } } $sql .= "READING != '$ereading' " if($eranz && $eranz == 1 && $ereading !~ m(\%)); $sql .= "READING NOT IN ($ereading) " if($eranz > 1); $sql .= "AND " if($eranz && $ereading !~ m(^%$)); # add valueFilter ################## $sql .= $vf if(defined $vf); # Timestamp Filter ################### if ($rsf && $rsn) { $sql .= "TIMESTAMP >= '$rsf' AND TIMESTAMP ".($tnfull?"<=":"<")." '$rsn' $addon;"; } else { if ($dbmodel eq "POSTGRESQL") { $sql .= "true;"; } else { $sql .= "1;"; } } return $sql; } #################################################################################################### # Ableiten von Device, Reading-Spezifikationen #################################################################################################### sub DbRep_specsForSql { my $hash = shift; my $device = shift // q{}; my $reading = shift // q{}; my $name = $hash->{NAME}; my (@idvspcs,@edvspcs,@idvs,@edvs,@idvswc,@edvswc,@residevs,@residevswc); my ($nl,$nlwc) = ("",""); ##### inkludierte / excludierte Devices und deren Anzahl ermitteln ##### my ($idevice,$edevice) = ('',''); my ($idevs,$idevswc,$edevs,$edevswc) = ('','','',''); my ($idanz,$edanz) = (0,0); if($device =~ /EXCLUDE=/i) { ($idevice,$edevice) = split(/EXCLUDE=/i,$device); $idevice = $idevice ? DbRep_trim($idevice) : "%"; } else { $idevice = $device; } # Devices exkludiert if($edevice) { @edvs = split ",", $edevice; ($edevs,$edevswc) = DbRep_resolveDevspecs($name,$edevice,\@edvs); } $edanz = split ",", $edevs; # Anzahl der exkludierten Elemente (Lauf1) # Devices inkludiert @idvs = split ",", $idevice; ($idevs,$idevswc) = DbRep_resolveDevspecs($name,$idevice,\@idvs); $idanz = split ",", $idevs; # Anzahl der inkludierten Elemente (Lauf1) Log3 $name, 5, "DbRep $name - Devices for operation - \n" ."included ($idanz): $idevs \n" ."included with wildcard: $idevswc \n" ."excluded ($edanz): $edevs \n" ."excluded with wildcard: $edevswc"; # exkludierte Devices aus inkludierten entfernen (aufgelöste) @idvs = split ",", $idevs; @edvs = split ",", $edevs; for my $in (@idvs) { my $inc = 1; for my $v (@edvs) { next if($in ne $v); $inc = 0; $nl .= "|" if($nl); $nl .= $v; # Liste der entfernten devices füllen } push(@residevs, $in) if($inc); } $edevs = join (",", map {($_ !~ /$nl/) ? $_ : ();} @edvs) if($nl); # exkludierte Devices aus inkludierten entfernen (wildcard konnte nicht aufgelöst werden) @idvswc = split ",", $idevswc; @edvswc = split ",", $edevswc; for my $inwc (@idvswc) { my $inc = 1; for my $w (@edvswc) { next if($inwc ne $w); $inc = 0; $nlwc .= "|" if($nlwc); $nlwc .= $w; # Liste der entfernten devices füllen } push @residevswc, $inwc if($inc); } $edevswc = join (",", map {($_ !~ /$nlwc/) ? $_ : ();} @edvswc) if($nlwc); # Ergebnis zusammenfassen $idevs = join ",", @residevs; $idevs =~ s/'/''/g; # escape ' with '' $idevswc = join ",", @residevswc; $idevswc =~ s/'/''/g; # escape ' with '' $idanz = split ",", $idevs; # Anzahl der inkludierten Elemente (Lauf2) if($idanz > 1) { $idevs =~ s/,/','/g; $idevs = "'".$idevs."'"; } $edanz = split ",", $edevs; # Anzahl der exkludierten Elemente (Lauf2) if($edanz > 1) { $edevs =~ s/,/','/g; $edevs = "'".$edevs."'"; } ##### inkludierte / excludierte Readings und deren Anzahl ermitteln ##### my ($ireading,$ereading) = ('',''); my ($iranz,$eranz) = (0,0); my ($erdswc,$erdgs,$irdswc,$irdgs) = ('','','',''); my (@erds,@irds); $reading =~ s/'/''/g; # escape ' with '' if($reading =~ /EXCLUDE=/i) { ($ireading,$ereading) = split(/EXCLUDE=/i,$reading); $ireading = $ireading ? DbRep_trim ($ireading) : "%"; } else { $ireading = $reading; } if($ereading) { @erds = split ",", $ereading; for my $e (@erds) { if($e =~ /%/ && $e !~ /^%$/) { # Readings mit Wildcard (%) erfassen $erdswc .= "," if($erdswc); $erdswc .= $e; } else { $erdgs .= "," if($erdgs); $erdgs .= $e; } } } @irds = split ",", $ireading; # Readings inkludiert for my $i (@irds) { if($i =~ /%/ && $i !~ /^%$/) { # Readings mit Wildcard (%) erfassen $irdswc .= "," if($irdswc); $irdswc .= $i; } else { $irdgs .= "," if($irdgs); $irdgs .= $i; } } $iranz = split ",", $irdgs; if($iranz > 1) { $irdgs =~ s/,/','/g; $irdgs = "'".$irdgs."'"; } if($ereading) { # Readings exkludiert $eranz = split ",", $erdgs; if($eranz > 1) { $erdgs =~ s/,/','/g; $erdgs = "'".$erdgs."'"; } } Log3 $name, 5, "DbRep $name - Readings for operation - \n" ."included ($iranz): $irdgs \n" ."included with wildcard: $irdswc \n" ."excluded ($eranz): $erdgs \n" ."excluded with wildcard: $erdswc"; return ($idevs,$idevswc,$idanz,$irdgs,$iranz,$irdswc,$edevs,$edevswc,$edanz,$erdgs,$eranz,$erdswc); } #################################################################################################### # devspecs für SQL auflösen #################################################################################################### sub DbRep_resolveDevspecs { my $name = shift; my $dlist = shift; # Komma getrennte Deviceliste my $devref = shift; # Referenz der Deviceliste my ($devs,$devswc) = ('',''); for my $d (@$devref) { $d =~ s/%/\.*/g if($d !~ /^%$/); # SQL Wildcard % auflösen my @devspcs = devspec2array($d); @devspcs = qw(^^) if(!@devspcs); # ein nie existierendes Device (^^) setzen wenn Liste leer @devspcs = map {s/\.\*/%/g; $_; } @devspcs; if((map {$_ =~ /%/;} @devspcs) && $dlist !~ /^%$/) { # Devices mit Wildcard (%) erfassen, die nicht aufgelöst werden konnten $devswc .= "," if($devswc); $devswc .= join(",",@devspcs); } else { $devs .= "," if($devs); $devs .= join(",",@devspcs); } } return ($devs,$devswc); } ###################################################################################### # Erstelle Insert SQL-Schema für Tabelle mit/ohne primary key ###################################################################################### sub DbRep_createInsertSQLscheme { my $table = shift; my $dbmodel = shift; my $usepkh = shift; my $sql; if ($usepkh && $dbmodel eq 'MYSQL') { $sql = "INSERT IGNORE INTO $table (TIMESTAMP, DEVICE, TYPE, EVENT, READING, VALUE, UNIT) VALUES (?,?,?,?,?,?,?)"; } elsif ($usepkh && $dbmodel eq 'SQLITE') { $sql = "INSERT OR IGNORE INTO $table (TIMESTAMP, DEVICE, TYPE, EVENT, READING, VALUE, UNIT) VALUES (?,?,?,?,?,?,?)"; } elsif ($usepkh && $dbmodel eq 'POSTGRESQL') { $sql = "INSERT INTO $table (TIMESTAMP, DEVICE, TYPE, EVENT, READING, VALUE, UNIT) VALUES (?,?,?,?,?,?,?) ON CONFLICT DO NOTHING"; } else { $sql = "INSERT INTO $table (TIMESTAMP, DEVICE, TYPE, EVENT, READING, VALUE, UNIT) VALUES (?,?,?,?,?,?,?)"; } return $sql; } ###################################################################################### # Erstelle Update SQL-Schema für Tabelle ###################################################################################### sub DbRep_createUpdateSQLscheme { my $table = shift; my $sql = "UPDATE $table SET TIMESTAMP=?, DEVICE=?, READING=?, TYPE=?, EVENT=?, VALUE=?, UNIT=? WHERE TIMESTAMP=? AND DEVICE=? AND READING=?"; return $sql; } ###################################################################################### # Connect zur Datenbank herstellen # # $uac: undef - Verwendung adminCredentials abhängig von Attr useAdminCredentials # 0 - adminCredentials werden nicht verwendet # 1 - adminCredentials werden immer verwendet ###################################################################################### sub DbRep_dbConnect { my $name = shift; my $uac = shift // AttrVal($name, "useAdminCredentials", 0); my $hash = $defs{$name}; my $dbloghash = $defs{$hash->{HELPER}{DBLOGDEVICE}}; my $dbconn = $dbloghash->{dbconn}; my $dbuser = $dbloghash->{dbuser}; my $dblogname = $dbloghash->{NAME}; my $dbmodel = $dbloghash->{MODEL}; my $dbpassword = $attr{"sec$dblogname"}{secret}; my $utf8 = $hash->{UTF8} // 0; my $dbh; my $err = q{}; if($uac) { my ($success,$admusername,$admpassword) = DbRep_getcredentials($hash, "adminCredentials"); if($success) { $dbuser = $admusername; $dbpassword = $admpassword; } else { $err = "Can't use admin credentials for database access, see logfile !"; Log3 ($name, 2, "DbRep $name - ERROR - admin credentials are needed for database operation, but are not set or can't read it"); return encode_base64($err,""); } } Log3 ($name, 4, "DbRep $name - Database connect - user: ".($dbuser ? $dbuser : 'no').", UTF-8 option set: ".($utf8 ? 'yes' : 'no')); eval { $dbh = DBI->connect("dbi:$dbconn", $dbuser, $dbpassword, { PrintError => 0, RaiseError => 1, AutoCommit => 1, AutoInactiveDestroy => 1 } ); 1; } or do { $err = encode_base64($@,""); Log3 ($name, 2, "DbRep $name - ERROR: $@"); return $err; }; if($utf8) { if($dbmodel eq "MYSQL") { $dbh->{mysql_enable_utf8} = 1; ($err, my @se) = DbRep_prepareExec2Array ($name, $dbh, "SHOW VARIABLES LIKE 'collation_database'"); return $err if ($err); my $dbcharset = @se ? $se[1] : 'noresult'; Log3 ($name, 4, "DbRep $name - Database Character set is >$dbcharset<"); if ($dbcharset !~ /noresult|ucs2|utf16|utf32/ixs) { # Impermissible Client Character Sets -> https://dev.mysql.com/doc/refman/8.0/en/charset-connection.html my $collation = $dbcharset; $dbcharset = (split '_', $collation, 2)[0]; ($err, undef) = DbRep_dbhDo ($name, $dbh, qq(set names "$dbcharset" collate "$collation")); return $err if ($err); } } if($dbmodel eq "SQLITE") { $dbh->do('PRAGMA encoding="UTF-8"'); } } return ($err, $dbh, $dbmodel); } #################################################################################################### # nur SQL prepare # return $sth bei Erfolg #################################################################################################### sub DbRep_prepareOnly { my $name = shift; my $dbh = shift; my $sql = shift; my $info = shift // "SQL prepare: $sql"; my $err = q{}; my $sth; Log3 ($name, 4, "DbRep $name - $info"); eval{ $sth = $dbh->prepare($sql); } or do { $err = encode_base64($@,""); Log3 ($name, 2, "DbRep $name - ERROR - $@"); $dbh->disconnect; }; return ($err, $sth); } #################################################################################################### # nur SQL prepare Cached # return $sth bei Erfolg #################################################################################################### sub DbRep_prepareCachedOnly { my $name = shift; my $dbh = shift; my $sql = shift; my $info = shift // "SQL prepare cached: $sql"; my $err = q{}; my $sth; Log3 ($name, 4, "DbRep $name - $info"); eval{ $sth = $dbh->prepare_cached($sql); } or do { $err = encode_base64($@,""); Log3 ($name, 2, "DbRep $name - ERROR - $@"); $dbh->disconnect; }; return ($err, $sth); } #################################################################################################### # SQL Query evaluieren und Return Error-String oder $sth-String # bei Erfolg #################################################################################################### sub DbRep_prepareExecuteQuery { my $name = shift; my $dbh = shift; my $sql = shift; my $info = shift // "SQL execute: $sql"; my $err = q{}; my ($sth,$res); Log3 ($name, 4, "DbRep $name - $info"); eval{ $sth = $dbh->prepare($sql); $res = $sth->execute(); 1; } or do { $err = encode_base64($@,""); Log3 ($name, 2, "DbRep $name - ERROR - $@"); $sth->finish if($sth); $dbh->disconnect; }; return ($err, $sth, $res); } #################################################################################################### # SQL Query evaluieren und Return Error-String oder Ergebnis Array # bei Erfolg #################################################################################################### sub DbRep_prepareExec2Array { my $name = shift; my $dbh = shift; my $sql = shift; my $info = shift // "SQL execute: $sql"; my $err = q{}; my @sr = (); my ($sth,$res); Log3 ($name, 4, "DbRep $name - $info"); eval{ $sth = $dbh->prepare($sql); $res = $sth->execute(); 1; } or do { $err = encode_base64($@,""); Log3 ($name, 2, "DbRep $name - ERROR - $@"); $sth->finish if($sth); $dbh->disconnect; }; @sr = $sth->fetchrow_array; return ($err, @sr); } #################################################################################################### # einfaches Sdbh->do, return ERROR-String wenn Fehler bzw. die Anzahl der betroffenen Zeilen #################################################################################################### sub DbRep_dbhDo { my $name = shift; my $dbh = shift; my $sql = shift; my $info = shift // "simple do statement: $sql"; my $err = q{}; my $rv = q{}; Log3 ($name, 4, "DbRep $name - $info"); eval{ $rv = $dbh->do($sql); 1; } or do { $err = encode_base64($@,""); Log3 ($name, 2, "DbRep $name - ERROR - $@"); $dbh->disconnect; }; return ($err, $rv); } #################################################################################################### # führt ein sth execute prepared Insert aus # return ERROR oder die Anzahl der betroffenen Zeilen #################################################################################################### sub DbRep_execInsertPrepared { my $paref = shift; my $name = $paref->{name}; my $sth = $paref->{sth}; my $timestamp = $paref->{timestamp}; my $device = $paref->{device}; my $type = $paref->{type}; my $event = $paref->{event}; my $reading = $paref->{reading}; my $value = $paref->{value}; my $unit = $paref->{unit}; my $err = q{}; my $rv = q{}; eval{ $rv = $sth->execute($timestamp, $device, $type, $event, $reading, $value, $unit); } or do { $err = encode_base64($@,""); Log3 ($name, 2, "DbRep $name - ERROR - $@"); }; $rv = 0 if($rv eq "0E0"); return ($err, $rv); } #################################################################################################### # führt ein sth execute prepared Update aus # return ERROR oder die Anzahl der betroffenen Zeilen #################################################################################################### sub DbRep_execUpdatePrepared { my $paref = shift; my $name = $paref->{name}; my $sth = $paref->{sth}; my $timestamp = $paref->{timestamp}; my $device = $paref->{device}; my $type = $paref->{type}; my $event = $paref->{event}; my $reading = $paref->{reading}; my $value = $paref->{value}; my $unit = $paref->{unit}; my $err = q{}; my $rv = q{}; eval{ $rv = $sth->execute($timestamp, $device, $reading, $type, $event, $value, $unit, $timestamp, $device, $reading); } or do { $err = encode_base64($@,""); Log3 ($name, 2, "DbRep $name - ERROR - $@"); }; $rv = 0 if($rv eq "0E0"); return ($err, $rv); } #################################################################################################### # nur Datenbank "begin transaction" # $dbh->{AutoCommit} = 0; # enable transactions, if possible # oder # $dbh->begin_work(); #################################################################################################### sub DbRep_beginDatabaseTransaction { my $name = shift; my $dbh = shift; my $info = shift // "begin transaction"; my $err = q{}; eval{ if($dbh->{AutoCommit}) { $dbh->begin_work(); Log3 ($name, 4, "DbRep $name - $info"); } 1; } or do { $err = encode_base64($@,""); Log3 ($name, 2, "DbRep $name - ERROR - $@"); $dbh->disconnect; }; return $err; } #################################################################################################### # nur Datenbank "commit" #################################################################################################### sub DbRep_commitOnly { my $name = shift; my $dbh = shift; my $info = shift // "transaction committed"; my $err = q{}; eval{ if(!$dbh->{AutoCommit}) { $dbh->commit(); Log3 ($name, 4, "DbRep $name - $info"); } else { Log3 ($name, 4, "DbRep $name - data autocommitted"); } 1; } or do { $err = encode_base64($@,""); Log3 ($name, 2, "DbRep $name - ERROR - $@"); $dbh->disconnect; }; return $err; } #################################################################################################### # nur Datenbank "rollback" #################################################################################################### sub DbRep_rollbackOnly { my $name = shift; my $dbh = shift; my $info = shift // "transaction rollback"; my $err = q{}; eval{ if(!$dbh->{AutoCommit}) { $dbh->rollback(); Log3 ($name, 4, "DbRep $name - $info"); } else { Log3 ($name, 4, "DbRep $name - data auto rollback"); } 1; } or do { $err = encode_base64($@,""); Log3 ($name, 2, "DbRep $name - ERROR - $@"); $dbh->disconnect; }; return $err; } #################################################################################################### # Whitespace am Anfang / Ende eines Strings entfernen #################################################################################################### sub DbRep_trim { my $str = shift; return if(!$str); $str =~ s/^\s+|\s+$//g; return $str; } #################################################################################################### # Sekunden in Format hh:mm:ss umwandeln #################################################################################################### sub DbRep_sec2hms { my $s = shift; my $hms; my $hh = sprintf("%02d", int($s/3600)); my $mm = sprintf("%02d", int(($s-($hh*3600))/60)); my $ss = sprintf("%02d", $s-($mm*60)-($hh*3600)); return ("$hh:$mm:$ss"); } #################################################################################################### # Check ob Zeitgrenzen bzw. Aggregation gesetzt sind, evtl. übersteuern (je nach Funktion) # Return "1" wenn Bedingung erfüllt, sonst "0" #################################################################################################### sub DbRep_checktimeaggr { my $hash = shift // return; my $name = $hash->{NAME}; my $IsTimeSet = 0; my $IsAggrSet = 0; my $aggregation = AttrVal($name,"aggregation","no"); my @a; @a = @{$hash->{HELPER}{REDUCELOG}} if($hash->{HELPER}{REDUCELOG}); @a = @{$hash->{HELPER}{DELENTRIES}} if($hash->{HELPER}{DELENTRIES}); my $timeoption = 0; for my $elem (@a) { # evtl. Relativzeiten bei "reduceLog" oder "deleteEntries" berücksichtigen $timeoption = 1 if($elem =~ /\b\d+(:\d+)?\b/); } if (AttrVal ($name,"timestamp_begin", undef) || AttrVal ($name,"timestamp_end", undef) || AttrVal ($name,"timeDiffToNow", undef) || AttrVal ($name,"timeOlderThan", undef) || AttrVal ($name,"timeYearPeriod", undef) || $timeoption ) { $IsTimeSet = 1; } if ($aggregation ne "no") { $IsAggrSet = 1; } if($hash->{LASTCMD} =~ /delSeqDoublets|delDoublets/) { $aggregation = ($aggregation eq "no") ? "day" : $aggregation; # wenn Aggregation "no", für delSeqDoublets immer "day" setzen $IsAggrSet = 1; } if($hash->{LASTCMD} =~ /averageValue/ && AttrVal($name, "averageCalcForm", "avgArithmeticMean") =~ /avgDailyMeanGWS/x) { $aggregation = "day"; # für Tagesmittelwertberechnung des deutschen Wetterdienstes immer "day" $IsAggrSet = 1; } if($hash->{LASTCMD} =~ /^sql|delEntries|fetchrows|deviceRename|readingRename|tableCurrentFillup|reduceLog|\breadingsDifferenceByTimeDelta\b/) { $IsAggrSet = 0; $aggregation = "no"; } if($hash->{LASTCMD} =~ /deviceRename|readingRename/) { $IsTimeSet = 0; } if($hash->{LASTCMD} =~ /changeValue/) { if($hash->{HELPER}{COMPLEX}) { $IsAggrSet = 1; $aggregation = "day"; } else { $IsAggrSet = 0; $aggregation = "no"; } } if($hash->{LASTCMD} =~ /syncStandby/ ) { if($aggregation !~ /minute|hour|day|week/) { $aggregation = "day"; $IsAggrSet = 1; } } return ($IsTimeSet,$IsAggrSet,$aggregation); } #################################################################################################### # ReadingsSingleUpdate für Reading, Value, Event #################################################################################################### sub ReadingsSingleUpdateValue { my $hash = shift; my $reading = shift; my $val = shift; my $ev = shift; my $name = $hash->{NAME}; readingsSingleUpdate($hash, $reading, $val, $ev); readingsBeginUpdate ($hash); DbRep_userexit ($name, $reading, $val); readingsEndUpdate ($hash, 1); DbRep_autoForward ($name, $reading, $val); return; } #################################################################################################### # ReadingsSingleUpdate für Time-Readings #################################################################################################### sub ReadingsSingleUpdateTime { my $hash = shift; my $bpt = shift; my $spt = shift; my $evt = shift; my $name = $hash->{NAME}; if (AttrVal($name, "showproctime", 0)) { if (defined $bpt) { $bpt = sprintf "%.4f", $bpt; readingsSingleUpdate ($hash, "background_processing_time", $bpt, $evt); readingsBeginUpdate ($hash); DbRep_userexit ($name, "background_processing_time", $bpt); readingsEndUpdate ($hash, 1); } if (defined $spt) { $spt = sprintf "%.4f", $spt; readingsSingleUpdate ($hash, "sql_processing_time", $spt, $evt); readingsBeginUpdate ($hash); DbRep_userexit ($name, "sql_processing_time", $spt); readingsEndUpdate ($hash, 1); } } return; } #################################################################################################### # Readingsbulkupdate für Reading, Value # readingsBeginUpdate und readingsEndUpdate muss vor/nach Funktionsaufruf gesetzt werden #################################################################################################### sub ReadingsBulkUpdateValue { my $hash = shift; my $reading = shift; my $val = shift; my $name = $hash->{NAME}; readingsBulkUpdate($hash, $reading, $val); DbRep_userexit ($name, $reading, $val); DbRep_autoForward ($name, $reading, $val); return; } #################################################################################################### # Readingsbulkupdate für processing_time, state # readingsBeginUpdate und readingsEndUpdate muss vor/nach Funktionsaufruf gesetzt werden #################################################################################################### sub ReadingsBulkUpdateTimeState { my $hash = shift; my $brt = shift; my $rt = shift; my $sval = shift; my $name = $hash->{NAME}; if(AttrVal($name, 'showproctime', 0)) { if (defined $brt) { $brt = sprintf "%.4f", $brt; readingsBulkUpdate ($hash, "background_processing_time", $brt); DbRep_userexit ($name, "background_processing_time", $brt); } if (defined $rt) { $rt = sprintf "%.4f", $rt; readingsBulkUpdate ($hash, "sql_processing_time", $rt); DbRep_userexit ($name, "sql_processing_time", $rt); } } readingsBulkUpdate ($hash, "state", $sval); DbRep_userexit ($name, "state", $sval); DbRep_autoForward ($name, "state", $sval); return; } #################################################################################################### # Readingsbulkupdate für processing_time, # readingsBeginUpdate und readingsEndUpdate muss vor/nach Funktionsaufruf gesetzt werden #################################################################################################### sub ReadingsBulkUpdateTime { my $hash = shift; my $bpt = shift; my $spt = shift; my $name = $hash->{NAME}; if(AttrVal($name, 'showproctime', 0)) { if (defined $bpt) { $bpt = sprintf "%.4f", $bpt; readingsBulkUpdate ($hash, "background_processing_time", $bpt); DbRep_userexit ($name, "background_processing_time", $bpt); } if (defined $spt) { $spt = sprintf "%.4f", $spt; readingsBulkUpdate ($hash, "sql_processing_time", $spt); DbRep_userexit ($name, "sql_processing_time", $spt); } } return; } #################################################################################################### # Übertragen von Readings und Ergebniswerten in ein anderes Device # # autoForward Attribut: # # { # " => "" [=> ]", # " => "" [=> ]", # .... # } #################################################################################################### sub DbRep_autoForward { my ($name,$reading,$value) = @_; my $hash = $defs{$name}; my $av = AttrVal($name, "autoForward", ""); my ($sr,$af); return if(!$av); $av =~ m/^\{(.*)\}/s; $av = $1; $av =~ s/["\n]//g; my @a = split ",", $av; $av = "{ "; my $i = 0; for (@a) { $av .= "\"$i\" => \"$_\","; $i++; } $av .= " }"; $af = eval $av; if($@ || ref($af) ne "HASH") { Log3($name, 2, "$name - Values specified in attribute \"autoForward\" are not defined as HASH ... exiting !") if(ref($af) ne "HASH"); Log3($name, 2, "$name - Error while evaluate: ".$@) if($@); return; } for my $key (keys %{$af}) { my ($srr,$ddev,$dr) = split("=>", $af->{$key}); $srr = DbRep_trim($srr) if($srr); $ddev = DbRep_trim($ddev) if($ddev); $dr = DbRep_trim($dr) if($dr); next if(!$ddev); if(!$defs{$ddev}) { # Vorhandensein Destination Device prüfen Log3($name, 2, "$name - WARNING - Forward reading \"$reading\" not possible, device \"$ddev\" doesn't exist"); next; } if(!$srr || $reading !~ /^$srr$/) { # Log3($name, 4, "$name - Reading \"$reading\" doesn't match autoForward-Regex: ".($srr?$srr:"")." - no forward to \"$ddev\" "); next; } eval { $sr = $srr }; $dr = $dr ? $dr : ($sr ne ".*") ? $sr : $reading; # Destination Reading = Source Reading wenn Destination Reading nicht angegeben $dr = makeReadingName($dr); # Destination Readingname validieren / entfernt aus dem übergebenen Readingname alle ungültigen Zeichen und ersetzt diese durch einen Unterstrich "_" Log3($name, 4, "$name - Forward reading \"$reading\" to \"$ddev:$dr\" "); CommandSetReading(undef, "$ddev $dr $value"); } return; } #################################################################################################### # Anzeige von laufenden Blocking Prozessen #################################################################################################### sub DbRep_getblockinginfo { my $hash = shift; my $name = $hash->{NAME}; my @rows; our %BC_hash; my $len = 99; for my $h (values %BC_hash) { next if($h->{terminated} || !$h->{pid}); my @allk = keys%{$h}; for my $k (@allk) { Log3 ($name, 5, "DbRep $name -> $k : ".$h->{$k}); } my $fn = ref($h->{fn}) ? ref($h->{fn}) : $h->{fn}; my $arg = ref($h->{arg}) ? ref($h->{arg}) : $h->{arg}; my $arg1 = substr($arg,0,$len); $arg1 = $arg1."..." if(length($arg) > $len+1); my $to = $h->{timeout} ? $h->{timeout} : "N/A"; my $conn = $h->{telnet} ? $h->{telnet} : "N/A"; push @rows, "$h->{pid}|ESCAPED|$fn|ESCAPED|$arg1|ESCAPED|$to|ESCAPED|$conn"; } readingsBeginUpdate($hash); if(!@rows) { ReadingsBulkUpdateTimeState($hash,undef,undef,"done - No BlockingCall processes running"); readingsEndUpdate($hash, 1); return; } my $res = ""; $res .= ""; $res .= ""; $res .= ""; $res .= ""; $res .= ""; for my $row (@rows) { $row =~ s/\|ESCAPED\|/<\/td>"; } my $tab = $res."
PIDFUNCTIONARGUMENTSTIMEOUTCONNECTEDVIA
/g; $res .= "
".$row."
"; ReadingsBulkUpdateValue ($hash,"BlockingInfo",$tab); ReadingsBulkUpdateValue ($hash,"Blocking_Count",$#rows+1); ReadingsBulkUpdateTimeState($hash,undef,undef,"done"); readingsEndUpdate ($hash, 1); return; } #################################################################################################### # relative Zeitangaben als Sekunden normieren # # liefert die Attribute timeOlderThan, timeDiffToNow als Sekunden normiert zurück #################################################################################################### sub DbRep_normRelTime { my $hash = shift; my $name = $hash->{NAME}; my $tdtn = AttrVal($name, "timeDiffToNow", undef); my $toth = AttrVal($name, "timeOlderThan", undef); my $fdopt = 0; # FullDay Option my ($y,$d,$h,$m,$s,$aval,@a); # evtl. Relativzeiten bei "reduceLog" oder "deleteEntries" berücksichtigen @a = @{$hash->{HELPER}{REDUCELOG}} if($hash->{HELPER}{REDUCELOG}); @a = @{$hash->{HELPER}{DELENTRIES}} if($hash->{HELPER}{DELENTRIES}); for my $ey (@a) { if($ey =~ /\b(\d+(:\d+)?)\b/) { my ($od,$nd) = split ":", $1; # $od - Tage älter als , $nd - Tage neuer als, $toth = "d:$od FullDay" if($od); # FullDay Option damit der ganze Tag berücksichtigt wird $tdtn = "d:$nd FullDay" if($nd); } } if($tdtn && $tdtn =~ /^\s*[ydhms]:(([\d]+.[\d]+)|[\d]+)\s*/) { $aval = $tdtn; if($tdtn =~ /.*y:(([\d]+.[\d]+)|[\d]+).*/) { $y = $tdtn; $y =~ s/.*y:(([\d]+.[\d]+)|[\d]+).*/$1/e; } if($tdtn =~ /.*d:(([\d]+.[\d]+)|[\d]+).*/) { $d = $tdtn; $d =~ s/.*d:(([\d]+.[\d]+)|[\d]+).*/$1/e; } if($tdtn =~ /.*h:(([\d]+.[\d]+)|[\d]+).*/) { $h = $tdtn; $h =~ s/.*h:(([\d]+.[\d]+)|[\d]+).*/$1/e; } if($tdtn =~ /.*m:(([\d]+.[\d]+)|[\d]+).*/) { $m = $tdtn; $m =~ s/.*m:(([\d]+.[\d]+)|[\d]+).*/$1/e; } if($tdtn =~ /.*s:(([\d]+.[\d]+)|[\d]+).*/) { $s = $tdtn; $s =~ s/.*s:(([\d]+.[\d]+)|[\d]+).*/$1/e ; } no warnings 'uninitialized'; Log3($name, 4, "DbRep $name - timeDiffToNow - year: $y, day: $d, hour: $h, min: $m, sec: $s"); use warnings; $y = $y?($y*365*86400):0; $d = $d?($d*86400):0; $h = $h?($h*3600):0; $m = $m?($m*60):0; $s = $s?$s:0; $tdtn = $y + $d + $h + $m + $s + 1; # one security second for correct create TimeArray $tdtn = DbRep_corrRelTime($name,$tdtn,1); $fdopt = ($aval =~ /FullDay/x && $tdtn >= 86400) ? 1 : 0; # ist FullDay Option gesetzt UND Zeitdiff >= 1 Tag ? } if($toth && $toth =~ /^\s*[ydhms]:(([\d]+.[\d]+)|[\d]+)\s*/) { $aval = $toth; if($toth =~ /.*y:(([\d]+.[\d]+)|[\d]+).*/) { $y = $toth; $y =~ s/.*y:(([\d]+.[\d]+)|[\d]+).*/$1/e; } if($toth =~ /.*d:(([\d]+.[\d]+)|[\d]+).*/) { $d = $toth; $d =~ s/.*d:(([\d]+.[\d]+)|[\d]+).*/$1/e; } if($toth =~ /.*h:(([\d]+.[\d]+)|[\d]+).*/) { $h = $toth; $h =~ s/.*h:(([\d]+.[\d]+)|[\d]+).*/$1/e; } if($toth =~ /.*m:(([\d]+.[\d]+)|[\d]+).*/) { $m = $toth; $m =~ s/.*m:(([\d]+.[\d]+)|[\d]+).*/$1/e; } if($toth =~ /.*s:(([\d]+.[\d]+)|[\d]+).*/) { $s = $toth; $s =~ s/.*s:(([\d]+.[\d]+)|[\d]+).*/$1/e ; } no warnings 'uninitialized'; Log3($name, 4, "DbRep $name - timeOlderThan - year: $y, day: $d, hour: $h, min: $m, sec: $s"); use warnings; $y = $y ? ($y*365*86400) : 0; $d = $d ? ($d*86400) : 0; $h = $h ? ($h*3600) : 0; $m = $m ? ($m*60) : 0; $s = $s ? $s : 0; $toth = $y + $d + $h + $m + $s + 1; # one security second for correct create TimeArray $toth = DbRep_corrRelTime($name,$toth,0); $fdopt = ($aval =~ /FullDay/x && $toth >= 86400) ? 1 : 0; # ist FullDay Option gesetzt UND Zeitdiff >= 1 Tag ? } $fdopt = 1 if($hash->{LASTCMD} =~ /reduceLog.*=day/x); # reduceLog -> FullDay Option damit der ganze Tag berücksichtigt wird Log3($name, 4, "DbRep $name - FullDay option: $fdopt"); return ($toth,$tdtn,$fdopt); } #################################################################################################### # Korrektur Schaltjahr und Sommer/Winterzeit bei relativen Zeitangaben #################################################################################################### sub DbRep_corrRelTime { my ($name,$tim,$tdtn) = @_; my $hash = $defs{$name}; # year als Jahre seit 1900 # $mon als 0..11 my ($sec,$min,$hour,$mday,$mon,$year,$wday,$yday,$isdst); my ($dsec,$dmin,$dhour,$dmday,$dmon,$dyear,$dwday,$dyday,$disdst,$fyear,$cyear); (undef,undef,undef,undef,undef,$cyear,undef,undef,$isdst) = localtime(time); # aktuelles Jahr, Sommer/Winterzeit if($tdtn) { # timeDiffToNow ($sec,$min,$hour,$mday,$mon,$year,$wday,$yday,undef) = localtime(time); # Istzeit ($dsec,$dmin,$dhour,$dmday,$dmon,$dyear,$dwday,$dyday,$disdst) = localtime(time-$tim); # Istzeit abzgl. Differenzzeit = Selektionsbeginnzeit } else { # timeOlderThan ($sec,$min,$hour,$mday,$mon,$year,$wday,$yday,$disdst) = localtime(time-$tim); # Berechnung Selektionsendezeit my $mints = $hash->{HELPER}{MINTS}?$hash->{HELPER}{MINTS}:"1970-01-01 01:00:00"; # Selektionsstartzeit my ($yyyy1, $mm1, $dd1, $hh1, $min1, $sec1) = ($mints =~ /(\d+)-(\d+)-(\d+) (\d+):(\d+):(\d+)/); my $tsend = timelocal($sec1, $min1, $hh1, $dd1, $mm1-1, $yyyy1-1900); ($dsec,$dmin,$dhour,$dmday,$dmon,$dyear,$dwday,$dyday,undef) = localtime($tsend); # Timestamp Selektionsstartzeit } $year += 1900; # aktuelles Jahr $dyear += 1900; # Startjahr der Selektion $cyear += 1900; # aktuelles Jahr if($tdtn) { # timeDiffToNow $fyear = $dyear; # Berechnungsjahr -> hier Selektionsbeginn } else { # timeOlderThan $fyear = $year; # Berechnungsjahr -> hier Selektionsende } my $k = $cyear - $fyear; # Anzahl Jahre my $mg = ((int($mon)+1)+(($k-1)*12)+(11-int($dmon)+1)); # Gesamtzahl der Monate des Bewertungszeitraumes my $cly = 0; # Anzahl Schaltjahre innerhalb Beginn und Ende Auswertungszeitraum my $fly = 0; # erstes Schaltjahr nach Start my $lly = 0; # letzes Schaltjahr nach Start while ($fyear+$k >= $fyear) { my $ily = DbRep_IsLeapYear($name,$fyear+$k); $cly++ if($ily); $fly = $fyear+$k if($ily && !$fly); $lly = $fyear+$k if($ily); $k--; } if( $mon > 1 && ($lly > $fyear || ($lly = $fyear && $dmon < 1)) ) { $tim += $cly*86400; } else { $tim += ($cly-1)*86400 if($cly); } # Sommer/Winterzeitkorrektur (undef,undef,undef,undef,undef,undef,undef,undef,$disdst) = localtime(time-$tim); $tim += ($disdst-$isdst)*3600 if($disdst != $isdst); Log3($name, 4, "DbRep $name - startMonth: $dmon endMonth: $mon lastleapyear: $lly baseYear: $fyear diffdaylight:$disdst isdaylight:$isdst"); return $tim; } #################################################################################################### # liefert zurück ob übergebenes Jahr ein Schaltjahr ist ($ily = 1) # # Es gilt: # - Wenn ein Jahr durch 4 teilbar ist, ist es ein Schaltjahr, aber # - wenn es durch 100 teilbar ist, ist es kein schaltjahr, außer # - es ist durch 400 teilbar, dann ist es ein schaltjahr # #################################################################################################### sub DbRep_IsLeapYear { my ($name,$year) = @_; my $ily = 0; if ($year % 4 == 0 && $year % 100 != 0 || $year % 400 == 0) { # $year modulo 4 -> muß 0 sein $ily = 1; } Log3($name, 4, "DbRep $name - Year $year is leap year") if($ily); return $ily; } ############################################################################### # Zeichencodierung für Fileexport filtern ############################################################################### sub DbRep_charfilter { my ($txt) = @_; # nur erwünschte Zeichen, Filtern von Steuerzeichen $txt =~ s/\xb0/1degree1/g; $txt =~ s/\xC2//g; $txt =~ tr/ A-Za-z0-9!"#$§%&'()*+,-.\/:;<=>?@[\\]^_`{|}~äöüÄÖÜ߀//cd; $txt =~ s/1degree1/°/g; return ($txt); } ################################################################################### # Befehl vor Procedure ausführen ################################################################################### sub DbRep_beforeproc { my $hash = shift; my $cmd = shift // q{process}; my $name = $hash->{NAME}; my $fn = AttrVal($name, 'executeBeforeProc', ''); if($fn) { Log3 ($name, 3, "DbRep $name - execute command before $cmd: '$fn' "); my $err = _DbRep_procCode ($hash, $fn); if ($err) { Log3 ($name, 2, "DbRep $name - command message before $cmd: \"$err\" "); my $erread = "Warning - message from command before $cmd appeared"; ReadingsSingleUpdateValue ($hash, "before_".$cmd."_message", $err, 1); ReadingsSingleUpdateValue ($hash, "state", $erread, 1); } } return; } ################################################################################### # Befehl nach Procedure ausführen ################################################################################### sub DbRep_afterproc { my $hash = shift; my $cmd = shift // q{process}; my $bfile = shift // q{}; my ($err,$erread); my $name = $hash->{NAME}; $cmd = (split " ", $cmd)[0]; my $sval = ReadingsVal ($name, 'state', ''); my $fn = AttrVal ($name, 'executeAfterProc', ''); if($fn) { Log3 ($name, 3, "DbRep $name - execute command after $cmd: '$fn' "); $err = _DbRep_procCode ($hash, $fn); if ($err) { Log3 ($name, 2, qq{DbRep $name - command message after $cmd: >$err<}); $erread = $sval eq 'error' ? $sval : qq(WARNING - $cmd finished, but message after command appeared); ReadingsSingleUpdateValue ($hash, 'after_'.$cmd.'_message', $err, 1); ReadingsSingleUpdateValue ($hash, 'state', $erread, 1); return $erread; } } return '' if($sval && $sval !~ /running/xs); my $rtxt = $cmd eq "dump" ? "Database backup finished" : $cmd eq "repair" ? "Repair finished $hash->{DATABASE}" : $cmd eq "restore" ? "Restore of $bfile finished" : $cmd eq "reduceLog" ? "reduceLog of $hash->{DATABASE} finished" : $cmd eq "optimize" ? "optimize tables finished" : "done"; ReadingsSingleUpdateValue ($hash, 'state', $rtxt, 1); return ''; } ################################################################################### # Befehl oder Code prozessieren ################################################################################### sub _DbRep_procCode { my $hash = shift; my $fn = shift; my $err = q{}; my $name = $hash->{NAME}; $fn =~ s/\s*#.*//g; # Kommentare entfernen $fn = join ' ', split /\s+/sx, $fn; # Funktion serialisieren if ($fn =~ m/^\s*(\{.*\})\s*$/xs) { # unnamed Funktion direkt mit {...} $fn = $1; eval $fn; if ($@) { $err = $@; } } else { $err = AnalyzeCommandChain (undef, $fn); } return $err; } ############################################################################################## # timestamp_begin, timestamp_end bei Einsatz datetime-Picker entsprechend # den Anforderungen formatieren ############################################################################################## sub DbRep_formatpicker { my ($str) = @_; if ($str =~ /^(\d{4})-(\d{2})-(\d{2})_(\d{2}):(\d{2})$/) { # Anpassung für datetime-Picker Widget $str =~ s/_/ /; $str = $str.":00"; } if ($str =~ /^(\d{4})-(\d{2})-(\d{2})_(\d{2}):(\d{2}):(\d{2})$/) { # Anpassung für datetime-Picker Widget $str =~ s/_/ /; } return $str; } #################################################################################################### # userexit - Funktion um userspezifische Programmaufrufe nach Aktualisierung eines Readings # zu ermöglichen, arbeitet OHNE Event abhängig vom Attr userExitFn #################################################################################################### sub DbRep_userexit { my $name = shift; my $reading = shift // ""; my $value = shift // ""; my $uefn = AttrVal($name, "userExitFn", ""); return if(!$uefn); $uefn =~ s/\s*#.*//g; # Kommentare entfernen my $r; my $hash = $defs{$name}; $value =~ s/\\/\\\\/g; # escapen of chars for evaluation $value =~ s/'/\\'/g; $uefn = join ' ', split(/\s+/sx, $uefn); # Funktion aus Attr userExitFn serialisieren if ($uefn =~ m/^\s*(\{.*\})\s*$/xs) { # unnamed Funktion direkt in userExitFn mit {...} $uefn = $1; my $NAME = $name; my $READING = $reading; my $VALUE = $value; eval $uefn; if ($@) { Log3 ($name, 1, "DbRep $name - ERROR in specific userExitFn: ".$@); } } else { # Aufruf mit Funktionsname my ($fun,$rex) = split / /, $uefn, 2; $rex //= '.*:.*'; if ("$reading:$value" =~ m/^$rex$/) { my $cmd = $fun."('$name','$reading','$value')"; $cmd = "{".$cmd."}"; $r = AnalyzeCommandChain(undef, $cmd); } } return; } #################################################################################################### # delete Readings before new operation # Readings löschen die nicht in der Ausnahmeliste (Attr readingPreventFromDel) stehen #################################################################################################### sub DbRep_delread { my ($hash,$shutdown) = @_; my $name = $hash->{NAME}; my @allrds = keys%{$defs{$name}{READINGS}}; my $featurelevel = AttrVal("global","featurelevel",99.99); if($shutdown) { my $do = 0; for my $key(@allrds) { # Highlighted Readings löschen und save statefile wegen Inkompatibilitär beim Restart if($key =~ / 5.9 && !goodReadingName($key)) { # Reading löschen wenn Featuelevel > 5.9 und zu lang nach der neuen Festlegung $do = 1; readingsDelete($hash,$key); } } WriteStatefile() if($do == 1); return; } my @rdpfdel; @rdpfdel = split(",", $hash->{HELPER}{RDPFDEL}) if($hash->{HELPER}{RDPFDEL}); if(@rdpfdel) { for my $key(@allrds) { my $dodel = 1; for my $rdpfdel(@rdpfdel) { if($key =~ /$rdpfdel/ || $key =~ /\bstate\b|\bassociatedWith\b/) { $dodel = 0; } } if($dodel) { # delete($defs{$name}{READINGS}{$key}); readingsDelete($hash,$key); } } } else { for my $key(@allrds) { # delete($defs{$name}{READINGS}{$key}) if($key ne "state"); next if($key =~ /\bstate\b|\bassociatedWith\b/); readingsDelete($hash,$key); } } return; } #################################################################################################### # erstellen neues SQL-File für Dumproutine #################################################################################################### sub DbRep_NewDumpFilename { my ($sql_text,$dump_path,$dbname,$time_stamp,$character_set) = @_; my $part = ""; my $sql_file = $dump_path.$dbname."_".$time_stamp.$part.".sql"; my $backupfile = $dbname."_".$time_stamp.$part.".sql"; $sql_text .= "/*!40101 SET NAMES '".$character_set."' */;\n"; $sql_text .= "SET FOREIGN_KEY_CHECKS=0;\n"; my ($err, $filesize) = DbRep_WriteToDumpFile($sql_text, $sql_file); return $err if($err); chmod(0777, $sql_file); $sql_text = ""; my $first_insert = 0; return ($err, $sql_text, $first_insert, $sql_file, $backupfile); } #################################################################################################### # Schreiben DB-Dumps in SQL-File #################################################################################################### sub DbRep_WriteToDumpFile { my $inh = shift; my $sql_file = shift; my $filesize; my $err = ''; if(length($inh) > 0) { my $fh; unless (open $fh,">>$sql_file") { $err = "Can't open file '$sql_file' for write access"; return ($err); } binmode($fh); print $fh $inh; close $fh; my $fref = stat($sql_file); if ($fref =~ /ARRAY/) { $filesize = (@{stat($sql_file)})[7]; } else { $filesize = (stat($sql_file))[7]; } } return ($err, $filesize); } ###################################################################################### # Username / Paßwort speichern # $cre = "adminCredentials" -> Credentials für Datenbank root-Zugriff ###################################################################################### sub DbRep_setcredentials { my ($hash, $cre, @credentials) = @_; my $name = $hash->{NAME}; my ($success, $credstr, $index, $retcode,$username,$passwd); my (@key,$len,$i); $credstr = encode_base64(join(':', @credentials)); # Beginn Scramble-Routine @key = qw(1 3 4 5 6 3 2 1 9); $len = scalar @key; $i = 0; $credstr = join "", map { $i = ($i + 1) % $len; chr((ord($_) + $key[$i]) % 256) } split //, $credstr; # End Scramble-Routine $index = $hash->{TYPE}."_".$hash->{NAME}."_".$cre; $retcode = setKeyValue($index, $credstr); if ($retcode) { Log3($name, 2, "$name - Error while saving the Credentials - $retcode"); $success = 0; } else { ($success, $username, $passwd) = DbRep_getcredentials($hash,$cre); } return ($success); } ###################################################################################### # Username / Paßwort abrufen # $cre = "adminCredentials" -> Credentials für Datenbank root-Zugriff ###################################################################################### sub DbRep_getcredentials { my ($hash, $cre) = @_; my $name = $hash->{NAME}; my ($success, $username, $passwd, $index, $retcode, $credstr); my (@key,$len,$i); $index = $hash->{TYPE}."_".$hash->{NAME}."_".$cre; ($retcode, $credstr) = getKeyValue($index); if ($retcode) { Log3($name, 2, "DbRep $name - Unable to read password from file: $retcode"); $success = 0; } if($credstr) { # Beginn Descramble-Routine @key = qw(1 3 4 5 6 3 2 1 9); $len = scalar @key; $i = 0; $credstr = join "", map { $i = ($i + 1) % $len; chr((ord($_) - $key[$i] + 256) % 256) } split //, $credstr; # Ende Descramble-Routine ($username, $passwd) = split(":",decode_base64($credstr)); Log3($name, 4, "DbRep $name - $cre successfully read from file"); } else { Log3($name, 2, "DbRep $name - ERROR - $cre not set. Use \"set $name adminCredentials\" first."); } $success = (defined($passwd)) ? 1 : 0; return ($success, $username, $passwd); } #################################################################################################### # anlegen Keyvalue-File für DbRep wenn nicht vorhanden #################################################################################################### sub DbRep_createCmdFile { my $hash = shift; my $param = { FileName => $dbrep_fName, #ForceType => "file", }; my @new; push(@new, "# This file is auto generated from 93_DbRep.pm", "# Please do not modify, move or delete it.", ""); return FileWrite($param, @new); } #################################################################################################### # Schreibroutine in DbRep Keyvalue-File #################################################################################################### sub DbRep_setCmdFile { my ($key,$value,$hash) = @_; my $param = { FileName => $dbrep_fName, #ForceType => "file", }; my ($err, @old) = FileRead($param); DbRep_createCmdFile($hash) if($err); my @new; my $fnd; for my $l (@old) { if($l =~ m/^$key:/) { $fnd = 1; push @new, "$key:$value" if(defined($value)); } else { push @new, $l; } } push @new, "$key:$value" if(!$fnd && defined($value)); $err = FileWrite($param, @new); return $err; } #################################################################################################### # Leseroutine aus DbRep Keyvalue-File #################################################################################################### sub DbRep_getCmdFile { my $key = shift; my $param = { FileName => $dbrep_fName, #ForceType => "file", }; my ($err, @l) = FileRead($param); return ($err, '') if($err); for my $line (@l) { return ('', $line) if($line =~ m/^$key:(.*)/); } return; } #################################################################################################### # SQL Cache für sqlCmd History aus RAM löschen #################################################################################################### sub DbRep_deleteSQLcmdCache { my $name = shift; delete $data{DbRep}{$name}{sqlcache}; $data{DbRep}{$name}{sqlcache}{index} = 0; # SQL-CommandHistory CacheIndex return; } #################################################################################################### # SQL Cache für sqlCmd History aus File löschen #################################################################################################### sub DbRep_deleteSQLhistFromFile { my $name = shift; my $key = $name."_sqlCmdList"; my ($err, @old) = FileRead($dbrep_fName); my @new; if(!$err) { for my $l (@old) { if($l =~ m/^$key:/) { next; } else { push @new, $l; } } FileWrite($dbrep_fName, @new); } return; } #################################################################################################### # SQL Cache für sqlCmd History initialisieren #################################################################################################### sub DbRep_initSQLcmdCache { my $name = shift; my $hash = $defs{$name}; RemoveInternalTimer ($name, "DbRep_initSQLcmdCache"); if (!$init_done) { InternalTimer(time+1, "DbRep_initSQLcmdCache", $name, 0); return; } DbRep_deleteSQLcmdCache ($name); my ($err,$hl) = DbRep_getCmdFile($name."_sqlCmdList"); my $count = 0; if($hl) { $hl = (split ":", $hl, 2)[1]; my @cmds = split ",", $hl; for my $elem (@cmds) { $elem = _DbRep_deconvertSQL ($elem); _DbRep_insertSQLtoCache ($name, $elem); $count++; } Log3 ($name, 4, qq{DbRep $name - SQL history restored from Cache file - count: $count}) if($count); } return $count; } #################################################################################################### # sqlCmd zur SQL Cache History hinzufügen # Drop-Down Liste bisherige sqlCmd-Befehle füllen und in Key-File sichern #################################################################################################### sub DbRep_addSQLcmdCache { my $name = shift; my $hash = $defs{$name}; my $tmpsql = delete $data{DbRep}{$name}{sqlcache}{temp}; # SQL incl. Formatierung aus Zwischenspeicher return if(!$tmpsql); my $doIns = 1; while (my ($key, $value) = each %{$data{DbRep}{$name}{sqlcache}{cmd}}) { if ($tmpsql eq $value) { $doIns = 0; last; } } if($doIns) { _DbRep_insertSQLtoCache ($name, $tmpsql); } return; } #################################################################################################### # SQL Cache listen # $write: 0 - listen für Anzeige bzw. Drop-Down Liste # 1 - erzeuge Liste zum Schreiben in Cache File #################################################################################################### sub DbRep_listSQLcmdCache { my $name = shift; my $write = shift // 0; my $cache; my $cstr = q{}; for my $key (sort{$b<=>$a} keys %{$data{DbRep}{$name}{sqlcache}{cmd}}) { $cache .= $key." => ".$data{DbRep}{$name}{sqlcache}{cmd}{$key}."\n"; if ($write) { $cstr .= $key."|=>|"._DbRep_convertSQL ($data{DbRep}{$name}{sqlcache}{cmd}{$key}, 1).","; } else { $cstr .= _DbRep_convertSQL ($data{DbRep}{$name}{sqlcache}{cmd}{$key}).","; } } return ($cache,$cstr); } #################################################################################################### # SQL Cache History einen Eintrag einfügen #################################################################################################### sub _DbRep_insertSQLtoCache { my $name = shift; my $cmd = shift; if ($cmd =~ /\|=\>\|/xs) { my ($k,$v) = split /\|=\>\|/, $cmd, 2; $data{DbRep}{$name}{sqlcache}{cmd}{$k} = $v; $data{DbRep}{$name}{sqlcache}{index} = $k if($k > $data{DbRep}{$name}{sqlcache}{index}); } else { $data{DbRep}{$name}{sqlcache}{index}++; my $index = $data{DbRep}{$name}{sqlcache}{index}; $data{DbRep}{$name}{sqlcache}{cmd}{$index} = $cmd; } return if(!$init_done); # nicht beim initialen Laden ausführen my $hlc = AttrVal($name, "sqlCmdHistoryLength", 0); # Anzahl der Einträge in Drop-Down Liste my $ck = scalar keys %{$data{DbRep}{$name}{sqlcache}{cmd}}; # Anzahl Paare im SQL Cache if ($ck > $hlc) { my $ey = 0; for my $key (sort{$b<=>$a} keys %{$data{DbRep}{$name}{sqlcache}{cmd}}) { $ey++; delete $data{DbRep}{$name}{sqlcache}{cmd}{$key} if($ey > $hlc); } } return; } #################################################################################################### # SQL Cache History speichern #################################################################################################### sub DbRep_writeSQLcmdCache { my $hash = shift; my $name = $hash->{NAME}; my (undef, $cstr) = DbRep_listSQLcmdCache ($name, 1); my $err = DbRep_setCmdFile($name."_sqlCmdList", $cstr, $hash); return $err; } #################################################################################################### # SQL Statement konvertieren # $write - setzen für Schreiben Cache File #################################################################################################### sub _DbRep_convertSQL { my $cmd = shift; my $write = shift // 0; if($write) { $cmd =~ s/\n/*/g; $cmd =~ s/\s/ /g; } $cmd =~ s/\s+/ /g; $cmd =~ s/,/,/g; # Forum: https://forum.fhem.de/index.php/topic,103908.0.html $cmd =~ s/, /,/g; return $cmd; } #################################################################################################### # SQL Statement de-konvertieren #################################################################################################### sub _DbRep_deconvertSQL { my $cmd = shift; $cmd =~ s/*/\n/g; $cmd =~ s/ / /g; $cmd =~ s/,/,/g; # Forum: https://forum.fhem.de/index.php/topic,103908.0.html return $cmd; } #################################################################################################### # Dump-Files im dumpDirLocal löschen bis auf die letzten "n" #################################################################################################### sub DbRep_deldumpfiles { my ($hash,$bfile) = @_; my $name = $hash->{NAME}; my $dbloghash = $defs{$hash->{HELPER}{DBLOGDEVICE}}; my $dump_path_loc = AttrVal($name, "dumpDirLocal", $dbrep_dump_path_def); $dump_path_loc = $dump_path_loc."/" unless($dump_path_loc =~ m/\/$/); my $dfk = AttrVal($name, "dumpFilesKeep", 3); my $pfix = (split '\.', $bfile)[1]; my $dbname = (split '_', $bfile)[0]; my $file = $dbname."_.*".$pfix.".*"; # Files mit/ohne Endung "gzip" berücksichtigen my @fd; if(!opendir(DH, $dump_path_loc)) { push(@fd, "No files deleted - Can't open path '$dump_path_loc'"); return @fd; } my @files = sort grep {/^$file$/} readdir(DH); my $fref = stat("$dump_path_loc/$bfile"); if($fref) { if ($fref =~ /ARRAY/) { @files = sort { (@{stat("$dump_path_loc/$a")})[9] cmp (@{stat("$dump_path_loc/$b")})[9] } @files if(AttrVal("global", "archivesort", "alphanum") eq "timestamp"); } else { @files = sort { (stat("$dump_path_loc/$a"))[9] cmp (stat("$dump_path_loc/$b"))[9] } @files if(AttrVal("global", "archivesort", "alphanum") eq "timestamp"); } } closedir(DH); Log3($name, 5, "DbRep $name - Dump files have been found in dumpDirLocal '$dump_path_loc': ".join(', ',@files) ); my $max = int(@files)-$dfk; for(my $i = 0; $i < $max; $i++) { push(@fd, $files[$i]); Log3($name, 3, "DbRep $name - Deleting old dumpfile '$files[$i]' "); unlink("$dump_path_loc/$files[$i]"); } return @fd; } #################################################################################################### # Dumpfile komprimieren # Rückgabe $GzipError: zip-Fehler # # $fsBytes: Filegröße in Bytes #################################################################################################### sub DbRep_dumpCompress { my $hash = shift; my $bfile = shift; my $name = $hash->{NAME}; my $dump_path_loc = AttrVal($name, "dumpDirLocal", $dbrep_dump_path_def); $dump_path_loc =~ s/(\/$|\\$)//; my $input = $dump_path_loc."/".$bfile; my $output = $dump_path_loc."/".$bfile.".gzip"; my $fsBytes = ''; Log3($name, 3, "DbRep $name - compress file $input"); my $stat = gzip $input => $output ,BinModeIn => 1; if($GzipError) { Log3($name, 2, "DbRep $name - gzip of $input failed: $GzipError"); $fsBytes = _DbRep_fsizeInBytes ($input); return ($GzipError, $input, $fsBytes); } Log3($name, 3, "DbRep $name - file compressed to output file: $output"); $fsBytes = _DbRep_fsizeInBytes ($output); my $fsize = _DbRep_byteOutput ($fsBytes); Log3 ($name, 3, "DbRep $name - Size of compressed file: ".$fsize); unlink("$input"); Log3($name, 3, "DbRep $name - input file deleted: $input"); return ('', $bfile.".gzip", $fsBytes); } #################################################################################################### # Dumpfile dekomprimieren #################################################################################################### sub DbRep_dumpUnCompress { my ($hash,$bfile) = @_; my $name = $hash->{NAME}; my $dump_path_loc = AttrVal($name, "dumpDirLocal", $dbrep_dump_path_def); $dump_path_loc =~ s/(\/$|\\$)//; my $input = $dump_path_loc."/".$bfile; my $outfile = $bfile; $outfile =~ s/\.gzip//; my $output = $dump_path_loc."/".$outfile; Log3($name, 3, "DbRep $name - uncompress file $input"); my $stat = gunzip $input => $output ,BinModeOut => 1; if($GunzipError) { Log3($name, 2, "DbRep $name - gunzip of $input failed: $GunzipError"); return ($GunzipError,$input); } Log3($name, 3, "DbRep $name - file uncompressed to output file: $output"); my $fsBytes = _DbRep_fsizeInBytes ($output); my $fsize = _DbRep_byteOutput ($fsBytes); Log3 ($name, 3, "DbRep $name - Size of uncompressed file: ".$fsize); return (undef,$outfile); } #################################################################################################### # Größe File in Bytes ermitteln #################################################################################################### sub _DbRep_fsizeInBytes { my $file = shift // return; my $fs; my $fref = stat($file); return '' if(!$fref); if ($fref =~ /ARRAY/) { $fs = (@{stat($file)})[7]; } else { $fs = (stat($file))[7]; } $fs //= ''; return ($fs); } #################################################################################################### # Filesize (Byte) umwandeln in KB bzw. MB #################################################################################################### sub _DbRep_byteOutput { my $bytes = shift; return '' if(!defined($bytes)); return $bytes if(!looks_like_number($bytes)); my $suffix = q{}; if ($bytes >= 1048576) { $suffix = "MB"; $bytes = $bytes/1048576; } elsif ($bytes >= 1024) { $suffix = "KB"; $bytes = $bytes/1024; } else { $suffix = "Bytes"; } my $ret = sprintf "%.2f", $bytes; $ret .=' '.$suffix; return $ret; } #################################################################################################### # erzeugtes Dump-File aus dumpDirLocal zum FTP-Server übertragen #################################################################################################### sub DbRep_sendftp { my ($hash,$bfile) = @_; my $name = $hash->{NAME}; my $dump_path_loc = AttrVal($name,"dumpDirLocal", $dbrep_dump_path_def); my $file = (split /[\/]/, $bfile)[-1]; my $ftpto = AttrVal($name,"ftpTimeout",30); my $ftpUse = AttrVal($name,"ftpUse",0); my $ftpuseSSL = AttrVal($name,"ftpUseSSL",0); my $ftpDir = AttrVal($name,"ftpDir","/"); my $ftpPort = AttrVal($name,"ftpPort",21); my $ftpServer = AttrVal($name,"ftpServer",undef); my $ftpUser = AttrVal($name,"ftpUser","anonymous"); my $ftpPwd = AttrVal($name,"ftpPwd",undef); my $ftpPassive = AttrVal($name,"ftpPassive",0); my $ftpDebug = AttrVal($name,"ftpDebug",0); my $fdfk = AttrVal($name,"ftpDumpFilesKeep", 3); my $pfix = (split '\.', $bfile)[1]; my $dbname = (split '_', $bfile)[0]; my $ftpl = $dbname."_.*".$pfix.".*"; # Files mit/ohne Endung "gzip" berücksichtigen my ($ftperr,$ftpmsg,$ftp); # kein FTP verwenden oder möglich return ($ftperr,$ftpmsg) if((!$ftpUse && !$ftpuseSSL) || !$bfile); if(!$ftpServer) { $ftperr = "FTP-Error: FTP-Server isn't set."; Log3($name, 2, "DbRep $name - $ftperr"); return ($ftperr,undef); } if(!opendir(DH, $dump_path_loc)) { $ftperr = "FTP-Error: Can't open path '$dump_path_loc'"; Log3($name, 2, "DbRep $name - $ftperr"); return ($ftperr,undef); } my $mod_ftpssl = 0; my $mod_ftp = 0; my $mod; if ($ftpuseSSL) { # FTP mit SSL soll genutzt werden $mod = "Net::FTPSSL => e.g. with 'sudo cpan -i Net::FTPSSL' "; eval { require Net::FTPSSL; }; if(!$@){ $mod_ftpssl = 1; import Net::FTPSSL; } } else { # nur FTP $mod = "Net::FTP"; eval { require Net::FTP; }; if(!$@){ $mod_ftp = 1; import Net::FTP; } } if ($ftpuseSSL && $mod_ftpssl) { # use ftp-ssl my $enc = "E"; eval { $ftp = Net::FTPSSL->new($ftpServer, Port => $ftpPort, Timeout => $ftpto, Debug => $ftpDebug, Encryption => $enc) } or $ftperr = "FTP-SSL-ERROR: Can't connect - $@"; } elsif (!$ftpuseSSL && $mod_ftp) { # use plain ftp eval { $ftp = Net::FTP->new($ftpServer, Port => $ftpPort, Timeout => $ftpto, Debug => $ftpDebug, Passive => $ftpPassive) } or $ftperr = "FTP-Error: Can't connect - $@"; } else { $ftperr = "FTP-Error: required module couldn't be loaded. You have to install it first: $mod."; } if ($ftperr) { Log3($name, 2, "DbRep $name - $ftperr"); return ($ftperr,undef); } my $pwdstr = $ftpPwd?$ftpPwd:" "; $ftp->login($ftpUser, $ftpPwd) or $ftperr = "FTP-Error: Couldn't login with user '$ftpUser' and password '$pwdstr' "; if ($ftperr) { Log3($name, 2, "DbRep $name - $ftperr"); return ($ftperr,undef); } $ftp->binary(); # FTP Verzeichnis setzen $ftp->cwd($ftpDir) or $ftperr = "FTP-Error: Couldn't change directory to '$ftpDir' "; if ($ftperr) { Log3($name, 2, "DbRep $name - $ftperr"); return ($ftperr,undef); } $dump_path_loc =~ s/(\/$|\\$)//; Log3($name, 3, "DbRep $name - FTP: transferring ".$dump_path_loc."/".$file); $ftpmsg = $ftp->put($dump_path_loc."/".$file); if (!$ftpmsg) { $ftperr = "FTP-Error: Couldn't transfer ".$file." to ".$ftpServer." into dir ".$ftpDir; Log3($name, 2, "DbRep $name - $ftperr"); } else { $ftpmsg = "FTP: ".$file." transferred successfully to ".$ftpServer." into dir ".$ftpDir; Log3($name, 3, "DbRep $name - $ftpmsg"); } # Versionsverwaltung FTP-Verzeichnis my (@ftl,@ftpfd); if($ftpuseSSL) { @ftl = sort grep {/^$ftpl$/} $ftp->nlst(); } else { @ftl = sort grep {/^$ftpl$/} @{$ftp->ls()}; } Log3($name, 5, "DbRep $name - FTP: filelist of \"$ftpDir\": @ftl"); my $max = int(@ftl)-$fdfk; for(my $i = 0; $i < $max; $i++) { push(@ftpfd, $ftl[$i]); Log3($name, 3, "DbRep $name - FTP: deleting old dumpfile '$ftl[$i]' "); $ftp->delete($ftl[$i]); } return ($ftperr,$ftpmsg,@ftpfd); } #################################################################################################### # Test auf Daylight saving time #################################################################################################### sub DbRep_dsttest { my $hash = shift; my $runtime = shift; my $aggsec = shift; my $name = $hash->{NAME}; my $dstchange = 0; # der Wechsel der daylight saving time wird dadurch getestet, dass geprüft wird # ob im Vergleich der aktuellen zur nächsten Selektionsperiode von "$aggsec (day, week, month)" # ein Wechsel der daylight saving time vorliegt my $dst = (localtime($runtime))[8]; # ermitteln daylight saving aktuelle runtime my $ostr = localtime ($runtime); my $nstr = localtime ($runtime + $aggsec); # textual time representation my $dst_new = (localtime($runtime + $aggsec))[8]; # ermitteln daylight saving nächste runtime if ($dst != $dst_new) { $dstchange = 1; } Log3 ($name, 5, qq{DbRep $name - Daylight savings changed: $dstchange (from "$ostr" to "$nstr")}); return $dstchange; } #################################################################################################### # Counthash Untersuchung # Logausgabe der Anzahl verarbeiteter Datensätze pro Zeitraum / Aggregation # Rückgabe eines ncp-hash (no calc in period) mit den Perioden für die keine Differenz berechnet # werden konnte weil nur ein Datensatz in der Periode zur Verfügung stand #################################################################################################### sub DbRep_calcount { my ($hash,$ch) = @_; my $name = $hash->{NAME}; my %ncp = (); Log3 ($name, 4, "DbRep $name - count of values used for calc:"); for my $key (sort(keys%{$ch})) { Log3 ($name, 4, "$key => ". $ch->{$key}); if($ch->{$key} eq "1") { $ncp{"$key"} = " ||"; } } return \%ncp; } #################################################################################################### # Funktionsergebnisse in Datenbank schreiben #################################################################################################### sub DbRep_OutputWriteToDB { my $name = shift; my $device = shift; my $reading = shift; my $wrstr = shift; my $optxt = shift; # Operation Kürzel my $hash = $defs{$name}; my $dbloghash = $defs{$hash->{HELPER}{DBLOGDEVICE}}; my $dblogname = $dbloghash->{NAME}; my $DbLogType = AttrVal ($dblogname, 'DbLogType', 'History'); my $supk = AttrVal ($dblogname, 'noSupportPK', 0); $device =~ s/[^A-Za-z\/\d_\.-]/\//g; $reading =~ s/[^A-Za-z\/\d_\.-]/\//g; my $type = 'calculated'; my $event = 'calculated'; my $unit = qq{}; my $wrt = 0; my $irowdone = 0; my $ndp = AttrVal ($name, 'numDecimalPlaces', $dbrep_defdecplaces); my ($dbh,$err,$value,$date,$time,$hour,$minute,$ndate,$ntime,$rsf,$rsn,@wr_arr); my ($timestamp,$year,$mon,$mday,$t1,$corr); if(!$dbloghash->{HELPER}{COLSET}) { $err = qq(No result of "$hash->{LASTCMD}" to database written. Cause: column width in "$hash->{DEF}" isn't set); Log3 ($name, 2, "DbRep $name - ERROR - $err"); $err = encode_base64($err,""); return ($err,$wrt,$irowdone); } no warnings 'uninitialized'; my $aggr = (DbRep_checktimeaggr ($hash))[2]; $reading = $optxt."_".$aggr."_".AttrVal ($name, 'readingNameMap', $reading); $type = uc($defs{$device}{TYPE}) if($defs{$device}); # $type vom Device übernehmen if($optxt =~ /avg|sum/) { my @arr = split "\\|", $wrstr; my $ele = $#arr; # Nr des letzten Elements my $i = 0; for my $row (@arr) { my @a = split "#", $row; my $runtime_string = $a[0]; # Aggregations-Alias (nicht benötigt) $value = defined($a[1]) ? (looks_like_number($a[1]) ? sprintf("%.${ndp}f",$a[1]) : undef) : undef; # in Version 8.40.0 geändert $rsf = $a[2]; # Runtime String first - Datum / Zeit für DB-Speicherung ($date,$time) = split "_", $rsf; $time =~ s/-/:/g if($time); $rsn = $a[3]; # Runtime String next - Datum / Zeit für DB-Speicherung ($ndate,$ntime) = split "_", $rsn; $ntime =~ s/-/:/g if($ntime); if($aggr =~ /no|day|week|month|year/) { $time = "00:00:01" if($time !~ /^(\d{2}):(\d{2}):(\d{2})$/ || $hash->{LASTCMD} =~ /\bwriteToDB(Single(Start)?)*?\b/); # https://forum.fhem.de/index.php/topic,105787.msg1013920.html#msg1013920 $ntime = "23:59:59" if($ntime !~ /^(\d{2}):(\d{2}):(\d{2})$/ || $hash->{LASTCMD} =~ /\bwriteToDB(Single(Start)?)*?\b/); ($year,$mon,$mday) = split "-", $ndate; $corr = $i != $ele ? 86400 : 0; $t1 = fhemTimeLocal(59, 59, 23, $mday, $mon-1, $year-1900)-$corr; ($ndate,undef) = split " ", FmtDateTime($t1); } elsif ($aggr =~ /minute|hour/) { ($hour,$minute) = split ":", $time; if($aggr eq "minute") { $time = "$hour:$minute:01" if($time !~ /^(\d{2}):(\d{2}):(\d{2})$/ || $hash->{LASTCMD} =~ /\bwriteToDB(Single(Start)?)*?\b/); # https://forum.fhem.de/index.php/topic,105787.msg1013920.html#msg1013920 $ntime = "$hour:$minute:59" if($ntime !~ /^(\d{2}):(\d{2}):(\d{2})$/ || $hash->{LASTCMD} =~ /\bwriteToDB(Single(Start)?)*?\b/); } if($aggr eq "hour") { $time = "$hour:00:01" if($time !~ /^(\d{2}):(\d{2}):(\d{2})$/ || $hash->{LASTCMD} =~ /\bwriteToDB(Single(Start)?)*?\b/); # https://forum.fhem.de/index.php/topic,105787.msg1013920.html#msg1013920 $ntime = "$hour:59:59" if($ntime !~ /^(\d{2}):(\d{2}):(\d{2})$/ || $hash->{LASTCMD} =~ /\bwriteToDB(Single(Start)?)*?\b/); } } if (defined $value) { ($device,$type,$event,$reading,$value,$unit) = DbLog_cutCol($dbloghash,$device,$type,$event,$reading,$value,$unit); if($i == 0) { push @wr_arr, "$date $time|$device|$type|$event|$reading|$value|$unit" if($hash->{LASTCMD} !~ /\bwriteToDBSingle\b/); push @wr_arr, "$ndate $ntime|$device|$type|$event|$reading|$value|$unit" if($hash->{LASTCMD} !~ /\bwriteToDBSingleStart\b/); } else { if ($aggr =~ /no|day|week|month|year/) { ($year,$mon,$mday) = split "-", $date; $t1 = fhemTimeLocal(01, 00, 00, $mday, $mon-1, $year-1900); ($date,$time) = split " ", FmtDateTime($t1); } elsif ($aggr =~ /hour/) { ($year,$mon,$mday) = split "-", $date; $t1 = fhemTimeLocal(01, 00, $hour, $mday, $mon-1, $year-1900); ($date,$time) = split " ", FmtDateTime($t1); } push @wr_arr, "$date $time|$device|$type|$event|$reading|$value|$unit" if($hash->{LASTCMD} !~ /\bwriteToDBSingle\b/); push @wr_arr, "$ndate $ntime|$device|$type|$event|$reading|$value|$unit" if($hash->{LASTCMD} !~ /\bwriteToDBSingleStart\b/); } } $i++; } } if($optxt =~ /min|max|diff/) { my %rh = split "§", $wrstr; for my $key (sort(keys(%rh))) { my @k = split "\\|", $rh{$key}; $value = defined($k[1]) && $k[1] ne '-' ? sprintf("%.${ndp}f",$k[1]) : undef; $rsf = $k[2]; # Datum / Zeit für DB-Speicherung ($date,$time) = split "_", $rsf; $time =~ s/-/:/g if($time); if($time !~ /^(\d{2}):(\d{2}):(\d{2})$/) { if($aggr =~ /no|day|week|month/) { $time = "23:59:58"; } elsif ($aggr =~ /hour/) { $time = "$time:59:58"; } elsif ($aggr =~ /minute/) { $time = "$time:58"; } } if ($value) { ($device,$type,$event,$reading,$value,$unit) = DbLog_cutCol($dbloghash,$device,$type,$event,$reading,$value,$unit); push @wr_arr, "$date $time|$device|$type|$event|$reading|$value|$unit"; } } } return ($err,$wrt,$irowdone) if(!@wr_arr); #Log3 ($name, 2, "DbRep $name - data for write: \n". Dumper @wr_arr); #return; # Schreibzyklus ################## ($err, $dbh, my $dbmodel) = DbRep_dbConnect ($name, 0); return ($err,$wrt,$irowdone) if ($err); # check ob PK verwendet wird, @usepkx?Anzahl der Felder im PK:0 wenn kein PK, $pkx?Namen der Felder:none wenn kein PK my ($usepkh,$usepkc,$pkh,$pkc); if (!$supk) { ($usepkh,$usepkc,$pkh,$pkc) = DbRep_checkUsePK($hash,$dbloghash,$dbh); } else { Log3 ($name, 5, "DbRep $name -> Primary Key usage suppressed by attribute noSupportPK in DbLog >$dblogname<"); } my $sql = DbRep_createInsertSQLscheme ('history', $dbmodel, $usepkh); ($err, my $sth_ih) = DbRep_prepareOnly ($name, $dbh, $sql); return ($err,$wrt,$irowdone) if ($err); $sql = DbRep_createUpdateSQLscheme ('history'); ($err, my $sth_uh) = DbRep_prepareOnly ($name, $dbh, $sql); return ($err,$wrt,$irowdone) if ($err); $sql = DbRep_createInsertSQLscheme ('current', $dbmodel, $usepkc); ($err, my $sth_ic) = DbRep_prepareOnly ($name, $dbh, $sql); return ($err,$wrt,$irowdone) if ($err); $sql = DbRep_createUpdateSQLscheme ('current'); ($err, my $sth_uc) = DbRep_prepareOnly ($name, $dbh, $sql); return ($err,$wrt,$irowdone) if ($err); $err = DbRep_beginDatabaseTransaction ($name, $dbh); return ($err,$wrt,$irowdone) if ($err); my $wst = [gettimeofday]; # SQL-Startzeit my $ihs = 0; my $uhs = 0; for my $row (@wr_arr) { my @a = split "\\|", $row; $timestamp = $a[0]; $device = $a[1]; $type = $a[2]; $event = $a[3]; $reading = $a[4]; $value = $a[5]; $unit = $a[6]; if (lc($DbLogType) =~ m(history) ) { ($err, my $rv_uh) = DbRep_execUpdatePrepared ( { name => $name, sth => $sth_uh, timestamp => $timestamp, device => $device, type => $type, event => $event, reading => $reading, value => $value, unit => $unit } ); if ($err) { $dbh->disconnect; return ($err,$wrt,$irowdone); } $uhs += $rv_uh if($rv_uh); Log3 ($name, 4, "DbRep $name - UPDATE history: $row, RESULT: $rv_uh"); if ($rv_uh == 0) { ($err, my $rv_ih) = DbRep_execInsertPrepared ( { name => $name, sth => $sth_ih, timestamp => $timestamp, device => $device, type => $type, event => $event, reading => $reading, value => $value, unit => $unit } ); if ($err) { $dbh->disconnect; return ($err,$wrt,$irowdone); } $ihs += $rv_ih if($rv_ih); Log3 ($name, 4, "DbRep $name - INSERT history: $row, RESULT: $rv_ih"); } } if (lc($DbLogType) =~ m(current) ) { ($err, my $rv_uc) = DbRep_execUpdatePrepared ( { name => $name, sth => $sth_uc, timestamp => $timestamp, device => $device, type => $type, event => $event, reading => $reading, value => $value, unit => $unit } ); if ($err) { $dbh->disconnect; return ($err,$wrt,$irowdone); } if ($rv_uc == 0) { ($err, undef) = DbRep_execInsertPrepared ( { name => $name, sth => $sth_ic, timestamp => $timestamp, device => $device, type => $type, event => $event, reading => $reading, value => $value, unit => $unit } ); } } } $err = DbRep_commitOnly ($name, $dbh); return ($err,$wrt,$irowdone) if ($err); $dbh->disconnect; Log3 ($name, 3, "DbRep $name - number of lines updated in >$dblogname<: $uhs"); Log3 ($name, 3, "DbRep $name - number of lines inserted into >$dblogname<: $ihs"); $irowdone = $ihs + $uhs; $wrt = tv_interval($wst); # SQL-Laufzeit ermitteln return ($err,$wrt,$irowdone); } ####################################################################################################### # Werte außer dem Extremwert (MAX/$max_value, MIN/$mix_value) aus Datenbank im Zeitraum x für # Device / Reading löschen # # Struktur $rh{$key} -> # $runtime_string."|".$max_value."|".$row_max_time."|".$runtime_string_first."|".$runtime_string_next # ####################################################################################################### sub DbRep_deleteOtherFromDB { my ($name,$device,$reading,$rows) = @_; my $hash = $defs{$name}; my $dbloghash = $defs{$hash->{HELPER}{DBLOGDEVICE}}; my $dbconn = $dbloghash->{dbconn}; my $dbuser = $dbloghash->{dbuser}; my $dblogname = $dbloghash->{NAME}; my $dbmodel = $dbloghash->{MODEL}; my $dbpassword = $attr{"sec$dblogname"}{secret}; my $wrt = 0; my $irowdone = 0; my $table = "history"; my $err = qq{}; my ($dbh,$sth,$timestamp,$value,$addon,$row_extreme_time,$runtime_string_first,$runtime_string_next); my @row_array; my %rh = split("§", $rows); for my $key (sort(keys(%rh))) { # Inhalt $rh{$key} -> $runtime_string."|".$max_value."|".$row_max_time."|".$runtime_string_first."|".$runtime_string_next my @k = split("\\|",$rh{$key}); $value = $k[1] // undef; $row_extreme_time = $k[2]; $runtime_string_first = $k[3]; $runtime_string_next = $k[4]; if ($value) { # den Extremwert von Device/Reading und die Zeitgrenzen in Array speichern -> alle anderen sollen gelöscht werden push(@row_array, "$device|$reading|$value|$row_extreme_time|$runtime_string_first|$runtime_string_next"); } } if (@row_array) { # Löschzyklus ($err,$dbh,$dbmodel) = DbRep_dbConnect($name, 0); return $err if ($err); $err = DbRep_beginDatabaseTransaction ($name, $dbh); return $err if ($err); # SQL-Startzeit my $wst = [gettimeofday]; my $dlines = 0; for my $row (@row_array) { my @a = split("\\|",$row); $device = $a[0]; $reading = $a[1]; $value = $a[2]; $row_extreme_time = $a[3]; $runtime_string_first = $a[4]; $runtime_string_next = $a[5]; my($date, $time) = split "_", $row_extreme_time; $time =~ s/-/:/gxs; $addon = qq{AND (TIMESTAMP,VALUE) != ("$date $time","$value")}; my $sql = DbRep_createDeleteSql($hash,$table,$device,$reading,$runtime_string_first,$runtime_string_next,$addon); ($err, $sth) = DbRep_prepareExecuteQuery ($name, $dbh, $sql); return $err if ($err); $dlines += $sth->rows; } $err = DbRep_commitOnly ($name, $dbh); return $err if ($err); $dbh->disconnect; Log3 $hash->{NAME}, 3, "DbRep $name - number of lines deleted in \"$dblogname\": $dlines"; $irowdone = $dlines; # SQL-Laufzeit ermitteln $wrt = tv_interval($wst); } return ($err,$wrt,$irowdone); } #################################################################################################### # Werte eines Array in DB schreiben # Übergabe-Array: $date_ESC_$time_ESC_$device_ESC_$type_ESC_$event_ESC_$reading_ESC_$value_ESC_$unit # $histupd = 1 wenn history update, $histupd = 0 nur history insert # #################################################################################################### sub DbRep_WriteToDB { my ($name,$dbh,$dbloghash,$histupd,@row_array) = @_; my $hash = $defs{$name}; my $dblogname = $dbloghash->{NAME}; my $DbLogType = AttrVal($dblogname, "DbLogType", "History"); my $supk = AttrVal($dblogname, "noSupportPK", 0); my $wrt = 0; my $irowdone = 0; my ($sth_ih,$sth_uh,$sth_ic,$sth_uc,$err,$sql); # check ob PK verwendet wird, @usepkx?Anzahl der Felder im PK:0 wenn kein PK, $pkx?Namen der Felder:none wenn kein PK my ($usepkh,$usepkc,$pkh,$pkc); if (!$supk) { ($usepkh,$usepkc,$pkh,$pkc) = DbRep_checkUsePK($hash,$dbloghash,$dbh); } else { Log3 $hash->{NAME}, 5, "DbRep $name -> Primary Key usage suppressed by attribute noSupportPK in DbLog \"$dblogname\""; } if ($DbLogType =~ /history/xi) { # insert history mit/ohne primary key if ($usepkh && $dbloghash->{MODEL} eq 'MYSQL') { $sql = "INSERT IGNORE INTO history (TIMESTAMP, DEVICE, TYPE, EVENT, READING, VALUE, UNIT) VALUES (?,?,?,?,?,?,?)"; } elsif ($usepkh && $dbloghash->{MODEL} eq 'SQLITE') { $sql = "INSERT OR IGNORE INTO history (TIMESTAMP, DEVICE, TYPE, EVENT, READING, VALUE, UNIT) VALUES (?,?,?,?,?,?,?)"; } elsif ($usepkh && $dbloghash->{MODEL} eq 'POSTGRESQL') { $sql = "INSERT INTO history (TIMESTAMP, DEVICE, TYPE, EVENT, READING, VALUE, UNIT) VALUES (?,?,?,?,?,?,?) ON CONFLICT DO NOTHING"; } else { $sql = "INSERT INTO history (TIMESTAMP, DEVICE, TYPE, EVENT, READING, VALUE, UNIT) VALUES (?,?,?,?,?,?,?)"; } Log3 ($name, 4, "DbRep $name - prepare insert history SQL: \n$sql"); eval { $sth_ih = $dbh->prepare_cached($sql); } or do { $err = $@; Log3 ($name, 2, "DbRep $name - $@"); return ($err,$irowdone,$wrt); }; # update history mit/ohne primary key if ($usepkh && $dbloghash->{MODEL} eq 'MYSQL') { $sql = "REPLACE INTO history (TYPE, EVENT, VALUE, UNIT, TIMESTAMP, DEVICE, READING) VALUES (?,?,?,?,?,?,?)"; } elsif ($usepkh && $dbloghash->{MODEL} eq 'SQLITE') { $sql = "INSERT OR REPLACE INTO history (TYPE, EVENT, VALUE, UNIT, TIMESTAMP, DEVICE, READING) VALUES (?,?,?,?,?,?,?)"; } elsif ($usepkh && $dbloghash->{MODEL} eq 'POSTGRESQL') { $sql = "INSERT INTO history (TYPE, EVENT, VALUE, UNIT, TIMESTAMP, DEVICE, READING) VALUES (?,?,?,?,?,?,?) ON CONFLICT ($pkc) DO UPDATE SET TIMESTAMP=EXCLUDED.TIMESTAMP, DEVICE=EXCLUDED.DEVICE, TYPE=EXCLUDED.TYPE, EVENT=EXCLUDED.EVENT, READING=EXCLUDED.READING, VALUE=EXCLUDED.VALUE, UNIT=EXCLUDED.UNIT"; } else { $sql = "UPDATE history SET TYPE=?, EVENT=?, VALUE=?, UNIT=? WHERE (TIMESTAMP=?) AND (DEVICE=?) AND (READING=?)"; } Log3 ($name, 4, "DbRep $name - prepare update history SQL: \n$sql"); $sth_uh = $dbh->prepare($sql); } if ($DbLogType =~ /current/xi ) { # insert current mit/ohne primary key if ($usepkc && $dbloghash->{MODEL} eq 'MYSQL') { $sql = "INSERT IGNORE INTO current (TIMESTAMP, DEVICE, TYPE, EVENT, READING, VALUE, UNIT) VALUES (?,?,?,?,?,?,?)"; } elsif ($usepkc && $dbloghash->{MODEL} eq 'SQLITE') { $sql = "INSERT OR IGNORE INTO current (TIMESTAMP, DEVICE, TYPE, EVENT, READING, VALUE, UNIT) VALUES (?,?,?,?,?,?,?)"; } elsif ($usepkc && $dbloghash->{MODEL} eq 'POSTGRESQL') { $sql = "INSERT INTO current (TIMESTAMP, DEVICE, TYPE, EVENT, READING, VALUE, UNIT) VALUES (?,?,?,?,?,?,?) ON CONFLICT DO NOTHING"; } else { # old behavior $sql = "INSERT INTO current (TIMESTAMP, DEVICE, TYPE, EVENT, READING, VALUE, UNIT) VALUES (?,?,?,?,?,?,?)"; } Log3 ($name, 4, "DbRep $name - prepare insert current SQL: \n$sql"); eval { $sth_ic = $dbh->prepare_cached($sql); } or do { $err = $@; Log3 ($name, 2, "DbRep $name - $@"); return ($err,$irowdone,$wrt); }; # update current mit/ohne primary key if ($usepkc && $dbloghash->{MODEL} eq 'MYSQL') { $sql = "REPLACE INTO current (TIMESTAMP, DEVICE, TYPE, EVENT, READING, VALUE, UNIT) VALUES (?,?,?,?,?,?,?)"; } elsif ($usepkc && $dbloghash->{MODEL} eq 'SQLITE') { $sql = "INSERT OR REPLACE INTO current (TIMESTAMP, DEVICE, TYPE, EVENT, READING, VALUE, UNIT) VALUES (?,?,?,?,?,?,?)"; } elsif ($usepkc && $dbloghash->{MODEL} eq 'POSTGRESQL') { $sql = "INSERT INTO current (TIMESTAMP, DEVICE, TYPE, EVENT, READING, VALUE, UNIT) VALUES (?,?,?,?,?,?,?) ON CONFLICT ($pkc) DO UPDATE SET TIMESTAMP=EXCLUDED.TIMESTAMP, DEVICE=EXCLUDED.DEVICE, TYPE=EXCLUDED.TYPE, EVENT=EXCLUDED.EVENT, READING=EXCLUDED.READING, VALUE=EXCLUDED.VALUE, UNIT=EXCLUDED.UNIT"; } else { $sql = "UPDATE current SET TIMESTAMP=?, TYPE=?, EVENT=?, VALUE=?, UNIT=? WHERE (DEVICE=?) AND (READING=?)"; } Log3 ($name, 4, "DbRep $name - prepare update current SQL: \n$sql"); $sth_uc = $dbh->prepare($sql); } Log3 $hash->{NAME}, 5, "DbRep $name - data prepared to db write:"; my $wst = [gettimeofday]; # SQL-Startzeit my ($ihs,$uhs) = (0,0); for my $row (@row_array) { my ($date,$time,$device,$type,$event,$reading,$value,$unit) = ($row =~ /^(.*)_ESC_(.*)_ESC_(.*)_ESC_(.*)_ESC_(.*)_ESC_(.*)_ESC_(.*)_ESC_(.*)$/); Log3 $hash->{NAME}, 5, "DbRep $name - $row"; my $timestamp = $date." ".$time; eval { # update oder insert history if ($DbLogType =~ /history/xi ) { my $rv_uh = 0; if($histupd) { $rv_uh = $sth_uh->execute($type,$event,$value,$unit,$timestamp,$device,$reading); } if ($rv_uh == 0) { $ihs += $sth_ih->execute($timestamp,$device,$type,$event,$reading,$value,$unit); # V8.30.7 # $ihs++; # V8.30.7 } else { $uhs += $rv_uh; # V8.30.7 } } # update oder insert current if ($DbLogType =~ /current/xi ) { my $rv_uc = $sth_uc->execute($timestamp,$type,$event,$value,$unit,$device,$reading); if ($rv_uc == 0) { $sth_ic->execute($timestamp,$device,$type,$event,$reading,$value,$unit); } } 1; } or do { $err = $@; Log3 ($name, 2, "DbRep $name - $@"); $dbh->rollback; return ($err,$irowdone,$wrt); }; } Log3 ($name, 3, "DbRep $name - number of lines updated in \"$dblogname\": $uhs") if($uhs); Log3 ($name, 3, "DbRep $name - number of lines inserted into \"$dblogname\": $ihs") if($ihs); $irowdone = $ihs + $uhs; $wrt = tv_interval($wst); # SQL-Laufzeit ermitteln return ($err,$irowdone,$wrt); } ################################################################ # check ob primary key genutzt wird ################################################################ sub DbRep_checkUsePK { my ($hash,$dbloghash,$dbh) = @_; my $name = $hash->{NAME}; my $dbconn = $dbloghash->{dbconn}; my $upkh = 0; my $upkc = 0; my (@pkh,@pkc); my $db = (split("=",(split(";",$dbconn))[0]))[1]; eval {@pkh = $dbh->primary_key( undef, undef, 'history' );}; eval {@pkc = $dbh->primary_key( undef, undef, 'current' );}; my $pkh = (!@pkh || @pkh eq "") ? "none" : join(",",@pkh); my $pkc = (!@pkc || @pkc eq "") ? "none" : join(",",@pkc); $pkh =~ tr/"//d; $pkc =~ tr/"//d; $upkh = 1 if(@pkh && @pkh ne "none"); $upkc = 1 if(@pkc && @pkc ne "none"); Log3 $hash->{NAME}, 5, "DbRep $name -> Primary Key used in $db.history: $upkh ($pkh)"; Log3 $hash->{NAME}, 5, "DbRep $name -> Primary Key used in $db.current: $upkc ($pkc)"; return ($upkh,$upkc,$pkh,$pkc); } ################################################################ # prüft die logische Gültigkeit der Zeitgrenzen # $runtime_string_first und $runtime_string_next ################################################################ sub DbRep_checkValidTimeSequence { my $hash = shift; my $runtime_string_first = shift; my $runtime_string_next = shift; my $valid = 1; return $valid if(!$runtime_string_first || !$runtime_string_next); my ($yyyy1, $mm1, $dd1, $hh1, $min1, $sec1) = $runtime_string_first =~ /(\d+)-(\d+)-(\d+)\s(\d+):(\d+):(\d+)/x; my ($yyyy2, $mm2, $dd2, $hh2, $min2, $sec2) = $runtime_string_next =~ /(\d+)-(\d+)-(\d+)\s(\d+):(\d+):(\d+)/x; my $nthants = fhemTimeLocal($sec1, $min1, $hh1, $dd1, $mm1-1, $yyyy1-1900); my $othants = fhemTimeLocal($sec2, $min2, $hh2, $dd2, $mm2-1, $yyyy2-1900); if($nthants > $othants) { ReadingsSingleUpdateValue ($hash, "state", "Error - Wrong time limits. The (days newer than) option must be greater than the (older than) one !", 1); $valid = 0; } return $valid; } ################################################################ # extrahiert aus dem übergebenen Wert nur die Zahl ################################################################ sub DbRep_numval { my $val = shift; return undef if(!defined($val)); $val = ($val =~ /(-?\d+(\.\d+)?)/ ? $1 : ""); return $val; } ################################################################ # Zerlegung des Attributwertes "diffAccept" ################################################################ sub DbRep_ExplodeDiffAcc { my $val = shift // q{empty}; my $sign = q{}; my $daval = q{}; if ($val =~/^(\+?-?)([0-9]+)$/xs) { $sign = $1; $daval = $2; } return ($sign, $daval); } ################################################################ # Prüfung auf numerischen Wert (vorzeichenbehaftet) ################################################################ sub DbRep_IsNumeric { my $val = shift // q{empty}; my $ret = 0; if($val =~ /^-?(?:\d+(?:\.\d*)?|\.\d+)$/xs) { $ret = 1; } return $ret; } ################################################################ # entfernt führende Mullen einer Zahl ################################################################ sub DbRep_removeLeadingZero { my $val = shift; return if(!defined($val)); $val =~ s/^0//; return $val; } ################################################################ # setzt Internal LASTCMD ################################################################ sub DbRep_setLastCmd { my (@vars) = @_; my $name = shift(@vars); my $hash = $defs{$name}; $hash->{LASTCMD} = join(" ",@vars); return; } ################################################################ # Werte aus BlockingCall heraus setzen # Erwartete Liste: # @setl = $name,$setread,$helper ################################################################ sub DbRep_setFromBlocking { my $name = shift; my $setread = shift // "NULL"; my $helper = shift // "NULL"; my $hash = $defs{$name}; if($setread ne "NULL") { my @cparts = split ":", $setread, 2; ReadingsSingleUpdateValue ($hash, $cparts[0], $cparts[1], 1); } if($helper ne "NULL") { my ($hnam,$k1,$k2,$k3) = split ":", $helper, 4; if(defined $k3) { $hash->{HELPER}{"$hnam"}{"$k1"}{"$k2"} = $k3; } elsif (defined $k2) { $hash->{HELPER}{"$hnam"}{"$k1"} = $k2; } else { $hash->{HELPER}{"$hnam"} = $k1; } } return 1; } ################################################################ # löscht einen Wert vom $hash des Hauptprozesses aus # einem BlockingCall heraus ################################################################ sub DbRep_delHashValFromBlocking { my ($name,$v1,$v2) = @_; my $hash = $defs{$name}; if($v2) { delete $hash->{$v1}{$v2}; } elsif ($v1) { delete $hash->{$v1}; } return 1; } ################################################################ # sortiert eine Liste von Versionsnummern x.x.x # Schwartzian Transform and the GRT transform # Übergabe: "asc | desc", ################################################################ sub DbRep_sortVersion { my ($sseq,@versions) = @_; my @sorted = map {$_->[0]} sort {$a->[1] cmp $b->[1]} map {[$_, pack "C*", split /\./]} @versions; @sorted = map {join ".", unpack "C*", $_} sort map {pack "C*", split /\./} @versions; if($sseq eq "desc") { @sorted = reverse @sorted; } return @sorted; } ################################################################ # Versionierungen des Moduls setzen # Die Verwendung von Meta.pm und Packages wird berücksichtigt ################################################################ sub DbRep_setVersionInfo { my ($hash) = @_; my $name = $hash->{NAME}; my $v = (sortTopicNum("desc",keys %DbRep_vNotesIntern))[0]; my $type = $hash->{TYPE}; $hash->{HELPER}{PACKAGE} = __PACKAGE__; $hash->{HELPER}{VERSION} = $v; if($modules{$type}{META}{x_prereqs_src} && !$hash->{HELPER}{MODMETAABSENT}) { # META-Daten sind vorhanden $modules{$type}{META}{version} = "v".$v; # Version aus META.json überschreiben, Anzeige mit {Dumper $modules{SMAPortal}{META}} if($modules{$type}{META}{x_version}) { # {x_version} ( nur gesetzt wenn $Id: 93_DbRep.pm 27577 2023-05-16 19:56:58Z DS_Starter $ im Kopf komplett! vorhanden ) $modules{$type}{META}{x_version} =~ s/1.1.1/$v/g; } else { $modules{$type}{META}{x_version} = $v; } return $@ unless (FHEM::Meta::SetInternals($hash)); # FVERSION wird gesetzt ( nur gesetzt wenn $Id: 93_DbRep.pm 27577 2023-05-16 19:56:58Z DS_Starter $ im Kopf komplett! vorhanden ) if(__PACKAGE__ eq "FHEM::$type" || __PACKAGE__ eq $type) { # es wird mit Packages gearbeitet -> Perl übliche Modulversion setzen # mit {->VERSION()} im FHEMWEB kann Modulversion abgefragt werden use version 0.77; our $VERSION = FHEM::Meta::Get( $hash, 'version' ); } } else { # herkömmliche Modulstruktur $hash->{VERSION} = $v; } return; } #################################################################################################### # blockierende DB-Abfrage # liefert den Wert eines Device:Readings des nächstmöglichen Logeintrags zum # angegebenen Zeitpunkt # # Aufruf als Funktion: DbReadingsVal("","",","") # Aufruf als FHEM-Cmd: DbReadingsVal #################################################################################################### sub CommandDbReadingsVal { my ($cl, $param) = @_; my ($name, $devread, $ts, $default) = split m{\s+}x, $param; $ts =~ s/_/ /; my $ret = DbReadingsVal($name, $devread, $ts, $default); return $ret; } sub DbReadingsVal($$$$) { my $name = shift // return qq{A DbRep-device must be specified}; my $devread = shift // return qq{"device:reading" must be specified}; my $ts = shift // return qq{The Command needs a timestamp defined in format "YYYY-MM-DD_hh:mm:ss"}; my $default = shift // return qq{The Command needs a default value defined}; my ($err,$ret,$sql); if(!defined($defs{$name})) { return qq{DbRep-device "$name" doesn't exist.}; } if(!$defs{$name}{TYPE} eq "DbRep") { return qq{"$name" is not a DbRep-device but of type "}.$defs{$name}{TYPE}.qq{"}; } my $hash = $defs{$name}; my $dbmodel = $defs{$hash->{HELPER}{DBLOGDEVICE}}{MODEL}; $ts =~ s/_/ /; if($ts !~ /^(\d{4})-(\d{2})-(\d{2})\s+(\d{2}):(\d{2}):(\d{2})$/x) { return qq{timestamp has not the valid format. Use "YYYY-MM-DD_hh:mm:ss" as timestamp.}; } my ($dev,$reading) = split(":",$devread); if(!$dev || !$reading) { return qq{"device:reading" must be specified}; } if($dbmodel eq "MYSQL") { $sql = "select value from ( ( select *, TIMESTAMPDIFF(SECOND, '$ts', timestamp) as diff from history where device='$dev' and reading='$reading' and timestamp >= '$ts' order by timestamp asc limit 1 ) union ( select *, TIMESTAMPDIFF(SECOND, timestamp, '$ts') as diff from history where device='$dev' and reading='$reading' and timestamp < '$ts' order by timestamp desc limit 1 ) ) x order by diff limit 1;"; } elsif ($dbmodel eq "SQLITE") { $sql = "select value from ( select value, (julianday(timestamp) - julianday('$ts')) * 86400.0 as diff from history where device='$dev' and reading='$reading' and timestamp >= '$ts' union select value, (julianday('$ts') - julianday(timestamp)) * 86400.0 as diff from history where device='$dev' and reading='$reading' and timestamp < '$ts' ) x order by diff limit 1;"; } elsif ($dbmodel eq "POSTGRESQL") { $sql = "select value from ( select value, EXTRACT(EPOCH FROM (timestamp - '$ts')) as diff from history where device='$dev' and reading='$reading' and timestamp >= '$ts' union select value, EXTRACT(EPOCH FROM ('$ts' - timestamp)) as diff from history where device='$dev' and reading='$reading' and timestamp < '$ts' ) x order by diff limit 1;"; } else { return qq{DbReadingsVal is not implemented for $dbmodel}; } $hash->{LASTCMD} = "sqlCmdBlocking $sql"; $ret = DbRep_sqlCmdBlocking($name,$sql); $ret = $ret ? $ret : $default; return $ret; } #################################################################################################### # Browser Refresh nach DB-Abfrage #################################################################################################### sub browser_refresh { my ($hash) = @_; RemoveInternalTimer($hash, "browser_refresh"); {FW_directNotify("#FHEMWEB:WEB", "location.reload('true')", "")}; # map { FW_directNotify("#FHEMWEB:$_", "location.reload(true)", "") } devspec2array("WEB.*"); return; } ################################################################################### # Associated Devices setzen ################################################################################### sub DbRep_modAssociatedWith { my $hash = shift; my $cmd = shift; my $awdev = shift; my $name = $hash->{NAME}; my (@naw,@edvs,@edvspcs,$edevswc); my ($edevs,$idevice,$edevice) = ('','',''); if($cmd eq "del") { readingsDelete($hash,".associatedWith"); return; } ($idevice,$edevice) = split(/EXCLUDE=/i,$awdev); if($edevice) { @edvs = split(",",$edevice); for my $e (@edvs) { $e =~ s/%/\.*/g if($e !~ /^%$/); # SQL Wildcard % auflösen @edvspcs = devspec2array($e); @edvspcs = map { my $e = $_; $e =~ s/\.\*/%/xg; } @edvspcs; if((map {$_ =~ /%/;} @edvspcs) && $edevice !~ /^%$/) { # Devices mit Wildcard (%) aussortieren, die nicht aufgelöst werden konnten $edevswc .= "|" if($edevswc); $edevswc .= join(" ",@edvspcs); } else { $edevs .= "|" if($edevs); $edevs .= join("|",@edvspcs); } } } if($idevice) { my @nadev = split("[, ]", $idevice); for my $d (@nadev) { $d =~ s/%/\.*/g if($d !~ /^%$/); # SQL Wildcard % in Regex my @a = devspec2array($d); for (@a) { next if(!$defs{$_}); push(@naw, $_) if($_ !~ /$edevs/); } } } if(@naw) { ReadingsSingleUpdateValue ($hash, ".associatedWith", join(" ",@naw), 0); } else { readingsDelete($hash, ".associatedWith"); } return; } #################################################################################################### # Test-Sub zu Testzwecken #################################################################################################### sub DbRep_testexit { my $hash = shift; my $name = $hash->{NAME}; return; } 1; =pod =item helper =item summary Reporting and management of DbLog database content. =item summary_DE Reporting und Management von DbLog-Datenbank Inhalten. =begin html

DbRep


    The purpose of this module is browsing and managing the content of DbLog-databases. The searchresults can be evaluated concerning to various aggregations and the appropriate Readings will be filled. The data selection will been done by declaration of device, reading and the time settings of selection-begin and selection-end.

    Almost all database operations are implemented nonblocking. If there are exceptions it will be suggested to. Optional the execution time of SQL-statements in background can also be determined and provided as reading. (refer to attributes).
    All existing readings will be deleted when a new operation starts. By attribute "readingPreventFromDel" a comma separated list of readings which are should prevent from deletion can be provided.

    Currently the following functions are provided:

      • Selection of all datasets within adjustable time limits.
      • Exposure of datasets of a Device/Reading-combination within adjustable time limits.
      • Selection of datasets by usage of dynamically calclated time limits at execution time.
      • Highlighting doublets when select and display datasets (fetchrows)
      • Calculation of quantity of datasets of a Device/Reading-combination within adjustable time limits and several aggregations.
      • The calculation of summary-, difference-, maximum-, minimum- and averageValues of numeric readings within adjustable time limits and several aggregations.
      • write back results of summary-, difference-, maximum-, minimum- and average calculation into the database
      • The deletion of datasets. The containment of deletion can be done by Device and/or Reading as well as fix or dynamically calculated time limits at execution time.
      • export of datasets to file (CSV-format).
      • import of datasets from file (CSV-Format).
      • rename of device/readings in datasets
      • change of reading values in the database (changeValue)
      • automatic rename of device names in datasets and other DbRep-definitions after FHEM "rename" command (see DbRep-Agent)
      • Execution of arbitrary user specific SQL-commands (non-blocking)
      • Execution of arbitrary user specific SQL-commands (blocking) for usage in user own code (sqlCmdBlocking)
      • creation of backups of the database in running state non-blocking (MySQL, SQLite)
      • transfer dumpfiles to a FTP server after backup incl. version control
      • restore of SQLite- and MySQL-Dumps non-blocking
      • optimize the connected database (optimizeTables, vacuum)
      • report of existing database processes (MySQL)
      • purge content of current-table
      • fill up the current-table with a (tunable) extract of the history-table
      • delete consecutive datasets with different timestamp but same values (clearing up consecutive doublets)
      • Repair of a corrupted SQLite database ("database disk image is malformed")
      • transmission of datasets from source database into another (Standby) database (syncStandby)
      • reduce the amount of datasets in database (reduceLog)
      • delete of duplicate records (delDoublets)
      • drop and (re)create of indexes which are needed for DbLog and DbRep (index)

    To activate the function Autorename the attribute "role" has to be assigned to a defined DbRep-device. The standard role after DbRep definition is "Client". Please read more in section DbRep-Agent about autorename function.

    DbRep provides a UserExit function. With this interface the user can execute own program code dependent from free definable Reading/Value-combinations (Regex). The interface works without respectively independent from event generation. Further informations you can find as described at userExitFn attribute.

    Once a DbRep-Device is defined, the Perl function DbReadingsVal provided as well as and the FHEM command dbReadingsVal. With this function you can, similar to the well known ReadingsVal, get a reading value from database.
    The function is executed blocking with a standard timeout of 10 seconds to prevent a permanent blocking of FHEM. The timeout is adjustable with the attribute timeout.

      The command syntax for the Perl function is:

      DbReadingsVal("<name>","<device:reading>","<timestamp>","<default>")

      Example:
        $ret = DbReadingsVal("Rep.LogDB1","MyWetter:temperature","2018-01-13_08:00:00","");
        attr <name> userReadings oldtemp {DbReadingsVal("Rep.LogDB1","MyWetter:temperature","2018-04-13_08:00:00","")}
        attr <name> userReadings todayPowerIn
          {
             my ($sec,$min,$hour,$mday,$month,$year,$wday,$yday,$isdst) = localtime(gettimeofday());
             $month++;
             $year+=1900;
             my $today = sprintf('%04d-%02d-%02d', $year,$month,$mday);
             DbReadingsVal("Rep.LogDB1","SMA_Energymeter:Bezug_Wirkleistung_Zaehler",$today."_00:00:00",0)
          }
        
      The command syntax for the FHEM command is:

      dbReadingsVal <name> <device:reading> <timestamp> <default>

      Example:
      dbReadingsVal Rep.LogDB1 MyWetter:temperature 2018-01-13_08:00:00 0

      <name> : name of the DbRep-Device to request
      <device:reading> : device:reading whose value is to deliver
      <timestamp> : timestamp of reading whose value is to deliver (*) in format "YYYY-MM-DD_hh:mm:ss"
      <default> : default value if no reading value can be retrieved

    (*) If no value can be retrieved at the <timestamp> exactly requested, the chronological most convenient reading value is delivered back.

    FHEM-Forum:
    Modul 93_DbRep - Reporting and Management of database content (DbLog).


Preparations

    The module requires the usage of a DbLog instance and the credentials of the database definition will be used.
    Only the content of table "history" will be included if isn't other is explained.

    Overview which other Perl-modules DbRep is using:

    Net::FTP (only if FTP-Transfer after database dump is used)
    Net::FTPSSL (only if FTP-Transfer with encoding after database dump is used)
    POSIX
    Time::HiRes
    Time::Local
    Scalar::Util
    DBI
    Color (FHEM-module)
    IO::Compress::Gzip
    IO::Uncompress::Gunzip
    Blocking (FHEM-module)


Definition
    define <name> DbRep <name of DbLog-instance>

    (<name of DbLog-instance> - name of the database instance which is wanted to analyze needs to be inserted)

    Due to a good operation performance, the database should contain the index "Report_Idx". Please create it after the DbRep device definition by the following set command if it isn't already existing on the database:

      set <name> index recreate_Report_Idx


Set
    Currently following set-commands are included. They are used to trigger the evaluations and define the evaluation option option itself. The criteria of searching database content and determine aggregation is carried out by setting several attributes.

    Note:
    If you are in detail view it could be necessary to refresh the browser to see the result of operation as soon in DeviceOverview section "state = done" will be shown.

      • adminCredentials <User> <Passwort> - Save a user / password for the privileged respectively administrative database access. The user is required for database operations which has to be executed by a privileged user. Please see also attribute useAdminCredentials.
        (only valid if database type is MYSQL and DbRep-type "Client")

      • averageValue [display | writeToDB | writeToDBSingle | writeToDBSingleStart | writeToDBInTime]

        Calculates an average value of the database field "VALUE" in the time limits of the possible time.*-attributes.

        The reading to be evaluated must be specified in the attribute reading must be specified. With the attribute averageCalcForm the calculation variant is used for Averaging defined.

        If none or the option display is specified, the results are only displayed. With the options writeToDB, writeToDBSingle, writeToDBSingleStart or writeToDBInTime the calculation results are written with a new reading name into the database.

          writeToDB : writes one value each with the time stamps XX:XX:01 and XX:XX:59 within the respective evaluation period
          writeToDBSingle : writes only one value with the time stamp XX:XX:59 at the end of an evaluation period
          writeToDBSingleStart : writes only one value with the time stamp XX:XX:01 at the begin of an evaluation period
          writeToDBInTime : writes a value at the beginning and end of the time limits of an evaluation period

        The new reading name is formed from a prefix and the original reading name, where the original reading name can be replaced by the attribute "readingNameMap". The prefix consists of the educational function and the aggregation.
        The timestamp of the new readings in the database is determined by the set aggregation period if no clear time of the result can be determined. The field "EVENT" is filled with "calculated".

          Example of building a new reading name from the original reading "totalpac":
          avgam_day_totalpac
          # <creation function>_<aggregation>_<original reading>

        Summarized the relevant attributes to control this function are:

          averageCalcForm : choose the calculation variant for average determination
          device : include or exclude <device> from selection
          executeBeforeProc : execution of FHEM command (or Perl-routine) before operation
          executeAfterProc : execution of FHEM command (or Perl-routine) after operation
          reading : include or exclude <reading> from selection
          time.* : a number of attributes to limit selection by time
          valueFilter : an additional REGEXP to control the record selection. The REGEXP is applied to the database field 'VALUE'.


      • cancelDump - stops a running database dump.

      • changeValue old="<old String>" new="<new String>"

        Changes the stored value of a reading.
        If the selection is limited to certain device/reading combinations by the attributes device or reading, they are taken into account in the same way as set time limits (time.* attributes).
        If these constraints are missing, the entire database is searched and the specified value is is changed.

        The "string" can be:
        <old String> :
      • a simple string with/without spaces, e.g. "OL 12"
      • a string with use of SQL wildcard, e.g. "%OL%"
      • <new String> :
      • a simple string with/without spaces, e.g. "12 kWh"
      • Perl code enclosed in {"..."} including quotes, e.g. {"($VALUE,$UNIT) = split(" ",$VALUE)"}
      • The variables $VALUE and $UNIT are passed to the Perl expression. They can be changed
        within the Perl code. The returned value of $VALUE and $UNIT is stored
        in the VALUE or UNIT field of the record.

        Examples:
        set <name> changeValue old="OL" new="12 OL"
        # the old field value "OL" is changed to "12 OL".

        set <name> changeValue old="%OL%" new="12 OL"
        # contains the field VALUE the substring "OL", it is changed to "12 OL".

        set <name> changeValue old="12 kWh" new={"($VALUE,$UNIT) = split(" ",$VALUE)"}
        # the old field value "12 kWh" is splitted to VALUE=12 and UNIT=kWh and saved into the database fields

        set <name> changeValue old="24%" new={"$VALUE = (split(" ",$VALUE))[0]"}
        # if the old field value begins with "24", it is splitted and VALUE=24 is saved (e.g. "24 kWh")

        Summarized the relevant attributes to control function changeValue are:

          device : include or exclude <device> from selection
          reading : include or exclude <reading> from selection
          time.* : a number of attributes to limit selection by time
          executeBeforeProc : execute a FHEM command (or Perl-routine) before start of changeValue
          executeAfterProc : execute a FHEM command (or Perl-routine) after changeValue is finished
          valueFilter : an additional REGEXP to control the record selection. The REGEXP is applied to the database field 'VALUE'.


      • countEntries [history|current] - provides the number of table entries (default: history) between time period set by time.* -attributes if set. If time.* attributes not set, all entries of the table will be count. The device and reading can be used to limit the evaluation.
        By default the summary of all counted datasets, labeled by "ALLREADINGS", will be created. If the attribute "countEntriesDetail" is set, the number of every reading is reported additionally.

        The relevant attributes for this function are:

          aggregation : aggregatiion/grouping of time intervals
          countEntriesDetail : detailed report the count of datasets (per reading)
          device : include or exclude <device> from selection
          reading : include or exclude <reading> from selection
          executeBeforeProc : execution of FHEM command (or Perl-routine) before operation
          executeAfterProc : execution of FHEM command (or Perl-routine) after operation
          time.* : a number of attributes to limit selection by time
          valueFilter : an additional REGEXP to control the record selection. The REGEXP is applied to the database field 'VALUE'.


      • delDoublets [adviceDelete | delete] - show respectively delete duplicate/multiple datasets. Therefore the fields TIMESTAMP, DEVICE, READING and VALUE of records are compared.
        The attributes to define the scope of aggregation, time period, device and reading are considered. If attribute aggregation is not set or set to "no", it will change to the default aggregation period "day".

          adviceDelete : simulates the datasets to delete in database (nothing will be deleted !)
          delete : deletes the doublets

        Due to security reasons the attribute allowDeletion needs to be set for execute the "delete" option.
        The amount of datasets to show by commands "delDoublets adviceDelete" is initially limited and can be adjusted by limit attribute. The adjustment of "limit" has no impact to the "delDoublets delete" function, but affects ONLY the display of the data.
        Before and after this "delDoublets" it is possible to execute a FHEM command or Perl script (please see attributes executeBeforeProc, executeAfterProc).

          Example:

          Output of records to delete included their amount by "delDoublets adviceDelete":

          2018-11-07_14-11-38__Dum.Energy__T 260.9_|_2
          2018-11-07_14-12-37__Dum.Energy__T 260.9_|_2
          2018-11-07_14-15-38__Dum.Energy__T 264.0_|_2
          2018-11-07_14-16-37__Dum.Energy__T 264.0_|_2

          In the created readings after "_|_" the amount of the appropriate records to delete is shown. The records are deleted by command "delDoublets delete".

        Zusammengefasst sind die zur Steuerung dieser Funktion relevanten Attribute:

          allowDeletion : needs to be set to execute the delete option
          aggregation : choose the aggregation period
          limit : limits ONLY the count of datasets to display
          device : include or exclude <device> from selection
          reading : include or exclude <reading> from selection
          executeBeforeProc : execute a FHEM command (or Perl-routine) before start of the function
          executeAfterProc : execute a FHEM command (or Perl-routine) after the function is finished
          time.* : a number of attributes to limit selection by time
          valueFilter : an additional REGEXP to control the record selection. The REGEXP is applied to the database field 'VALUE'.


      • delEntries [<no>[:<nn>]] - deletes all database entries or only the database entries specified by attributes device and/or reading.

        The time limits are considered according to the available time.*-attributes:

          "timestamp_begin" is set -> deletes db entries from this timestamp until current date/time
          "timestamp_end" is set -> deletes db entries until this timestamp
          both Timestamps are set -> deletes db entries between these timestamps
          "timeOlderThan" is set -> delete entries older than current time minus "timeOlderThan"
          "timeDiffToNow" is set -> delete db entries from current time minus "timeDiffToNow" until now

        Due to security reasons the attribute allowDeletion needs to be set to unlock the delete-function.
        Time limits (days) can be specified as an option. In this case, any time.*-attributes set are overmodulated. Records older than <no> days and (optionally) newer than <nn> days are considered.

        The relevant attributes to control function changeValue delEntries are:

          allowDeletion : unlock the delete function
          device : include or exclude <device> from selection
          reading : include or exclude <reading> from selection
          time.* : a number of attributes to limit selection by time
          executeBeforeProc : execute a FHEM command (or Perl-routine) before start of delEntries
          executeAfterProc : execute a FHEM command (or Perl-routine) after delEntries is finished



      • delSeqDoublets [adviceRemain | adviceDelete | delete] - show respectively delete identical sequentially datasets. Therefore Device,Reading and Value of the sequentially datasets are compared. Not deleted are the first und the last dataset of a aggregation period (e.g. hour,day,week and so on) as well as the datasets before or after a value change (database field VALUE).
        The attributes to define the scope of aggregation, time period, device and reading are considered. If attribute aggregation is not set or set to "no", it will change to the default aggregation period "day". For datasets containing numerical values it is possible to determine a variance with attribute seqDoubletsVariance. Up to this value consecutive numerical datasets are handled as identical and should be deleted.

          adviceRemain : simulates the remaining datasets in database after delete-operation (nothing will be deleted !)
          adviceDelete : simulates the datasets to delete in database (nothing will be deleted !)
          delete : deletes the consecutive doublets (see example)

        Due to security reasons the attribute allowDeletion needs to be set for execute the "delete" option.
        The amount of datasets to show by commands "delSeqDoublets adviceDelete", "delSeqDoublets adviceRemain" is initially limited (default: 1000) and can be adjusted by attribute limit. The adjustment of "limit" has no impact to the "delSeqDoublets delete" function, but affects ONLY the display of the data.
        Before and after this "delSeqDoublets" it is possible to execute a FHEM command or Perl-script (please see executeBeforeProc and executeAfterProc).

          Example - the remaining datasets after executing delete-option are are marked as bold:

            2017-11-25_00-00-05__eg.az.fridge_Pwr__power 0
            2017-11-25_00-02-26__eg.az.fridge_Pwr__power 0
            2017-11-25_00-04-33__eg.az.fridge_Pwr__power 0
            2017-11-25_01-06-10__eg.az.fridge_Pwr__power 0
            2017-11-25_01-08-21__eg.az.fridge_Pwr__power 0
            2017-11-25_01-08-59__eg.az.fridge_Pwr__power 60.32
            2017-11-25_01-11-21__eg.az.fridge_Pwr__power 56.26
            2017-11-25_01-27-54__eg.az.fridge_Pwr__power 6.19
            2017-11-25_01-28-51__eg.az.fridge_Pwr__power 0
            2017-11-25_01-31-00__eg.az.fridge_Pwr__power 0
            2017-11-25_01-33-59__eg.az.fridge_Pwr__power 0
            2017-11-25_02-39-29__eg.az.fridge_Pwr__power 0
            2017-11-25_02-41-18__eg.az.fridge_Pwr__power 105.28
            2017-11-25_02-41-26__eg.az.fridge_Pwr__power 61.52
            2017-11-25_03-00-06__eg.az.fridge_Pwr__power 47.46
            2017-11-25_03-00-33__eg.az.fridge_Pwr__power 0
            2017-11-25_03-02-07__eg.az.fridge_Pwr__power 0
            2017-11-25_23-37-42__eg.az.fridge_Pwr__power 0
            2017-11-25_23-40-10__eg.az.fridge_Pwr__power 0
            2017-11-25_23-42-24__eg.az.fridge_Pwr__power 1
            2017-11-25_23-42-24__eg.az.fridge_Pwr__power 1
            2017-11-25_23-45-27__eg.az.fridge_Pwr__power 1
            2017-11-25_23-47-07__eg.az.fridge_Pwr__power 0
            2017-11-25_23-55-27__eg.az.fridge_Pwr__power 0
            2017-11-25_23-48-15__eg.az.fridge_Pwr__power 0
            2017-11-25_23-50-21__eg.az.fridge_Pwr__power 59.1
            2017-11-25_23-55-14__eg.az.fridge_Pwr__power 52.31
            2017-11-25_23-58-09__eg.az.fridge_Pwr__power 51.73

        Summarized the relevant attributes to control this function are:

          allowDeletion : needs to be set to execute the delete option
          aggregation : choose the aggregation period
          limit : limits ONLY the count of datasets to display
          device : include or exclude <device> from selection
          reading : include or exclude <reading> from selection
          executeBeforeProc : execute a FHEM command (or Perl-routine) before start of the function
          executeAfterProc : execute a FHEM command (or Perl-routine) after the function is finished
          seqDoubletsVariance : Up to this value consecutive numerical datasets are handled as identical and should be deleted
          time.* : a number of attributes to limit selection by time
          valueFilter : an additional REGEXP to control the record selection. The REGEXP is applied to the database field 'VALUE'.


      • deviceRename <old_name>,<new_name> - renames the device name of a device inside the connected database (Internal DATABASE). The devicename will allways be changed in the entire database. Possibly set time limits or restrictions by device and/or reading will not be considered.

          Example:
          set <name> deviceRename ST_5000,ST5100
          # The amount of renamed device names (datasets) will be displayed in reading "device_renamed".
          # If the device name to be renamed was not found in the database, a WARNUNG will appear in reading "device_not_renamed".
          # Appropriate entries will be written to Logfile if verbose >= 3 is set.


        Note:
        Even though the function itself is designed non-blocking, make sure the assigned DbLog-device is operating in asynchronous mode to avoid FHEMWEB from blocking.

        The relevant attributes to control this function are:

          executeBeforeProc : execution of FHEM command (or Perl-routine) before operation
          executeAfterProc : execution of FHEM command (or Perl-routine) after operation


      • diffValue [display | writeToDB] - calculates the difference of database column "VALUE" in the given time period. (see also the several time*-attributes).
        The reading to evaluate must be defined in attribute reading.
        This function is mostly reasonable if values are increasing permanently and don't write value differences into the database. The difference will always be generated between all consecutive datasets (VALUE-Field) and add them together, in doing add carry value of the previous aggregation period to the next aggregation period in case the previous period contains a value.
        A possible counter overrun (restart with value "0") will be considered (compare attribute diffAccept).

        If only one dataset will be found within the evalution period, the difference can be calculated only in combination with the balanced difference of the previous aggregation period. In this case a logical inaccuracy according the assignment of the difference to the particular aggregation period can be possible. Hence in warning in "state" will be placed and the reading "less_data_in_period" with a list of periods with only one dataset found in it will be created.

          Note:
          Within the evaluation respectively aggregation period (day, week, month, etc.) you should make available at least one dataset at the beginning and one dataset at the end of each aggregation period to take the difference calculation as much as possible.

        Is no or the option "display" specified, the results are only displayed. Using option "writeToDB" the calculation results are stored in the database with a new reading name.
        The new readingname is built of a prefix and the original reading name, in which the original reading name can be partly replaced by the value of attribute readingNameMap. The prefix is made up of the creation function and the aggregation.
        The timestamp of the new stored readings is deviated from aggregation period, unless no unique point of time of the result can be determined. The field "EVENT" will be filled with "calculated".

          Example of building a new reading name from the original reading "totalpac":
          diff_day_totalpac
          # <creation function>_<aggregation>_<original reading>

        Summarized the relevant attributes to control this function are:

          aggregation : choose the aggregation period
          diffAccept : the accepted maximum difference between sequential records
          device : include or exclude <device> from selection
          executeBeforeProc : execution of FHEM command (or Perl-routine) before operation
          executeAfterProc : execution of FHEM command (or Perl-routine) after operation
          reading : include or exclude <reading> from selection
          readingNameMap : rename the resulted reading name
          time.* : a number of attributes to limit selection by time
          valueFilter : an additional REGEXP to control the record selection. The REGEXP is applied to the database field 'VALUE'.



      • dumpMySQL [clientSide | serverSide]

        Creates a dump of the connected MySQL database.
        Depending from selected option the dump will be created on Client- or on Server-Side.
        The variants differs each other concerning the executing system, the creating location, the usage of attributes, the function result and the needed hardware ressources.
        The option "clientSide" e.g. needs more powerful FHEM-Server hardware, but saves all available tables inclusive possibly created views.
        With attribute "dumpCompress" a compression of dump file after creation can be switched on.

          Option clientSide
          The dump will be created by client (FHEM-Server) and will be saved in FHEM log-directory ((typical /opt/fhem/log/)) by default. The target directory can be set by attribute dumpDirLocal and has to be writable by the FHEM process.
          Before executing the dump a table optimization can be processed optionally (see attribute "optimizeTablesBeforeDump") as well as a FHEM-command (attribute "executeBeforeProc"). After the dump a FHEM-command can be executed as well (see attribute "executeAfterProc").

          Note:
          To avoid FHEM from blocking, you have to operate DbLog in asynchronous mode if the table optimization want to be used !


          By the attributes dumpMemlimit and dumpSpeed the run-time behavior of the function can be controlled to optimize the performance and demand of ressources.

          The attributes relevant for function "dumpMySQL clientSide" are:

            dumpComment : User comment in head of dump file
            dumpCompress : compress of dump files after creation
            dumpDirLocal : the local destination directory for dump file creation
            dumpMemlimit : limits memory usage
            dumpSpeed : limits CPU utilization
            dumpFilesKeep : number of dump files to keep
            executeBeforeProc : execution of FHEM command (or Perl-routine) before dump
            executeAfterProc : execution of FHEM command (or Perl-routine) after dump
            optimizeTablesBeforeDump : table optimization before dump

          After a successfull finished dump the old dumpfiles are deleted and only the number of files defined by attribute "dumpFilesKeep" (default: 3) remain in the target directory "dumpDirLocal". If "dumpFilesKeep = 0" is set, all dumpfiles (also the current created file), are deleted. This setting can be helpful, if FTP transmission is used and the created dumps are only keep remain in the FTP destination directory.

          The naming convention of dump files is: <dbname>_<date>_<time>.sql[.gzip]

          To rebuild the database from a dump file the command:

            set <name> restoreMySQL <filename>

          can be used.

          The created dumpfile (uncompressed) can imported on the MySQL-Server by:

            mysql -u <user> -p <dbname> < <filename>.sql

          as well to restore the database from dump file.


          Option serverSide
          The dump will be created on the MySQL-Server and will be saved in its Home-directory by default.
          The whole history-table (not the current-table) will be exported CSV-formatted without any restrictions.
          Before executing the dump a table optimization can be processed optionally (see attribute "optimizeTablesBeforeDump") as well as a FHEM-command (attribute "executeBeforeProc").

          Note:
          To avoid FHEM from blocking, you have to operate DbLog in asynchronous mode if the table optimization is used !


          After the dump a FHEM-command can be executed as well (see attribute "executeAfterProc").

          The attributes relevant for function "dumpMySQL serverSide" are:

            dumpDirRemote : destination directory of dump file on remote server
            dumpCompress : compress of dump files after creation
            dumpDirLocal : the local mounted directory dumpDirRemote
            dumpFilesKeep : number of dump files to keep
            executeBeforeProc : execution of FHEM command (or Perl-routine) before dump
            executeAfterProc : execution of FHEM command (or Perl-routine) after dump
            optimizeTablesBeforeDump : table optimization before dump

          The target directory can be set by dumpDirRemote attribute. It must be located on the MySQL-Host and has to be writable by the MySQL-server process.
          The used database user must have the FILE privilege (see Wiki).

          Note:
          If the internal version management of DbRep should be used and the size of the created dumpfile be reported, you have to mount the remote MySQL-Server directory "dumpDirRemote" on the client and publish it to the DbRep-device by fill out the dumpDirLocal attribute.
          Same is necessary if ftp transfer after dump is to be used (attribute "ftpUse" respectively "ftpUseSSL").

            Example:
            attr <name> dumpDirRemote /volume1/ApplicationBackup/dumps_FHEM/
            attr <name> dumpDirLocal /sds1/backup/dumps_FHEM/
            attr <name> dumpFilesKeep 2

            # The dump will be created remote on the MySQL-Server in directory '/volume1/ApplicationBackup/dumps_FHEM/'.
            # The internal version management searches in local mounted directory '/sds1/backup/dumps_FHEM/' for present dumpfiles and deletes these files except the last two versions.

          If the internal version management is used, after a successfull finished dump old dumpfiles will be deleted and only the number of attribute "dumpFilesKeep" (default: 3) would remain in target directory "dumpDirLocal" (the mounted "dumpDirRemote"). In that case FHEM needs write permissions to the directory "dumpDirLocal".

          The naming convention of dump files is: <dbname>_<date>_<time>.csv[.gzip]

          You can start a restore of table history from serverSide-Backup by command:

            set <name> <restoreMySQL> <filename>.csv[.gzip]



          FTP-Transfer after Dump
          If those possibility is be used, the attribute ftpUse or ftpUseSSL has to be set. The latter if encoding for FTP is to be used. The module also carries the version control of dump files in FTP-destination by attribute "ftpDumpFilesKeep".
          Further attributes are:

            ftpUse : FTP Transfer after dump will be switched on (without SSL encoding)
            ftpUser : User for FTP-server login, default: anonymous
            ftpUseSSL : FTP Transfer with SSL encoding after dump
            ftpDebug : debugging of FTP communication for diagnostics
            ftpDir : directory on FTP-server in which the file will be send into (default: "/")
            ftpDumpFilesKeep : leave the number of dump files in FTP-destination <ftpDir> (default: 3)
            ftpPassive : set if passive FTP is to be used
            ftpPort : FTP-Port, default: 21
            ftpPwd : password of FTP-User, not set by default
            ftpServer : name or IP-address of FTP-server. absolutely essential !
            ftpTimeout : timeout of FTP-connection in seconds (default: 30).



      • dumpSQLite - creates a dump of the connected SQLite database.
        This function uses the SQLite Online Backup API and allow to create a consistent backup of the database during the normal operation. The dump will be saved in FHEM log-directory by default. The target directory can be defined by the dumpDirLocal attribute and has to be writable by the FHEM process.
        Before executing the dump a table optimization can be processed optionally (see attribute "optimizeTablesBeforeDump").

        Note:
        To avoid FHEM from blocking, you have to operate DbLog in asynchronous mode if the table optimization want to be used !


        Before and after the dump a FHEM-command can be executed (see attribute "executeBeforeProc", "executeAfterProc").

        The attributes relevant for function "dumpMySQL serverSide" are:

          dumpCompress : compress of dump files after creation
          dumpDirLocal : Target directory of the dumpfiles
          dumpFilesKeep : number of dump files to keep
          executeBeforeProc : execution of FHEM command (or Perl-routine) before dump
          executeAfterProc : execution of FHEM command (or Perl-routine) after dump
          optimizeTablesBeforeDump : table optimization before dump

        After a successfull finished dump the old dumpfiles are deleted and only the number of attribute "dumpFilesKeep" (default: 3) remain in the target directory "dumpDirLocal". If "dumpFilesKeep = 0" is set, all dumpfiles (also the current created file), are deleted. This setting can be helpful, if FTP transmission is used and the created dumps are only keep remain in the FTP destination directory.

        The naming convention of dump files is: <dbname>_<date>_<time>.sqlitebkp[.gzip]

        The database can be restored by command "set <name> restoreSQLite <filename>"
        The created dump file can be transfered to a FTP-server. Please see explanations about FTP- transfer in topic "dumpMySQL".


      • eraseReadings - deletes all created readings in the device, except reading "state" and readings, which are contained in exception list defined by attribute "readingPreventFromDel".

      • exportToFile [</path/file>] [MAXLINES=<lines>] - exports DB-entries to a file in CSV-format of time period specified by time attributes.

        The filename can be defined by the expimpfile attribute.
        Optionally a file can be specified as a command option (/path/file) and overloads a possibly defined attribute "expimpfile". The maximum number of datasets which are exported into one file can be specified with the optional parameter "MAXLINES". In this case several files with extensions "_part1", "_part2", "_part3" and so on are created (pls. remember it when you import the files !).
        Limitation of selections can be done by attributes device and/or reading. The filename may contain wildcards as described in attribute section of "expimpfile".
        By setting attribute "aggregation" the export of datasets will be splitted into time slices corresponding to the specified aggregation. If, for example, "aggregation = month" is set, the data are selected in monthly packets and written into the exportfile. Thereby the usage of main memory is optimized if very large amount of data is exported and avoid the "died prematurely" error.

        The attributes relevant for this function are:

          aggregation : determination of selection time slices
          device : include or exclude <device> from selection
          reading : include or exclude <reading> from selection
          time.* : a number of attributes to limit selection by time
          executeBeforeProc : execution of FHEM command (or Perl-routine) before export
          executeAfterProc : execution of FHEM command (or Perl-routine) after export
          expimpfile : the name of exportfile
          time.* : a number of attributes to limit selection by time
          valueFilter : an additional REGEXP to control the record selection. The REGEXP is applied to the database field 'VALUE'.

      • fetchrows [history|current] - provides all table entries (default: history) of time period set by time.*-attributes respectively selection conditions by attributes "device" and "reading". An aggregation set will not be considered.
        The direction of data selection can be determined by the fetchRoute attribute.

        Every reading of result is composed of the dataset timestring , an index, the device name and the reading name. The function has the capability to reconize multiple occuring datasets (doublets). Such doublets are marked by an index > 1. Optional a Unique-Index is appended if datasets with identical timestamp, device and reading but different value are existing.
        Doublets can be highlighted in terms of color by setting attribut e"fetchMarkDuplicates".

        Note:
        Highlighted readings are not displayed again after restart or rereadcfg because of they are not saved in statefile.

        This attribute is preallocated with some colors, but can be changed by colorpicker-widget:

          attr <DbRep-Device> widgetOverride fetchMarkDuplicates:colorpicker

        The readings of result are composed like the following sceme:

          Example:
          2017-10-22_03-04-43__1__SMA_Energymeter__Bezug_WirkP_Kosten_Diff__[1]
          # <date>_<time>__<index>__<device>__<reading>__[Unique-Index]

        For a better overview the relevant attributes are listed here in a table:

          device : include or exclude <device> from selection
          fetchRoute : direction of selection read in database
          fetchMarkDuplicates : Highlighting of found doublets
          fetchValueFn : the displayed value of the VALUE database field can be changed by a function before the reading is created
          limit : limits the number of datasets to select and display
          reading : include or exclude <reading> from selection
          executeBeforeProc : execution of FHEM command (or Perl-routine) before operation
          executeAfterProc : execution of FHEM command (or Perl-routine) after operation
          time.* : A number of attributes to limit selection by time
          valueFilter : an additional REGEXP to control the record selection. The REGEXP is applied to the database field 'VALUE'.


        Note:
        Although the module is designed non-blocking, a huge number of selection result (huge number of rows) can overwhelm the browser session respectively FHEMWEB. Due to the sample space can be limited by limit attribute. Of course ths attribute can be increased if your system capabilities allow a higher workload.


      • index <Option> - Reports the existing indexes in the database or creates the index which is needed. If the index is already created, it will be renewed (dropped and new created)

        The possible options are:

          list_all : reports the existing indexes
          recreate_Search_Idx : create or renew (if existing) the index Search_Idx in table history (index for DbLog)
          drop_Search_Idx : delete the index Search_Idx in table history
          recreate_Report_Idx : create or renew (if existing) the index Report_Idx in table history (index for DbRep)
          drop_Report_Idx : delete the index Report_Idx in table history

        For a better overview the relevant attributes for this operation are listed here:

          useAdminCredentials : use privileged user for the operation


        Note:
        The MySQL database user used requires the ALTER, CREATE and INDEX privilege.
        These rights can be set with:

          set <Name> sqlCmd GRANT INDEX, ALTER, CREATE ON `<db>`.* TO '<user>'@'%';

        The useAdminCredentials attribute must usually be set to be able to change the rights of the used user.

      • insert <Date>,<Time>,<Value>,[<Unit>],[<Device>],[<Reading>] - Manual insertion of a data record into the table "history". Input values for date, time and value are obligatory. The values for the DB fields TYPE and EVENT are filled with "manual".
        If Device, Reading are not set, these values are taken from the corresponding attributes device, reading.

        Note:
        Unused fields within the insert command must be enclosed within the string in "," within the string.

          Examples:
          set <name> insert 2016-08-01,23:00:09,12.03,kW
          set <name> insert 2021-02-02,10:50:00,value with space
          set <name> insert 2022-05-16,10:55:00,1800,,SMA_Wechselrichter,etotal
          set <name> insert 2022-05-16,10:55:00,1800,,,etotal

        The relevant attributes to control this function are:

          executeBeforeProc : execution of FHEM command (or Perl-routine) before operation
          executeAfterProc : execution of FHEM command (or Perl-routine) after operation


      • importFromFile [<file>] - imports data in CSV format from file into database.
        The filename can be defined by attribute expimpfile.
        Optionally a file can be specified as a command option (/path/file) and overloads a possibly defined attribute "expimpfile". The filename may contain wildcards as described in attribute section of "expimpfile".

          dataset format:
          "TIMESTAMP","DEVICE","TYPE","EVENT","READING","VALUE","UNIT"

          # The fields "TIMESTAMP","DEVICE","TYPE","EVENT","READING" and "VALUE" have to be set. The field "UNIT" is optional. The file content will be imported transactional. That means all of the content will be imported or, in case of error, nothing of it. If an extensive file will be used, DON'T set verbose = 5 because of a lot of datas would be written to the logfile in this case. It could lead to blocking or overload FHEM !

          Example for a source dataset:
          "2016-09-25 08:53:56","STP_5000","SMAUTILS","etotal: 11859.573","etotal","11859.573",""

          The attributes relevant for this function are:

            executeBeforeProc : execution of FHEM command (or Perl-routine) before import
            executeAfterProc : execution of FHEM command (or Perl-routine) after import
            expimpfile : the name of exportfile


      • maxValue [display | writeToDB | deleteOther]
        br> Calculates the maximum value of database column "VALUE" between period given by attributes timestamp_begin, "timestamp_end" / "timeDiffToNow / timeOlderThan" and so on. The reading to evaluate must be defined using attribute reading. The evaluation contains the timestamp of the last appearing of the identified maximum value within the given period.

        If no option or the option display is specified, the results are only displayed. Using option writeToDB the calculated results are stored in the database with a new reading name.
        The new readingname is built of a prefix and the original reading name, in which the original reading name can be replaced by the value of attribute readingNameMap. The prefix is made up of the creation function and the aggregation.
        The timestamp of the new stored readings is deviated from aggregation period, unless no unique point of time of the result can be determined. The field "EVENT" will be filled with "calculated".

        With option deleteOther all datasets except the dataset with the maximum value are deleted.

          Example of building a new reading name from the original reading "totalpac":
          max_day_totalpac
          # <creation function>_<aggregation>_<original reading>

        Summarized the relevant attributes to control this function are:


      • migrateCollation <Collation>

        Migrates the used character set/collation of the database and the tables current and history to the specified format.

        Relevant attributes are:


      • minValue [display | writeToDB | deleteOther]

        Calculates the minimum value of database column "VALUE" between period given by attributes timestamp_begin, "timestamp_end" / "timeDiffToNow / timeOlderThan" and so on. The reading to evaluate must be defined using attribute reading. The evaluation contains the timestamp of the first appearing of the identified minimum value within the given period.

        If no option or the option display is specified, the results are only displayed. Using option writeToDB the calculated results are stored in the database with a new reading name.
        The new readingname is built of a prefix and the original reading name, in which the original reading name can be replaced by the value of attribute readingNameMap. The prefix is made up of the creation function and the aggregation.
        The timestamp of the new stored readings is deviated from aggregation period, unless no unique point of time of the result can be determined. The field "EVENT" will be filled with "calculated".

        With option deleteOther all datasets except the dataset with the maximum value are deleted.

          Example of building a new reading name from the original reading "totalpac":
          min_day_totalpac
          # <creation function>_<aggregation>_<original reading>

        Relevant attributes are:


      • optimizeTables [showInfo | execute]

        Optimize tables in the connected database (MySQL).

          showInfo : shows information about the used / free space within the database
          execute : performs optimization of all tables in the database

        Relevant attributes are:

      • readingRename <[device:]oldreadingname>,<newreadingname>

        Renames the reading name of a device inside the connected database (see Internal DATABASE). The readingname will allways be changed in the entire database. Possibly set time limits or restrictions by attributes device and/or reading will not be considered.
        As an option a device can be specified. In this case only the old readings of this device will be renamed.

          Examples:
          set <name> readingRename TotalConsumtion,L1_TotalConsumtion
          set <name> readingRename Dum.Energy:TotalConsumtion,L1_TotalConsumtion

        The amount of renamed reading names (datasets) will be displayed in reading "reading_renamed".
        If the reading name to be renamed was not found in the database, a WARNING will appear in reading "reading_not_renamed".
        Appropriate entries will be written to Logfile if verbose >= 3 is set.

        Relevant attributes are:


      • reduceLog [<no>[:<nn>]] [mode] [EXCLUDE=device1:reading1,device2:reading2,...] [INCLUDE=device:reading]

        Reduces historical data sets.

        Operation without specifying command line operators

        The data is cleaned within the time limits defined by the time.*-attributes. At least one of the time.* attributes must be set (see table below). The respective missing time accrual is determined by the module in this case.
        The working mode is determined by the optional specification of mode:

          without specification of mode : the data is reduced to the first entry per hour per device & reading
          average : numerical values are reduced to an average value per hour per device & reading, otherwise as without mode
          average=day : numeric values are reduced to one mean value per day per device & reading, otherwise as without mode
            The FullDay option (full days are always selected) is used implicitly.
          max : numeric values are reduced to the maximum value per hour per device & reading, otherwise as without mode
          max=day : numeric values are reduced to the maximum value per day per device & reading, otherwise as without mode
            The FullDay option (full days are always selected) is used implicitly.
          min : numeric values are reduced to the minimum value per hour per device & reading, otherwise as without mode
          min=day : numeric values are reduced to the minimum value per day per device & reading, otherwise as without mode
            The FullDay option (full days are always selected) is used implicitly.
          sum : numeric values are reduced to the sum per hour per Device & Reading, otherwise as without mode
          sum=day : numeric values are reduced to the sum per day per Device & Reading, otherwise as without mode
            The FullDay option (full days are always selected) is used implicitly.

        With the attributes device and reading the data records to be considered can be included or be excluded. Both restrictions reduce the selected data and reduce the resource requirements. The read "reduceLogState" contains the execution result of the last reduceLog command.

        Relevant attributes are:

        Examples:

          attr <name> timeOlderThan d:200
          set <name> reduceLog
          # Records older than 200 days are written to the first entry per hour per Device & Reading.

          attr <name> timeDiffToNow d:200
          set <name> reduceLog average=day
          # Records newer than 200 days are limited to one entry per day per Device & Reading.

          attr <name> timeDiffToNow d:30
          attr <name> device TYPE=SONOSPLAYER EXCLUDE=Sonos_Kueche
          attr <name> reading room% EXCLUDE=roomNameAlias
          set <name> reduceLog
          # Records newer than 30 days that are devices of type SONOSPLAYER (except Device "Sonos_Kitchen") and the readings start with "room" (except "roomNameAlias") are reduced to the first entry per hour per Device & Reading.

          attr <name> timeDiffToNow d:10
          attr <name> timeOlderThan d:5
          attr <name> device Luftdaten_remote
          set <name> reduceLog average
          # Records older than 5 and newer than 10 days and containing DEVICE "Luftdaten_remote are adjusted. Numerical values of an hour are reduced to an average value


        Operation with specification of command line operators

        Es werden Datensätze berücksichtigt die älter sind als <no> Tage und (optional) neuer sind als <nn> Tage. Records are considered that are older than <no> days and (optionally) newer than <nn> days. The working mode is determined by the optional specification of mode as described above.

        The additions "EXCLUDE" or "INCLUDE" can be added to exclude or include device/reading combinations in reduceLog and override the "device" and "reading" attributes, which are ignored in this case.
        The specification in "EXCLUDE" is evaluated as a regex. Inside "INCLUDE", SQL wildcards can be used. (for more information on SQL wildcards, see with get <name> versionNotes 6)

        Examples:

          set <name> reduceLog 174:180 average EXCLUDE=SMA_Energymeter:Bezug_Wirkleistung INCLUDE=SMA_Energymeter:%
          # Records older than 174 and newer than 180 days are reduced to average per hour.
          # All readings from the device "SMA_Energymeter" except "Bezug_Wirkleistung" are taken reduced.

        Note:
        Although the function itself is designed non-blocking, the assigned DbLog device should be operated in asynchronous mode to avoid blocking FHEMWEB (table lock).
        Furthermore it is strongly recommended to create the standard INDEX 'Search_Idx' in the table 'history' !
        The processing of this command may take an extremely long time (without INDEX).


      • repairSQLite [sec]

        Repairs a corrupted SQLite database.

        A corruption is usally existent when the error message "database disk image is malformed" appears in reading "state" of the connected DbLog-device. If the command was started, the connected DbLog-device will firstly disconnected from the database for 10 hours (36000 seconds) automatically (breakup time). After the repair is finished, the DbLog-device will be connected to the (repaired) database immediately.
        As an argument the command can be completed by a differing breakup time (in seconds).
        The corrupted database is saved as <database>.corrupt in same directory.

        Relevant attributes are:

        Example:
          set <name> repairSQLite
          # the database is trying to repair, breakup time is 10 hours
          set <name> repairSQLite 600
          # the database is trying to repair, breakup time is 10 minutes

        Note:
        It can't be guaranteed, that the repair attempt proceed successfully and no data loss will result. Depending from corruption severity data loss may occur or the repair will fail even though no error appears during the repair process. Please make sure a valid backup took place !


      • restoreMySQL <File> - restore a database from serverSide- or clientSide-Dump.

        The function provides a drop-down-list of files which can be used for restore.

        Usage of serverSide-Dumps
        The content of history-table will be restored from a serverSide-Dump. Therefore the remote directory "dumpDirRemote" of the MySQL-Server has to be mounted on the Client and make it usable to the DbRep device by setting attribute dumpDirLocal to the appropriate value.
        All files with extension "csv[.gzip]" and if the filename is beginning with the name of the connected database (see Internal DATABASE) are listed.

        Usage of clientSide-Dumps
        The used database user needs the FILE privilege (see Wiki).
        All tables and views (if present) are restored. The directory which contains the dump files has to be set by attribute dumpDirLocal to make it usable by the DbRep device.
        All files with extension "sql[.gzip]" and if the filename is beginning with the name of the connected database (see Internal DATABASE) are listed.
        The restore speed depends of the server variable "max_allowed_packet". You can change this variable in file my.cnf to adapt the speed. Please consider the need of sufficient ressources (especially RAM).

        The database user needs rights for database management, e.g.:
        CREATE, ALTER, INDEX, DROP, SHOW VIEW, CREATE VIEW

        Relevant attributes are:


      • restoreSQLite <File>.sqlitebkp[.gzip]

        Restores a backup of SQLite database.
        The function provides a drop-down-list of files which can be used for restore. The data stored in the current database are deleted respectively overwritten. All files with extension "sqlitebkp[.gzip]" and if the filename is beginning with the name of the connected database will are listed.

        Relevant attributes are:


      • sqlCmd

        Executes any user-specific command.
        If this command contains a delete operation, for safety reasons the attribute allowDeletion has to be set.
        sqlCmd also accepts the setting of SQL session variables such as. "SET @open:=NULL, @closed:=NULL;" or the use of SQLite PRAGMA prior to the execution of the SQL statement. If the session variable or PRAGMA has to be set every time before executing a SQL statement, the attribute sqlCmdVars can be set.

        If the attributes device, reading, timestamp_begin respectively timestamp_end set in the module are to be taken into account in the statement, the placeholders §device§, §reading§, §timestamp_begin§ respectively §timestamp_end§ can be used for this purpose.
        It should be noted that the placeholders §device§ and §reading§ complex are resolved and should be applied accordingly as in the example below.

        If you want update a dataset, you have to add "TIMESTAMP=TIMESTAMP" to the update-statement to avoid changing the original timestamp.

        Examples of SQL-statements:

        • set <name> sqlCmd select DEVICE, count(*) from history where TIMESTAMP >= "2017-01-06 00:00:00" group by DEVICE having count(*) > 800
        • set <name> sqlCmd select DEVICE, count(*) from history where TIMESTAMP >= "2017-05-06 00:00:00" group by DEVICE
        • set <name> sqlCmd select DEVICE, count(*) from history where TIMESTAMP >= §timestamp_begin§ group by DEVICE
        • set <name> sqlCmd select * from history where DEVICE like "Te%t" order by `TIMESTAMP` desc
        • set <name> sqlCmd select * from history where `TIMESTAMP` > "2017-05-09 18:03:00" order by `TIMESTAMP` desc
        • set <name> sqlCmd select * from current order by `TIMESTAMP` desc
        • set <name> sqlCmd select sum(VALUE) as 'Einspeisung am 04.05.2017', count(*) as 'Anzahl' FROM history where `READING` = "Einspeisung_WirkP_Zaehler_Diff" and TIMESTAMP between '2017-05-04' AND '2017-05-05'
        • set <name> sqlCmd delete from current
        • set <name> sqlCmd delete from history where TIMESTAMP < "2016-05-06 00:00:00"
        • set <name> sqlCmd update history set TIMESTAMP=TIMESTAMP,VALUE='Val' WHERE VALUE='TestValue'
        • set <name> sqlCmd select * from history where DEVICE = "Test"
        • set <name> sqlCmd insert into history (TIMESTAMP, DEVICE, TYPE, EVENT, READING, VALUE, UNIT) VALUES ('2017-05-09 17:00:14','Test','manuell','manuell','Tes§e','TestValue','°C')
        • set <name> sqlCmd select DEVICE, count(*) from history where §device§ AND TIMESTAMP >= §timestamp_begin§ group by DEVICE
        • set <name> sqlCmd select DEVICE, READING, count(*) from history where §device§ AND §reading§ AND TIMESTAMP >= §timestamp_begin§ group by DEVICE, READING

        • Here you can see examples of a more complex statement (MySQL) with setting SQL session variables and the SQLite PRAGMA usage:

        • set <name> sqlCmd SET @open:=NULL, @closed:=NULL; SELECT TIMESTAMP, VALUE,DEVICE, @open AS open, @open := IF(VALUE = 'open', TIMESTAMP, NULL) AS curr_open, @closed := IF(VALUE = 'closed', TIMESTAMP, NULL) AS closed FROM history WHERE DATE(TIMESTAMP) = CURDATE() AND DEVICE = "HT_Fensterkontakt" AND READING = "state" AND (VALUE = "open" OR VALUE = "closed") ORDER BY TIMESTAMP;
        • set <name> sqlCmd PRAGMA temp_store=MEMORY; PRAGMA synchronous=FULL; PRAGMA journal_mode=WAL; PRAGMA cache_size=4000; select count(*) from history;
        • set <name> sqlCmd PRAGMA temp_store=FILE; PRAGMA temp_store_directory = '/opt/fhem/'; VACUUM;

        The formatting of result can be choosen by attribute sqlResultFormat, as well as the used field separator can be determined by attribute sqlResultFieldSep.

        The module provides a command history once a sqlCmd command was executed successfully. To use this option, activate the attribute sqlCmdHistoryLength with list lenght you want.
        If the command history is enabled, an indexed list of stored SQL statements is available with ___list_sqlhistory___ within the sqlCmdHistory command.

        An SQL statement can be executed by specifying its index in this form:

          set <name> sqlCmd ckey:<Index>      (e.g. ckey:4)

        Relevant attributes are:

        Note:
        Even though the module works non-blocking regarding to database operations, a huge sample space (number of rows/readings) could block the browser session respectively FHEMWEB.
        If you are unsure about the result of the statement, you should preventively add a limit to the statement.


      • sqlCmdHistory

        If activated with the attribute sqlCmdHistoryLength, a stored SQL statement can be selected from a list and executed.
        The SQL cache is automatically saved when FHEM is closed and restored when the system is started.
        The following entries execute special functions:


          ___purge_sqlhistory___ : deletes the history cache
          ___list_sqlhistory___ : shows the SQL statements currently in the cache, including their cache key (ckey)
          ___save_sqlhistory___ : backs up the history cache manually
          ___restore_sqlhistory___ : restores the last backup of the history cache

        Relevant attributes are:


      • sqlSpecial

        This function provides a drop-down list with a selection of prepared reportings.
        The statements result is depicted in reading "SqlResult". The result can be formatted by attribute sqlResultFormat a well as the used field separator by attribute sqlResultFieldSep.

          50mostFreqLogsLast2days reports the 50 most occuring log entries of the last 2 days
          allDevCount all devices occuring in database and their quantity
          allDevReadCount all device/reading combinations occuring in database and their quantity
          50DevReadCount the 50 most frequently included device/reading combinations in the database
          recentReadingsOfDevice determines the newest records of a device available in the database. The
          device must be defined in attribute device
          readingsDifferenceByTimeDelta determines the value difference of successive data records of a reading. The
          device and reading must be defined in the attribute device or reading.
          The time limits of the evaluation are defined by the time.*-attributes.

        Relevant attributes are:



      • sumValue [display | writeToDB | writeToDBSingle | writeToDBInTime]

        Calculates the total values of the database field "VALUE" in the time limits of the possible time.*-attributes.

        The reading to be evaluated must be specified in the attribute reading. This function is useful if continuous value differences of a reading are written into the database.

        If none or the option display is specified, the results are only displayed. With the options writeToDB, writeToDBSingle or writeToDBInTime the calculation results are written with a new reading name into the database.

          writeToDB : writes one value each with the time stamps XX:XX:01 and XX:XX:59 within the respective aggregation period
          writeToDBSingle : writes only one value with the time stamp XX:XX:59 at the end of an aggregation period
          writeToDBInTime : writes a value at the beginning and end of the time limits of an aggregation period

        The new reading name is formed from a prefix and the original reading name, where the original reading name can be replaced by the attribute "readingNameMap". The prefix consists of the educational function and the aggregation.
        The timestamp of the new reading in the database is determined by the set aggregation period if no clear time of the result can be determined. The field "EVENT" is filled with "calculated".

          Example of building a new reading name from the original reading "totalpac":
          sum_day_totalpac
          # <creation function>_<aggregation>_<original reading>

        Relevant attributes are:



      • syncStandby <DbLog-Device Standby>

        Datasets of the connected database (source) are transmitted into another database (Standby-database).
        Here the "<DbLog-Device Standby>" is the DbLog-Device what is connected to the Standby-database.

        All the datasets which are determined by timestamp_begin attribute or respectively the attributes "device", "reading" are transmitted.
        The datasets are transmitted in time slices accordingly to the adjusted aggregation. If the attribute "aggregation" has value "no" or "month", the datasets are transmitted automatically in daily time slices into standby-database. Source- and Standby-database can be of different types.

        Relevant attributes are:



      • tableCurrentFillup

        The current-table will be filled u with an extract of the history-table.
        The attributes for limiting time and device, reading are considered.
        Thereby the content of the extract can be affected.
        In the associated DbLog-device the attribute "DbLogType" should be set to "SampleFill/History".

        Relevant attributes are:


      • tableCurrentPurge

        Deletes the content of current-table.
        There are no limits, e.g. by attributes timestamp_begin, timestamp_end, device or reading considered.

        Relevant attributes are:


      • vacuum

        Optimizes the tables in the connected database (SQLite, PostgreSQL).
        Especially for SQLite databases it is strongly recommended to temporarily close the connection of the relevant DbLog device to the database (see DbLog reopen command).

        Relevant attributes are:

        Note:
        When the vacuum command is executed, the PRAGMA auto_vacuum = FULL is automatically applied to SQLite databases.
        The vacuum command requires additional temporary memory. If there is not enough space in the default TMPDIR directory, SQLite can be assigned a sufficiently large directory by setting the environment variable SQLITE_TMPDIR.
        (see also: www.sqlite.org/tempfiles)



Get
    The get-commands of DbRep provide to retrieve some metadata of the used database instance. Those are for example adjusted server parameter, server variables, datadasestatus- and table informations. THe available get-functions depending of the used database type. So for SQLite curently only "get svrinfo" is usable. The functions nativ are delivering a lot of outpit values. They can be limited by function specific attributes. The filter has to be setup by a comma separated list. SQL-Wildcard (%) can be used to setup the list arguments.

    Note:
    After executing a get-funktion in detail view please make a browser refresh to see the results !

      • blockinginfo - list the current system wide running background processes (BlockingCalls) together with their informations. If character string is too long (e.g. arguments) it is reported shortened.


      • dbstatus - lists global information about MySQL server status (e.g. informations related to cache, threads, bufferpools, etc. ). Initially all available informations are reported. Using the attribute showStatus the quantity of results can be limited to show only the desired values. Further detailed informations of items meaning are explained here.

          Example
          attr <name> showStatus %uptime%,%qcache%
          get <name> dbstatus
          # Only readings containing "uptime" and "qcache" in name will be created


      • dbvars - lists global informations about MySQL system variables. Included are e.g. readings related to InnoDB-Home, datafile path, memory- or cache-parameter and so on. The Output reports initially all available informations. Using the attribute showVariables the quantity of results can be limited to show only the desired values. Further detailed informations of items meaning are explained here.

          Example
          attr <name> showVariables %version%,%query_cache%
          get <name> dbvars
          # Only readings containing "version" and "query_cache" in name will be created


      • initData - Determines some database properties relevant for the module function. The command is executed implicitly at the first database connection.


      • minTimestamp - Identifies the oldest timestamp in the database (will be executed implicitely at FHEM start). The timestamp is used as begin of data selection if no time attribut is set to determine the start date.


      • procinfo - Reports the existing database processes in a summary table (only MySQL).
        Typically only the own processes of the connection user (set in DbLog configuration file) will be reported. If all precesses have to be reported, the global "PROCESS" right has to be granted to the user.
        As of MariaDB 5.3 for particular SQL-Statements a progress reporting will be provided (table row "PROGRESS"). So you can track, for instance, the degree of processing during an index creation.
        Further informations can be found here.


      • sqlCmdBlocking <SQL-statement>

        Executes the specified SQL statement blocking with a default timeout of 10 seconds. The timeout can be set with the attribute timeout.

          Examples:
          { fhem("get <name> sqlCmdBlocking select device,count(*) from history where timestamp > '2018-04-01' group by device") }
          { CommandGet(undef,"Rep.LogDB1 sqlCmdBlocking select device,count(*) from history where timestamp > '2018-04-01' group by device") }
          get <name> sqlCmdBlocking select device,count(*) from history where timestamp > '2018-04-01' group by device

      • Because of its mode of operation this function is particular convenient for user own perl scripts.
        The input accepts multi line commands and delivers multi line results as well. This command also accept the setting of SQL session variables like "SET @open:=NULL, @closed:=NULL;" or PRAGMA for SQLite.
        If several fields are selected and passed back, the fieds are separated by the separator defined by attribute sqlResultFieldSep (default "|"). Several result lines are separated by newline ("\n").
        This function only set/update status readings, the userExitFn function isn't called.

        If you create a little routine in 99_myUtils, for example:
        sub dbval {
          my $name = shift;
          my $cmd) = shift;
          my $ret = CommandGet(undef,"$name sqlCmdBlocking $cmd");
          return $ret;
        }
            
        it can be accessed with e.g. those calls:

          Examples:
          { dbval("<name>","select count(*) from history") }
          $ret = dbval("<name>","select count(*) from history");


      • storedCredentials - Reports the users / passwords stored for database access by the device.
        (only valid if database type is MYSQL)


      • svrinfo - Common database server informations, e.g. DBMS-version, server address and port and so on. The quantity of elements to get depends on the database type. Using the attribute showSvrInfo the quantity of results can be limited to show only the desired values. Further detailed informations of items meaning are explained here.

          Example
          attr <name> showSvrInfo %SQL_CATALOG_TERM%,%NAME%
          get <name> svrinfo
          # Only readings containing "SQL_CATALOG_TERM" and "NAME" in name will be created


      • tableinfo - Access detailed informations about tables in MySQL database which is connected by the DbRep-device. All available tables in the connected database will be selected by default. Using the attribute showTableInfo the results can be limited to tables you want to show. Further detailed informations of items meaning are explained here.

          Example
          attr <name> showTableInfo current,history
          get <name> tableinfo
          # Only informations related to tables "current" and "history" are going to be created


      • versionNotes [hints | rel | <key>] - Shows realease informations and/or hints about the module.

          rel : shows only release information
          hints : shows only hints
          <key> : the note with the specified number is displayed

      • It contains only main release informations for module users.
        If no options are specified, both release informations and hints will be shown. "rel" shows only release informations and "hints" shows only hints. By the <key>-specification only the hint with the specified number is shown.
Attributes
    Using the module specific attributes you are able to define the scope of evaluation and the aggregation.
    The listed attrbutes are not completely relevant for every function of the module. The help of set/get-commands contain explicitly which attributes are relevant for the specific command.

    Note for SQL-Wildcard Usage:
    Within the attribute values of "device" and "reading" you may use SQL-Wildcard "%", Character "_" is not supported as a wildcard. The character "%" stands for any characters.
    This rule is valid to all functions except "insert", "importFromFile" and "deviceRename".
    The function "insert" doesn't allow setting the mentioned attributes containing the wildcard "%".
    In readings the wildcard character "%" will be replaced by "/" to meet the rules of allowed characters in readings.

      • aggregation - Aggregation of Device/Reading-selections. Possible values are hour, day, week, month, year and "no". Delivers e.g. the count of database entries for a day (countEntries), Summation of difference values of a reading (sumValue) and so on. Using aggregation "no" (default) an aggregation don't happens but the output contains all values of Device/Reading in the selected time period.

      • allowDeletion - unlocks the delete-function

      • autoForward - if activated, the result threads of a function are transferred to one or more devices.
        The definition takes the form:
        {
          "<source-reading> => "<dest.device> [=> <dest.-reading>]",
          "<source-reading> => "<dest.device> [=> <dest.-reading>]",
          ...
        }
                                      
        Wildcards (.*) are permitted in the specification <source-reading>.

          Example:
          {
            ".*"        => "Dum.Rep.All",
            ".*AVGAM.*" => "Dum.Rep     => average",
            ".*SUM.*"   => "Dum.Rep.Sum => summary",
          }
          # all readings are transferred to device "Dum.Rep.All", reading name remains in the target
          # readings with "AVGAM" in the name are transferred to the "Dum.Rep" device in the reading "average"
          # readings with "SUM" in the name are transferred to the device "Dum.Rep.Sum" in the reading "summary"
                                        

      • averageCalcForm

        Defines the calculation variant for determining the average value with "averageValue".

        Currently the following variants are implemented:

          avgArithmeticMean: The arithmetic average is calculated. (default)
          avgDailyMeanGWS: Calculates the daily medium temperature according the
          specifications of german weather service. (see also "get <name> versionNotes 2")
          This variant uses aggregation "day" automatically.
          avgDailyMeanGWSwithGTS: Same as "avgDailyMeanGWS" and additionally calculates the grassland temperature sum.
          If the value 200 is reached, the reading "reachedGTSthreshold" is created with the
          date of the first time this threshold value is reached.
          Note: the attribute timestamp_begin must be set to the beginning of a year !
          Note: The attribute timestamp_begin must be set to the beginning of a year!
          (see also "get <name> versionNotes 5")
          avgTimeWeightMean: Calculates the time-weighted average.
          Note: There must be at least two data points per aggregation period.

      • countEntriesDetail - If set, the function countEntries creates a detailed report of counted datasets of every reading. By default only the summary of counted datasets is reported.

      • device - Selection of particular or several devices.
        You can specify a list of devices separated by "," or use device specifications (devspec).
        In that case the device names are derived from the device specification and the existing devices in FHEM before carry out the SQL selection.
        If the the device, list or device specification is prepended by "EXCLUDE=", the devices are excluded from database selection.
        The database selection is executed as a logical AND operation of "device" and the attribute reading.

          Examples:
          attr <name> device TYPE=DbRep
          attr <name> device MySTP_5000
          attr <name> device SMA.*,MySTP.*
          attr <name> device SMA_Energymeter,MySTP_5000
          attr <name> device %5000
          attr <name> device TYPE=SSCam EXCLUDE=SDS1_SVS
          attr <name> device TYPE=SSCam,TYPE=ESPEasy EXCLUDE=SDS1_SVS
          attr <name> device EXCLUDE=SDS1_SVS
          attr <name> device EXCLUDE=TYPE=SSCam

        If you need more information about device specifications, execute "get <name> versionNotes 3".

      • diffAccept - valid for function diffValue. diffAccept determines the threshold, up to that a calaculated difference between two straight sequently datasets should be commenly accepted (default = 20).
        Hence faulty DB entries with a disproportional high difference value will be eliminated and don't tamper the result. If a threshold overrun happens, the reading "diff_overrun_limit_<diffLimit>" will be generated (<diffLimit> will be substituted with the present prest attribute value).
        The reading contains a list of relevant pair of values. Using verbose=3 this list will also be reported in the FHEM logfile.

          Example report in logfile if threshold of diffAccept=10 overruns:

          DbRep Rep.STP5000.etotal -> data ignored while calc diffValue due to threshold overrun (diffAccept = 10):
          2016-04-09 08:50:50 0.0340 -> 2016-04-09 12:42:01 13.3440

          # The first dataset with a value of 0.0340 is untypical low compared to the next value of 13.3440 and results a untypical high difference value.
          # Now you have to decide if the (second) dataset should be deleted, ignored of the attribute diffAccept should be adjusted.

      • dumpComment - User-comment. It will be included in the header of the created dumpfile by command "dumpMySQL clientSide".

      • dumpCompress - if set, the dump files are compressed after operation of "dumpMySQL" bzw. "dumpSQLite"

      • dumpDirLocal

          Destination directory for creating dumps with "dumpMySQL clientSide" or "dumpSQLite".
          Setting this attribute activates the internal version management. In this directory backup files are searched and deleted if the found number exceeds the attribute value "dumpFilesKeep". The attribute is also used to make a locally mounted directory "dumpDirRemote" (for dumpMySQL serverSide) known to DbRep.
          (default: "{global}{modpath}/log/")

          Example:
          attr <Name> dumpDirLocal /sds1/backup/dumps_FHEM/

      • dumpDirRemote - Target directory of database dumps by command "dumpMySQL serverSide" (default: the Home-directory of MySQL-Server on the MySQL-Host).

      • dumpMemlimit - tolerable memory consumption for the SQL-script during generation period (default: 100000 characters). Please adjust this parameter if you may notice memory bottlenecks and performance problems based on it on your specific hardware.

      • dumpSpeed - Number of Lines which will be selected in source database with one select by dump-command "dumpMySQL ClientSide" (default: 10000). This parameter impacts the run-time and consumption of resources directly.

      • dumpFilesKeep

          The integrated version management leaves the specified number of backup files in the backup directory.
          Version management must be enabled by setting the "dumpDirLocal" attribute.
          If there are more (older) backup files, they will be deleted after a new backup has been successfully created. The global attribute "archivesort" is taken into account.
          (default: 3)

      • executeAfterProc

        You can specify a FHEM command or Perl code that should be executed after the command is processed.
        Perl code is to be enclosed in {...}. The variables $hash (hash of the DbRep device) and $name (name of the DbRep device) are available.

          Example:

          attr <name> executeAfterProc set og_gz_westfenster off;
          attr <name> executeAfterProc {adump ($name)}

          # "adump" is a function defined in 99_myUtils.
          sub adump {
              my ($name) = @_;
              my $hash   = $defs{$name};
              # the own function, e.g.
              Log3($name, 3, "DbRep $name -> Dump is finished");
          
              return;
          }
          
      • executeBeforeProc

        A FHEM command or Perl code can be specified which is to be executed before the command is processed.
        Perl code is to be enclosed in {...}. The variables $hash (hash of the DbRep device) and $name (name of the DbRep device) are available.

          Example:

          attr <name> executeBeforeProc set og_gz_westfenster on;
          attr <name> executeBeforeProc {bdump ($name)}

          # "bdump" is a function defined in 99_myUtils.
          sub bdump {
              my ($name) = @_;
              my $hash   = $defs{$name};
              # the own function, e.g.
              Log3($name, 3, "DbRep $name -> Dump starts");
          
              return;
          }
          
      • expimpfile </path/file> [MAXLINES=<lines>] - Path/filename for data export/import.

        The maximum number of datasets which are exported into one file can be specified with the optional parameter "MAXLINES". In this case several files with extensions "_part1", "_part2", "_part3" and so on are created.
        The filename may contain wildcards which are replaced by corresponding values (see subsequent table). Furthermore filename can contain %-wildcards of the POSIX strftime function of the underlying OS (see your strftime manual).

          %L : is replaced by the value of global logdir attribute
          %TSB : is replaced by the (calculated) value of the start timestamp of the data selection
          Common used POSIX-wildcards are:
          %d : day of month (01..31)
          %m : month (01..12)
          %Y : year (1970...)
          %w : day of week (0..6); 0 represents Sunday
          %j : day of year (001..366)
          %U : week number of year with Sunday as first day of week (00..53)
          %W : week number of year with Monday as first day of week (00..53)

          Examples:
          attr <name> expimpfile /sds1/backup/exptest_%TSB.csv
          attr <name> expimpfile /sds1/backup/exptest_%Y-%m-%d.csv

        About POSIX wildcard usage please see also explanations in Filelog.


      • fastStart - Usually every DbRep device is making a short connect to its database when FHEM is started to retrieve some important informations and the reading "state" switches to "connected" on success. If this attrbute is set, the initial database connection is executed not till then the DbRep device is processing its first command.
        While the reading "state" is remaining in state "initialized" after FHEM-start.
        (default: 1 for TYPE Client)

      • fetchMarkDuplicates - Highlighting of multiple occuring datasets in result of "fetchrows" command

      • fetchRoute [descent | ascent] - specify the direction of data selection of the fetchrows-command.

          descent - the data are read descent (default). If amount of datasets specified by attribut "limit" is exceeded, the newest x datasets are shown.

          ascent - the data are read ascent . If amount of datasets specified by attribut "limit" is exceeded, the oldest x datasets are shown.


      • fetchValueFn - When fetching the database content, you are able to manipulate the value fetched from the VALUE database field before create the appropriate reading. You have to insert a Perl function which is enclosed in {} .
        The value of the database field VALUE is provided in variable $VALUE.

          Example:
          attr <name> fetchValueFn { $VALUE =~ s/^.*Used:\s(.*)\sMB,.*/$1." MB"/e }
          # From a long line a specific pattern is extracted and will be displayed als VALUE instead the whole line


      • ftpUse - FTP Transfer after dump will be switched on (without SSL encoding). The created database backup file will be transfered non-blocking to the FTP-Server (Attribut "ftpServer").

      • ftpUseSSL - FTP Transfer with SSL encoding after dump. The created database backup file will be transfered non-blocking to the FTP-Server (Attribut "ftpServer").

      • ftpUser - User for FTP-server login, default: "anonymous".

      • ftpDebug - debugging of FTP communication for diagnostics.

      • ftpDir - directory on FTP-server in which the file will be send into (default: "/").

      • ftpDumpFilesKeep - leave the number of dump files in FTP-destination <ftpDir> (default: 3). Are there more (older) dump files present, these files are deleted after a new dump was transfered successfully.

      • ftpPassive - set if passive FTP is to be used

      • ftpPort - FTP-Port, default: 21

      • ftpPwd - password of FTP-User, is not set by default

      • ftpServer - name or IP-address of FTP-server. absolutely essential !

      • ftpTimeout - timeout of FTP-connection in seconds (default: 30).

      • limit - limits the number of selected datasets by the "fetchrows", or the shown datasets of "delSeqDoublets adviceDelete", "delSeqDoublets adviceRemain" commands (default: 1000). This limitation should prevent the browser session from overload and avoids FHEMWEB from blocking. Please change the attribut according your requirements or change the selection criteria (decrease evaluation period).

      • numDecimalPlaces - Sets the number of decimal places for readings with numeric results.
        Excludes results from user-specific queries (sqlCmd).
        (default: 4)

      • optimizeTablesBeforeDump - if set to "1", the database tables will be optimized before executing the dump (default: 0). Thereby the backup run-time time will be extended.

          Note
          The table optimizing cause locking the tables and therefore to blocking of FHEM if DbLog isn't working in asynchronous mode (DbLog-attribute "asyncMode") !

      • reading - Selection of particular or several readings. More than one reading can be specified by a comma separated list.
        SQL wildcard (%) can be used.
        If the reading or the reading list is prepended by "EXCLUDE=", those readings are not included.
        The database selection is executed as a logical AND operation of "reading" and the attribute device.

          Examples:
          attr <name> reading etotal
          attr <name> reading et%
          attr <name> reading etotal,etoday
          attr <name> reading eto%,Einspeisung EXCLUDE=etoday
          attr <name> reading etotal,etoday,Ein% EXCLUDE=%Wirkleistung


      • readingNameMap - A part of the created reading name will be replaced by the specified string

      • role - the role of the DbRep-device. Standard role is "Client".
        The role "Agent" is described in section DbRep-Agent.

      • readingPreventFromDel - comma separated list of readings which are should prevent from deletion when a new operation starts

      • seqDoubletsVariance <positive variance [negative variance] [EDGE=negative|positive]>

        Accepted variance for the command "set <name> delSeqDoublets".
        The value of this attribute describes the variance up to consecutive numeric values (VALUE) of datasets are handled as identical. If only one numeric value is declared, it is used as postive as well as negative variance and both form the "deletion corridor". Optional a second numeric value for a negative variance, separated by blank,can be declared. Always absolute, i.e. positive numeric values, have to be declared.
        If the supplement "EDGE=negative" is declared, values at a negative edge (e.g. when value is changed from 4.0 -> 1.0) are not deleted although they are in the "deletion corridor". Equivalent is valid with "EDGE=positive" for the positive edge (e.g. the change from 1.2 -> 2.8).

          Examples:
          attr <name> seqDoubletsVariance 0.0014
          attr <name> seqDoubletsVariance 1.45
          attr <name> seqDoubletsVariance 3.0 2.0
          attr <name> seqDoubletsVariance 1.5 EDGE=negative


      • showproctime - if set, the reading "sql_processing_time" shows the required execution time (in seconds) for the sql-requests. This is not calculated for a single sql-statement, but the summary of all sql-statements necessara for within an executed DbRep-function in background.

      • showStatus - limits the sample space of command "get <name> dbstatus". SQL-Wildcard (%) can be used.

          Example:
          attr <name> showStatus %uptime%,%qcache%
          # Only readings with containing "uptime" and "qcache" in name will be shown

      • showVariables - limits the sample space of command "get <name> dbvars". SQL-Wildcard (%) can be used.

          Example:
          attr <name> showVariables %version%,%query_cache%
          # Only readings with containing "version" and "query_cache" in name will be shown

      • showSvrInfo - limits the sample space of command "get <name> svrinfo". SQL-Wildcard (%) can be used.

          Example:
          attr <name> showSvrInfo %SQL_CATALOG_TERM%,%NAME%
          # Only readings with containing "SQL_CATALOG_TERM" and "NAME" in name will be shown

      • showTableInfo

        Limits the result set of the command "get <name> tableinfo". SQL wildcard (%) can be used.

          Example:
          attr <name> showTableInfo current,history
          # Only information from the "current" and "history" tables is displayed.

      • sqlCmdHistoryLength

        Activates the command history of "sqlCmd" with a value > 0 and defines the number of SQL statements to be stored.
        (default: 0)

      • sqlCmdVars

        Sets the specified SQL session variable(s) or PRAGMA before each SQL statement executed with sqlCmd. SQL statement.

          Example:
          attr <name> sqlCmdVars SET @open:=NULL, @closed:=NULL;
          attr <name> sqlCmdVars PRAGMA temp_store=MEMORY;PRAGMA synchronous=FULL;PRAGMA journal_mode=WAL;


      • sqlFormatService

        Automated formatting of SQL statements can be activated via an online service.
        This option is especially useful for complex SQL statements of the setters sqlCmd, sqlCmdHistory, and sqlSpecial to improve structuring and readability.
        An internet connection is required and the global attribute dnsServer should be set.
        (default: none)

      • sqlResultFieldSep

        Sets the used field separator in the result of the command "set ... sqlCmd".
        (default: "|")

      • sqlResultFormat - determines the formatting of the "set <name> sqlCmd" command result. Possible options are:

          separated - every line of the result will be generated sequentially in a single reading. (default)

          mline - the result will be generated as multiline in Reading SqlResult.

          sline - the result will be generated as singleline in Reading SqlResult. Datasets are separated by "]|[".

          table - the result will be generated as an table in Reading SqlResult.

          json - creates the Reading SqlResult as a JSON coded hash. Every hash-element consists of the serial number of the dataset (key) and its value.

          To process the result, you may use a userExitFn in 99_myUtils for example:
                  sub resfromjson {
                    my ($name,$reading,$value) = @_;
                    my $hash   = $defs{$name};
          
                    if ($reading eq "SqlResult") {
                      # only reading SqlResult contains JSON encoded data
                      my $data = decode_json($value);
          
                      foreach my $k (keys(%$data)) {
          
                        # use your own processing from here for every hash-element
                        # e.g. output of every element that contains "Cam"
                        my $ke = $data->{$k};
                        if($ke =~ m/Cam/i) {
                          my ($res1,$res2) = split("\\|", $ke);
                          Log3($name, 1, "$name - extract element $k by userExitFn: ".$res1." ".$res2);
                        }
                      }
                    }
                  return;
                  }
                  

      • timeYearPeriod - By this attribute an annual time period will be determined for database data selection. The time limits are calculated dynamically during execution time. Every time an annual period is determined. Periods of less than a year are not possible to set.
        This attribute is particularly intended to make reports synchronous to an account period, e.g. of an energy- or gas provider.

          Example:

          attr <name> timeYearPeriod 06-25 06-24

          # evaluates the database within the time limits 25. june AAAA and 24. june BBBB.
          # The year AAAA respectively year BBBB is calculated dynamically depending of the current date.
          # If the current date >= 25. june and =< 31. december, than AAAA = current year and BBBB = current year+1
          # If the current date >= 01. january und =< 24. june, than AAAA = current year-1 and BBBB = current year


      • timestamp_begin - begin of data selection
        The format of timestamp is as used with DbLog "YYYY-MM-DD HH:MM:SS". For the attributes "timestamp_begin", "timestamp_end" you can also use one of the following entries. The timestamp-attribute will be dynamically set to:

          current_year_begin : matches "<current year>-01-01 00:00:00"
          current_year_end : matches "<current year>-12-31 23:59:59"
          previous_year_begin : matches "<previous year>-01-01 00:00:00"
          previous_year_end : matches "<previous year>-12-31 23:59:59"
          current_month_begin : matches "<current month first day> 00:00:00"
          current_month_end : matches "<current month last day> 23:59:59"
          previous_month_begin : matches "<previous month first day> 00:00:00"
          previous_month_end : matches "<previous month last day> 23:59:59"
          current_week_begin : matches "<first day of current week> 00:00:00"
          current_week_end : matches "<last day of current week> 23:59:59"
          previous_week_begin : matches "<first day of previous week> 00:00:00"
          previous_week_end : matches "<last day of previous week> 23:59:59"
          current_day_begin : matches "<current day> 00:00:00"
          current_day_end : matches "<current day> 23:59:59"
          previous_day_begin : matches "<previous day> 00:00:00"
          previous_day_end : matches "<previous day> 23:59:59"
          next_day_begin : matches "<next day> 00:00:00"
          next_day_end : matches "<next day> 23:59:59"
          current_hour_begin : matches "<current hour>:00:00"
          current_hour_end : matches "<current hour>:59:59"
          previous_hour_begin : matches "<previous hour>:00:00"
          previous_hour_end : matches "<previous hour>:59:59"


      • timestamp_end - end of data selection. If not set the current date/time combination will be used.
        The format of timestamp is as used with DbLog "YYYY-MM-DD HH:MM:SS". For the attributes "timestamp_begin", "timestamp_end" you can also use one of the following entries. The timestamp-attribute will be dynamically set to:

          current_year_begin : matches "<current year>-01-01 00:00:00"
          current_year_end : matches "<current year>-12-31 23:59:59"
          previous_year_begin : matches "<previous year>-01-01 00:00:00"
          previous_year_end : matches "<previous year>-12-31 23:59:59"
          current_month_begin : matches "<current month first day> 00:00:00"
          current_month_end : matches "<current month last day> 23:59:59"
          previous_month_begin : matches "<previous month first day> 00:00:00"
          previous_month_end : matches "<previous month last day> 23:59:59"
          current_week_begin : matches "<first day of current week> 00:00:00"
          current_week_end : matches "<last day of current week> 23:59:59"
          previous_week_begin : matches "<first day of previous week> 00:00:00"
          previous_week_end : matches "<last day of previous week> 23:59:59"
          current_day_begin : matches "<current day> 00:00:00"
          current_day_end : matches "<current day> 23:59:59"
          previous_day_begin : matches "<previous day> 00:00:00"
          previous_day_end : matches "<previous day> 23:59:59"
          next_day_begin : matches "<next day> 00:00:00"
          next_day_end : matches "<next day> 23:59:59"
          current_hour_begin : matches "<current hour>:00:00"
          current_hour_end : matches "<current hour>:59:59"
          previous_hour_begin : matches "<previous hour>:00:00"
          previous_hour_end : matches "<previous hour>:59:59"

        Make sure that "timestamp_begin" < "timestamp_end" is fulfilled.

          Example:

          attr <name> timestamp_begin current_year_begin
          attr <name> timestamp_end current_year_end

          # Analyzes the database between the time limits of the current year.


        Note
        If the attribute "timeDiffToNow" will be set, the attributes "timestamp_begin" respectively "timestamp_end" will be deleted if they were set before. The setting of "timestamp_begin" respectively "timestamp_end" causes the deletion of attribute "timeDiffToNow" if it was set before as well.

      • timeDiffToNow - the begin time of data selection will be set to the timestamp "<current time> - <timeDiffToNow>" dynamically. The time period will be calculated dynamically at execution time. Optional can with the additional entry "FullDay" the selection start time and the selection end time be expanded to the begin / end of the involved days (take only effect if adjusted time difference is >= 1 day).

          Examples for input format:
          attr <name> timeDiffToNow 86400
          # the start time is set to "current time - 86400 seconds"
          attr <name> timeDiffToNow d:2 h:3 m:2 s:10
          # the start time is set to "current time - 2 days 3 hours 2 minutes 10 seconds"
          attr <name> timeDiffToNow m:600
          # the start time is set to "current time - 600 minutes" gesetzt
          attr <name> timeDiffToNow h:2.5
          # the start time is set to "current time - 2,5 hours"
          attr <name> timeDiffToNow y:1 h:2.5
          # the start time is set to "current time - 1 year and 2,5 hours"
          attr <name> timeDiffToNow y:1.5
          # the start time is set to "current time - 1.5 years"
          attr <name> timeDiffToNow d:8 FullDay
          # the start time is set to "current time - 8 days", the selection time period is expanded to the begin / end of the involved days

        If both attributes "timeDiffToNow" and "timeOlderThan" are set, the selection period will be calculated between of these timestamps dynamically.

      • timeOlderThan - the end time of data selection will be set to the timestamp "<aktuelle Zeit> - <timeOlderThan>" dynamically. Always the datasets up to timestamp "<current time> - <timeOlderThan>" will be considered. The time period will be calculated dynamically at execution time. Optional can with the additional entry "FullDay" the selection start time and the selection end time be expanded to the begin / end of the involved days (take only effect if adjusted time difference is >= 1 day).

          Examples for input format:
          attr <name> timeOlderThan 86400
          # the selection end time is set to "current time - 86400 seconds"
          attr <name> timeOlderThan d:2 h:3 m:2 s:10
          # the selection end time is set to "current time - 2 days 3 hours 2 minutes 10 seconds"
          attr <name> timeOlderThan m:600
          # the selection end time is set to "current time - 600 minutes" gesetzt
          attr <name> timeOlderThan h:2.5
          # the selection end time is set to "current time - 2,5 hours"
          attr <name> timeOlderThan y:1 h:2.5
          # the selection end time is set to "current time - 1 year and 2,5 hours"
          attr <name> timeOlderThan y:1.5
          # the selection end time is set to "current time - 1.5 years"
          attr <name> timeOlderThan d:8 FullDay
          # the end time is set to "current time - 8 days", the selection time period is expanded to the begin / end of the involved days

        If both attributes "timeDiffToNow" and "timeOlderThan" are set, the selection period will be calculated between of these timestamps dynamically.

      • timeout - set the timeout-value for Blocking-Call Routines in background in seconds (default 86400)

      • useAdminCredentials - If set, a before with "set <aame> adminCredentials" saved privileged user is used for particular database operations.
        (only valid if database type is MYSQL and DbRep-type "Client")

      • userExitFn - provides an interface for executing custom user code.
        Basically, the interface works without event generation or does not require an event to function. The interface can be used with the following variants.

          1. call a subroutine, e.g. in 99_myUtils.pm

          . The subroutine to be called is created in 99_myUtils.pm according to the following pattern:
          sub UserFunction {
            my $name    = shift;         # the name of the DbRep device.
            my $reading = shift;         # the name of the reading to create
            my $value   = shift;         # the value of the reading
            my $hash    = $defs{$name};
            ...
            # e.g. log passed data
            Log3 $name, 1, "UserExitFn $name called - transfer parameters are Reading: $reading, Value: $value " ;
            ...
          return;
          }
          
          In the attribute the subroutine and optionally a Reading:Value regex must be specified as an argument. Without this specification all Reading:Value combinations are evaluated as "true" and passed to the subroutine (equivalent to .*:.*).

            Example:
            attr userExitFn UserFunction Meter:Energy.*
            # "UserFunction" is the subroutine in 99_myUtils.pm.

          The regex is checked after the creation of each reading. If the check is true, the specified function is called.

          2. Direct input of custom code

          . The custom code is enclosed in curly braces. The code is called after the creation of each reading. In the code, the following variables are available for evaluation:

          • $NAME - the name of the DbRep device
          • $READING - the name of the reading created
          • $VALUE - the value of the reading

            Example:
            {
              if ($READING =~ /PrEnergySumHwc1_0_value__DIFF/) {
                my $mpk  = AttrVal($NAME, 'multiplier', '0');
                my $tarf = AttrVal($NAME, 'Tariff', '0');                                      # cost €/kWh
                my $m3   = sprintf "%.3f", $VALUE/10000 * $mpk;                                # consumed m3
                my $kwh  = sprintf "%.3f", $m3 * AttrVal($NAME, 'Calorific_kWh/m3', '0');      # conversion m3 -> kWh
                my $cost = sprintf "%.2f", $kwh * $tarf;
            
                my $hash = $defs{$NAME};
            
                readingsBulkUpdate ($hash, 'gas_consumption_m3', $m3);
                readingsBulkUpdate ($hash, 'gas_consumption_kwh', $kwh);
                readingsBulkUpdate ($hash, 'gas_costs_euro', $cost);
              }
            }
            
            # The readings gas_consumption_m3, gas_consumption_kwh and gas_costs_euro are calculated And generated in the DbRep device.


      • valueFilter - Regular expression (REGEXP) to filter datasets within particular functions. The REGEXP is applied to a particular field or to the whole selected dataset (inclusive Device, Reading and so on). Please consider the explanations within the set-commands. Further information is available with command "get <name> versionNotes 4".

Readings
    Regarding to the selected operation the reasults will be shown as readings. At the beginning of a new operation all old readings will be deleted to avoid that unsuitable or invalid readings would remain.

    In addition the following readings will be created:

      • state - contains the current state of evaluation. If warnings are occured (state = Warning) compare Readings "diff_overrun_limit_<diffLimit>" and "less_data_in_period"

      • errortext - description about the reason of an error state

      • background_processing_time - the processing time spent for operations in background/forked operation

      • sql_processing_time - the processing time wasted for all sql-statements used for an operation

      • diff_overrun_limit_<diffLimit> - contains a list of pairs of datasets which have overrun the threshold (<diffLimit>) of calculated difference each other determined by attribute "diffAccept" (default=20).

      • less_data_in_period - contains a list of time periods within only one dataset was found. The difference calculation considers the last value of the aggregation period before the current one. Valid for function "diffValue".

      • SqlResult - result of the last executed sqlCmd-command. The formatting can be specified by attribute sqlResultFormat

      • sqlCmd - contains the last executed sqlCmd-command



DbRep Agent - automatic change of device names in databases and DbRep-definitions after FHEM "rename" command
    By the attribute "role" the role of DbRep-device will be configured. The standard role is "Client". If the role has changed to "Agent", the DbRep device react automatically on renaming devices in your FHEM installation. The DbRep device is now called DbRep-Agent.

    By the DbRep-Agent the following features are activated when a FHEM-device has being renamed:

      • in the database connected to the DbRep-Agent (Internal Database) dataset containing the old device name will be searched and renamed to the to the new device name in all affected datasets.

      • in the DbLog-Device assigned to the DbRep-Agent the definition will be changed to substitute the old device name by the new one. Thereby the logging of the renamed device will be going on in the database.

      • in other existing DbRep-definitions with Type "Client" a possibly set attribute "device = old device name" will be changed to "device = new device name". Because of that, reporting definitions will be kept consistent automatically if devices are renamed in FHEM.

    The following restrictions take place if a DbRep device was changed to an Agent by setting attribute "role" to "Agent". These conditions will be activated and checked:

      • within a FHEM installation only one DbRep-Agent can be configured for every defined DbLog-database. That means, if more than one DbLog-database is present, you could define same numbers of DbRep-Agents as well as DbLog-devices are defined.

      • after changing to DbRep-Agent role only the set-command "renameDevice" will be available and as well as a reduced set of module specific attributes will be permitted. If a DbRep-device of privious type "Client" has changed an Agent, furthermore not permitted attributes will be deleted if set.

    All activities like database changes and changes of other DbRep-definitions will be logged in FHEM Logfile with verbose=3. In order that the renameDevice function don't running into timeout set the timeout attribute to an appropriate value, especially if there are databases with huge datasets to evaluate. As well as all the other database operations of this module, the autorename operation will be executed nonblocking.

      Example of definition of a DbRep-device as an Agent:

      define Rep.Agent DbRep LogDB
      attr Rep.Agent devStateIcon connected:10px-kreis-gelb .*disconnect:10px-kreis-rot .*done:10px-kreis-gruen
      attr Rep.Agent icon security
      attr Rep.Agent role Agent
      attr Rep.Agent room DbLog
      attr Rep.Agent showproctime 1
      attr Rep.Agent stateFormat { ReadingsVal($name, 'state', '') eq 'running' ? 'renaming' : ReadingsVal($name, 'state', ''). ' »; ProcTime: '.ReadingsVal($name, 'sql_processing_time', '').' sec'}
      attr Rep.Agent timeout 86400

    Note:
    Even though the function itself is designed non-blocking, make sure the assigned DbLog-device is operating in asynchronous mode to avoid FHEMWEB from blocking.

=end html =begin html_DE

DbRep


    Zweck des Moduls ist es, den Inhalt von DbLog-Datenbanken nach bestimmten Kriterien zu durchsuchen, zu managen, das Ergebnis hinsichtlich verschiedener Aggregationen auszuwerten und als Readings darzustellen. Die Abgrenzung der zu berücksichtigenden Datenbankinhalte erfolgt durch die Angabe von Device, Reading und die Zeitgrenzen für Auswertungsbeginn bzw. Auswertungsende.

    Fast alle Datenbankoperationen werden nichtblockierend ausgeführt. Auf Ausnahmen wird hingewiesen. Die Ausführungszeit der (SQL)-Hintergrundoperationen kann optional ebenfalls als Reading bereitgestellt werden (siehe Attribute).
    Alle vorhandenen Readings werden vor einer neuen Operation gelöscht. Durch das Attribut "readingPreventFromDel" kann eine Komma separierte Liste von Readings angegeben werden die nicht gelöscht werden sollen.

    Aktuell werden folgende Operationen unterstützt:

      • Selektion aller Datensätze innerhalb einstellbarer Zeitgrenzen
      • Darstellung der Datensätze einer Device/Reading-Kombination innerhalb einstellbarer Zeitgrenzen.
      • Selektion der Datensätze unter Verwendung von dynamisch berechneter Zeitgrenzen zum Ausführungszeitpunkt.
      • Dubletten-Hervorhebung bei Datensatzanzeige (fetchrows)
      • Berechnung der Anzahl von Datensätzen einer Device/Reading-Kombination unter Berücksichtigung von Zeitgrenzen und verschiedenen Aggregationen.
      • Die Berechnung von Summen-, Differenz-, Maximum-, Minimum- und Durchschnittswerten numerischer Readings in Zeitgrenzen und verschiedenen Aggregationen.
      • Speichern von Summen-, Differenz- , Maximum- , Minimum- und Durchschnittswertberechnungen in der Datenbank
      • Löschung von Datensätzen. Die Eingrenzung der Löschung kann durch Device und/oder Reading sowie fixer oder dynamisch berechneter Zeitgrenzen zum Ausführungszeitpunkt erfolgen.
      • Export von Datensätzen in ein File im CSV-Format
      • Import von Datensätzen aus File im CSV-Format
      • Umbenennen von Device/Readings in Datenbanksätzen
      • Ändern von Reading-Werten (VALUES) in der Datenbank (changeValue)
      • automatisches Umbenennen von Device-Namen in Datenbanksätzen und DbRep-Definitionen nach FHEM "rename" Befehl (siehe DbRep-Agent)
      • Ausführen von beliebigen Benutzer spezifischen SQL-Kommandos (non-blocking)
      • Ausführen von beliebigen Benutzer spezifischen SQL-Kommandos (blocking) zur Verwendung in eigenem Code (sqlCmdBlocking)
      • Backups der FHEM-Datenbank im laufenden Betrieb erstellen (MySQL, SQLite)
      • senden des Dumpfiles zu einem FTP-Server nach dem Backup incl. Versionsverwaltung
      • Restore von SQLite- und MySQL-Dumps
      • Optimierung der angeschlossenen Datenbank (optimizeTables, vacuum)
      • Ausgabe der existierenden Datenbankprozesse (MySQL)
      • leeren der current-Tabelle
      • Auffüllen der current-Tabelle mit einem (einstellbaren) Extrakt der history-Tabelle
      • Bereinigung sequentiell aufeinander folgender Datensätze mit unterschiedlichen Zeitstempel aber gleichen Werten (sequentielle Dublettenbereinigung)
      • Reparatur einer korrupten SQLite Datenbank ("database disk image is malformed")
      • Übertragung von Datensätzen aus der Quelldatenbank in eine andere (Standby) Datenbank (syncStandby)
      • Reduktion der Anzahl von Datensätzen in der Datenbank (reduceLog)
      • Löschen von doppelten Datensätzen (delDoublets)
      • Löschen und (Wieder)anlegen der für DbLog und DbRep benötigten Indizes (index)

    Zur Aktivierung der Funktion Autorename wird dem definierten DbRep-Device mit dem Attribut "role" die Rolle "Agent" zugewiesen. Die Standardrolle nach Definition ist "Client". Mehr ist dazu im Abschnitt DbRep-Agent beschrieben.

    DbRep stellt dem Nutzer einen UserExit zur Verfügung. Über diese Schnittstelle kann der Nutzer in Abhängigkeit von frei definierbaren Reading/Value-Kombinationen (Regex) eigenen Code zur Ausführung bringen. Diese Schnittstelle arbeitet unabhängig von einer Eventgenerierung. Weitere Informationen dazu ist unter userExitFn beschrieben.

    Sobald ein DbRep-Device definiert ist, wird sowohl die Perl Funktion DbReadingsVal als auch das FHEM Kommando dbReadingsVal zur Verfügung gestellt. Mit dieser Funktion läßt sich, ähnlich dem allgemeinen ReadingsVal, der Wert eines Readings aus der Datenbank abrufen.
    Die Funktionsausführung erfolgt blockierend mit einem Standardtimeout von 10 Sekunden um eine dauerhafte Blockierung von FHEM zu verhindern. Der Timeout ist mit dem Attribut timeout anpassbar.

      Die Befehlssyntax für die Perl Funktion ist:

      DbReadingsVal("<name>","<device:reading>","<timestamp>","<default>")

      Beispiel:
        $ret = DbReadingsVal("Rep.LogDB1","MyWetter:temperature","2018-01-13_08:00:00","");
        attr <name> userReadings oldtemp {DbReadingsVal("Rep.LogDB1","MyWetter:temperature","2018-04-13_08:00:00","")}
        attr <name> userReadings todayPowerIn
          {
             my ($sec,$min,$hour,$mday,$month,$year,$wday,$yday,$isdst) = localtime(gettimeofday());
             $month++;
             $year+=1900;
             my $today = sprintf('%04d-%02d-%02d', $year,$month,$mday);
             DbReadingsVal("Rep.LogDB1","SMA_Energymeter:Bezug_Wirkleistung_Zaehler",$today."_00:00:00",0)
          }
        
      Die Befehlssyntax als FHEM Kommando ist:

      dbReadingsVal <name> <device:reading> <timestamp> <default>

      Beispiel:
      dbReadingsVal Rep.LogDB1 MyWetter:temperature 2018-01-13_08:00:00 0

      <name> : Name des abzufragenden DbRep-Device
      <device:reading> : Device:Reading dessen Wert geliefert werden soll
      <timestamp> : Zeitpunkt des zu liefernden Readingwertes (*) im Format "YYYY-MM-DD_hh:mm:ss"
      <default> : Defaultwert falls kein Readingwert ermittelt werden konnte

    (*) Es wird der zeitlich zu <timestamp> passendste Readingwert zurück geliefert, falls kein Wert exakt zu dem angegebenen Zeitpunkt geloggt wurde.

    FHEM-Forum:
    Modul 93_DbRep - Reporting und Management von Datenbankinhalten (DbLog).

    FHEM-Wiki:
    DbRep - Reporting und Management von DbLog-Datenbankinhalten.


Voraussetzungen

    Das Modul setzt den Einsatz einer oder mehrerer DbLog-Instanzen voraus. Es werden die Zugangsdaten dieser Datenbankdefinition genutzt.
    Es werden nur Inhalte der Tabelle "history" berücksichtigt wenn nichts anderes beschrieben ist.

    Überblick welche anderen Perl-Module DbRep verwendet:

    Net::FTP (nur wenn FTP-Transfer nach Datenbank-Dump genutzt wird)
    Net::FTPSSL (nur wenn FTP-Transfer mit Verschlüsselung nach Datenbank-Dump genutzt wird)
    POSIX
    Time::HiRes
    Time::Local
    Scalar::Util
    DBI
    Color (FHEM-Modul)
    IO::Compress::Gzip
    IO::Uncompress::Gunzip
    Blocking (FHEM-Modul)


Definition
    define <name> DbRep <Name der DbLog-Instanz>

    (<Name der DbLog-Instanz> - es wird der Name der auszuwertenden DbLog-Datenbankdefinition angegeben nicht der Datenbankname selbst)

    Für eine gute Operation Performance sollte die Datenbank den Index "Report_Idx" enthalten. Der Index kann nach der DbRep Devicedefinition mit dem set-Kommando angelegt werden sofern er auf der Datenbank noch nicht existiert:

      set <name> index recreate_Report_Idx


Set
    Zur Zeit gibt es folgende Set-Kommandos. Über sie werden die Auswertungen angestoßen und definieren selbst die Auswertungsvariante. Nach welchen Kriterien die Datenbankinhalte durchsucht werden und die Aggregation erfolgt, wird durch Attribute gesteuert.

    Hinweis:
    In der Detailansicht kann ein Browserrefresh nötig sein um die Operationsergebnisse zu sehen sobald im DeviceOverview "state = done" angezeigt wird.

      • adminCredentials <User> <Passwort> - Speichert einen User / Passwort für den privilegierten bzw. administrativen Datenbankzugriff. Er wird bei Datenbankoperationen benötigt, die mit einem privilegierten User ausgeführt werden müssen. Siehe auch Attribut useAdminCredentials.
        (nur gültig bei Datenbanktyp MYSQL und DbRep-Typ "Client")

      • averageValue [display | writeToDB | writeToDBSingle | writeToDBSingleStart | writeToDBInTime]

        Berechnet einen Durchschnittswert des Datenbankfelds "VALUE" in den Zeitgrenzen der möglichen time.*-Attribute.

        Es muss das auszuwertende Reading im Attribut reading angegeben sein. Mit dem Attribut averageCalcForm wird die Berechnungsvariante zur Mittelwertermittlung definiert.
        Ist keine oder die Option display angegeben, werden die Ergebnisse nur angezeigt. Mit den Optionen writeToDB, writeToDBSingle, writeToDBSingleStart bzw. writeToDBInTime werden die Berechnungsergebnisse mit einem neuen Readingnamen in der Datenbank gespeichert.

          writeToDB : schreibt jeweils einen Wert mit den Zeitstempeln XX:XX:01 und XX:XX:59 innerhalb der jeweiligen Auswertungsperiode
          writeToDBSingle : schreibt nur einen Wert mit dem Zeitstempel XX:XX:59 am Ende einer Auswertungsperiode
          writeToDBSingleStart : schreibt nur einen Wert mit dem Zeitstempel XX:XX:01 am Beginn einer Auswertungsperiode
          writeToDBInTime : schreibt jeweils einen Wert am Anfang und am Ende der Zeitgrenzen einer Auswertungsperiode

        Der neue Readingname wird aus einem Präfix und dem originalen Readingnamen gebildet, wobei der originale Readingname durch das Attribut "readingNameMap" ersetzt werden kann. Der Präfix setzt sich aus der Bildungsfunktion und der Aggregation zusammen.
        Der Timestamp der neuen Readings in der Datenbank wird von der eingestellten Aggregationsperiode abgeleitet, sofern kein eindeutiger Zeitpunkt des Ergebnisses bestimmt werden kann. Das Feld "EVENT" wird mit "calculated" gefüllt.

          Beispiel neuer Readingname gebildet aus dem Originalreading "totalpac":
          avgam_day_totalpac
          # <Bildungsfunktion>_<Aggregation>_<Originalreading>

        Zusammengefasst sind die zur Steuerung dieser Funktion relevanten Attribute:

          aggregation : Auswahl einer Aggregationsperiode
          averageCalcForm : Auswahl der Berechnungsvariante für den Durchschnitt
          device : einschließen oder ausschließen von Datensätzen die <device> enthalten
          executeBeforeProc : ausführen FHEM Kommando (oder Perl-Routine) vor Start Operation
          executeAfterProc : ausführen FHEM Kommando (oder Perl-Routine) nach Ende Operation
          reading : einschließen oder ausschließen von Datensätzen die <reading> enthalten
          readingNameMap : die entstehenden Ergebnisreadings werden partiell umbenannt
          time.* : eine Reihe von Attributen zur Zeitabgrenzung
          valueFilter : ein zusätzliches REGEXP um die Datenselektion zu steuern. Der REGEXP wird auf das Datenbankfeld 'VALUE' angewendet.



      • cancelDump - bricht einen laufenden Datenbankdump ab.

      • changeValue old="<alter String>" new="<neuer String>"

        Ändert den gespeicherten Wert eines Readings.
        Ist die Selektion auf bestimmte Device/Reading-Kombinationen durch die Attribute device bzw. reading beschränkt, werden sie genauso berücksichtigt wie gesetzte Zeitgrenzen (time.* Attribute).
        Fehlen diese Beschränkungen, wird die gesamte Datenbank durchsucht und der angegebene Wert geändert.

        "String" kann sein:
        <alter String> :
      • ein einfacher String mit/ohne Leerzeichen, z.B. "OL 12"
      • ein String mit Verwendung von SQL-Wildcard, z.B. "%OL%"
      • <neuer String> :
      • ein einfacher String mit/ohne Leerzeichen, z.B. "12 kWh"
      • Perl Code eingeschlossen in {"..."} inkl. Quotes, z.B. {"($VALUE,$UNIT) = split(" ",$VALUE)"}
      • Dem Perl-Ausdruck werden die Variablen $VALUE und $UNIT übergeben. Sie können innerhalb
        des Perl-Code geändert werden. Der zurückgebene Wert von $VALUE und $UNIT wird in dem Feld
        VALUE bzw. UNIT des Datensatzes gespeichert.

        Beispiele:
        set <name> changeValue old="OL" new="12 OL"
        # der alte Feldwert "OL" wird in "12 OL" geändert.

        set <name> changeValue old="%OL%" new="12 OL"
        # enthält das Feld VALUE den Teilstring "OL", wird es in "12 OL" geändert.

        set <name> changeValue old="12 kWh" new={"($VALUE,$UNIT) = split(" ",$VALUE)"}
        # der alte Feldwert "12 kWh" wird in VALUE=12 und UNIT=kWh gesplittet und in den Datenbankfeldern gespeichert

        set <name> changeValue old="24%" new={"$VALUE = (split(" ",$VALUE))[0]"}
        # beginnt der alte Feldwert mit "24", wird er gesplittet und VALUE=24 gespeichert (z.B. "24 kWh")

        Zusammengefasst sind die zur Steuerung von changeValue relevanten Attribute:

          device : einschließen oder ausschließen von Datensätzen die <device> enthalten
          reading : einschließen oder ausschließen von Datensätzen die <reading> enthalten
          time.* : eine Reihe von Attributen zur Zeitabgrenzung
          executeBeforeProc : ausführen FHEM Kommando (oder Perl-Routine) vor Start changeValue
          executeAfterProc : ausführen FHEM Kommando (oder Perl-Routine) nach Ende changeValue
          valueFilter : ein zusätzliches REGEXP um die Datenselektion zu steuern. Der REGEXP wird auf das Datenbankfeld 'VALUE' angewendet.


      • countEntries [history | current] - liefert die Anzahl der Tabelleneinträge (default: history) in den gegebenen Zeitgrenzen (siehe time*-Attribute). Sind die Timestamps nicht gesetzt, werden alle Einträge der Tabelle gezählt. Beschränkungen durch die Attribute device bzw. reading gehen in die Selektion mit ein.
      • Standardmäßig wird die Summe aller Datensätze, gekennzeichnet mit "ALLREADINGS", erstellt. Ist das Attribut "countEntriesDetail" gesetzt, wird die Anzahl jedes einzelnen Readings zusätzlich ausgegeben.

        Die für diese Funktion relevanten Attribute sind:

          aggregation : Zusammenfassung/Gruppierung von Zeitintervallen
          countEntriesDetail : detaillierte Ausgabe der Datensatzanzahl
          device : einschließen oder ausschließen von Datensätzen die <device> enthalten
          reading : einschließen oder ausschließen von Datensätzen die <reading> enthalten
          time.* : eine Reihe von Attributen zur Zeitabgrenzung
          executeBeforeProc : ausführen FHEM Kommando (oder Perl-Routine) vor Ausführung
          executeAfterProc : ausführen FHEM Kommando (oder Perl-Routine) nach Ausführung
          readingNameMap : die entstehenden Ergebnisreadings werden partiell umbenannt
          valueFilter : ein zusätzliches REGEXP um die Datenselektion zu steuern. Der REGEXP wird auf das Datenbankfeld 'VALUE' angewendet.


      • delDoublets [adviceDelete | delete] - zeigt bzw. löscht doppelte / mehrfach vorkommende Datensätze. Dazu wird Timestamp, Device,Reading und Value ausgewertet.
        Die Attribute zur Aggregation,Zeit-,Device- und Reading-Abgrenzung werden dabei berücksichtigt. Ist das Attribut "aggregation" nicht oder auf "no" gesetzt, wird im Standard die Aggregation "day" verwendet.

        • adviceDelete : ermittelt die zu löschenden Datensätze (es wird nichts gelöscht !)
          delete : löscht die Dubletten

        Aus Sicherheitsgründen muss das Attribut allowDeletion für die "delete" Option gesetzt sein.
        Die Anzahl der anzuzeigenden Datensätze des Kommandos "delDoublets adviceDelete" ist zunächst begrenzt (default 1000) und kann durch das Attribut limit angepasst werden. Die Einstellung von "limit" hat keinen Einfluss auf die "delDoublets delete" Funktion, sondern beeinflusst NUR die Anzeige der Daten.
        Vor und nach der Ausführung von "delDoublets" kann ein FHEM-Kommando bzw. Perl-Routine ausgeführt werden. (siehe Attribute executeBeforeProc, executeAfterProc)

          Beispiel:

          Ausgabe der zu löschenden Records inklusive der Anzahl mit "delDoublets adviceDelete":

          2018-11-07_14-11-38__Dum.Energy__T 260.9_|_2
          2018-11-07_14-12-37__Dum.Energy__T 260.9_|_2
          2018-11-07_14-15-38__Dum.Energy__T 264.0_|_2
          2018-11-07_14-16-37__Dum.Energy__T 264.0_|_2

          Im Werteteil der erzeugten Readings wird nach "_|_" die Anzahl der entsprechenden Datensätze ausgegeben, die mit "delDoublets delete" gelöscht werden.

        Zusammengefasst sind die zur Steuerung dieser Funktion relevanten Attribute:

          allowDeletion : Freischaltung der Löschfunktion
          aggregation : Auswahl einer Aggregationsperiode
          device : einschließen oder ausschließen von Datensätzen die <device> enthalten
          limit : begrenzt NUR die Anzahl der anzuzeigenden Datensätze
          reading : einschließen oder ausschließen von Datensätzen die <reading> enthalten
          time.* : eine Reihe von Attributen zur Zeitabgrenzung
          executeBeforeProc : ausführen FHEM Kommando (oder Perl-Routine) vor Start des Befehls
          executeAfterProc : ausführen FHEM Kommando (oder Perl-Routine) nach Ende des Befehls
          valueFilter : ein zusätzliches REGEXP um die Datenselektion zu steuern. Der REGEXP wird auf das Datenbankfeld 'VALUE' angewendet.


      • delEntries [<no>[:<nn>]] - löscht alle oder die durch die Attribute device und/oder reading definierten Datenbankeinträge. Die Eingrenzung über Timestamps erfolgt folgendermaßen:

          "timestamp_begin" gesetzt -> gelöscht werden DB-Einträge ab diesem Zeitpunkt bis zum aktuellen Datum/Zeit
          "timestamp_end" gesetzt -> gelöscht werden DB-Einträge bis bis zu diesem Zeitpunkt
          beide Timestamps gesetzt -> gelöscht werden DB-Einträge zwischen diesen Zeitpunkten
          "timeOlderThan" gesetzt -> gelöscht werden DB-Einträge älter als aktuelle Zeit minus "timeOlderThan"
          "timeDiffToNow" gesetzt -> gelöscht werden DB-Einträge ab aktueller Zeit minus "timeDiffToNow" bis jetzt

        Aus Sicherheitsgründen muss das Attribut allowDeletion gesetzt sein um die Löschfunktion freizuschalten.
        Zeitgrenzen (Tage) können als Option angegeben werden. In diesem Fall werden eventuell gesetzte Zeitattribute übersteuert. Es werden Datensätze berücksichtigt die älter sind als <no> Tage und (optional) neuer sind als <nn> Tage.

        Die zur Steuerung von delEntries relevanten Attribute:

          allowDeletion : Freischaltung der Löschfunktion
          device : einschließen oder ausschließen von Datensätzen die <device> enthalten
          reading : einschließen oder ausschließen von Datensätzen die <reading> enthalten
          readingNameMap : die entstehenden Ergebnisreadings werden partiell umbenannt
          time.* : eine Reihe von Attributen zur Zeitabgrenzung
          executeBeforeProc : ausführen FHEM Kommando (oder Perl-Routine) vor Start delEntries
          executeAfterProc : ausführen FHEM Kommando (oder Perl-Routine) nach Ende delEntries
          valueFilter : ein zusätzliches REGEXP um die Datenselektion zu steuern. Der REGEXP wird auf das Datenbankfeld 'VALUE' angewendet.


      • delSeqDoublets [adviceRemain | adviceDelete | delete] - zeigt bzw. löscht aufeinander folgende identische Datensätze. Dazu wird Device,Reading und Value ausgewertet. Nicht gelöscht werden der erste und der letzte Datensatz einer Aggregationsperiode (z.B. hour, day, week usw.) sowie die Datensätze vor oder nach einem Wertewechsel (Datenbankfeld VALUE).
        Die Attribute zur Aggregation,Zeit-,Device- und Reading-Abgrenzung werden dabei berücksichtigt. Ist das Attribut "aggregation" nicht oder auf "no" gesetzt, wird als Standard die Aggregation "day" verwendet. Für Datensätze mit numerischen Werten kann mit dem Attribut seqDoubletsVariance eine Abweichung eingestellt werden, bis zu der aufeinander folgende numerische Werte als identisch angesehen und gelöscht werden sollen.

          adviceRemain : simuliert die nach der Operation in der DB verbleibenden Datensätze (es wird nichts gelöscht !)
          adviceDelete : simuliert die zu löschenden Datensätze (es wird nichts gelöscht !)
          delete : löscht die sequentiellen Dubletten (siehe Beispiel)

        Aus Sicherheitsgründen muss das Attribut allowDeletion für die "delete" Option gesetzt sein.
        Die Anzahl der anzuzeigenden Datensätze der Kommandos "delSeqDoublets adviceDelete", "delSeqDoublets adviceRemain" ist zunächst begrenzt (default 1000) und kann durch das Attribut limit angepasst werden. Die Einstellung von "limit" hat keinen Einfluss auf die "delSeqDoublets delete" Funktion, sondern beeinflusst NUR die Anzeige der Daten.
        Vor und nach der Ausführung von "delSeqDoublets" kann ein FHEM-Kommando bzw. Perl-Routine ausgeführt werden. (siehe Attribute executeBeforeProc, executeAfterProc)

          Beispiel - die nach Verwendung der delete-Option in der DB verbleibenden Datensätze sind fett gekennzeichnet:

            2017-11-25_00-00-05__eg.az.fridge_Pwr__power 0
            2017-11-25_00-02-26__eg.az.fridge_Pwr__power 0
            2017-11-25_00-04-33__eg.az.fridge_Pwr__power 0
            2017-11-25_01-06-10__eg.az.fridge_Pwr__power 0
            2017-11-25_01-08-21__eg.az.fridge_Pwr__power 0
            2017-11-25_01-08-59__eg.az.fridge_Pwr__power 60.32
            2017-11-25_01-11-21__eg.az.fridge_Pwr__power 56.26
            2017-11-25_01-27-54__eg.az.fridge_Pwr__power 6.19
            2017-11-25_01-28-51__eg.az.fridge_Pwr__power 0
            2017-11-25_01-31-00__eg.az.fridge_Pwr__power 0
            2017-11-25_01-33-59__eg.az.fridge_Pwr__power 0
            2017-11-25_02-39-29__eg.az.fridge_Pwr__power 0
            2017-11-25_02-41-18__eg.az.fridge_Pwr__power 105.28
            2017-11-25_02-41-26__eg.az.fridge_Pwr__power 61.52
            2017-11-25_03-00-06__eg.az.fridge_Pwr__power 47.46
            2017-11-25_03-00-33__eg.az.fridge_Pwr__power 0
            2017-11-25_03-02-07__eg.az.fridge_Pwr__power 0
            2017-11-25_23-37-42__eg.az.fridge_Pwr__power 0
            2017-11-25_23-40-10__eg.az.fridge_Pwr__power 0
            2017-11-25_23-42-24__eg.az.fridge_Pwr__power 1
            2017-11-25_23-42-24__eg.az.fridge_Pwr__power 1
            2017-11-25_23-45-27__eg.az.fridge_Pwr__power 1
            2017-11-25_23-47-07__eg.az.fridge_Pwr__power 0
            2017-11-25_23-55-27__eg.az.fridge_Pwr__power 0
            2017-11-25_23-48-15__eg.az.fridge_Pwr__power 0
            2017-11-25_23-50-21__eg.az.fridge_Pwr__power 59.1
            2017-11-25_23-55-14__eg.az.fridge_Pwr__power 52.31
            2017-11-25_23-58-09__eg.az.fridge_Pwr__power 51.73

        Zusammengefasst sind die zur Steuerung dieser Funktion relevanten Attribute:

          allowDeletion : needs to be set to execute the delete option
          aggregation : Auswahl einer Aggregationsperiode
          device : einschließen oder ausschließen von Datensätzen die <device> enthalten
          limit : begrenzt NUR die Anzahl der anzuzeigenden Datensätze
          reading : einschließen oder ausschließen von Datensätzen die <reading> enthalten
          readingNameMap : die entstehenden Ergebnisreadings werden partiell umbenannt
          seqDoubletsVariance : bis zu diesem Wert werden aufeinander folgende numerische Datensätze als identisch angesehen und werden gelöscht
          time.* : eine Reihe von Attributen zur Zeitabgrenzung
          executeBeforeProc : ausführen FHEM Kommando (oder Perl-Routine) vor Start des Befehls
          executeAfterProc : ausführen FHEM Kommando (oder Perl-Routine) nach Ende des Befehls
          valueFilter : ein zusätzliches REGEXP um die Datenselektion zu steuern. Der REGEXP wird auf das Datenbankfeld 'VALUE' angewendet.


      • deviceRename <old_name>,<new_name> - benennt den Namen eines Device innerhalb der angeschlossenen Datenbank (Internal DATABASE) um. Der Gerätename wird immer in der gesamten Datenbank umgesetzt. Eventuell gesetzte Zeitgrenzen oder Beschränkungen durch die Attribute device bzw. reading werden nicht berücksichtigt.

          Beispiel:
          set <name> deviceRename ST_5000,ST5100
          # Die Anzahl der umbenannten Device-Datensätze wird im Reading "device_renamed" ausgegeben.
          # Wird der umzubenennende Gerätename in der Datenbank nicht gefunden, wird eine WARNUNG im Reading "device_not_renamed" ausgegeben.
          # Entsprechende Einträge erfolgen auch im Logfile mit verbose=3

        Hinweis:
        Obwohl die Funktion selbst non-blocking ausgelegt ist, sollte das zugeordnete DbLog-Device im asynchronen Modus betrieben werden um ein Blockieren von FHEMWEB zu vermeiden (Tabellen-Lock).

        Zusammengefasst sind die zur Steuerung dieser Funktion relevanten Attribute:

          executeBeforeProc : ausführen FHEM Kommando (oder Perl-Routine) vor Start des Befehls
          executeAfterProc : ausführen FHEM Kommando (oder Perl-Routine) nach Ende des Befehls


      • diffValue [display | writeToDB]

        Berechnet den Differenzwert des Datenbankfelds "VALUE" in den angegebenen Zeitgrenzen (siehe verschiedenen time*-Attribute).

        Es wird die Differenz aus den VALUE-Werten der im Aggregationszeitraum (z.B. day) vorhandenen Datensätze gebildet und aufsummiert. Ein Übertragswert aus der Vorperiode (aggregation) zur darauf folgenden Aggregationsperiode wird berücksichtigt, sofern diese Periode einen Value-Wert enhtält.

        In der Standardeinstellung wertet die Funktion nur positive Differenzen aus wie sie z.B. bei einem stetig ansteigenden Zählerwert auftreten. Mit dem Attribut diffAccept) kann sowohl die akzeptierte Differenzschwelle als auch die Möglichkeit negative Differenzen auszuwerten eingestellt werden.

          Hinweis:
          Im Auswertungs- bzw. Aggregationszeitraum (Tag, Woche, Monat, etc.) sollten dem Modul pro Periode mindestens ein Datensatz zu Beginn und ein Datensatz gegen Ende des Aggregationszeitraumes zur Verfügung stehen um eine möglichst genaue Auswertung der Differenzwerte vornehmen zu können.
          Wird in einer auszuwertenden Zeit- bzw. Aggregationsperiode nur ein Datensatz gefunden, kann die Differenz in Verbindung mit dem Differenzübertrag der Vorperiode berechnet werden. in diesem Fall kann es zu einer logischen Ungenauigkeit in der Zuordnung der Differenz zu der Aggregationsperiode kommen. In diesem Fall wird eine Warnung im state ausgegeben und das Reading less_data_in_period mit einer Liste der betroffenen Perioden erzeugt.

        Ist keine oder die Option display angegeben, werden die Ergebnisse nur angezeigt.

        Mit der Option writeToDB werden die Berechnungsergebnisse mit einem neuen Readingnamen in der Datenbank gespeichert.
        Der neue Readingname wird aus einem Präfix und dem originalen Readingnamen gebildet, wobei der originale Readingname durch das Attribut readingNameMap ersetzt werden kann.
        Der Präfix setzt sich aus der Bildungsfunktion und der Aggregation zusammen.
        Der Timestamp der neuen Readings in der Datenbank wird von der eingestellten Aggregationsperiode abgeleitet, sofern kein eindeutiger Zeitpunkt des Ergebnisses bestimmt werden kann. Das Feld "EVENT" wird mit "calculated" gefüllt.

          Beispiel neuer Readingname gebildet aus dem Originalreading "totalpac":
          diff_day_totalpac
          # <Bildungsfunktion>_<Aggregation>_<Originalreading>

        Die für die Funktion relevanten Attribute sind:

          aggregation : Auswahl einer Aggregationsperiode
          device : einschließen oder ausschließen von Datensätzen die <device> enthalten
          diffAccept : akzeptierte positive Werte-Differenz zwischen zwei unmittelbar aufeinander folgenden Datensätzen
          executeBeforeProc : ausführen FHEM Kommando (oder Perl-Routine) vor Start Operation
          executeAfterProc : ausführen FHEM Kommando (oder Perl-Routine) nach Ende Operation
          reading : einschließen oder ausschließen von Datensätzen die <reading> enthalten
          readingNameMap : die entstehenden Ergebnisreadings werden partiell umbenannt
          time* : eine Reihe von Attributen zur Zeitabgrenzung
          valueFilter : ein zusätzliches REGEXP um die Datenselektion zu steuern. Der REGEXP wird auf das Datenbankfeld 'VALUE' angewendet.


      • dumpMySQL [clientSide | serverSide]

        Erstellt einen Dump der angeschlossenen MySQL-Datenbank.
        Abhängig von der ausgewählten Option wird der Dump auf der Client- bzw. Serverseite erstellt.
        Die Varianten unterscheiden sich hinsichtlich des ausführenden Systems, des Erstellungsortes, der Attributverwendung, des erzielten Ergebnisses und der benötigten Hardwareressourcen.
        Die Option "clientSide" benötigt z.B. eine leistungsfähigere Hardware des FHEM-Servers, sichert aber alle Tabellen inklusive eventuell angelegter Views.
        Mit dem Attribut "dumpCompress" kann eine Komprimierung der erstellten Dumpfiles eingeschaltet werden.

          Option clientSide
          Der Dump wird durch den Client (FHEM-Rechner) erstellt und per default im log-Verzeichnis des Clients (typisch /opt/fhem/log/) gespeichert. Das Zielverzeichnis kann mit dem Attribut dumpDirLocal verändert werden und muß auf dem Client durch FHEM beschreibbar sein.
          Vor dem Dump kann eine Tabellenoptimierung (Attribut "optimizeTablesBeforeDump") oder ein FHEM-Kommando (Attribut "executeBeforeProc") optional zugeschaltet werden. Nach dem Dump kann ebenfalls ein FHEM-Kommando (siehe Attribut "executeAfterProc") ausgeführt werden.

          Achtung !
          Um ein Blockieren von FHEM zu vermeiden, muß DbLog im asynchronen Modus betrieben werden wenn die Tabellenoptimierung verwendet wird !


          Über die Attribute dumpMemlimit und dumpSpeed kann das Laufzeitverhalten der Funktion beeinflusst werden um eine Optimierung bezüglich Performance und Ressourcenbedarf zu erreichen.

          Die für "dumpMySQL clientSide" relevanten Attribute sind:

            dumpComment : User-Kommentar im Dumpfile
            dumpCompress : Komprimierung des Dumpfiles nach der Erstellung
            dumpDirLocal : das lokale Zielverzeichnis für die Erstellung des Dump
            dumpMemlimit : Begrenzung der Speicherverwendung
            dumpSpeed : Begrenzung die CPU-Belastung
            dumpFilesKeep : Anzahl der aufzubwahrenden Dumpfiles
            executeBeforeProc : ausführen FHEM Kommando (oder Perl-Routine) vor dem Dump
            executeAfterProc : ausführen FHEM Kommando (oder Perl-Routine) nach dem Dump
            optimizeTablesBeforeDump : Tabelloptimierung vor dem Dump ausführen

          Nach einem erfolgreichen Dump werden alte Dumpfiles gelöscht und nur die Anzahl Files, definiert durch das Attribut "dumpFilesKeep" (default: 3), verbleibt im Zielverzeichnis "dumpDirLocal". Falls "dumpFilesKeep = 0" gesetzt ist, werden alle Dumpfiles (auch das aktuell erstellte File), gelöscht. Diese Einstellung kann sinnvoll sein, wenn FTP aktiviert ist und die erzeugten Dumps nur im FTP-Zielverzeichnis erhalten bleiben sollen.

          Die Namenskonvention der Dumpfiles ist: <dbname>_<date>_<time>.sql[.gzip]

          Um die Datenbank aus dem Dumpfile wiederherzustellen kann das Kommmando:

            set <name> restoreMySQL <filename>

          verwendet werden.

          Das erzeugte Dumpfile (unkomprimiert) kann ebenfalls mit:

            mysql -u <user> -p <dbname> < <filename>.sql

          auf dem MySQL-Server ausgeführt werden um die Datenbank aus dem Dump wiederherzustellen.


          Option serverSide
          Der Dump wird durch den MySQL-Server erstellt und per default im Home-Verzeichnis des MySQL-Servers gespeichert.
          Es wird die gesamte history-Tabelle (nicht current-Tabelle) im CSV-Format ohne Einschränkungen exportiert.
          Vor dem Dump kann eine Tabellenoptimierung (Attribut "optimizeTablesBeforeDump") optional zugeschaltet werden .

          Achtung !
          Um ein Blockieren von FHEM zu vermeiden, muß DbLog im asynchronen Modus betrieben werden wenn die Tabellenoptimierung verwendet wird !


          Vor und nach dem Dump kann ein FHEM-Kommando (siehe Attribute "executeBeforeProc", "executeAfterProc") ausgeführt werden.

          Die für "dumpMySQL serverSide" relevanten Attribute sind:

            dumpDirRemote : das Erstellungsverzeichnis des Dumpfile auf dem entfernten Server
            dumpCompress : Komprimierung des Dumpfiles nach der Erstellung
            dumpDirLocal : Directory des lokal gemounteten dumpDirRemote-Verzeichnisses
            dumpFilesKeep : Anzahl der aufzubwahrenden Dumpfiles
            executeBeforeProc : ausführen FHEM Kommando (oder Perl-Routine) vor dem Dump
            executeAfterProc : ausführen FHEM Kommando (oder Perl-Routine) nach dem Dump
            optimizeTablesBeforeDump : Tabelloptimierung vor dem Dump ausführen

          Das Zielverzeichnis kann mit dem Attribut dumpDirRemote verändert werden. Es muß sich auf dem MySQL-Host gefinden und durch den MySQL-Serverprozess beschreibbar sein.
          Der verwendete Datenbankuser benötigt das FILE Privileg (siehe Wiki).

          Hinweis:
          Soll die interne Versionsverwaltung und die Dumpfilekompression des Moduls genutzt, sowie die Größe des erzeugten Dumpfiles ausgegeben werden, ist das Verzeichnis "dumpDirRemote" des MySQL-Servers auf dem Client zu mounten und im Attribut dumpDirLocal dem DbRep-Device bekannt zu machen.
          Gleiches gilt wenn der FTP-Transfer nach dem Dump genutzt werden soll (Attribut "ftpUse" bzw. "ftpUseSSL").

            Beispiel:
            attr <name> dumpDirRemote /volume1/ApplicationBackup/dumps_FHEM/
            attr <name> dumpDirLocal /sds1/backup/dumps_FHEM/
            attr <name> dumpFilesKeep 2

            # Der Dump wird remote auf dem MySQL-Server im Verzeichnis '/volume1/ApplicationBackup/dumps_FHEM/' erstellt.
            # Die interne Versionsverwaltung sucht im lokal gemounteten Verzeichnis '/sds1/backup/dumps_FHEM/' vorhandene Dumpfiles und löscht diese bis auf die zwei letzten Versionen.

          Wird die interne Versionsverwaltung genutzt, werden nach einem erfolgreichen Dump alte Dumpfiles gelöscht und nur die Anzahl "dumpFilesKeep" (default: 3) verbleibt im Zielverzeichnis "dumpDirRemote". FHEM benötigt in diesem Fall Schreibrechte auf dem Verzeichnis "dumpDirLocal".

          Die Namenskonvention der Dumpfiles ist: <dbname>_<date>_<time>.csv[.gzip]

          Ein Restore der Datenbank aus diesem Backup kann durch den Befehl:

            set <name> <restoreMySQL> <filename>.csv[.gzip]

          gestartet werden.

          FTP Transfer nach Dump
          Wenn diese Möglichkeit genutzt werden soll, ist das Attribut ftpUse oder "ftpUseSSL" zu setzen. Letzteres gilt wenn eine verschlüsselte Übertragung genutzt werden soll.
          Das Modul übernimmt ebenfalls die Versionierung der Dumpfiles im FTP-Zielverzeichnis mit Hilfe des Attributes "ftpDumpFilesKeep". Für die FTP-Übertragung relevante Attribute sind:

            ftpUse : FTP Transfer nach dem Dump wird eingeschaltet (ohne SSL Verschlüsselung)
            ftpUser : User zur Anmeldung am FTP-Server, default: anonymous
            ftpUseSSL : FTP Transfer mit SSL Verschlüsselung nach dem Dump wird eingeschaltet
            ftpDebug : Debugging des FTP Verkehrs zur Fehlersuche
            ftpDir : Verzeichnis auf dem FTP-Server in welches das File übertragen werden soll (default: "/")
            ftpDumpFilesKeep : Es wird die angegebene Anzahl Dumpfiles im <ftpDir> belassen (default: 3)
            ftpPassive : setzen wenn passives FTP verwendet werden soll
            ftpPort : FTP-Port, default: 21
            ftpPwd : Passwort des FTP-Users, default nicht gesetzt
            ftpServer : Name oder IP-Adresse des FTP-Servers. notwendig !
            ftpTimeout : Timeout für die FTP-Verbindung in Sekunden (default: 30).



      • dumpSQLite - erstellt einen Dump der angeschlossenen SQLite-Datenbank.
        Diese Funktion nutzt die SQLite Online Backup API und ermöglicht es konsistente Backups der SQLite-DB in laufenden Betrieb zu erstellen. Der Dump wird per default im log-Verzeichnis des FHEM-Rechners gespeichert. Das Zielverzeichnis kann mit dem dumpDirLocal Attribut verändert werden und muß durch FHEM beschreibbar sein. Vor dem Dump kann optional eine Tabellenoptimierung (Attribut "optimizeTablesBeforeDump") zugeschaltet werden.

        Achtung !
        Um ein Blockieren von FHEM zu vermeiden, muß DbLog im asynchronen Modus betrieben werden wenn die Tabellenoptimierung verwendet wird !


        Vor und nach dem Dump kann ein FHEM-Kommando (siehe Attribute "executeBeforeProc", "executeAfterProc") ausgeführt werden.

        Die für diese Funktion relevanten Attribute sind:

          dumpCompress : Komprimierung des Dumpfiles nach der Erstellung
          dumpDirLocal : Zielverzeichnis der Dumpfiles
          dumpFilesKeep : Anzahl der aufzubwahrenden Dumpfiles
          executeBeforeProc : ausführen FHEM Kommando (oder Perl-Routine) vor dem Dump
          executeAfterProc : ausführen FHEM Kommando (oder Perl-Routine) nach dem Dump
          optimizeTablesBeforeDump : Tabelloptimierung vor dem Dump ausführen

        Nach einem erfolgreichen Dump werden alte Dumpfiles gelöscht und nur die Anzahl Files, definiert durch das Attribut "dumpFilesKeep" (default: 3), verbleibt im Zielverzeichnis "dumpDirLocal". Falls "dumpFilesKeep = 0" gesetzt, werden alle Dumpfiles (auch das aktuell erstellte File), gelöscht. Diese Einstellung kann sinnvoll sein, wenn FTP aktiviert ist und die erzeugten Dumps nur im FTP-Zielverzeichnis erhalten bleiben sollen.

        Die Namenskonvention der Dumpfiles ist: <dbname>_<date>_<time>.sqlitebkp[.gzip]

        Die Datenbank kann mit "set <name> restoreSQLite <Filename>" wiederhergestellt werden.
        Das erstellte Dumpfile kann auf einen FTP-Server übertragen werden. Siehe dazu die Erläuterungen unter "dumpMySQL".


      • eraseReadings - Löscht alle angelegten Readings im Device, außer dem Reading "state" und Readings, die in der Ausnahmeliste definiert mit Attribut "readingPreventFromDel" enthalten sind.

      • exportToFile [</Pfad/File>] [MAXLINES=<lines>] - exportiert DB-Einträge im CSV-Format in den gegebenen Zeitgrenzen.

        Der Dateiname wird durch das expimpfile Attribut bestimmt. Alternativ kann "/Pfad/File" als Kommando-Option angegeben werden und übersteuert ein eventuell gesetztes Attribut "expimpfile". Optional kann über den Parameter "MAXLINES" die maximale Anzahl von Datensätzen angegeben werden, die in ein File exportiert werden. In diesem Fall werden mehrere Files mit den Extensions "_part1", "_part2", "_part3" usw. erstellt (beim Import berücksichtigen !).

        Einschränkungen durch die Attribute device bzw. reading gehen in die Selektion mit ein. Der Dateiname kann Wildcards enthalten (siehe Attribut "expimpfile").
        Durch das Attribut "aggregation" wird der Export der Datensätze in Zeitscheiben der angegebenen Aggregation vorgenommen. Ist z.B. "aggregation = month" gesetzt, werden die Daten in monatlichen Paketen selektiert und in das Exportfile geschrieben. Dadurch wird die Hauptspeicherverwendung optimiert wenn sehr große Datenmengen exportiert werden sollen und vermeidet den "died prematurely" Abbruchfehler.

        Die für diese Funktion relevanten Attribute sind:

          aggregation : Festlegung der Selektionspaketierung
          device : einschließen oder ausschließen von Datensätzen die <device> enthalten
          reading : einschließen oder ausschließen von Datensätzen die <reading> enthalten
          executeBeforeProc : FHEM Kommando (oder Perl-Routine) vor dem Export ausführen
          executeAfterProc : FHEM Kommando (oder Perl-Routine) nach dem Export ausführen
          expimpfile : der Name des Exportfiles
          time.* : eine Reihe von Attributen zur Zeitabgrenzung
          valueFilter : ein zusätzliches REGEXP um die Datenselektion zu steuern. Der REGEXP wird auf das Datenbankfeld 'VALUE' angewendet.

      • fetchrows [history|current] - liefert alle Tabelleneinträge (default: history) in den gegebenen Zeitgrenzen bzw. Selektionsbedingungen durch die Attribute device und reading. Eine evtl. gesetzte Aggregation wird dabei nicht berücksichtigt.
        Die Leserichtung in der Datenbank kann durch das Attribut fetchRoute bestimmt werden.

        Jedes Ergebnisreading setzt sich aus dem Timestring des Datensatzes, einem Dubletten-Index, dem Device und dem Reading zusammen. Die Funktion fetchrows ist in der Lage, mehrfach vorkommende Datensätze (Dubletten) zu erkennen. Solche Dubletten sind mit einem Dubletten-Index > 1 gekennzeichnet. Optional wird noch ein Unique-Index angehängt, wenn Datensätze mit identischem Timestamp, Device und Reading aber unterschiedlichem Value vorhanden sind.
        Dubletten können mit dem Attribut "fetchMarkDuplicates" farblich hervorgehoben werden.

        Hinweis:
        Hervorgehobene Readings werden nach einem Restart bzw. nach rereadcfg nicht mehr angezeigt da sie nicht im statefile gesichert werden (Verletzung erlaubter Readingnamen durch Formatierung).

        Dieses Attribut ist mit einigen Farben vorbelegt, kann aber mit dem colorpicker-Widget überschrieben werden:

          attr <name> widgetOverride fetchMarkDuplicates:colorpicker

        Die Ergebnisreadings von fetchrows sind nach folgendem Schema aufgebaut:

          Beispiel:
          2017-10-22_03-04-43__1__SMA_Energymeter__Bezug_WirkP_Kosten_Diff__[1]
          # <Datum>_<Zeit>__<Dubletten-Index>__<Device>__<Reading>__[Unique-Index]

        Die zur Steuerung von fetchrows relevanten Attribute sind:

          device : einschließen oder ausschließen von Datensätzen die <device> enthalten
          fetchRoute : Leserichtung der Selektion innerhalb der Datenbank
          fetchMarkDuplicates : Hervorhebung von gefundenen Dubletten
          fetchValueFn : der angezeigte Wert des VALUE Datenbankfeldes kann mit einer Funktion vor der Readingerstellung geändert werden
          limit : begrenzt die Anzahl zu selektierenden bzw. anzuzeigenden Datensätze
          executeBeforeProc : FHEM Kommando (oder Perl-Routine) vor dem Befehl ausführen
          executeAfterProc : FHEM Kommando (oder Perl-Routine) nach dem Befehl ausführen
          reading : einschließen oder ausschließen von Datensätzen die <reading> enthalten
          time.* : eine Reihe von Attributen zur Zeitabgrenzung
          valueFilter : filtert die anzuzeigenden Datensätze mit einem regulären Ausdruck (Datenbank spezifischer REGEXP). Der REGEXP wird auf Werte des Datenbankfeldes 'VALUE' angewendet.


        Hinweis:
        Auch wenn das Modul bezüglich der Datenbankabfrage nichtblockierend arbeitet, kann eine zu große Ergebnismenge (Anzahl Zeilen bzw. Readings) die Browsersesssion bzw. FHEMWEB blockieren. Aus diesem Grund wird die Ergebnismenge mit dem Attribut limit begrenzt. Bei Bedarf kann dieses Attribut geändert werden, falls eine Anpassung der Selektionsbedingungen nicht möglich oder gewünscht ist.


      • index <Option> - Listet die in der Datenbank vorhandenen Indexe auf bzw. legt die benötigten Indexe an. Ist ein Index bereits angelegt, wird er erneuert (gelöscht und erneut angelegt)

        Die möglichen Optionen sind:

          list_all : listet die vorhandenen Indexe auf
          recreate_Search_Idx : erstellt oder erneuert (falls vorhanden) den Index Search_Idx in Tabelle history (Index für DbLog)
          drop_Search_Idx : löscht den Index Search_Idx in Tabelle history
          recreate_Report_Idx : erstellt oder erneuert (falls vorhanden) den Index Report_Idx in Tabelle history (Index für DbRep)
          drop_Report_Idx : löscht den Index Report_Idx in Tabelle history

        Die für diese Funktion relevanten Attribute sind:

          useAdminCredentials : benutzt einen privilegierten User für die Operation

        Hinweis:
        Der verwendete MySQL Datenbank-Nutzer benötigt das ALTER, CREATE und INDEX Privileg.
        Diese Rechte können gesetzt werden mit:

          set <Name> sqlCmd GRANT INDEX, ALTER, CREATE ON `<db>`.* TO '<user>'@'%';

        Das Attribut useAdminCredentials muß gewöhnlich gesetzt sein um die Rechte des verwendeten Users ändern zu können.

      • insert <Datum>,<Zeit>,<Value>,[<Unit>],[<Device>],[<Reading>] - Manuelles Einfügen eines Datensatzes in die Tabelle "history". Obligatorisch sind Eingabewerte für Datum, Zeit und Value. Die Werte für die DB-Felder TYPE bzw. EVENT werden mit "manual" gefüllt.
        Werden Device, Reading nicht gesetzt, werden diese Werte aus den entsprechenden Attributen device bzw. reading genommen.

        Hinweis:
        Nicht belegte Felder innerhalb des insert Kommandos müssen innerhalb des Strings in "," eingeschlossen werden.

          Beispiel:
          set <name> insert 2016-08-01,23:00:09,12.03,kW
          set <name> insert 2021-02-02,10:50:00,value with space
          set <name> insert 2022-05-16,10:55:00,1800,,SMA_Wechselrichter,etotal
          set <name> insert 2022-05-16,10:55:00,1800,,,etotal

        Die für diese Funktion relevanten Attribute sind:

          executeBeforeProc : FHEM Kommando (oder Perl-Routine) vor dem Befehl ausführen
          executeAfterProc : FHEM Kommando (oder Perl-Routine) nach dem Befehl ausführen


      • importFromFile [<File>] - importiert Datensätze im CSV-Format aus einer Datei in die Datenbank.
        Der Dateiname wird durch das Attribut expimpfile bestimmt.
        Alternativ kann die Datei (/Pfad/Datei) als Kommando-Option angegeben werden und übersteuert ein eventuell gesetztes Attribut "expimpfile". Der Dateiname kann Wildcards enthalten (siehe Attribut "expimpfile").

          Datensatzformat:
          "TIMESTAMP","DEVICE","TYPE","EVENT","READING","VALUE","UNIT"

          # Die Felder "TIMESTAMP","DEVICE","TYPE","EVENT","READING" und "VALUE" müssen gesetzt sein. Das Feld "UNIT" ist optional. Der Fileinhalt wird als Transaktion importiert, d.h. es wird der Inhalt des gesamten Files oder, im Fehlerfall, kein Datensatz des Files importiert. Wird eine umfangreiche Datei mit vielen Datensätzen importiert, sollte KEIN verbose=5 gesetzt werden. Es würden in diesem Fall sehr viele Sätze in das Logfile geschrieben werden was FHEM blockieren oder überlasten könnte.

          Beispiel:
          "2016-09-25 08:53:56","STP_5000","SMAUTILS","etotal: 11859.573","etotal","11859.573",""

          Die für diese Funktion relevanten Attribute sind:

            executeBeforeProc : FHEM Kommando (oder Perl-Routine) vor dem Import ausführen
            executeAfterProc : FHEM Kommando (oder Perl-Routine) nach dem Import ausführen
            expimpfile : der Name des Importfiles


      • maxValue [display | writeToDB | deleteOther]

        Berechnet den Maximalwert des Datenbankfelds "VALUE" in den Zeitgrenzen (Attribute) "timestamp_begin", "timestamp_end" bzw. "timeDiffToNow / timeOlderThan" etc. Es muss das auszuwertende Reading über das Attribut reading angegeben sein. Die Auswertung enthält den Zeitstempel des ermittelten Maximumwertes innerhalb der Aggregation bzw. Zeitgrenzen. Im Reading wird der Zeitstempel des letzten Auftretens vom Maximalwert ausgegeben, falls dieser Wert im Intervall mehrfach erreicht wird.

        Ist keine oder die Option display angegeben, werden die Ergebnisse nur angezeigt. Mit der Option writeToDB werden die Berechnungsergebnisse mit einem neuen Readingnamen in der Datenbank gespeichert.
        Der neue Readingname wird aus einem Präfix und dem originalen Readingnamen gebildet, wobei der originale Readingname durch das Attribut readingNameMap ersetzt werden kann. Der Präfix setzt sich aus der Bildungsfunktion und der Aggregation zusammen.
        Der Timestamp des neuen Readings in der Datenbank wird von der eingestellten Aggregationsperiode abgeleitet. Das Feld "EVENT" wird mit "calculated" gefüllt.

        Wird die Option deleteOther verwendet, werden alle Datensätze außer dem Datensatz mit dem ermittelten Maximalwert aus der Datenbank innerhalb der definierten Grenzen gelöscht.

          Beispiel neuer Readingname gebildet aus dem Originalreading "totalpac":
          max_day_totalpac
          # <Bildungsfunktion>_<Aggregation>_<Originalreading>

        Relevante Attribute sind:


      • migrateCollation <Collation>

        Migriert den verwendeten Zeichensatz/Kollation der Datenbank und der Tabellen current und history in das angegebene Format.

        Relevante Attribute sind:


      • minValue [display | writeToDB | deleteOther]

        Berechnet den Minimalwert des Datenbankfelds "VALUE" in den Zeitgrenzen (Attribute) "timestamp_begin", "timestamp_end" bzw. "timeDiffToNow / timeOlderThan" etc. Es muss das auszuwertende Reading über das Attribut reading angegeben sein. Die Auswertung enthält den Zeitstempel des ermittelten Minimumwertes innerhalb der Aggregation bzw. Zeitgrenzen. Im Reading wird der Zeitstempel des ersten Auftretens vom Minimalwert ausgegeben falls dieser Wert im Intervall mehrfach erreicht wird.

        Ist keine oder die Option display angegeben, werden die Ergebnisse nur angezeigt. Mit der Option writeToDB werden die Berechnungsergebnisse mit einem neuen Readingnamen in der Datenbank gespeichert.
        Der neue Readingname wird aus einem Präfix und dem originalen Readingnamen gebildet, wobei der originale Readingname durch das Attribut readingNameMap ersetzt werden kann. Der Präfix setzt sich aus der Bildungsfunktion und der Aggregation zusammen.
        Der Timestamp der neuen Readings in der Datenbank wird von der eingestellten Aggregationsperiode abgeleitet. Das Feld "EVENT" wird mit "calculated" gefüllt.

        Wird die Option deleteOther verwendet, werden alle Datensätze außer dem Datensatz mit dem ermittelten Maximalwert aus der Datenbank innerhalb der definierten Grenzen gelöscht.

          Beispiel neuer Readingname gebildet aus dem Originalreading "totalpac":
          min_day_totalpac
          # <Bildungsfunktion>_<Aggregation>_<Originalreading>

        Relevante Attribute sind:


      • optimizeTables [showInfo | execute]

        Optimiert die Tabellen in der angeschlossenen Datenbank (MySQL).

          showInfo : zeigt Informationen zum belegten / freien Speicherplatz innerhalb der Datenbank
          execute : führt die Optimierung aller Tabellen in der Datenbank aus

        Relevante Attribute sind:


      • readingRename <[Device:]alterReadingname>,<neuerReadingname>

        Benennt den Namen eines Readings innerhalb der angeschlossenen Datenbank (siehe Internal DATABASE) um. Der Readingname wird immer in der gesamten Datenbank umgesetzt. Eventuell gesetzte Zeitgrenzen oder Beschränkungen durch die Attribute device bzw. reading werden nicht berücksichtigt.
        Optional kann eine Device angegeben werden. In diesem Fall werden nur die alten Readings dieses Devices in den neuen Readingnamen umgesetzt.

          Beispiele:
          set <name> readingRename TotalConsumption,L1_TotalConsumption
          set <name> readingRename Dum.Energy:TotalConsumption,L1_TotalConsumption

        Die Anzahl der umbenannten Device-Datensätze wird im Reading "reading_renamed" ausgegeben.
        Wird der umzubenennende Readingname in der Datenbank nicht gefunden, wird eine WARNUNG im Reading "reading_not_renamed" ausgegeben.
        Entsprechende Einträge erfolgen auch im Logfile mit verbose=3.

        Für diese Funktion sind folgende Attribute relevant:

        Relevante Attribute sind:


      • reduceLog [<no>[:<nn>]] [mode] [EXCLUDE=device1:reading1,device2:reading2,...] [INCLUDE=device:reading]

        Reduziert historische Datensätze.

        Arbeitsweise ohne Angabe von Befehlszeilenoperatoren

        Es werden die Daten innerhalb der durch die time.*-Attribute bestimmten Zeitgrenzen bereinigt. Es muss mindestens eines der time.*-Attribute gesetzt sein (siehe Tabelle unten). Die jeweils fehlende Zeitabgrenzung wird in diesem Fall durch das Modul ermittelt.
        Der Arbeitsmodus wird durch die optionale Angabe von mode bestimmt:

          ohne Angabe von mode : die Daten werden auf den ersten Eintrag pro Stunde je Device & Reading reduziert
          average : numerische Werte werden auf einen Mittelwert pro Stunde je Device & Reading reduziert, sonst wie ohne mode
          average=day : numerische Werte werden auf einen Mittelwert pro Tag je Device & Reading reduziert, sonst wie ohne mode
            Die FullDay-Option (es werden immer volle Tage selektiert) wird impliziert verwendet.
          max : numerische Werte werden auf den Maximalwert pro Stunde je Device & Reading reduziert, sonst wie ohne mode
          max=day : numerische Werte werden auf den Maximalwert pro Tag je Device & Reading reduziert, sonst wie ohne mode
            Die FullDay-Option (es werden immer volle Tage selektiert) wird impliziert verwendet.
          min : numerische Werte werden auf den Minimalwert pro Stunde je Device & Reading reduziert, sonst wie ohne mode
          min=day : numerische Werte werden auf den Minimalwert pro Tag je Device & Reading reduziert, sonst wie ohne mode
            Die FullDay-Option (es werden immer volle Tage selektiert) wird impliziert verwendet.
          sum : numerische Werte werden auf die Summe pro Stunde je Device & Reading reduziert, sonst wie ohne mode
          sum=day : numerische Werte werden auf die Summe pro Tag je Device & Reading reduziert, sonst wie ohne mode
            Die FullDay-Option (es werden immer volle Tage selektiert) wird impliziert verwendet.

        Mit den Attributen device und reading können die zu berücksichtigenden Datensätze eingeschlossen bzw. ausgeschlossen werden. Beide Eingrenzungen reduzieren die selektierten Daten und verringern den Ressourcenbedarf. Das Reading "reduceLogState" enthält das Ausführungsergebnis des letzten reduceLog-Befehls.

        Relevante Attribute sind:

        Beispiele:

          attr <name> timeOlderThan d:200
          set <name> reduceLog
          # Datensätze die älter als 200 Tage sind, werden auf den ersten Eintrag pro Stunde je Device & Reading reduziert.

          attr <name> timeDiffToNow d:200
          set <name> reduceLog average=day
          # Datensätze die neuer als 200 Tage sind, werden auf einen Eintrag pro Tag je Device & Reading reduziert.

          attr <name> timeDiffToNow d:30
          attr <name> device TYPE=SONOSPLAYER EXCLUDE=Sonos_Kueche
          attr <name> reading room% EXCLUDE=roomNameAlias
          set <name> reduceLog
          # Datensätze die neuer als 30 Tage sind, die Devices vom Typ SONOSPLAYER sind (außer Device "Sonos_Kueche"), die Readings mit "room" beginnen (außer "roomNameAlias"), werden auf den ersten Eintrag pro Stunde je Device & Reading reduziert.

          attr <name> timeDiffToNow d:10
          attr <name> timeOlderThan d:5
          attr <name> device Luftdaten_remote
          set <name> reduceLog average
          # Datensätze die älter als 5 und neuer als 10 Tage sind und DEVICE "Luftdaten_remote" enthalten, werden bereinigt. Numerische Werte einer Stunde werden auf einen Mittelwert reduziert


        Arbeitsweise mit Angabe von Befehlszeilenoperatoren

        Es werden Datensätze berücksichtigt die älter sind als <no> Tage und (optional) neuer sind als <nn> Tage. Der Arbeitsmodus wird durch die optionale Angabe von mode wie oben beschrieben bestimmt.

        Die Zusätze "EXCLUDE" bzw. "INCLUDE" können ergänzt werden um device/reading Kombinationen in reduceLog auszuschließen bzw. einzuschließen und überschreiben die Einstellung der Attribute "device" und "reading", die in diesem Fall nicht beachtet werden.
        Die Angabe in "EXCLUDE" wird als Regex ausgewertet. Innerhalb von "INCLUDE" können SQL-Wildcards verwendet werden (weitere Informationen zu SQL-Wildcards siehe mit get <name> versionNotes 6).

        Beispiele:

          set <name> reduceLog 174:180 average EXCLUDE=SMA_Energymeter:Bezug_Wirkleistung INCLUDE=SMA_Energymeter:%
          # Datensätze älter als 174 und neuer als 180 Tage werden auf den Durchschnitt pro Stunde reduziert.
          # Es werden alle Readings vom Device "SMA_Energymeter" außer "Bezug_Wirkleistung" berücksichtigt. reduziert.

        Hinweis:
        Obwohl die Funktion selbst non-blocking ausgelegt ist, sollte das zugeordnete DbLog-Device im asynchronen Modus betrieben werden um ein Blockieren von FHEMWEB zu vermeiden (Tabellen-Lock).
        Weiterhin wird dringend empfohlen den standard INDEX 'Search_Idx' in der Tabelle 'history' anzulegen !
        Die Abarbeitung dieses Befehls dauert unter Umständen (ohne INDEX) extrem lange.


      • repairSQLite [sec]

        Repariert eine korrupte SQLite-Datenbank.

        Eine Korruption liegt im Allgemeinen vor, wenn die Fehlermitteilung "database disk image is malformed" im state des DbLog-Devices erscheint. Wird dieses Kommando gestartet, wird das angeschlossene DbLog-Device zunächst automatisch für 10 Stunden (36000 Sekunden) von der Datenbank getrennt (Trennungszeit). Nach Abschluss der Reparatur erfolgt wieder eine sofortige Neuverbindung zur reparierten Datenbank.
        Dem Befehl kann eine abweichende Trennungszeit (in Sekunden) als Argument angegeben werden.
        Die korrupte Datenbank wird als <database>.corrupt im gleichen Verzeichnis gespeichert.

        Relevante Attribute sind:

        Beispiel:
          set <name> repairSQLite
          # Die Datenbank wird repariert, Trennungszeit beträgt 10 Stunden
          set <name> repairSQLite 600
          # Die Datenbank wird repariert, Trennungszeit beträgt 10 Minuten

        Hinweis:
        Es ist nicht garantiert, dass die Reparatur erfolgreich verläuft und keine Daten verloren gehen. Je nach Schwere der Korruption kann Datenverlust auftreten oder die Reparatur scheitern, auch wenn kein Fehler im Ablauf signalisiert wird. Ein Backup der Datenbank sollte unbedingt vorhanden sein!


      • restoreMySQL <File>

        Stellt die Datenbank aus einem serverSide- oder clientSide-Dump wieder her.
        Die Funktion stellt über eine Drop-Down Liste eine Dateiauswahl für den Restore zur Verfügung.

        Verwendung eines serverSide-Dumps
        Der verwendete Datenbankuser benötigt das FILE Privileg (siehe Wiki).
        Es wird der Inhalt der history-Tabelle aus einem serverSide-Dump wiederhergestellt. Dazu ist das Verzeichnis "dumpDirRemote" des MySQL-Servers auf dem Client zu mounten und im Attribut dumpDirLocal dem DbRep-Device bekannt zu machen.
        Es werden alle Files mit der Endung "csv[.gzip]" und deren Name mit der verbundenen Datenbank beginnt (siehe Internal DATABASE), aufgelistet.

        Verwendung eines clientSide-Dumps
        Es werden alle Tabellen und eventuell vorhandenen Views wiederhergestellt. Das Verzeichnis, in dem sich die Dump-Files befinden, ist im Attribut dumpDirLocal dem DbRep-Device bekannt zu machen.
        Es werden alle Files mit der Endung "sql[.gzip]" und deren Name mit der verbundenen Datenbank beginnt (siehe Internal DATABASE), aufgelistet.
        Die Geschwindigkeit des Restores ist abhängig von der Servervariable "max_allowed_packet". Durch Veränderung dieser Variable im File my.cnf kann die Geschwindigkeit angepasst werden. Auf genügend verfügbare Ressourcen (insbesondere RAM) ist dabei zu achten.

        Der Datenbankuser benötigt Rechte zum Tabellenmanagement, z.B.:
        CREATE, ALTER, INDEX, DROP, SHOW VIEW, CREATE VIEW

        Relevante Attribute sind:


      • restoreSQLite <File>.sqlitebkp[.gzip]

        Stellt das Backup einer SQLite-Datenbank wieder her.
        Die Funktion stellt über eine Drop-Down Liste die für den Restore zur Verfügung stehenden Dateien zur Verfügung. Die aktuell in der Zieldatenbank enthaltenen Daten werden gelöscht bzw. überschrieben. Es werden alle Files mit der Endung "sqlitebkp[.gzip]" und deren Name mit dem Namen der verbundenen Datenbank beginnt, aufgelistet.

        Relevante Attribute sind:


      • sqlCmd

        Führt ein beliebiges benutzerspezifisches Kommando aus.
        Enthält dieses Kommando eine Delete-Operation, muss zur Sicherheit das Attribut allowDeletion gesetzt sein.
        sqlCmd akzeptiert ebenfalls das Setzen von SQL Session Variablen wie z.B. "SET @open:=NULL, @closed:=NULL;" oder die Verwendung von SQLite PRAGMA vor der Ausführung des SQL-Statements. Soll die Session Variable oder das PRAGMA vor jeder Ausführung eines SQL Statements gesetzt werden, kann dafür das Attribut sqlCmdVars verwendet werden.

        Sollen die im Modul gesetzten Attribute device, reading, timestamp_begin bzw. timestamp_end im Statement berücksichtigt werden, können die Platzhalter §device§, §reading§, §timestamp_begin§ bzw. §timestamp_end§ eingesetzt werden.
        Dabei ist zu beachten, dass die Platzhalter §device§ und §reading§ komplex aufgelöst werden und dementsprechend wie im unten stehenden Beispiel anzuwenden sind.

        Soll ein Datensatz upgedated werden, ist dem Statement "TIMESTAMP=TIMESTAMP" hinzuzufügen um eine Änderung des originalen Timestamps zu verhindern.

        Beispiele für Statements:

        • set <name> sqlCmd select DEVICE, count(*) from history where TIMESTAMP >= "2017-01-06 00:00:00" group by DEVICE having count(*) > 800
        • set <name> sqlCmd select DEVICE, count(*) from history where TIMESTAMP >= "2017-05-06 00:00:00" group by DEVICE
        • set <name> sqlCmd select DEVICE, count(*) from history where TIMESTAMP >= §timestamp_begin§ group by DEVICE
        • set <name> sqlCmd select * from history where DEVICE like "Te%t" order by `TIMESTAMP` desc
        • set <name> sqlCmd select * from history where `TIMESTAMP` > "2017-05-09 18:03:00" order by `TIMESTAMP` desc
        • set <name> sqlCmd select * from current order by `TIMESTAMP` desc
        • set <name> sqlCmd select sum(VALUE) as 'Einspeisung am 04.05.2017', count(*) as 'Anzahl' FROM history where `READING` = "Einspeisung_WirkP_Zaehler_Diff" and TIMESTAMP between '2017-05-04' AND '2017-05-05'
        • set <name> sqlCmd delete from current
        • set <name> sqlCmd delete from history where TIMESTAMP < "2016-05-06 00:00:00"
        • set <name> sqlCmd update history set TIMESTAMP=TIMESTAMP,VALUE='Val' WHERE VALUE='TestValue'
        • set <name> sqlCmd select * from history where DEVICE = "Test"
        • set <name> sqlCmd insert into history (TIMESTAMP, DEVICE, TYPE, EVENT, READING, VALUE, UNIT) VALUES ('2017-05-09 17:00:14','Test','manuell','manuell','Tes§e','TestValue','°C')
        • set <name> sqlCmd select DEVICE, count(*) from history where §device§ AND TIMESTAMP >= §timestamp_begin§ group by DEVICE
        • set <name> sqlCmd select DEVICE, READING, count(*) from history where §device§ AND §reading§ AND TIMESTAMP >= §timestamp_begin§ group by DEVICE, READING

        • Nachfolgend Beispiele für ein komplexeres Statement (MySQL) unter Mitgabe von SQL Session Variablen und die SQLite PRAGMA-Verwendung:

        • set <name> sqlCmd SET @open:=NULL, @closed:=NULL; SELECT TIMESTAMP, VALUE,DEVICE, @open AS open, @open := IF(VALUE = 'open', TIMESTAMP, NULL) AS curr_open, @closed := IF(VALUE = 'closed', TIMESTAMP, NULL) AS closed FROM history WHERE DATE(TIMESTAMP) = CURDATE() AND DEVICE = "HT_Fensterkontakt" AND READING = "state" AND (VALUE = "open" OR VALUE = "closed") ORDER BY TIMESTAMP;
        • set <name> sqlCmd PRAGMA temp_store=MEMORY; PRAGMA synchronous=FULL; PRAGMA journal_mode=WAL; PRAGMA cache_size=4000; select count(*) from history;
        • set <name> sqlCmd PRAGMA temp_store=FILE; PRAGMA temp_store_directory = '/opt/fhem/'; VACUUM;

        Die Ergebnis-Formatierung kann durch das Attribut sqlResultFormat ausgewählt, sowie der verwendete Feldtrenner durch das Attribut sqlResultFieldSep festgelegt werden.

        Das Modul stellt optional eine Kommando-Historie zur Verfügung sobald ein SQL-Kommando erfolgreich ausgeführt wurde. Um diese Option zu nutzen, ist das Attribut sqlCmdHistoryLength mit der gewünschten Listenlänge zu aktivieren.
        Ist die Kommando-Historie aktiviert, ist mit ___list_sqlhistory___ innerhalb des Kommandos sqlCmdHistory eine indizierte Liste der gespeicherten SQL-Statements verfügbar.

        Ein SQL-Statement kann durch Angabe seines Index im ausgeführt werden mit:

          set <name> sqlCmd ckey:<Index>      (e.g. ckey:4)

        Relevante Attribute sind:

        Hinweis:
        Auch wenn das Modul bezüglich der Datenbankabfrage nichtblockierend arbeitet, kann eine zu große Ergebnismenge (Anzahl Zeilen bzw. Readings) die Browsersesssion bzw. FHEMWEB blockieren.
        Wenn man sich unsicher ist, sollte man vorsorglich dem Statement ein Limit hinzufügen.


      • sqlCmdHistory

        Wenn mit dem Attribut sqlCmdHistoryLength aktiviert, kann ein gespeichertes SQL-Statement aus einer Liste ausgewählt und ausgeführt werden.
        Der SQL Cache wird beim Beenden von FHEM automatisch gesichert und beim Start des Systems wiederhergestellt.
        Mit den nachfolgenden Einträgen werden spezielle Funktionen ausgeführt:


          ___purge_sqlhistory___ : löscht den History Cache
          ___list_sqlhistory___ : zeigt die aktuell im Cache vorhandenen SQL-Statements incl. ihrem Cache Key (ckey)
          ___save_sqlhistory___ : sichert den History Cache manuell
          ___restore_sqlhistory___ : stellt die letzte Sicherung des History Cache wieder her

        Relevante Attribute sind:


      • sqlSpecial

        Die Funktion bietet eine Drop-Downliste mit einer Auswahl vorbereiter Auswertungen an.
        Das Ergebnis des Statements wird im Reading "SqlResult" dargestellt. Die Ergebnis-Formatierung kann durch das Attribut sqlResultFormat ausgewählt, sowie der verwendete Feldtrenner durch das Attribut sqlResultFieldSep festgelegt werden.

          50mostFreqLogsLast2days ermittelt die 50 am häufigsten vorkommenden Loggingeinträge der letzten 2 Tage
          allDevCount alle in der Datenbank vorkommenden Devices und deren Anzahl
          allDevReadCount alle in der Datenbank vorkommenden Device/Reading-Kombinationen und deren Anzahl
          50DevReadCount die 50 am häufigsten in der Datenbank enthaltenen Device/Reading-Kombinationen
          recentReadingsOfDevice ermittelt die neuesten in der Datenbank vorhandenen Datensätze eines Devices. Das auszuwertende
          Device muß im Attribut device definiert sein.
          readingsDifferenceByTimeDelta ermittelt die Wertedifferenz aufeinanderfolgender Datensätze eines Readings. Das auszuwertende
          Device und Reading muß im Attribut device bzw. reading definiert sein.
          Die Zeitgrenzen der Auswertung werden durch die time.*-Attribute festgelegt.

        Relevante Attribute sind:



      • sumValue [display | writeToDB | writeToDBSingle | writeToDBInTime]

        Berechnet die Summenwerte des Datenbankfelds "VALUE" in den Zeitgrenzen der möglichen time.*-Attribute.

        Es muss das auszuwertende Reading im Attribut reading angegeben sein.
        Diese Funktion ist sinnvoll wenn fortlaufend Wertedifferenzen eines Readings in die Datenbank geschrieben werden.

        Ist keine oder die Option display angegeben, werden die Ergebnisse nur angezeigt.
        Mit den Optionen writeToDB, writeToDBSingle bzw. writeToDBInTime werden die Berechnungsergebnisse mit einem neuen Readingnamen in der Datenbank gespeichert.

          writeToDB : schreibt jeweils einen Wert mit den Zeitstempeln XX:XX:01 und XX:XX:59 innerhalb der jeweiligen Auswertungsperiode
          writeToDBSingle : schreibt nur einen Wert mit dem Zeitstempel XX:XX:59 am Ende einer Auswertungsperiode
          writeToDBInTime : schreibt jeweils einen Wert am Anfang und am Ende der Zeitgrenzen einer Auswertungsperiode

        Der neue Readingname wird aus einem Präfix und dem originalen Readingnamen gebildet,
        wobei der originale Readingname durch das Attribut "readingNameMap" ersetzt werden kann.
        Der Präfix setzt sich aus der Bildungsfunktion und der Aggregation zusammen.
        Der Timestamp der neuen Readings in der Datenbank wird von der eingestellten Aggregationsperiode abgeleitet,
        sofern kein eindeutiger Zeitpunkt des Ergebnisses bestimmt werden kann. Das Feld "EVENT" wird mit "calculated" gefüllt.

          Beispiel neuer Readingname gebildet aus dem Originalreading "totalpac":
          sum_day_totalpac
          # <Bildungsfunktion>_<Aggregation>_<Originalreading>

        Relevante Attribute sind:



      • syncStandby <DbLog-Device Standby>

        Es werden die Datensätze aus der angeschlossenen Datenbank (Quelle) direkt in eine weitere Datenbank (Standby-Datenbank) übertragen. Dabei ist "<DbLog-Device Standby>" das DbLog-Device, welches mit der Standby-Datenbank verbunden ist.

        Es werden alle Datensätze übertragen, die durch das timestamp_begin Attribut bzw. die Attribute "device", "reading" bestimmt sind.
        Die Datensätze werden dabei in Zeitscheiben entsprechend der eingestellten Aggregation übertragen. Hat das Attribut "aggregation" den Wert "no" oder "month", werden die Datensätze automatisch in Tageszeitscheiben zur Standby-Datenbank übertragen. Quell- und Standby-Datenbank können unterschiedlichen Typs sein.

        Relevante Attribute sind:



      • tableCurrentFillup

        Die current-Tabelle wird mit einem Extrakt der history-Tabelle aufgefüllt.
        Die Attribute zur Zeiteinschränkung bzw. device, reading werden ausgewertet.
        Dadurch kann der Inhalt des Extrakts beeinflusst werden.
        Im zugehörigen DbLog-Device sollte das Attribut "DbLogType=SampleFill/History" gesetzt sein.

        Relevante Attribute sind:


      • tableCurrentPurge

        Löscht den Inhalt der current-Tabelle.
        Es werden keine Limitierungen, z.B. durch die Attribute timestamp_begin, timestamp_end, device oder reading ausgewertet.

        Relevante Attribute sind:


      • vacuum

        Optimiert die Tabellen in der angeschlossenen Datenbank (SQLite, PostgreSQL).
        Insbesondere für SQLite Datenbanken ist unbedingt empfehlenswert die Verbindung des relevanten DbLog-Devices zur Datenbank vorübergehend zu schließen (siehe DbLog reopen Kommando).

        Relevante Attribute sind:

        Hinweis:
        Bei der Ausführung des vacuum Kommandos wird bei SQLite Datenbanken automatisch das PRAGMA auto_vacuum = FULL angewendet.
        Das vacuum Kommando erfordert zusätzlichen temporären Speicherplatz. Sollte der Platz im Standard TMPDIR Verzeichnis nicht ausreichen, kann SQLite durch setzen der Umgebungsvariable SQLITE_TMPDIR ein ausreichend großes Verzeichnis zugewiesen werden.
        (siehe: www.sqlite.org/tempfiles)



Get
    Die Get-Kommandos von DbRep dienen dazu eine Reihe von Metadaten der verwendeten Datenbankinstanz abzufragen. Dies sind zum Beispiel eingestellte Serverparameter, Servervariablen, Datenbankstatus- und Tabelleninformationen. Die verfügbaren get-Funktionen sind von dem verwendeten Datenbanktyp abhängig. So ist für SQLite z.Zt. nur "svrinfo" verfügbar. Die Funktionen liefern nativ sehr viele Ausgabewerte, die über über funktionsspezifische Attribute abgrenzbar sind. Der Filter ist als kommaseparierte Liste anzuwenden. Dabei kann SQL-Wildcard (%) verwendet werden.

    Hinweis:
    Nach der Ausführung einer get-Funktion in der Detailsicht einen Browserrefresh durchführen um die Ergebnisse zu sehen !

      • blockinginfo - Listet die aktuell systemweit laufenden Hintergrundprozesse (BlockingCalls) mit ihren Informationen auf. Zu lange Zeichenketten (z.B. Argumente) werden gekürzt ausgeschrieben.


      • dbstatus - Listet globale Informationen zum MySQL Serverstatus (z.B. Informationen zum Cache, Threads, Bufferpools, etc. ). Es werden zunächst alle verfügbaren Informationen berichtet. Mit dem Attribut showStatus kann die Ergebnismenge eingeschränkt werden, um nur gewünschte Ergebnisse abzurufen. Detailinformationen zur Bedeutung der einzelnen Readings sind hier verfügbar.

          Beispiel
          attr <name> showStatus %uptime%,%qcache%
          get <name> dbstatus
          # Es werden nur Readings erzeugt die im Namen "uptime" und "qcache" enthaltenen


      • dbvars - Zeigt die globalen Werte der MySQL Systemvariablen. Enthalten sind zum Beispiel Angaben zum InnoDB-Home, dem Datafile-Pfad, Memory- und Cache-Parameter, usw. Die Ausgabe listet zunächst alle verfügbaren Informationen auf. Mit dem Attribut showVariables kann die Ergebnismenge eingeschränkt werden um nur gewünschte Ergebnisse abzurufen. Weitere Informationen zur Bedeutung der ausgegebenen Variablen sind hier verfügbar.

          Beispiel
          attr <name> showVariables %version%,%query_cache%
          get <name> dbvars
          # Es werden nur Readings erzeugt die im Namen "version" und "query_cache" enthalten


      • initData - Ermittelt einige für die Funktion des Moduls relevante Datenbankeigenschaften. Der Befehl wird bei der ersten Datenbankverbindung implizit ausgeführt.


      • minTimestamp - Ermittelt den Zeitstempel des ältesten Datensatzes in der Datenbank (wird implizit beim Start von FHEM ausgeführt). Der Zeitstempel wird als Selektionsbeginn verwendet wenn kein Zeitattribut den Selektionsbeginn festlegt.


      • procinfo - Listet die existierenden Datenbank-Prozesse in einer Tabelle auf (nur MySQL).
        Typischerweise werden nur die Prozesse des Verbindungsusers (angegeben in DbLog-Konfiguration) ausgegeben. Sollen alle Prozesse angezeigt werden, ist dem User das globale Recht "PROCESS" einzuräumen.
        Für bestimmte SQL-Statements wird seit MariaDB 5.3 ein Fortschrittsreporting (Spalte "PROGRESS") ausgegeben. Zum Beispiel kann der Abarbeitungsgrad bei der Indexerstellung verfolgt werden.
        Weitere Informationen sind hier verfügbar.


      • sqlCmdBlocking <SQL-Statement>

        Führt das angegebene SQL-Statement blockierend mit einem Standardtimeout von 10 Sekunden aus. Der Timeout kann mit dem Attribut timeout eingestellt werden.

          Beispiele:
          { fhem("get <name> sqlCmdBlocking select device,count(*) from history where timestamp > '2018-04-01' group by device") }
          { CommandGet(undef,"Rep.LogDB1 sqlCmdBlocking select device,count(*) from history where timestamp > '2018-04-01' group by device") }
          get <name> sqlCmdBlocking select device,count(*) from history where timestamp > '2018-04-01' group by device

      • Diese Funktion ist durch ihre Arbeitsweise speziell für den Einsatz in benutzerspezifischen Scripten geeignet.
        Die Eingabe akzeptiert Mehrzeiler und gibt ebenso mehrzeilige Ergebisse zurück. Dieses Kommando akzeptiert ebenfalls das Setzen von SQL Session Variablen wie z.B. "SET @open:=NULL, @closed:=NULL;" oder PRAGMA für SQLite.
        Werden mehrere Felder selektiert und zurückgegeben, erfolgt die Feldtrennung mit dem Trenner des Attributs sqlResultFieldSep (default "|"). Mehrere Ergebniszeilen werden mit Newline ("\n") separiert.
        Diese Funktion setzt/aktualisiert nur Statusreadings, die Funktion im Attribut "userExitFn" wird nicht aufgerufen.

        Erstellt man eine kleine Routine in 99_myUtils, wie z.B.:
        sub dbval {
          my $name = shift;
          my $cmd  = shift;
          my $ret  = CommandGet(undef,"$name sqlCmdBlocking $cmd");
          return $ret;
        }
            
        kann sqlCmdBlocking vereinfacht verwendet werden mit Aufrufen wie:

          Beispiele:
          { dbval("<name>","select count(*) from history") }
          oder
          $ret = dbval("<name>","select count(*) from history");


      • storedCredentials - Listet die im Device gespeicherten User / Passworte für den Datenbankzugriff auf.
        (nur gültig bei Datenbanktyp MYSQL)


      • svrinfo - allgemeine Datenbankserver-Informationen wie z.B. die DBMS-Version, Serveradresse und Port usw. Die Menge der Listenelemente ist vom Datenbanktyp abhängig. Mit dem Attribut showSvrInfo kann die Ergebnismenge eingeschränkt werden. Weitere Erläuterungen zu den gelieferten Informationen sind hier zu finden.

          Beispiel
          attr <name> showSvrInfo %SQL_CATALOG_TERM%,%NAME%
          get <name> svrinfo
          # Es werden nur Readings erzeugt die im Namen "SQL_CATALOG_TERM" und "NAME" enthalten


      • tableinfo - ruft Tabelleninformationen aus der mit dem DbRep-Device verbundenen Datenbank ab (MySQL). Es werden per default alle in der verbundenen Datenbank angelegten Tabellen ausgewertet. Mit dem Attribut showTableInfo können die Ergebnisse eingeschränkt werden. Erläuterungen zu den erzeugten Readings sind hier zu finden.

          Beispiel
          attr <name> showTableInfo current,history
          get <name> tableinfo
          # Es werden nur Information der Tabellen "current" und "history" angezeigt


      • versionNotes [hints | rel | <key>] - Zeigt Release Informationen und/oder Hinweise zum Modul an.

          rel : zeigt nur Release Informationen
          hints : zeigt nur Hinweise an
          <key> : es wird der Hinweis mit der angegebenen Nummer angezeigt

      • Sind keine Optionen angegeben, werden sowohl Release Informationen als auch Hinweise angezeigt. Es sind nur Release Informationen mit Bedeutung für den Modulnutzer enthalten.

Attribute
    Über die modulspezifischen Attribute wird die Abgrenzung der Auswertung und die Aggregation der Werte gesteuert.
    Die hier aufgeführten Attribute sind nicht für jede Funktion des Moduls bedeutsam. In der Hilfe zu den set/get-Kommandos wird explizit angegeben, welche Attribute für das jeweilige Kommando relevant sind.

    Hinweis zur SQL-Wildcard Verwendung:
    Innerhalb der Attribut-Werte für "device" und "reading" kann SQL-Wildcards "%" angegeben werden. Dabei wird "%" als Platzhalter für beliebig viele Zeichen verwendet. Das Zeichen "_" wird nicht als SQL-Wildcard supported.
    Dies gilt für alle Funktionen ausser "insert", "importFromFile" und "deviceRename".
    Die Funktion "insert" erlaubt nicht, dass die genannten Attribute das Wildcard "%" enthalten. Character "_" wird als normales Zeichen gewertet.
    In Ergebnis-Readings wird das Wildcardzeichen "%" durch "/" ersetzt um die Regeln für erlaubte Zeichen in Readings einzuhalten.

      • aggregation - Zusammenfassung der Device/Reading-Selektionen in Stunden, Tagen, Kalenderwochen, Kalendermonaten, Kalenderjahren oder "no".
        Liefert z.B. die Anzahl der DB-Einträge am Tag (countEntries) oder die Summierung von Differenzwerten eines Readings (sumValue) usw.
        Mit Aggregation "no" (default) wird das Ergebnis aus allen Werten einer Device/Reading-Kombination im selektierten Zeitraum ermittelt.

      • allowDeletion - schaltet die Löschfunktion des Moduls frei

      • autoForward - wenn aktiviert, werden die Ergebnisreadings einer Funktion in ein oder mehrere Devices übertragen.
        Die Definition erfolgt in der Form:
        {
          "<source-reading> => "<dest.device> [=> <dest.-reading>]",
          "<source-reading> => "<dest.device> [=> <dest.-reading>]",
          ...
        }
                                      
        In der Angabe <source-reading> sind Wildcards (.*) erlaubt.

          Beispiel:
          {
            ".*"        => "Dum.Rep.All",
            ".*AVGAM.*" => "Dum.Rep     => average",
            ".*SUM.*"   => "Dum.Rep.Sum => summary",
          }
          # alle Readings werden zum Device "Dum.Rep.All" übertragen, Readingname bleibt im Ziel erhalten
          # Readings mit "AVGAM" im Namen werden zum Device "Dum.Rep" in das Reading "average" übertragen
          # Readings mit "SUM" im Namen werden zum Device "Dum.Rep.Sum" in das Reading "summary" übertragen
                                        

      • averageCalcForm

        Legt die Berechnungsvariante für die Ermittlung des Durchschnittswertes mit "averageValue" fest.

        Zur Zeit sind folgende Varianten implementiert:

          avgArithmeticMean: Es wird der arithmetische Mittelwert berechnet. (default)
          avgDailyMeanGWS: Berechnet die Tagesmitteltemperatur entsprechend den
          Vorschriften des deutschen Wetterdienstes. (siehe "get <name> versionNotes 2")
          Diese Variante verwendet automatisch die Aggregation "day".
          avgDailyMeanGWSwithGTS: Wie "avgDailyMeanGWS" und berechnet zusätzlich die Grünlandtemperatursumme.
          Ist der Wert 200 erreicht, wird das Reading "reachedGTSthreshold" mit dem Datum
          des erstmaligen Erreichens dieses Schwellenwertes erstellt.
          Hinweis: Das Attribut timestamp_begin muss auf den Beginn eines Jahres gesetzt werden!
          (siehe "get <name> versionNotes 5")
          avgTimeWeightMean: Berechnet den zeitgewichteten Mittelwert.
          Hinweis: Es müssen mindestens zwei Datenpunkte pro aggregation Periode vorhanden sein.

      • countEntriesDetail - Wenn gesetzt, erstellt die Funktion "countEntries" eine detallierte Ausgabe der Datensatzzahl pro Reading und Zeitintervall. Standardmäßig wird nur die Summe aller selektierten Datensätze ausgegeben.

      • device - Abgrenzung der DB-Selektionen auf ein bestimmtes oder mehrere Devices.
        Es können Geräte-Spezifikationen (devspec) angegeben werden.
        In diesem Fall werden die Devicenamen vor der Selektion aus der Geräte-Spezifikationen und den aktuell in FHEM vorhandenen Devices aufgelöst.
        Wird dem Device bzw. der Device-Liste oder Geräte-Spezifikation ein "EXCLUDE=" vorangestellt, werden diese Devices von der Selektion ausgeschlossen.
        Die Datenbankselektion wird als logische UND-Verknüpfung aus "device" und dem Attribut reading ausgeführt.

          Beispiele:
          attr <name> device TYPE=DbRep
          attr <name> device MySTP_5000
          attr <name> device SMA.*,MySTP.*
          attr <name> device SMA_Energymeter,MySTP_5000
          attr <name> device %5000
          attr <name> device TYPE=SSCam EXCLUDE=SDS1_SVS
          attr <name> device TYPE=SSCam,TYPE=ESPEasy EXCLUDE=SDS1_SVS
          attr <name> device EXCLUDE=SDS1_SVS
          attr <name> device EXCLUDE=TYPE=SSCam

        Falls weitere Informationen zu Geräte-Spezifikationen benötigt werden, bitte "get <name> versionNotes 3" ausführen.

      • diffAccept [+-]<Schwellenwert>

        diffAccept legt für die Funktion diffValue fest, bis zu welchem <Schwellenwert> eine Werte-Differenz zwischen zwei unmittelbar aufeinander folgenden Datensätzen akzeptiert werden.
        Wird dem Schwellenwert +- (optional) vorangestellt, werden sowohl positive als auch negative Differenzen ausgewertet.

        (default: 20, nur positive Differenzen zwischen Vorgänger und Nachfolger)

          Beispiel:
          attr diffAccept +-10000

        Bei Schwellenwertüberschreitungen wird das Reading diff_overrun_limit_<Schwellenwert> erstellt.
        Es enthält eine Liste der relevanten Wertepaare. Mit verbose 3 werden diese Datensätze ebenfalls im Logfile protokolliert.

          Beispiel Ausgabe im Logfile beim Überschreiten von diffAccept=10:

          DbRep Rep.STP5000.etotal -> data ignored while calc diffValue due to threshold overrun (diffAccept = 10):
          2016-04-09 08:50:50 0.0340 -> 2016-04-09 12:42:01 13.3440

          # Der Differenz zwischen dem ersten Datensatz mit einem Wert von 0.0340 zum nächsten Wert 13.3440 ist untypisch hoch und führt zu einem zu hohen Differenzwert.
          # Es ist zu entscheiden ob der Datensatz gelöscht, ignoriert, oder das Attribut diffAccept angepasst werden sollte.

      • dumpComment - User-Kommentar. Er wird im Kopf des durch den Befehl "dumpMyQL clientSide" erzeugten Dumpfiles eingetragen.

      • dumpCompress - wenn gesetzt, werden die Dumpfiles nach "dumpMySQL" bzw. "dumpSQLite" komprimiert

      • dumpDirLocal

          Zielverzeichnis für die Erstellung von Dumps mit "dumpMySQL clientSide" oder "dumpSQLite".
          Durch Setzen dieses Attributes wird die interne Versionsverwaltung aktiviert. In diesem Verzeichnis werden Backup Dateien gesucht und gelöscht wenn die gefundene Anzahl den Attributwert "dumpFilesKeep" überschreitet. Mit dem Attribut wird ebenfalls ein lokal gemountetes Verzeichnis "dumpDirRemote" (bei dumpMySQL serverSide) DbRep bekannt gemacht.
          (default: {global}{modpath}/log/)

          Beispiel:
          attr <Name> dumpDirLocal /sds1/backup/dumps_FHEM/

      • dumpDirRemote

          Zielverzeichnis für die Erstellung von Dumps mit "dumpMySQL serverSide".
          (default: das Home-Dir des MySQL-Servers auf dem MySQL-Host)

      • dumpMemlimit - erlaubter Speicherverbrauch für das Dump SQL-Script zur Generierungszeit (default: 100000 Zeichen). Bitte den Parameter anpassen, falls es zu Speicherengpässen und damit verbundenen Performanceproblemen kommen sollte.

      • dumpSpeed - Anzahl der abgerufenen Zeilen aus der Quelldatenbank (default: 10000) pro Select durch "dumpMySQL ClientSide". Dieser Parameter hat direkten Einfluß auf die Laufzeit und den Ressourcenverbrauch zur Laufzeit.

      • dumpFilesKeep

          Die integrierte Versionsverwaltung belässt die angegebene Anzahl Backup Dateien im Backup Verzeichnis.
          Die Versionsverwaltung muß durch Setzen des Attributs "dumpDirLocal" eingeschaltet sein.
          Sind mehr (ältere) Backup Dateien vorhanden, werden diese gelöscht nachdem ein neues Backup erfolgreich erstellt wurde. Das globale Attribut "archivesort" wird berücksichtigt.
          (default: 3)

      • executeAfterProc

        Es kann ein FHEM-Kommando oder Perl Code angegeben werden der nach der Befehlsabarbeitung ausgeführt werden soll.
        Perl Code ist in {...} einzuschließen. Es stehen die Variablen $hash (Hash des DbRep Devices) und $name (Name des DbRep-Devices) zur Verfügung.

          Beispiel:

          attr <name> executeAfterProc set og_gz_westfenster off;
          attr <name> executeAfterProc {adump ($name)}

          # "adump" ist eine in 99_myUtils definierte Funktion.
          sub adump {
              my ($name) = @_;
              my $hash   = $defs{$name};
              # die eigene Funktion, z.B.
              Log3($name, 3, "DbRep $name -> Dump ist beendet");
          
              return;
          }
          
      • executeBeforeProc

        Es kann ein FHEM-Kommando oder Perl Code angegeben werden der vor der Befehlsabarbeitung ausgeführt werden soll.
        Perl Code ist in {...} einzuschließen. Es stehen die Variablen $hash (Hash des DbRep Devices) und $name (Name des DbRep-Devices) zur Verfügung.

          Beispiel:

          attr <name> executeBeforeProc set og_gz_westfenster on;
          attr <name> executeBeforeProc {bdump ($name)}

          # "bdump" ist eine in 99_myUtils definierte Funktion.
          sub bdump {
              my ($name) = @_;
              my $hash   = $defs{$name};
              # die eigene Funktion, z.B.
              Log3($name, 3, "DbRep $name -> Dump startet");
          
              return;
          }
          
      • expimpfile </Pfad/Filename> [MAXLINES=<lines>] - Pfad/Dateiname für Export/Import in/aus einem File.

        Optional kann über den Parameter "MAXLINES" die maximale Anzahl von Datensätzen angegeben werden, die in ein File exportiert werden. In diesem Fall werden mehrere Files mit den Extensions "_part1", "_part2", "_part3" usw. erstellt.
        Der Dateiname kann Platzhalter enthalten die gemäß der nachfolgenden Tabelle ersetzt werden. Weiterhin können %-wildcards der POSIX strftime-Funktion des darunterliegenden OS enthalten sein (siehe auch strftime Beschreibung).

          %L : wird ersetzt durch den Wert des global logdir Attributs
          %TSB : wird ersetzt durch den (berechneten) Wert des Starttimestamps der Datenselektion
          Allgemein gebräuchliche POSIX-Wildcards sind:
          %d : Tag des Monats (01..31)
          %m : Monat (01..12)
          %Y : Jahr (1970...)
          %w : Wochentag (0..6); beginnend mit Sonntag (0)
          %j : Tag des Jahres (001..366)
          %U : Wochennummer des Jahres, wobei Wochenbeginn = Sonntag (00..53)
          %W : Wochennummer des Jahres, wobei Wochenbeginn = Montag (00..53)

          Beispiele:
          attr <name> expimpfile /sds1/backup/exptest_%TSB.csv
          attr <name> expimpfile /sds1/backup/exptest_%Y-%m-%d.csv

        Zur POSIX Wildcardverwendung siehe auch die Erläuterungen zum Filelog Modul.

      • fastStart - Normalerweise verbindet sich jedes DbRep-Device beim FHEM-Start kurz mit seiner Datenbank um benötigte Informationen abzurufen und das Reading "state" springt bei Erfolg auf "connected". Ist dieses Attribut gesetzt, erfolgt die initiale Datenbankverbindung erst dann wenn das DbRep-Device sein erstes Kommando ausführt.
        Das Reading "state" verbleibt nach FHEM-Start solange im Status "initialized".
        (default: 1 für TYPE Client)

      • fetchMarkDuplicates - Markierung von mehrfach vorkommenden Datensätzen im Ergebnis des "fetchrows" Kommandos

      • fetchRoute [descent | ascent] - bestimmt die Leserichtung des fetchrows-Befehl.

          descent - die Datensätze werden absteigend gelesen (default). Wird die durch das Attribut "limit" festgelegte Anzahl der Datensätze überschritten, werden die neuesten x Datensätze angezeigt.

          ascent - die Datensätze werden aufsteigend gelesen. Wird die durch das Attribut "limit" festgelegte Anzahl der Datensätze überschritten, werden die ältesten x Datensätze angezeigt.


      • fetchValueFn - Der angezeigte Wert des Datenbankfeldes VALUE kann vor der Erstellung des entsprechenden Readings geändert werden. Das Attribut muss eine Perl Funktion eingeschlossen in {} enthalten.
        Der Wert des Datenbankfeldes VALUE wird in der Variable $VALUE zur Verfügung gestellt.

          Beispiel:
          attr <name> fetchValueFn { $VALUE =~ s/^.*Used:\s(.*)\sMB,.*/$1." MB"/e }
          # Von einer langen Ausgabe wird ein spezifisches Zeichenmuster extrahiert und als VALUE anstatt der gesamten Zeile im Reading angezeigt.


      • ftpUse - FTP Transfer nach einem Dump wird eingeschaltet (ohne SSL Verschlüsselung). Das erzeugte Datenbank Backupfile wird non-blocking zum angegebenen FTP-Server (Attribut "ftpServer") übertragen.

      • ftpUseSSL - FTP Transfer mit SSL Verschlüsselung nach einem Dump wird eingeschaltet. Das erzeugte Datenbank Backupfile wird non-blocking zum angegebenen FTP-Server (Attribut "ftpServer") übertragen.

      • ftpUser - User zur Anmeldung am FTP-Server nach einem Dump, default: "anonymous".

      • ftpDebug - Debugging der FTP Kommunikation zur Fehlersuche.

      • ftpDir - Verzeichnis des FTP-Servers in welches das File nach einem Dump übertragen werden soll (default: "/").

      • ftpDumpFilesKeep - Es wird die angegebene Anzahl Dumpfiles im <ftpDir> belassen (default: 3). Sind mehr (ältere) Dumpfiles vorhanden, werden diese gelöscht nachdem ein neuer Dump erfolgreich übertragen wurde.

      • ftpPassive - setzen wenn passives FTP verwendet werden soll

      • ftpPort - FTP-Port, default: 21

      • ftpPwd - Passwort des FTP-Users, default nicht gesetzt

      • ftpServer - Name oder IP-Adresse des FTP-Servers zur Übertragung von Files nach einem Dump.

      • ftpTimeout - Timeout für eine FTP-Verbindung in Sekunden (default: 30).

      • limit - begrenzt die Anzahl der resultierenden Datensätze im select-Statement von "fetchrows", bzw. der anzuzeigenden Datensätze der Kommandos "delSeqDoublets adviceDelete", "delSeqDoublets adviceRemain" (default 1000). Diese Limitierung soll eine Überlastung der Browsersession und ein blockieren von FHEMWEB verhindern. Bei Bedarf entsprechend ändern bzw. die Selektionskriterien (Zeitraum der Auswertung) anpassen.

      • numDecimalPlaces - Legt die Anzahl der Nachkommastellen bei Readings mit numerischen Ergebnissen fest.
        Ausgenommen sind Ergebnisse aus userspezifischen Abfragen (sqlCmd).
        (default: 4)

      • optimizeTablesBeforeDump - wenn "1", wird vor dem Datenbankdump eine Tabellenoptimierung ausgeführt (default: 0). Dadurch verlängert sich die Laufzeit des Dump.

          Hinweis
          Die Tabellenoptimierung führt zur Sperrung der Tabellen und damit zur Blockierung von FHEM falls DbLog nicht im asynchronen Modus (DbLog-Attribut "asyncMode") betrieben wird !

      • reading - Abgrenzung der DB-Selektionen auf ein bestimmtes oder mehrere Readings sowie exkludieren von Readings. Mehrere Readings werden als Komma separierte Liste angegeben. Es können SQL Wildcard (%) verwendet werden.
        Wird dem Reading bzw. der Reading-Liste ein "EXCLUDE=" vorangestellt, werden diese Readings nicht inkludiert.
        Die Datenbankselektion wird als logische UND Verknüpfung aus "reading" und dem Attribut device ausgeführt.

          Beispiele:
          attr <name> reading etotal
          attr <name> reading et%
          attr <name> reading etotal,etoday
          attr <name> reading eto%,Einspeisung EXCLUDE=etoday
          attr <name> reading etotal,etoday,Ein% EXCLUDE=%Wirkleistung


      • readingNameMap - ein Teil des erstellten Readingnamens wird mit dem angegebenen String ersetzt.

      • readingPreventFromDel - Komma separierte Liste von Readings die vor einer neuen Operation nicht gelöscht werden sollen

      • role - die Rolle des DbRep-Device. Standard ist "Client". Die Rolle "Agent" ist im Abschnitt "DbRep-Agent" beschrieben.
        Siehe auch Abschnitt DbRep-Agent.

      • seqDoubletsVariance <positive Abweichung [negative Abweichung] [EDGE=negative|positive]>

        Akzeptierte Abweichung für das Kommando "set <name> delSeqDoublets".
        Der Wert des Attributs beschreibt die Abweichung bis zu der aufeinanderfolgende numerische Werte (VALUE) von Datensätzen als gleich angesehen werden sollen. Ist in "seqDoubletsVariance" nur ein Zahlenwert angegeben, wird er sowohl als positive als auch negative Abweichung verwendet und bilden den "Löschkorridor". Optional kann ein zweiter Zahlenwert für eine negative Abweichung, getrennt durch Leerzeichen, angegeben werden. Es sind immer absolute, d.h. positive Zahlenwerte anzugeben.
        Ist der Zusatz "EDGE=negative" angegeben, werden Werte an einer negativen Flanke (z.B. beim Wechel von 4.0 -> 1.0) nicht gelöscht auch wenn sie sich im "Löschkorridor" befinden. Entsprechendes gilt bei "EDGE=positive" für die positive Flanke (z.B. beim Wechel von 1.2 -> 2.8).

          Beispiele:
          attr <name> seqDoubletsVariance 0.0014
          attr <name> seqDoubletsVariance 1.45
          attr <name> seqDoubletsVariance 3.0 2.0
          attr <name> seqDoubletsVariance 1.5 EDGE=negative


      • showproctime - wenn gesetzt, zeigt das Reading "sql_processing_time" die benötigte Abarbeitungszeit (in Sekunden) für die SQL-Ausführung der durchgeführten Funktion. Dabei wird nicht ein einzelnes SQl-Statement, sondern die Summe aller notwendigen SQL-Abfragen innerhalb der jeweiligen Funktion betrachtet.

      • showStatus - grenzt die Ergebnismenge des Befehls "get <name> dbstatus" ein. Es können SQL-Wildcard (%) verwendet werden.

          Bespiel:
          attr <name> showStatus %uptime%,%qcache%
          # Es werden nur Readings erzeugt die im Namen "uptime" und "qcache" enthalten

      • showVariables - grenzt die Ergebnismenge des Befehls "get <name> dbvars" ein. Es können SQL-Wildcard (%) verwendet werden.

          Bespiel:
          attr <name> showVariables %version%,%query_cache%
          # Es werden nur Readings erzeugt die im Namen "version" und "query_cache" enthalten

      • showSvrInfo - grenzt die Ergebnismenge des Befehls "get <name> svrinfo" ein. Es können SQL-Wildcard (%) verwendet werden.

          Bespiel:
          attr <name> showSvrInfo %SQL_CATALOG_TERM%,%NAME%
          # Es werden nur Readings erzeugt die im Namen "SQL_CATALOG_TERM" und "NAME" enthalten

      • showTableInfo

        Grenzt die Ergebnismenge des Befehls "get <name> tableinfo" ein. Es können SQL-Wildcard (%) verwendet werden.

          Bespiel:
          attr <name> showTableInfo current,history
          # Es werden nur Information der Tabellen "current" und "history" angezeigt

      • sqlCmdHistoryLength

        Aktiviert mit einem Wert > 0 die Kommandohistorie von "sqlCmd" und legt die Anzahl der zu speichernden SQL Statements fest.
        (default: 0)

      • sqlCmdVars

        Setzt die angegebene(n) SQL Session Variable(n) oder PRAGMA vor jedem mit sqlCmd ausgeführten SQL-Statement.

          Beispiel:
          attr <name> sqlCmdVars SET @open:=NULL, @closed:=NULL;
          attr <name> sqlCmdVars PRAGMA temp_store=MEMORY;PRAGMA synchronous=FULL;PRAGMA journal_mode=WAL;


      • sqlFormatService

        Über einen Online-Dienst kann eine automatisierte Formatierung von SQL-Statements aktiviert werden.
        Diese Möglichkeit ist insbesondere für komplexe SQL-Statements der Setter sqlCmd, sqlCmdHistory und sqlSpecial hilfreich um die Strukturierung und Lesbarkeit zu verbessern.
        Eine Internetverbindung wird benötigt und es sollte das globale Attribut dnsServer gesetzt sein.
        (default: none)

      • sqlResultFieldSep

        Legt den verwendeten Feldseparator im Ergebnis des Kommandos "set ... sqlCmd" fest.
        (default: "|")

      • sqlResultFormat - legt die Formatierung des Ergebnisses des Kommandos "set <name> sqlCmd" fest. Mögliche Optionen sind:

          separated - die Ergebniszeilen werden als einzelne Readings fortlaufend generiert. (default)

          mline - das Ergebnis wird als Mehrzeiler im Reading SqlResult dargestellt.

          sline - das Ergebnis wird als Singleline im Reading SqlResult dargestellt. Satztrenner ist"]|[".

          table - das Ergebnis wird als Tabelle im Reading SqlResult dargestellt.

          json - erzeugt das Reading SqlResult als JSON-kodierten Hash. Jedes Hash-Element (Ergebnissatz) setzt sich aus der laufenden Nummer des Datensatzes (Key) und dessen Wert zusammen.

          Die Weiterverarbeitung des Ergebnisses kann z.B. mit der folgenden userExitFn in 99_myUtils.pm erfolgen:
                  sub resfromjson {
                    my ($name,$reading,$value) = @_;
                    my $hash   = $defs{$name};
          
                    if ($reading eq "SqlResult") {
                      # nur Reading SqlResult enthält JSON-kodierte Daten
                      my $data = decode_json($value);
          
                      foreach my $k (keys(%$data)) {
          
                        # ab hier eigene Verarbeitung für jedes Hash-Element
                        # z.B. Ausgabe jedes Element welches "Cam" enthält
                        my $ke = $data->{$k};
                        if($ke =~ m/Cam/i) {
                          my ($res1,$res2) = split("\\|", $ke);
                          Log3($name, 1, "$name - extract element $k by userExitFn: ".$res1." ".$res2);
                        }
                      }
                    }
                  return;
                  }
                  

      • timeYearPeriod - Mit Hilfe dieses Attributes wird eine jährliche Zeitperiode für die Datenbankselektion bestimmt. Die Zeitgrenzen werden zur Ausführungszeit dynamisch berechnet. Es wird immer eine Jahresperiode bestimmt. Eine unterjährige Angabe ist nicht möglich.
        Dieses Attribut ist vor allem dazu gedacht Auswertungen synchron zu einer Abrechnungsperiode, z.B. der eines Energie- oder Gaslieferanten, anzufertigen.

          Beispiel:

          attr <name> timeYearPeriod 06-25 06-24

          # wertet die Datenbank in den Zeitgrenzen 25. Juni AAAA bis 24. Juni BBBB aus.
          # Das Jahr AAAA bzw. BBBB wird in Abhängigkeit des aktuellen Datums errechnet.
          # Ist das aktuelle Datum >= 25. Juni und =< 31. Dezember, dann ist AAAA = aktuelles Jahr und BBBB = aktuelles Jahr+1
          # Ist das aktuelle Datum >= 01. Januar und =< 24. Juni, dann ist AAAA = aktuelles Jahr-1 und BBBB = aktuelles Jahr


      • timestamp_begin - der zeitliche Beginn für die Datenselektion
        Das Format von Timestamp ist "YYYY-MM-DD HH:MM:SS". Für die Attribute "timestamp_begin", "timestamp_end" kann ebenso eine der folgenden Eingaben verwendet werden. Dabei wird das timestamp-Attribut dynamisch belegt:

          current_year_begin : entspricht "<aktuelles Jahr>-01-01 00:00:00"
          current_year_end : entspricht "<aktuelles Jahr>-12-31 23:59:59"
          previous_year_begin : entspricht "<vorheriges Jahr>-01-01 00:00:00"
          previous_year_end : entspricht "<vorheriges Jahr>-12-31 23:59:59"
          current_month_begin : entspricht "<aktueller Monat erster Tag> 00:00:00"
          current_month_end : entspricht "<aktueller Monat letzter Tag> 23:59:59"
          previous_month_begin : entspricht "<Vormonat erster Tag> 00:00:00"
          previous_month_end : entspricht "<Vormonat letzter Tag> 23:59:59"
          current_week_begin : entspricht "<erster Tag der akt. Woche> 00:00:00"
          current_week_end : entspricht "<letzter Tag der akt. Woche> 23:59:59"
          previous_week_begin : entspricht "<erster Tag Vorwoche> 00:00:00"
          previous_week_end : entspricht "<letzter Tag Vorwoche> 23:59:59"
          current_day_begin : entspricht "<aktueller Tag> 00:00:00"
          current_day_end : entspricht "<aktueller Tag> 23:59:59"
          previous_day_begin : entspricht "<Vortag> 00:00:00"
          previous_day_end : entspricht "<Vortag> 23:59:59"
          next_day_begin : entspricht "<nächster Tag> 00:00:00"
          next_day_end : entspricht "<nächster Tag> 23:59:59"
          current_hour_begin : entspricht "<aktuelle Stunde>:00:00"
          current_hour_end : entspricht "<aktuelle Stunde>:59:59"
          previous_hour_begin : entspricht "<vorherige Stunde>:00:00"
          previous_hour_end : entspricht "<vorherige Stunde>:59:59"

      • timestamp_end - das zeitliche Ende für die Datenselektion. Wenn nicht gesetzt wird immer die aktuelle Datum/Zeit-Kombi für das Ende der Selektion eingesetzt.
        Das Format von Timestamp ist "YYYY-MM-DD HH:MM:SS". Für die Attribute "timestamp_begin", "timestamp_end" kann ebenso eine der folgenden Eingaben verwendet werden. Dabei wird das timestamp-Attribut dynamisch belegt:

          current_year_begin : entspricht "<aktuelles Jahr>-01-01 00:00:00"
          current_year_end : entspricht "<aktuelles Jahr>-12-31 23:59:59"
          previous_year_begin : entspricht "<vorheriges Jahr>-01-01 00:00:00"
          previous_year_end : entspricht "<vorheriges Jahr>-12-31 23:59:59"
          current_month_begin : entspricht "<aktueller Monat erster Tag> 00:00:00"
          current_month_end : entspricht "<aktueller Monat letzter Tag> 23:59:59"
          previous_month_begin : entspricht "<Vormonat erster Tag> 00:00:00"
          previous_month_end : entspricht "<Vormonat letzter Tag> 23:59:59"
          current_week_begin : entspricht "<erster Tag der akt. Woche> 00:00:00"
          current_week_end : entspricht "<letzter Tag der akt. Woche> 23:59:59"
          previous_week_begin : entspricht "<erster Tag Vorwoche> 00:00:00"
          previous_week_end : entspricht "<letzter Tag Vorwoche> 23:59:59"
          current_day_begin : entspricht "<aktueller Tag> 00:00:00"
          current_day_end : entspricht "<aktueller Tag> 23:59:59"
          previous_day_begin : entspricht "<Vortag> 00:00:00"
          previous_day_end : entspricht "<Vortag> 23:59:59"
          next_day_begin : entspricht "<nächster Tag> 00:00:00"
          next_day_end : entspricht "<nächster Tag> 23:59:59"
          current_hour_begin : entspricht "<aktuelle Stunde>:00:00"
          current_hour_end : entspricht "<aktuelle Stunde>:59:59"
          previous_hour_begin : entspricht "<vorherige Stunde>:00:00"
          previous_hour_end : entspricht "<vorherige Stunde>:59:59"

        Natürlich sollte man immer darauf achten dass "timestamp_begin" < "timestamp_end" ist.

          Beispiel:

          attr <name> timestamp_begin current_year_begin
          attr <name> timestamp_end current_year_end

          # Wertet die Datenbank in den Zeitgrenzen des aktuellen Jahres aus.

        Hinweis
        Wird das Attribut "timeDiffToNow" gesetzt, werden die eventuell gesetzten anderen Zeit-Attribute ("timestamp_begin","timestamp_end","timeYearPeriod") gelöscht. Das Setzen von "timestamp_begin" bzw. "timestamp_end" bedingt die Löschung von anderen Zeit-Attribute falls sie vorher gesetzt waren.

      • timeDiffToNow - der Selektionsbeginn wird auf den Zeitpunkt "<aktuelle Zeit> - <timeDiffToNow>" gesetzt. Die Timestampermittlung erfolgt dynamisch zum Ausführungszeitpunkt. Optional kann mit der Zusatzangabe "FullDay" der Selektionsbeginn und das Selektionsende auf Beginn / Ende der jeweiligen Selektionstage erweitert werden (wirkt nur wenn eingestellte Zeitdifferenz ist >= 1 Tag).

          Eingabeformat Beispiele:
          attr <name> timeDiffToNow 86400
          # die Startzeit wird auf "aktuelle Zeit - 86400 Sekunden" gesetzt
          attr <name> timeDiffToNow d:2 h:3 m:2 s:10
          # die Startzeit wird auf "aktuelle Zeit - 2 Tage 3 Stunden 2 Minuten 10 Sekunden" gesetzt
          attr <name> timeDiffToNow m:600
          # die Startzeit wird auf "aktuelle Zeit - 600 Minuten" gesetzt
          attr <name> timeDiffToNow h:2.5
          # die Startzeit wird auf "aktuelle Zeit - 2,5 Stunden" gesetzt
          attr <name> timeDiffToNow y:1 h:2.5
          # die Startzeit wird auf "aktuelle Zeit - 1 Jahr und 2,5 Stunden" gesetzt
          attr <name> timeDiffToNow y:1.5
          # die Startzeit wird auf "aktuelle Zeit - 1,5 Jahre gesetzt
          attr <name> timeDiffToNow d:8 FullDay
          # die Startzeit wird auf "aktuelle Zeit - 8 Tage gesetzt, der Selektionszeitraum wird auf Beginn / Ende der beteiligten Tage erweitert

        Sind die Attribute "timeDiffToNow" und "timeOlderThan" gleichzeitig gesetzt, wird der Selektionszeitraum zwischen diesen Zeitpunkten dynamisch kalkuliert.

      • timeOlderThan - das Selektionsende wird auf den Zeitpunkt "<aktuelle Zeit> - <timeOlderThan>" gesetzt. Dadurch werden alle Datensätze bis zu dem Zeitpunkt "<aktuelle Zeit> - <timeOlderThan>" berücksichtigt. Die Timestampermittlung erfolgt dynamisch zum Ausführungszeitpunkt. Optional kann mit der Zusatzangabe "FullDay" der Selektionsbeginn und das Selektionsende auf Beginn / Ende der jeweiligen Selektionstage erweitert werden (wirkt nur wenn eingestellte Zeitdifferenz ist >= 1 Tag).

          Eingabeformat Beispiele:
          attr <name> timeOlderThan 86400
          # das Selektionsende wird auf "aktuelle Zeit - 86400 Sekunden" gesetzt
          attr <name> timeOlderThan d:2 h:3 m:2 s:10
          # das Selektionsende wird auf "aktuelle Zeit - 2 Tage 3 Stunden 2 Minuten 10 Sekunden" gesetzt
          attr <name> timeOlderThan m:600
          # das Selektionsende wird auf "aktuelle Zeit - 600 Minuten" gesetzt
          attr <name> timeOlderThan h:2.5
          # das Selektionsende wird auf "aktuelle Zeit - 2,5 Stunden" gesetzt
          attr <name> timeOlderThan y:1 h:2.5
          # das Selektionsende wird auf "aktuelle Zeit - 1 Jahr und 2,5 Stunden" gesetzt
          attr <name> timeOlderThan y:1.5
          # das Selektionsende wird auf "aktuelle Zeit - 1,5 Jahre gesetzt
          attr <name> timeOlderThan d:8 FullDay
          # das Selektionsende wird auf "aktuelle Zeit - 8 Tage gesetzt, der Selektionszeitraum wird auf Beginn / Ende der beteiligten Tage erweitert

        Sind die Attribute "timeDiffToNow" und "timeOlderThan" gleichzeitig gesetzt, wird der Selektionszeitraum zwischen diesen Zeitpunkten dynamisch kalkuliert.

      • timeout - das Attribut setzt den Timeout-Wert für die Blocking-Call Routinen in Sekunden (Default: 86400)

      • useAdminCredentials - Wenn gesetzt, wird ein zuvor mit "set <Name> adminCredentials" gespeicherter privilegierter User für bestimmte Datenbankoperationen verwendet.
        (nur gültig für Datenbanktyp MYSQL und DbRep-Typ "Client")

      • userExitFn - stellt eine Schnittstelle zur Ausführung eigenen Usercodes zur Verfügung.
        Grundsätzlich arbeitet die Schnittstelle ohne Eventgenerierung bzw. benötigt zur Funktion keinen Event. Die Schnittstelle kann mit folgenden Varianten verwendet werden.

          1. Aufruf einer Subroutine, z.B. in 99_myUtils.pm

          Die aufzurufende Subroutine wird in 99_myUtils.pm nach folgendem Muster erstellt:
          sub UserFunction {
            my $name    = shift;             # der Name des DbRep-Devices
            my $reading = shift;             # der Namen des erstellen Readings
            my $value   = shift;             # der Wert des Readings
            my $hash    = $defs{$name};
            ...
            # z.B. übergebene Daten loggen
            Log3 $name, 1, "UserExitFn $name called - transfer parameter are Reading: $reading, Value: $value " ;
            ...
          return;
          }
          
          Im Attribut wird die Subroutine und optional ein Reading:Value Regex als Argument angegeben. Ohne diese Angabe werden alle Wertekombinationen als "wahr" gewertet und an die Subroutine übergeben (entspricht .*:.*).

            Beispiel:
            attr userExitFn UserFunction Meter:Energy.*
            # "UserFunction" ist die Subroutine in 99_myUtils.pm.

          Die Regexprüfung nach der Erstellung jedes Readings. Ist die Prüfung wahr, wird die angegebene Funktion aufgerufen.

          2. direkte Eingabe von eigenem Code

          Der eigene Code wird in geschweifte Klammern eingeschlossen. Der Aufruf des Codes erfolgt nach der Erstellung jedes Readings. Im Code stehen folgende Variablen für eine Auswertung zur Verfügung:

          • $NAME - der Name des DbRep-Devices
          • $READING - der Namen des erstellen Readings
          • $VALUE - der Wert des Readings

            Beispiel:
            {
              if ($READING =~ /PrEnergySumHwc1_0_value__DIFF/) {
                my $mpk  = AttrVal($NAME, 'Multiplikator', '0');
                my $tarf = AttrVal($NAME, 'Tarif', '0');                                   # Kosten €/kWh
                my $m3   = sprintf "%.3f", $VALUE/10000 * $mpk;                            # verbrauchte m3
                my $kwh  = sprintf "%.3f", $m3 * AttrVal($NAME, 'Brennwert_kWh/m3', '0');  # Umrechnung m3 -> kWh
                my $cost = sprintf "%.2f", $kwh * $tarf;
            
                my $hash = $defs{$NAME};
            
                readingsBulkUpdate ($hash, 'gas_consumption_m3',   $m3);
                readingsBulkUpdate ($hash, 'gas_consumption_kwh', $kwh);
                readingsBulkUpdate ($hash, 'gas_costs_euro',     $cost);
              }
            }
            
            # Es werden die Readings gas_consumption_m3, gas_consumption_kwh und gas_costs_euro berechnet und im DbRep-Device erzeugt.


      • valueFilter - Regulärer Ausdruck (REGEXP) zur Filterung von Datensätzen innerhalb bestimmter Funktionen. Der REGEXP wird auf ein bestimmtes Feld oder den gesamten selektierten Datensatz (inkl. Device, Reading usw.) angewendet. Bitte beachten sie die Erläuterungen zu den entsprechenden Set-Kommandos. Weitere Informationen sind mit "get <name> versionNotes 4" verfügbar.

Readings
    Abhängig von der ausgeführten DB-Operation werden die Ergebnisse in entsprechenden Readings dargestellt. Zu Beginn einer neuen Operation werden alle alten Readings einer vorangegangenen Operation gelöscht um den Verbleib unpassender bzw. ungültiger Readings zu vermeiden.

    Zusätzlich werden folgende Readings erzeugt (Auswahl):

      • state - enthält den aktuellen Status der Auswertung. Wenn Warnungen auftraten (state = Warning) vergleiche Readings "diff_overrun_limit_<diffLimit>" und "less_data_in_period"

      • errortext - Grund eines Fehlerstatus

      • background_processing_time - die gesamte Prozesszeit die im Hintergrund/Blockingcall verbraucht wird

      • diff_overrun_limit_<diffLimit> - enthält eine Liste der Wertepaare die eine durch das Attribut "diffAccept" festgelegte Differenz <diffLimit> (Standard: 20) überschreiten. Gilt für Funktion "diffValue".

      • less_data_in_period - enthält eine Liste der Zeitperioden in denen nur ein einziger Datensatz gefunden wurde. Die Differenzberechnung berücksichtigt den letzten Wert der Vorperiode. Gilt für Funktion "diffValue".

      • sql_processing_time - der Anteil der Prozesszeit die für alle SQL-Statements der ausgeführten Operation verbraucht wird

      • SqlResult - Ergebnis des letzten sqlCmd-Kommandos. Die Formatierung erfolgt entsprechend des sqlResultFormat Attributes

      • sqlCmd - das letzte ausgeführte sqlCmd-Kommando


DbRep Agent - automatisches Ändern von Device-Namen in Datenbanken und DbRep-Definitionen nach FHEM "rename" Kommando
    Mit dem Attribut "role" wird die Rolle des DbRep-Device festgelegt. Die Standardrolle ist "Client". Mit der Änderung der Rolle in "Agent" wird das Device veranlasst auf Umbenennungen von Geräten in der FHEM Installation zu reagieren.

    Durch den DbRep-Agenten werden folgende Features aktiviert wenn ein Gerät in FHEM mit "rename" umbenannt wird:

      • in der dem DbRep-Agenten zugeordneten Datenbank (Internal Database) wird nach Datensätzen mit dem alten Gerätenamen gesucht und dieser Gerätename in allen betroffenen Datensätzen in den neuen Namen geändert.

      • in dem DbRep-Agenten zugeordneten DbLog-Device wird in der Definition das alte durch das umbenannte Device ersetzt. Dadurch erfolgt ein weiteres Logging des umbenannten Device in der Datenbank.

      • in den existierenden DbRep-Definitionen vom Typ "Client" wird ein evtl. gesetztes Attribut "device = alter Devicename" in "device = neuer Devicename" geändert. Dadurch werden Auswertungsdefinitionen bei Geräteumbenennungen automatisch konstistent gehalten.

    Mit der Änderung in einen Agenten sind folgende Restriktionen verbunden die mit dem Setzen des Attributes "role = Agent" eingeschaltet und geprüft werden:

      • es kann nur einen Agenten pro Datenbank in der FHEM-Installation geben. Ist mehr als eine Datenbank mit DbLog definiert, können ebenso viele DbRep-Agenten eingerichtet werden

      • mit der Umwandlung in einen Agenten wird nur noch das Set-Komando "renameDevice" verfügbar sein sowie nur ein eingeschränkter Satz von DbRep-spezifischen Attributen zugelassen. Wird ein DbRep-Device vom bisherigen Typ "Client" in einen Agenten geändert, werden evtl. gesetzte und nun nicht mehr zugelassene Attribute glöscht.

    Die Aktivitäten wie Datenbankänderungen bzw. Änderungen an anderen DbRep-Definitionen werden im Logfile mit verbose=3 protokolliert. Damit die renameDevice-Funktion bei großen Datenbanken nicht in ein timeout läuft, sollte das Attribut "timeout" entsprechend dimensioniert werden. Wie alle Datenbankoperationen des Moduls wird auch das Autorename nonblocking ausgeführt.

      Beispiel für die Definition eines DbRep-Device als Agent:

      define Rep.Agent DbRep LogDB
      attr Rep.Agent devStateIcon connected:10px-kreis-gelb .*disconnect:10px-kreis-rot .*done:10px-kreis-gruen
      attr Rep.Agent icon security
      attr Rep.Agent role Agent
      attr Rep.Agent room DbLog
      attr Rep.Agent showproctime 1
      attr Rep.Agent stateFormat { ReadingsVal($name, 'state', '') eq 'running' ? 'renaming' : ReadingsVal($name, 'state', ''). ' »; ProcTime: '.ReadingsVal($name, 'sql_processing_time', '').' sec'}
      attr Rep.Agent timeout 86400

    Hinweis:
    Obwohl die Funktion selbst non-blocking ausgelegt ist, sollte das zugeordnete DbLog-Device im asynchronen Modus betrieben werden um ein Blockieren von FHEMWEB zu vermeiden (Tabellen-Lock).

=end html_DE =for :application/json;q=META.json 93_DbRep.pm { "abstract": "Reporting and management of DbLog database content.", "x_lang": { "de": { "abstract": "Reporting und Management von DbLog Datenbankinhalten." } }, "keywords": [ "dblog", "database", "reporting", "logging", "analyze" ], "version": "v1.1.1", "release_status": "stable", "author": [ "Heiko Maaz " ], "x_fhem_maintainer": [ "DS_Starter" ], "x_fhem_maintainer_github": [ "nasseeder1" ], "prereqs": { "runtime": { "requires": { "FHEM": 5.00918799, "perl": 5.014, "POSIX": 0, "Time::HiRes": 0, "Scalar::Util": 0, "DBI": 0, "DBI::Const::GetInfoType": 0, "Blocking": 0, "Color": 0, "Time::Local": 0, "Encode": 0 }, "recommends": { "Net::FTP": 0, "IO::Compress::Gzip": 0, "IO::Uncompress::Gunzip": 0, "FHEM::Meta": 0 }, "suggests": { "Net::FTPSSL": 0 } } }, "resources": { "x_wiki": { "web": "https://wiki.fhem.de/wiki/DbRep_-_Reporting_und_Management_von_DbLog-Datenbankinhalten", "title": "DbRep - Reporting und Management von DbLog-Datenbankinhalten" }, "repository": { "x_dev": { "type": "svn", "url": "https://svn.fhem.de/trac/browser/trunk/fhem/contrib/DS_Starter", "web": "https://svn.fhem.de/trac/browser/trunk/fhem/contrib/DS_Starter/93_DbRep.pm", "x_branch": "dev", "x_filepath": "fhem/contrib/", "x_raw": "https://svn.fhem.de/fhem/trunk/fhem/contrib/DS_Starter/93_DbRep.pm" } } } } =end :application/json;q=META.json =cutt