chiark / gitweb /
systemd-python: update Journal python docstrings
[elogind.git] / src / python-systemd / journal.py
index d610b4767bb8b53f5b2553263a13cdef7a36c17b..4f42928f697db025bd2d3d8acba867cf65ccb135 100644 (file)
 #  You should have received a copy of the GNU Lesser General Public License
 #  along with systemd; If not, see <http://www.gnu.org/licenses/>.
 
 #  You should have received a copy of the GNU Lesser General Public License
 #  along with systemd; If not, see <http://www.gnu.org/licenses/>.
 
+import sys as _sys
+import datetime as _datetime
+import functools as _functools
+import uuid as _uuid
 import traceback as _traceback
 import os as _os
 import traceback as _traceback
 import os as _os
+from os import SEEK_SET, SEEK_CUR, SEEK_END
 import logging as _logging
 import logging as _logging
+if _sys.version_info >= (3,):
+    from collections import ChainMap
 from syslog import (LOG_EMERG, LOG_ALERT, LOG_CRIT, LOG_ERR,
                     LOG_WARNING, LOG_NOTICE, LOG_INFO, LOG_DEBUG)
 from ._journal import sendv, stream_fd
 from syslog import (LOG_EMERG, LOG_ALERT, LOG_CRIT, LOG_ERR,
                     LOG_WARNING, LOG_NOTICE, LOG_INFO, LOG_DEBUG)
 from ._journal import sendv, stream_fd
+from ._reader import (_Journal, NOP, APPEND, INVALIDATE,
+                      LOCAL_ONLY, RUNTIME_ONLY, SYSTEM_ONLY)
+from . import id128 as _id128
+
+_MONOTONIC_CONVERTER = lambda x: _datetime.timedelta(microseconds=float(x))
+_REALTIME_CONVERTER = lambda x: _datetime.datetime.fromtimestamp(float(x)/1E6)
+DEFAULT_CONVERTERS = {
+    'MESSAGE_ID': _uuid.UUID,
+    '_MACHINE_ID': _uuid.UUID,
+    '_BOOT_ID': _uuid.UUID,
+    'PRIORITY': int,
+    'LEADER': int,
+    'SESSION_ID': int,
+    'USERSPACE_USEC': int,
+    'INITRD_USEC': int,
+    'KERNEL_USEC': int,
+    '_UID': int,
+    '_GID': int,
+    '_PID': int,
+    'SYSLOG_FACILITY': int,
+    'SYSLOG_PID': int,
+    '_AUDIT_SESSION': int,
+    '_AUDIT_LOGINUID': int,
+    '_SYSTEMD_SESSION': int,
+    '_SYSTEMD_OWNER_UID': int,
+    'CODE_LINE': int,
+    'ERRNO': int,
+    'EXIT_STATUS': int,
+    '_SOURCE_REALTIME_TIMESTAMP': _REALTIME_CONVERTER,
+    '__REALTIME_TIMESTAMP': _REALTIME_CONVERTER,
+    '_SOURCE_MONOTONIC_TIMESTAMP': _MONOTONIC_CONVERTER,
+    '__MONOTONIC_TIMESTAMP': _MONOTONIC_CONVERTER,
+    'COREDUMP': bytes,
+    'COREDUMP_PID': int,
+    'COREDUMP_UID': int,
+    'COREDUMP_GID': int,
+    'COREDUMP_SESSION': int,
+    'COREDUMP_SIGNAL': int,
+    'COREDUMP_TIMESTAMP': _REALTIME_CONVERTER,
+}
+
+if _sys.version_info >= (3,):
+    _convert_unicode = _functools.partial(str, encoding='utf-8')
+else:
+    _convert_unicode = _functools.partial(unicode, encoding='utf-8')
+
+class Journal(_Journal):
+    def __init__(self, converters=None, flags=LOCAL_ONLY, path=None):
+        """Creates instance of Journal, which allows filtering and
+        return of journal entries.
+        Argument `converters` is a dictionary which updates the
+        DEFAULT_CONVERTERS to convert journal field values.
+        Argument `flags` sets open flags of the journal, which can be one
+        of, or ORed combination of constants: LOCAL_ONLY (default) opens
+        journal on local machine only; RUNTIME_ONLY opens only
+        volatile journal files; and SYSTEM_ONLY opens only
+        journal files of system services and the kernel.
+        Argument `path` is the directory of journal files. Note that
+        currently flags are ignored when `path` is present as they are
+        currently not relevant.
+        """
+        super(Journal, self).__init__(flags, path)
+        if _sys.version_info >= (3,3):
+            self.converters = ChainMap()
+            if converters is not None:
+                self.converters.maps.append(converters)
+            self.converters.maps.append(DEFAULT_CONVERTERS)
+        else:
+            self.converters = DEFAULT_CONVERTERS.copy()
+            if converters is not None:
+                self.converters.update(converters)
+
+    def _convert_field(self, key, value):
+        """ Convert value based on callable from self.converters
+        based of field/key"""
+        try:
+            result = self.converters[key](value)
+        except:
+            # Default conversion in unicode
+            try:
+                result = _convert_unicode(value)
+            except:
+                # Leave in default bytes
+                result = value
+        return result
+
+    def _convert_entry(self, entry):
+        """ Convert entire journal entry utilising _covert_field"""
+        result = {}
+        for key, value in entry.items():
+            if isinstance(value, list):
+                result[key] = [self._convert_field(key, val) for val in value]
+            else:
+                result[key] = self._convert_field(key, value)
+        return result
+
+    def add_match(self, *args, **kwargs):
+        """Add one or more matches to the filter journal log entries.
+        All matches of different field are combined in a logical AND,
+        and matches of the smae field are automatically combined in a
+        logical OR.
+        Matches can be passed as strings of form "field=value", or
+        keyword arguments field="value"."""
+        args = list(args)
+        args.extend(_make_line(key, val) for key, val in kwargs.items())
+        for arg in args:
+            super(Journal, self).add_match(arg)
+
+    def get_next(self, skip=1):
+        """Return dictionary of the next log entry. Optional skip value
+        will return the `skip`th log entry.
+        Returned will be journal entry dictionary processed with
+        converters."""
+        return self._convert_entry(
+            super(Journal, self).get_next(skip))
+
+    def query_unique(self, field):
+        """Returns a set of unique values in journal for given `field`,
+        processed with converters.
+        Note this does not respect any journal matches."""
+        return set(self._convert_field(field, value)
+            for value in super(Journal, self).query_unique(field))
+
+    def seek_realtime(self, realtime):
+        """Seek to nearest matching journal entry to `realtime`.
+        Argument `realtime` can must be either an integer unix timestamp
+        or datetime.datetime instance."""
+        if isinstance(realtime, _datetime.datetime):
+            realtime = float(realtime.strftime("%s.%f"))
+        return super(Journal, self).seek_realtime(realtime)
+
+    def seek_monotonic(self, monotonic, bootid=None):
+        """Seek to nearest matching journal entry to `monotonic`.
+        Argument `monotonic` is a timestamp from boot in either seconds
+        or a datetime.timedelta instance.
+        Argument `bootid` is a string or UUID representing which boot the
+        monotonic time is reference to. Defaults to current bootid."""
+        if isinstance(monotonic, _datetime.timedelta):
+            monotonic = monotonic.totalseconds()
+        if isinstance(bootid, _uuid.UUID):
+            bootid = bootid.get_hex()
+        return super(Journal, self).seek_monotonic(monotonic, bootid)
+
+    def log_level(self, level):
+        """Sets maximum log `level` by setting matches for PRIORITY."""
+        if 0 <= level <= 7:
+            for i in range(level+1):
+                self.add_match(PRIORITY="%s" % i)
+        else:
+            raise ValueError("Log level must be 0 <= level <= 7")
+
+    def this_boot(self, bootid=None):
+        """Add match for _BOOT_ID equal to current boot ID or the specified boot ID.
+
+        If specified, bootid should be either a UUID or a 32 digit hex number.
+
+        Equivalent to add_match(_BOOT_ID='bootid').
+        """
+        if bootid is None:
+            bootid = _id128.get_boot().hex
+        else:
+            bootid = getattr(bootid, 'hex', bootid)
+        self.add_match(_BOOT_ID=bootid)
+
+    def this_machine(self, machineid=None):
+        """Add match for _MACHINE_ID equal to the ID of this machine.
+
+        If specified, machineid should be either a UUID or a 32 digit hex number.
+
+        Equivalent to add_match(_MACHINE_ID='machineid').
+        """
+        if machineid is None:
+            machineid = _id128.get_machine().hex
+        else:
+            machineid = getattr(machineid, 'hex', machineid)
+        self.add_match(_MACHINE_ID=machineid)
+
 
 def _make_line(field, value):
         if isinstance(value, bytes):
 
 def _make_line(field, value):
         if isinstance(value, bytes):
@@ -96,19 +280,20 @@ def stream(identifier, priority=LOG_DEBUG, level_prefix=False):
         <open file '<fdopen>', mode 'w' at 0x...>
         >>> stream.write('message...\n')
 
         <open file '<fdopen>', mode 'w' at 0x...>
         >>> stream.write('message...\n')
 
-        will produce the following message in the journal:
+        will produce the following message in the journal::
 
 
-        PRIORITY=7
-        SYSLOG_IDENTIFIER=myapp
-        MESSAGE=message...
+          PRIORITY=7
+          SYSLOG_IDENTIFIER=myapp
+          MESSAGE=message...
 
         Using the interface with print might be more convinient:
 
         >>> from __future__ import print_function
         >>> print('message...', file=stream)
 
 
         Using the interface with print might be more convinient:
 
         >>> from __future__ import print_function
         >>> print('message...', file=stream)
 
-        priority is the syslog priority, one of LOG_EMERG, LOG_ALERT,
-        LOG_CRIT, LOG_ERR, LOG_WARNING, LOG_NOTICE, LOG_INFO, LOG_DEBUG.
+        priority is the syslog priority, one of `LOG_EMERG`,
+        `LOG_ALERT`, `LOG_CRIT`, `LOG_ERR`, `LOG_WARNING`,
+        `LOG_NOTICE`, `LOG_INFO`, `LOG_DEBUG`.
 
         level_prefix is a boolean. If true, kernel-style log priority
         level prefixes (such as '<1>') are interpreted. See
 
         level_prefix is a boolean. If true, kernel-style log priority
         level prefixes (such as '<1>') are interpreted. See
@@ -131,8 +316,8 @@ class JournalHandler(_logging.Handler):
         >>> log.addHandler(journal.JournalHandler())
         >>> log.warn("Some message: %s", detail)
 
         >>> log.addHandler(journal.JournalHandler())
         >>> log.warn("Some message: %s", detail)
 
-        Note that by default, message levels INFO and DEBUG are ignored
-        by the logging framework. To enable those log levels:
+        Note that by default, message levels `INFO` and `DEBUG` are
+        ignored by the logging framework. To enable those log levels:
 
         >>> log.setLevel(logging.DEBUG)
 
 
         >>> log.setLevel(logging.DEBUG)
 
@@ -147,16 +332,15 @@ class JournalHandler(_logging.Handler):
 
         >>> logging.root.addHandler(journal.JournalHandler())
 
 
         >>> logging.root.addHandler(journal.JournalHandler())
 
-        For more complex configurations when using dictConfig or
-        fileConfig, specify 'systemd.journal.JournalHandler' as the
+        For more complex configurations when using `dictConfig` or
+        `fileConfig`, specify `systemd.journal.JournalHandler` as the
         handler class.  Only standard handler configuration options
         handler class.  Only standard handler configuration options
-        are supported: level, formatter, filters.
+        are supported: `level`, `formatter`, `filters`.
 
         The following journal fields will be sent:
 
         The following journal fields will be sent:
-
-        MESSAGE, PRIORITY, THREAD_NAME, CODE_FILE, CODE_LINE,
-        CODE_FUNC, LOGGER (name as supplied to getLogger call),
-        MESSAGE_ID (optional, see above).
+        `MESSAGE`, `PRIORITY`, `THREAD_NAME`, `CODE_FILE`, `CODE_LINE`,
+        `CODE_FUNC`, `LOGGER` (name as supplied to getLogger call),
+        `MESSAGE_ID` (optional, see above).
         """
 
         def emit(self, record):
         """
 
         def emit(self, record):