chiark / gitweb /
Merge branch 'gradleFlavor' into 'master'
[fdroidserver.git] / fdroidserver / common.py
index 182949d928ecc8162d29b6e0b385f0b7f451ab97..6ed43d4c4e465eda49d752eb7ceea09d7eb6af5a 100644 (file)
@@ -34,10 +34,13 @@ import logging
 import hashlib
 import socket
 import base64
+import zipfile
+import tempfile
+import json
 import xml.etree.ElementTree as XMLElementTree
 
 from binascii import hexlify
-from datetime import datetime
+from datetime import datetime, timedelta
 from distutils.version import LooseVersion
 from queue import Queue
 from zipfile import ZipFile
@@ -49,7 +52,8 @@ from pyasn1.error import PyAsn1Error
 from distutils.util import strtobool
 
 import fdroidserver.metadata
-from fdroidserver.exception import FDroidException, VCSException, BuildException
+from fdroidserver import _
+from fdroidserver.exception import FDroidException, VCSException, BuildException, VerificationException
 from .asynchronousfilereader import AsynchronousFileReader
 
 
@@ -76,6 +80,7 @@ default_config = {
         'r13b': None,
         'r14b': None,
         'r15c': None,
+        'r16': None,
     },
     'qt_sdk_path': None,
     'build_tools': "25.0.2",
@@ -123,9 +128,44 @@ default_config = {
 
 def setup_global_opts(parser):
     parser.add_argument("-v", "--verbose", action="store_true", default=False,
-                        help="Spew out even more information than normal")
+                        help=_("Spew out even more information than normal"))
     parser.add_argument("-q", "--quiet", action="store_true", default=False,
-                        help="Restrict output to warnings and errors")
+                        help=_("Restrict output to warnings and errors"))
+
+
+def _add_java_paths_to_config(pathlist, thisconfig):
+    def path_version_key(s):
+        versionlist = []
+        for u in re.split('[^0-9]+', s):
+            try:
+                versionlist.append(int(u))
+            except ValueError:
+                pass
+        return versionlist
+
+    for d in sorted(pathlist, key=path_version_key):
+        if os.path.islink(d):
+            continue
+        j = os.path.basename(d)
+        # the last one found will be the canonical one, so order appropriately
+        for regex in [
+                r'^1\.([6-9])\.0\.jdk$',  # OSX
+                r'^jdk1\.([6-9])\.0_[0-9]+.jdk$',  # OSX and Oracle tarball
+                r'^jdk1\.([6-9])\.0_[0-9]+$',  # Oracle Windows
+                r'^jdk([6-9])-openjdk$',  # Arch
+                r'^java-([6-9])-openjdk$',  # Arch
+                r'^java-([6-9])-jdk$',  # Arch (oracle)
+                r'^java-1\.([6-9])\.0-.*$',  # RedHat
+                r'^java-([6-9])-oracle$',  # Debian WebUpd8
+                r'^jdk-([6-9])-oracle-.*$',  # Debian make-jpkg
+                r'^java-([6-9])-openjdk-[^c][^o][^m].*$',  # Debian
+                ]:
+            m = re.match(regex, j)
+            if not m:
+                continue
+            for p in [d, os.path.join(d, 'Contents', 'Home')]:
+                if os.path.exists(os.path.join(p, 'bin', 'javac')):
+                    thisconfig['java_paths'][m.group(1)] = p
 
 
 def fill_config_defaults(thisconfig):
@@ -163,29 +203,7 @@ def fill_config_defaults(thisconfig):
             pathlist.append(os.getenv('JAVA_HOME'))
         if os.getenv('PROGRAMFILES') is not None:
             pathlist += glob.glob(os.path.join(os.getenv('PROGRAMFILES'), 'Java', 'jdk1.[6-9].*'))
-        for d in sorted(pathlist):
-            if os.path.islink(d):
-                continue
-            j = os.path.basename(d)
-            # the last one found will be the canonical one, so order appropriately
-            for regex in [
-                    r'^1\.([6-9])\.0\.jdk$',  # OSX
-                    r'^jdk1\.([6-9])\.0_[0-9]+.jdk$',  # OSX and Oracle tarball
-                    r'^jdk1\.([6-9])\.0_[0-9]+$',  # Oracle Windows
-                    r'^jdk([6-9])-openjdk$',  # Arch
-                    r'^java-([6-9])-openjdk$',  # Arch
-                    r'^java-([6-9])-jdk$',  # Arch (oracle)
-                    r'^java-1\.([6-9])\.0-.*$',  # RedHat
-                    r'^java-([6-9])-oracle$',  # Debian WebUpd8
-                    r'^jdk-([6-9])-oracle-.*$',  # Debian make-jpkg
-                    r'^java-([6-9])-openjdk-[^c][^o][^m].*$',  # Debian
-                    ]:
-                m = re.match(regex, j)
-                if not m:
-                    continue
-                for p in [d, os.path.join(d, 'Contents', 'Home')]:
-                    if os.path.exists(os.path.join(p, 'bin', 'javac')):
-                        thisconfig['java_paths'][m.group(1)] = p
+        _add_java_paths_to_config(pathlist, thisconfig)
 
     for java_version in ('7', '8', '9'):
         if java_version not in thisconfig['java_paths']:
@@ -234,18 +252,19 @@ def read_config(opts, config_file='config.py'):
     config = {}
 
     if os.path.isfile(config_file):
-        logging.debug("Reading %s" % config_file)
+        logging.debug(_("Reading '{config_file}'").format(config_file=config_file))
         with io.open(config_file, "rb") as f:
             code = compile(f.read(), config_file, 'exec')
             exec(code, None, config)
-    elif len(get_local_metadata_files()) == 0:
-        raise FDroidException("Missing config file - is this a repo directory?")
+    else:
+        logging.warning(_("No 'config.py' found, using defaults."))
 
     for k in ('mirrors', 'install_list', 'uninstall_list', 'serverwebroot', 'servergitroot'):
         if k in config:
             if not type(config[k]) in (str, list, tuple):
-                logging.warn('"' + k + '" will be in random order!'
-                             + ' Use () or [] brackets if order is important!')
+                logging.warning(
+                    _("'{field}' will be in random order! Use () or [] brackets if order is important!")
+                    .format(field=k))
 
     # smartcardoptions must be a list since its command line args for Popen
     if 'smartcardoptions' in config:
@@ -260,7 +279,8 @@ def read_config(opts, config_file='config.py'):
     if any(k in config for k in ["keystore", "keystorepass", "keypass"]):
         st = os.stat(config_file)
         if st.st_mode & stat.S_IRWXG or st.st_mode & stat.S_IRWXO:
-            logging.warning("unsafe permissions on {0} (should be 0600)!".format(config_file))
+            logging.warning(_("unsafe permissions on '{config_file}' (should be 0600)!")
+                            .format(config_file=config_file))
 
     fill_config_defaults(config)
 
@@ -274,7 +294,7 @@ def read_config(opts, config_file='config.py'):
         elif all(isinstance(item, str) for item in config['serverwebroot']):
             roots = config['serverwebroot']
         else:
-            raise TypeError('only accepts strings, lists, and tuples')
+            raise TypeError(_('only accepts strings, lists, and tuples'))
         rootlist = []
         for rootstr in roots:
             # since this is used with rsync, where trailing slashes have
@@ -290,12 +310,36 @@ def read_config(opts, config_file='config.py'):
         elif all(isinstance(item, str) for item in config['servergitmirrors']):
             roots = config['servergitmirrors']
         else:
-            raise TypeError('only accepts strings, lists, and tuples')
+            raise TypeError(_('only accepts strings, lists, and tuples'))
         config['servergitmirrors'] = roots
 
     return config
 
 
+def assert_config_keystore(config):
+    """Check weather keystore is configured correctly and raise exception if not."""
+
+    nosigningkey = False
+    if 'repo_keyalias' not in config:
+        nosigningkey = True
+        logging.critical(_("'repo_keyalias' not found in config.py!"))
+    if 'keystore' not in config:
+        nosigningkey = True
+        logging.critical(_("'keystore' not found in config.py!"))
+    elif not os.path.exists(config['keystore']):
+        nosigningkey = True
+        logging.critical("'" + config['keystore'] + "' does not exist!")
+    if 'keystorepass' not in config:
+        nosigningkey = True
+        logging.critical(_("'keystorepass' not found in config.py!"))
+    if 'keypass' not in config:
+        nosigningkey = True
+        logging.critical(_("'keypass' not found in config.py!"))
+    if nosigningkey:
+        raise FDroidException("This command requires a signing key, " +
+                              "you can create one using: fdroid update --create-key")
+
+
 def find_sdk_tools_cmd(cmd):
     '''find a working path to a tool from the Android SDK'''
 
@@ -335,7 +379,7 @@ def test_aapt_version(aapt):
     '''Check whether the version of aapt is new enough'''
     output = subprocess.check_output([aapt, 'version'], universal_newlines=True)
     if output is None or output == '':
-        logging.error(aapt + ' failed to execute!')
+        logging.error(_("'{path}' failed to execute!").format(path=aapt))
     else:
         m = re.match(r'.*v([0-9]+)\.([0-9]+)[.-]?([0-9.-]*)', output)
         if m:
@@ -344,9 +388,10 @@ def test_aapt_version(aapt):
             bugfix = m.group(3)
             # the Debian package has the version string like "v0.2-23.0.2"
             if '.' not in bugfix and LooseVersion('.'.join((major, minor, bugfix))) < LooseVersion('0.2.2166767'):
-                logging.warning(aapt + ' is too old, fdroid requires build-tools-23.0.0 or newer!')
+                logging.warning(_("'{aapt}' is too old, fdroid requires build-tools-23.0.0 or newer!")
+                                .format(aapt=aapt))
         else:
-            logging.warning('Unknown version of aapt, might cause problems: ' + output)
+            logging.warning(_('Unknown version of aapt, might cause problems: ') + output)
 
 
 def test_sdk_exists(thisconfig):
@@ -355,35 +400,38 @@ def test_sdk_exists(thisconfig):
             test_aapt_version(thisconfig['aapt'])
             return True
         else:
-            logging.error("'sdk_path' not set in config.py!")
+            logging.error(_("'sdk_path' not set in 'config.py'!"))
             return False
     if thisconfig['sdk_path'] == default_config['sdk_path']:
-        logging.error('No Android SDK found!')
-        logging.error('You can use ANDROID_HOME to set the path to your SDK, i.e.:')
+        logging.error(_('No Android SDK found!'))
+        logging.error(_('You can use ANDROID_HOME to set the path to your SDK, i.e.:'))
         logging.error('\texport ANDROID_HOME=/opt/android-sdk')
         return False
     if not os.path.exists(thisconfig['sdk_path']):
-        logging.critical('Android SDK path "' + thisconfig['sdk_path'] + '" does not exist!')
+        logging.critical(_("Android SDK path '{path}' does not exist!")
+                         .format(path=thisconfig['sdk_path']))
         return False
     if not os.path.isdir(thisconfig['sdk_path']):
-        logging.critical('Android SDK path "' + thisconfig['sdk_path'] + '" is not a directory!')
+        logging.critical(_("Android SDK path '{path}' is not a directory!")
+                         .format(path=thisconfig['sdk_path']))
         return False
     for d in ['build-tools', 'platform-tools', 'tools']:
         if not os.path.isdir(os.path.join(thisconfig['sdk_path'], d)):
-            logging.critical('Android SDK path "%s" does not contain "%s/"!' % (
-                thisconfig['sdk_path'], d))
+            logging.critical(_("Android SDK '{path}' does not have '{dirname}' installed!")
+                             .format(path=thisconfig['sdk_path'], dirname=d))
             return False
     return True
 
 
 def ensure_build_tools_exists(thisconfig):
     if not test_sdk_exists(thisconfig):
-        raise FDroidException("Android SDK not found.")
+        raise FDroidException(_("Android SDK not found!"))
     build_tools = os.path.join(thisconfig['sdk_path'], 'build-tools')
     versioned_build_tools = os.path.join(build_tools, thisconfig['build_tools'])
     if not os.path.isdir(versioned_build_tools):
         raise FDroidException(
-            'Android Build Tools path "' + versioned_build_tools + '" does not exist!')
+            _("Android build-tools path '{path}' does not exist!")
+            .format(path=versioned_build_tools))
 
 
 def get_local_metadata_files():
@@ -396,17 +444,16 @@ def get_local_metadata_files():
     return glob.glob('.fdroid.[a-jl-z]*[a-rt-z]')
 
 
-def read_pkg_args(args, allow_vercodes=False):
+def read_pkg_args(appid_versionCode_pairs, allow_vercodes=False):
     """
-    :param args: arguments in the form of multiple appid:[vc] strings
+    :param appids: arguments in the form of multiple appid:[vc] strings
     :returns: a dictionary with the set of vercodes specified for each package
     """
-
     vercodes = {}
-    if not args:
+    if not appid_versionCode_pairs:
         return vercodes
 
-    for p in args:
+    for p in appid_versionCode_pairs:
         if allow_vercodes and ':' in p:
             package, vercode = p.split(':')
         else:
@@ -420,13 +467,17 @@ def read_pkg_args(args, allow_vercodes=False):
     return vercodes
 
 
-def read_app_args(args, allapps, allow_vercodes=False):
-    """
-    On top of what read_pkg_args does, this returns the whole app metadata, but
-    limiting the builds list to the builds matching the vercodes specified.
+def read_app_args(appid_versionCode_pairs, allapps, allow_vercodes=False):
+    """Build a list of App instances for processing
+
+    On top of what read_pkg_args does, this returns the whole app
+    metadata, but limiting the builds list to the builds matching the
+    appid_versionCode_pairs and vercodes specified.  If no appid_versionCode_pairs are specified, then
+    all App and Build instances are returned.
+
     """
 
-    vercodes = read_pkg_args(args, allow_vercodes)
+    vercodes = read_pkg_args(appid_versionCode_pairs, allow_vercodes)
 
     if not vercodes:
         return allapps
@@ -439,10 +490,10 @@ def read_app_args(args, allapps, allow_vercodes=False):
     if len(apps) != len(vercodes):
         for p in vercodes:
             if p not in allapps:
-                logging.critical("No such package: %s" % p)
-        raise FDroidException("Found invalid app ids in arguments")
+                logging.critical(_("No such package: %s") % p)
+        raise FDroidException(_("Found invalid appids in arguments"))
     if not apps:
-        raise FDroidException("No packages specified")
+        raise FDroidException(_("No packages specified"))
 
     error = False
     for appid, app in apps.items():
@@ -455,10 +506,11 @@ def read_app_args(args, allapps, allow_vercodes=False):
             allvcs = [b.versionCode for b in app.builds]
             for v in vercodes[appid]:
                 if v not in allvcs:
-                    logging.critical("No such vercode %s for app %s" % (v, appid))
+                    logging.critical(_("No such versionCode {versionCode} for app {appid}")
+                                     .format(versionCode=v, appid=appid))
 
     if error:
-        raise FDroidException("Found invalid vercodes for some apps")
+        raise FDroidException(_("Found invalid versionCodes for some apps"))
 
     return apps
 
@@ -471,7 +523,7 @@ def get_extension(filename):
 
 
 def has_extension(filename, ext):
-    _, f_ext = get_extension(filename)
+    _ignored, f_ext = get_extension(filename)
     return ext == f_ext
 
 
@@ -497,10 +549,36 @@ def publishednameinfo(filename):
     try:
         result = (m.group(1), m.group(2))
     except AttributeError:
-        raise FDroidException("Invalid name for published file: %s" % filename)
+        raise FDroidException(_("Invalid name for published file: %s") % filename)
     return result
 
 
+apk_release_filename = re.compile('(?P<appid>[a-zA-Z0-9_\.]+)_(?P<vercode>[0-9]+)\.apk')
+apk_release_filename_with_sigfp = re.compile('(?P<appid>[a-zA-Z0-9_\.]+)_(?P<vercode>[0-9]+)_(?P<sigfp>[0-9a-f]{7})\.apk')
+
+
+def apk_parse_release_filename(apkname):
+    """Parses the name of an APK file according the F-Droids APK naming
+    scheme and returns the tokens.
+
+    WARNING: Returned values don't necessarily represent the APKs actual
+    properties, the are just paresed from the file name.
+
+    :returns: A triplet containing (appid, versionCode, signer), where appid
+        should be the package name, versionCode should be the integer
+        represion of the APKs version and signer should be the first 7 hex
+        digists of the sha256 signing key fingerprint which was used to sign
+        this APK.
+    """
+    m = apk_release_filename_with_sigfp.match(apkname)
+    if m:
+        return m.group('appid'), m.group('vercode'), m.group('sigfp')
+    m = apk_release_filename.match(apkname)
+    if m:
+        return m.group('appid'), m.group('vercode'), None
+    return None, None, None
+
+
 def get_release_filename(app, build):
     if build.output:
         return "%s_%s.%s" % (app.id, build.versionCode, get_file_extension(build.output))
@@ -589,7 +667,7 @@ class vcs:
                     raise VCSException("Authentication is not supported for git-svn")
                 self.username, remote = remote.split('@')
                 if ':' not in self.username:
-                    raise VCSException("Password required with username")
+                    raise VCSException(_("Password required with username"))
                 self.username, self.password = self.username.split(':')
 
         self.remote = remote
@@ -601,17 +679,26 @@ class vcs:
     def repotype(self):
         return None
 
-    # Take the local repository to a clean version of the given revision, which
-    # is specificed in the VCS's native format. Beforehand, the repository can
-    # be dirty, or even non-existent. If the repository does already exist
-    # locally, it will be updated from the origin, but only once in the
-    # lifetime of the vcs object.
-    # None is acceptable for 'rev' if you know you are cloning a clean copy of
-    # the repo - otherwise it must specify a valid revision.
+    def clientversion(self):
+        versionstr = FDroidPopen(self.clientversioncmd()).output
+        return versionstr[0:versionstr.find('\n')]
+
+    def clientversioncmd(self):
+        return None
+
     def gotorevision(self, rev, refresh=True):
+        """Take the local repository to a clean version of the given
+        revision, which is specificed in the VCS's native
+        format. Beforehand, the repository can be dirty, or even
+        non-existent. If the repository does already exist locally, it
+        will be updated from the origin, but only once in the lifetime
+        of the vcs object.  None is acceptable for 'rev' if you know
+        you are cloning a clean copy of the repo - otherwise it must
+        specify a valid revision.
+        """
 
         if self.clone_failed:
-            raise VCSException("Downloading the repository already failed once, not trying again.")
+            raise VCSException(_("Downloading the repository already failed once, not trying again."))
 
         # The .fdroidvcs-id file for a repo tells us what VCS type
         # and remote that directory was created from, allowing us to drop it
@@ -657,9 +744,11 @@ class vcs:
         if exc is not None:
             raise exc
 
-    # Derived classes need to implement this. It's called once basic checking
-    # has been performend.
     def gotorevisionx(self, rev):  # pylint: disable=unused-argument
+        """Derived classes need to implement this.
+
+        It's called once basic checking has been performed.
+        """
         raise VCSException("This VCS type doesn't define gotorevisionx")
 
     # Initialise and update submodules
@@ -676,17 +765,16 @@ class vcs:
                 rtags.append(tag)
         return rtags
 
-    # Get a list of all the known tags, sorted from newest to oldest
     def latesttags(self):
+        """Get a list of all the known tags, sorted from newest to oldest"""
         raise VCSException('latesttags not supported for this vcs type')
 
-    # Get current commit reference (hash, revision, etc)
     def getref(self):
+        """Get current commit reference (hash, revision, etc)"""
         raise VCSException('getref not supported for this vcs type')
 
-    # Returns the srclib (name, path) used in setting up the current
-    # revision, or None.
     def getsrclib(self):
+        """Returns the srclib (name, path) used in setting up the current revision, or None."""
         return self.srclib
 
 
@@ -695,11 +783,48 @@ class vcs_git(vcs):
     def repotype(self):
         return 'git'
 
-    # If the local directory exists, but is somehow not a git repository, git
-    # will traverse up the directory tree until it finds one that is (i.e.
-    # fdroidserver) and then we'll proceed to destroy it! This is called as
-    # a safety check.
+    def clientversioncmd(self):
+        return ['git', '--version']
+
+    def GitFetchFDroidPopen(self, gitargs, envs=dict(), cwd=None, output=True):
+        '''Prevent git fetch/clone/submodule from hanging at the username/password prompt
+
+        While fetch/pull/clone respect the command line option flags,
+        it seems that submodule commands do not.  They do seem to
+        follow whatever is in env vars, if the version of git is new
+        enough.  So we just throw the kitchen sink at it to see what
+        sticks.
+
+        '''
+        if cwd is None:
+            cwd = self.local
+        git_config = []
+        for domain in ('bitbucket.org', 'github.com', 'gitlab.com'):
+            git_config.append('-c')
+            git_config.append('url.https://u:p@' + domain + '/.insteadOf=git@' + domain + ':')
+            git_config.append('-c')
+            git_config.append('url.https://u:p@' + domain + '.insteadOf=git://' + domain)
+            git_config.append('-c')
+            git_config.append('url.https://u:p@' + domain + '.insteadOf=https://' + domain)
+        # add helpful tricks supported in git >= 2.3
+        ssh_command = 'ssh -oBatchMode=yes -oStrictHostKeyChecking=yes'
+        git_config.append('-c')
+        git_config.append('core.sshCommand="' + ssh_command + '"')  # git >= 2.10
+        envs.update({
+            'GIT_TERMINAL_PROMPT': '0',
+            'GIT_SSH_COMMAND': ssh_command,  # git >= 2.3
+        })
+        return FDroidPopen(['git', ] + git_config + gitargs,
+                           envs=envs, cwd=cwd, output=output)
+
     def checkrepo(self):
+        """If the local directory exists, but is somehow not a git repository,
+        git will traverse up the directory tree until it finds one
+        that is (i.e.  fdroidserver) and then we'll proceed to destroy
+        it!  This is called as a safety check.
+
+        """
+
         p = FDroidPopen(['git', 'rev-parse', '--show-toplevel'], cwd=self.local, output=False)
         result = p.output.rstrip()
         if not result.endswith(self.local):
@@ -708,7 +833,7 @@ class vcs_git(vcs):
     def gotorevisionx(self, rev):
         if not os.path.exists(self.local):
             # Brand new checkout
-            p = FDroidPopen(['git', 'clone', self.remote, self.local])
+            p = FDroidPopen(['git', 'clone', self.remote, self.local], cwd=None)
             if p.returncode != 0:
                 self.clone_failed = True
                 raise VCSException("Git clone failed", p.output)
@@ -719,66 +844,64 @@ class vcs_git(vcs):
             p = FDroidPopen(['git', 'submodule', 'foreach', '--recursive',
                              'git', 'reset', '--hard'], cwd=self.local, output=False)
             if p.returncode != 0:
-                raise VCSException("Git reset failed", p.output)
+                raise VCSException(_("Git reset failed"), p.output)
             # Remove untracked files now, in case they're tracked in the target
             # revision (it happens!)
             p = FDroidPopen(['git', 'submodule', 'foreach', '--recursive',
                              'git', 'clean', '-dffx'], cwd=self.local, output=False)
             if p.returncode != 0:
-                raise VCSException("Git clean failed", p.output)
+                raise VCSException(_("Git clean failed"), p.output)
             if not self.refreshed:
                 # Get latest commits and tags from remote
-                p = FDroidPopen(['git', 'fetch', 'origin'], cwd=self.local)
+                p = self.GitFetchFDroidPopen(['fetch', 'origin'])
                 if p.returncode != 0:
-                    raise VCSException("Git fetch failed", p.output)
-                p = FDroidPopen(['git', 'fetch', '--prune', '--tags', 'origin'], cwd=self.local, output=False)
+                    raise VCSException(_("Git fetch failed"), p.output)
+                p = self.GitFetchFDroidPopen(['fetch', '--prune', '--tags', 'origin'], output=False)
                 if p.returncode != 0:
-                    raise VCSException("Git fetch failed", p.output)
+                    raise VCSException(_("Git fetch failed"), p.output)
                 # Recreate origin/HEAD as git clone would do it, in case it disappeared
                 p = FDroidPopen(['git', 'remote', 'set-head', 'origin', '--auto'], cwd=self.local, output=False)
                 if p.returncode != 0:
                     lines = p.output.splitlines()
                     if 'Multiple remote HEAD branches' not in lines[0]:
-                        raise VCSException("Git remote set-head failed", p.output)
+                        raise VCSException(_("Git remote set-head failed"), p.output)
                     branch = lines[1].split(' ')[-1]
                     p2 = FDroidPopen(['git', 'remote', 'set-head', 'origin', branch], cwd=self.local, output=False)
                     if p2.returncode != 0:
-                        raise VCSException("Git remote set-head failed", p.output + '\n' + p2.output)
+                        raise VCSException(_("Git remote set-head failed"), p.output + '\n' + p2.output)
                 self.refreshed = True
         # origin/HEAD is the HEAD of the remote, e.g. the "default branch" on
         # a github repo. Most of the time this is the same as origin/master.
         rev = rev or 'origin/HEAD'
         p = FDroidPopen(['git', 'checkout', '-f', rev], cwd=self.local, output=False)
         if p.returncode != 0:
-            raise VCSException("Git checkout of '%s' failed" % rev, p.output)
+            raise VCSException(_("Git checkout of '%s' failed") % rev, p.output)
         # Get rid of any uncontrolled files left behind
         p = FDroidPopen(['git', 'clean', '-dffx'], cwd=self.local, output=False)
         if p.returncode != 0:
-            raise VCSException("Git clean failed", p.output)
+            raise VCSException(_("Git clean failed"), p.output)
 
     def initsubmodules(self):
         self.checkrepo()
         submfile = os.path.join(self.local, '.gitmodules')
         if not os.path.isfile(submfile):
-            raise VCSException("No git submodules available")
+            raise VCSException(_("No git submodules available"))
 
         # fix submodules not accessible without an account and public key auth
         with open(submfile, 'r') as f:
             lines = f.readlines()
         with open(submfile, 'w') as f:
             for line in lines:
-                if 'git@github.com' in line:
-                    line = line.replace('git@github.com:', 'https://github.com/')
-                if 'git@gitlab.com' in line:
-                    line = line.replace('git@gitlab.com:', 'https://gitlab.com/')
+                for domain in ('bitbucket.org', 'github.com', 'gitlab.com'):
+                    line = re.sub('git@' + domain + ':', 'https://u:p@' + domain + '/', line)
                 f.write(line)
 
         p = FDroidPopen(['git', 'submodule', 'sync'], cwd=self.local, output=False)
         if p.returncode != 0:
-            raise VCSException("Git submodule sync failed", p.output)
-        p = FDroidPopen(['git', 'submodule', 'update', '--init', '--force', '--recursive'], cwd=self.local)
+            raise VCSException(_("Git submodule sync failed"), p.output)
+        p = self.GitFetchFDroidPopen(['submodule', 'update', '--init', '--force', '--recursive'])
         if p.returncode != 0:
-            raise VCSException("Git submodule update failed", p.output)
+            raise VCSException(_("Git submodule update failed"), p.output)
 
     def _gettags(self):
         self.checkrepo()
@@ -804,11 +927,16 @@ class vcs_gitsvn(vcs):
     def repotype(self):
         return 'git-svn'
 
-    # If the local directory exists, but is somehow not a git repository, git
-    # will traverse up the directory tree until it finds one that is (i.e.
-    # fdroidserver) and then we'll proceed to destory it! This is called as
-    # a safety check.
+    def clientversioncmd(self):
+        return ['git', 'svn', '--version']
+
     def checkrepo(self):
+        """If the local directory exists, but is somehow not a git repository,
+        git will traverse up the directory tree until it finds one that
+        is (i.e.  fdroidserver) and then we'll proceed to destory it!
+        This is called as a safety check.
+
+        """
         p = FDroidPopen(['git', 'rev-parse', '--show-toplevel'], cwd=self.local, output=False)
         result = p.output.rstrip()
         if not result.endswith(self.local):
@@ -901,12 +1029,12 @@ class vcs_gitsvn(vcs):
                     # Check out the git rev equivalent to the svn rev
                     p = FDroidPopen(['git', 'checkout', git_rev], cwd=self.local, output=False)
                     if p.returncode != 0:
-                        raise VCSException("Git checkout of '%s' failed" % rev, p.output)
+                        raise VCSException(_("Git checkout of '%s' failed") % rev, p.output)
 
         # Get rid of any uncontrolled files left behind
         p = FDroidPopen(['git', 'clean', '-dffx'], cwd=self.local, output=False)
         if p.returncode != 0:
-            raise VCSException("Git clean failed", p.output)
+            raise VCSException(_("Git clean failed"), p.output)
 
     def _gettags(self):
         self.checkrepo()
@@ -928,6 +1056,9 @@ class vcs_hg(vcs):
     def repotype(self):
         return 'hg'
 
+    def clientversioncmd(self):
+        return ['hg', '--version']
+
     def gotorevisionx(self, rev):
         if not os.path.exists(self.local):
             p = FDroidPopen(['hg', 'clone', self.remote, self.local], output=False)
@@ -975,6 +1106,9 @@ class vcs_bzr(vcs):
     def repotype(self):
         return 'bzr'
 
+    def clientversioncmd(self):
+        return ['bzr', '--version']
+
     def gotorevisionx(self, rev):
         if not os.path.exists(self.local):
             p = FDroidPopen(['bzr', 'branch', self.remote, self.local], output=False)
@@ -1022,9 +1156,9 @@ def retrieve_string(app_dir, string, xmlfiles=None):
             os.path.join(app_dir, 'res'),
             os.path.join(app_dir, 'src', 'main', 'res'),
         ]:
-            for r, d, f in os.walk(res_dir):
-                if os.path.basename(r) == 'values':
-                    xmlfiles += [os.path.join(r, x) for x in f if x.endswith('.xml')]
+            for root, dirs, files in os.walk(res_dir):
+                if os.path.basename(root) == 'values':
+                    xmlfiles += [os.path.join(root, x) for x in files if x.endswith('.xml')]
 
     name = string[len('@string/'):]
 
@@ -1121,7 +1255,7 @@ def remove_debuggable_flags(root_dir):
     # Remove forced debuggable flags
     logging.debug("Removing debuggable flags from %s" % root_dir)
     for root, dirs, files in os.walk(root_dir):
-        if 'AndroidManifest.xml' in files:
+        if 'AndroidManifest.xml' in files and os.path.isfile(os.path.join(root, 'AndroidManifest.xml')):
             regsub_file(r'android:debuggable="[^"]*"',
                         '',
                         os.path.join(root, 'AndroidManifest.xml'))
@@ -1163,32 +1297,63 @@ def parse_androidmanifests(paths, app):
         if not os.path.isfile(path):
             continue
 
-        logging.debug("Parsing manifest at {0}".format(path))
+        logging.debug(_("Parsing manifest at '{path}'").format(path=path))
         version = None
         vercode = None
         package = None
 
+        flavour = ""
+        if app.builds and 'gradle' in app.builds[-1] and app.builds[-1].gradle:
+                flavour = app.builds[-1].gradle[-1]
+
         if has_extension(path, 'gradle'):
+            # first try to get version name and code from correct flavour
             with open(path, 'r') as f:
-                for line in f:
-                    if gradle_comment.match(line):
-                        continue
-                    # Grab first occurence of each to avoid running into
-                    # alternative flavours and builds.
-                    if not package:
-                        matches = psearch_g(line)
-                        if matches:
-                            s = matches.group(2)
-                            if app_matches_packagename(app, s):
-                                package = s
-                    if not version:
-                        matches = vnsearch_g(line)
-                        if matches:
-                            version = matches.group(2)
-                    if not vercode:
-                        matches = vcsearch_g(line)
-                        if matches:
-                            vercode = matches.group(1)
+                buildfile = f.read()
+
+                regex_string = r"" + flavour + ".*?}"
+                search = re.compile(regex_string, re.DOTALL)
+                result = search.search(buildfile)
+
+            if result is not None:
+                resultgroup = result.group()
+
+                if not package:
+                    matches = psearch_g(resultgroup)
+                    if matches:
+                        s = matches.group(2)
+                        if app_matches_packagename(app, s):
+                            package = s
+                if not version:
+                    matches = vnsearch_g(resultgroup)
+                    if matches:
+                        version = matches.group(2)
+                if not vercode:
+                    matches = vcsearch_g(resultgroup)
+                    if matches:
+                        vercode = matches.group(1)
+            else:
+                # fall back to parse file line by line
+                with open(path, 'r') as f:
+                    for line in f:
+                        if gradle_comment.match(line):
+                            continue
+                        # Grab first occurence of each to avoid running into
+                        # alternative flavours and builds.
+                        if not package:
+                            matches = psearch_g(line)
+                            if matches:
+                                s = matches.group(2)
+                                if app_matches_packagename(app, s):
+                                    package = s
+                        if not version:
+                            matches = vnsearch_g(line)
+                            if matches:
+                                version = matches.group(2)
+                        if not vercode:
+                            matches = vcsearch_g(line)
+                            if matches:
+                                vercode = matches.group(1)
         else:
             try:
                 xml = parse_xml(path)
@@ -1205,7 +1370,7 @@ def parse_androidmanifests(paths, app):
                     if string_is_integer(a):
                         vercode = a
             except Exception:
-                logging.warning("Problem with xml at {0}".format(path))
+                logging.warning(_("Problem with xml at '{path}'").format(path=path))
 
         # Remember package name, may be defined separately from version+vercode
         if package is None:
@@ -1237,7 +1402,7 @@ def parse_androidmanifests(paths, app):
         max_version = "Unknown"
 
     if max_package and not is_valid_package_name(max_package):
-        raise FDroidException("Invalid package name {0}".format(max_package))
+        raise FDroidException(_("Invalid package name {0}").format(max_package))
 
     return (max_version, max_vercode, max_package)
 
@@ -1246,14 +1411,16 @@ def is_valid_package_name(name):
     return re.match("[A-Za-z_][A-Za-z_0-9.]+$", name)
 
 
-# Get the specified source library.
-# Returns the path to it. Normally this is the path to be used when referencing
-# it, which may be a subdirectory of the actual project. If you want the base
-# directory of the project, pass 'basepath=True'.
 def getsrclib(spec, srclib_dir, subdir=None, basepath=False,
               raw=False, prepare=True, preponly=False, refresh=True,
               build=None):
+    """Get the specified source library.
 
+    Returns the path to it. Normally this is the path to be used when
+    referencing it, which may be a subdirectory of the actual project. If
+    you want the base directory of the project, pass 'basepath=True'.
+
+    """
     number = None
     subdir = None
     if raw:
@@ -1345,7 +1512,7 @@ def prepare_source(vcs, app, build, build_dir, srclib_dir, extlib_dir, onserver=
 
     # Initialise submodules if required
     if build.submodules:
-        logging.info("Initialising submodules")
+        logging.info(_("Initialising submodules"))
         vcs.initsubmodules()
 
     # Check that a subdir (if we're using one) exists. This has to happen
@@ -1475,15 +1642,16 @@ def prepare_source(vcs, app, build, build_dir, srclib_dir, extlib_dir, onserver=
 
     # Delete unwanted files
     if build.rm:
-        logging.info("Removing specified files")
+        logging.info(_("Removing specified files"))
         for part in getpaths(build_dir, build.rm):
             dest = os.path.join(build_dir, part)
             logging.info("Removing {0}".format(part))
             if os.path.lexists(dest):
-                if os.path.islink(dest):
-                    FDroidPopen(['unlink', dest], output=False)
+                # rmtree can only handle directories that are not symlinks, so catch anything else
+                if not os.path.isdir(dest) or os.path.islink(dest):
+                    os.remove(dest)
                 else:
-                    FDroidPopen(['rm', '-rf', dest], output=False)
+                    shutil.rmtree(dest)
             else:
                 logging.info("...but it didn't exist")
 
@@ -1555,9 +1723,8 @@ def prepare_source(vcs, app, build, build_dir, srclib_dir, extlib_dir, onserver=
     return (root_dir, srclibpaths)
 
 
-# Extend via globbing the paths from a field and return them as a map from
-# original path to resulting paths
 def getpaths_map(build_dir, globpaths):
+    """Extend via globbing the paths from a field and return them as a map from original path to resulting paths"""
     paths = dict()
     for p in globpaths:
         p = p.strip()
@@ -1569,8 +1736,8 @@ def getpaths_map(build_dir, globpaths):
     return paths
 
 
-# Extend via globbing the paths from a field and return them as a set
 def getpaths(build_dir, globpaths):
+    """Extend via globbing the paths from a field and return them as a set"""
     paths_map = getpaths_map(build_dir, globpaths)
     paths = set()
     for k, v in paths_map.items():
@@ -1583,6 +1750,23 @@ def natural_key(s):
     return [int(sp) if sp.isdigit() else sp for sp in re.split(r'(\d+)', s)]
 
 
+def check_system_clock(dt_obj, path):
+    """Check if system clock is updated based on provided date
+
+    If an APK has files newer than the system time, suggest updating
+    the system clock.  This is useful for offline systems, used for
+    signing, which do not have another source of clock sync info. It
+    has to be more than 24 hours newer because ZIP/APK files do not
+    store timezone info
+
+    """
+    checkdt = dt_obj - timedelta(1)
+    if datetime.today() < checkdt:
+        logging.warning(_('System clock is older than date in {path}!').format(path=path)
+                        + '\n' + _('Set clock to that time using:') + '\n'
+                        + 'sudo date -s "' + str(dt_obj) + '"')
+
+
 class KnownApks:
     """permanent store of existing APKs with the date they were added
 
@@ -1591,6 +1775,13 @@ class KnownApks:
     """
 
     def __init__(self):
+        '''Load filename/date info about previously seen APKs
+
+        Since the appid and date strings both will never have spaces,
+        this is parsed as a list from the end to allow the filename to
+        have any combo of spaces.
+        '''
+
         self.path = os.path.join('stats', 'known_apks.txt')
         self.apks = {}
         if os.path.isfile(self.path):
@@ -1600,7 +1791,11 @@ class KnownApks:
                     if len(t) == 2:
                         self.apks[t[0]] = (t[1], None)
                     else:
-                        self.apks[t[0]] = (t[1], datetime.strptime(t[2], '%Y-%m-%d'))
+                        appid = t[-2]
+                        date = datetime.strptime(t[-1], '%Y-%m-%d')
+                        filename = line[0:line.rfind(appid) - 1]
+                        self.apks[filename] = (appid, date)
+                        check_system_clock(date, self.path)
         self.changed = False
 
     def writeifchanged(self):
@@ -1632,19 +1827,20 @@ class KnownApks:
                 default_date = datetime.utcnow()
             self.apks[apkName] = (app, default_date)
             self.changed = True
-        _, added = self.apks[apkName]
+        _ignored, added = self.apks[apkName]
         return added
 
-    # Look up information - given the 'apkname', returns (app id, date added/None).
-    # Or returns None for an unknown apk.
     def getapp(self, apkname):
+        """Look up information - given the 'apkname', returns (app id, date added/None).
+
+        Or returns None for an unknown apk.
+        """
         if apkname in self.apks:
             return self.apks[apkname]
         return None
 
-    # Get the most recent 'num' apps added to the repo, as a list of package ids
-    # with the most recent first.
     def getlatest(self, num):
+        """Get the most recent 'num' apps added to the repo, as a list of package ids with the most recent first"""
         apps = {}
         for apk, app in self.apks.items():
             appid, added = app
@@ -1655,7 +1851,7 @@ class KnownApks:
                 else:
                     apps[appid] = added
         sortedapps = sorted(apps.items(), key=operator.itemgetter(1))[-num:]
-        lst = [app for app, _ in sortedapps]
+        lst = [app for app, _ignored in sortedapps]
         lst.reverse()
         return lst
 
@@ -1671,7 +1867,7 @@ def get_apk_debuggable_aapt(apkfile):
     p = SdkToolsPopen(['aapt', 'dump', 'xmltree', apkfile, 'AndroidManifest.xml'],
                       output=False)
     if p.returncode != 0:
-        raise FDroidException("Failed to get apk manifest information")
+        raise FDroidException(_("Failed to get APK manifest information"))
     for line in p.output.splitlines():
         if 'android:debuggable' in line and not line.endswith('0x0'):
             return True
@@ -1718,7 +1914,8 @@ def get_apk_id_aapt(apkfile):
         m = r.match(line)
         if m:
             return m.group('appid'), m.group('vercode'), m.group('vername')
-    raise FDroidException("reading identification failed, APK invalid: '{}'".format(apkfile))
+    raise FDroidException(_("Reading packageName/versionCode/versionName failed, APK invalid: '{apkfilename}'")
+                          .format(apkfilename=apkfile))
 
 
 class PopenResult:
@@ -1733,7 +1930,7 @@ def SdkToolsPopen(commands, cwd=None, output=True):
         config[cmd] = find_sdk_tools_cmd(commands[0])
     abscmd = config[cmd]
     if abscmd is None:
-        raise FDroidException("Could not find '%s' on your system" % cmd)
+        raise FDroidException(_("Could not find '{command}' on your system").format(command=cmd))
     if cmd == 'aapt':
         test_aapt_version(config['aapt'])
     return FDroidPopen([abscmd] + commands[1:],
@@ -1985,6 +2182,67 @@ def place_srclib(root_dir, number, libpath):
 apk_sigfile = re.compile(r'META-INF/[0-9A-Za-z]+\.(SF|RSA|DSA|EC)')
 
 
+def signer_fingerprint_short(sig):
+    """Obtain shortened sha256 signing-key fingerprint for pkcs7 signature.
+
+    Extracts the first 7 hexadecimal digits of sha256 signing-key fingerprint
+    for a given pkcs7 signature.
+
+    :param sig: Contents of an APK signing certificate.
+    :returns: shortened signing-key fingerprint.
+    """
+    return signer_fingerprint(sig)[:7]
+
+
+def signer_fingerprint(sig):
+    """Obtain sha256 signing-key fingerprint for pkcs7 signature.
+
+    Extracts hexadecimal sha256 signing-key fingerprint string
+    for a given pkcs7 signature.
+
+    :param: Contents of an APK signature.
+    :returns: shortened signature fingerprint.
+    """
+    cert_encoded = get_certificate(sig)
+    return hashlib.sha256(cert_encoded).hexdigest()
+
+
+def apk_signer_fingerprint(apk_path):
+    """Obtain sha256 signing-key fingerprint for APK.
+
+    Extracts hexadecimal sha256 signing-key fingerprint string
+    for a given APK.
+
+    :param apkpath: path to APK
+    :returns: signature fingerprint
+    """
+
+    with zipfile.ZipFile(apk_path, 'r') as apk:
+        certs = [n for n in apk.namelist() if CERT_PATH_REGEX.match(n)]
+
+        if len(certs) < 1:
+            logging.error("Found no signing certificates on %s" % apk_path)
+            return None
+        if len(certs) > 1:
+            logging.error("Found multiple signing certificates on %s" % apk_path)
+            return None
+
+        cert = apk.read(certs[0])
+        return signer_fingerprint(cert)
+
+
+def apk_signer_fingerprint_short(apk_path):
+    """Obtain shortened sha256 signing-key fingerprint for APK.
+
+    Extracts the first 7 hexadecimal digits of sha256 signing-key fingerprint
+    for a given pkcs7 APK.
+
+    :param apk_path: path to APK
+    :returns: shortened signing-key fingerprint
+    """
+    return apk_signer_fingerprint(apk_path)[:7]
+
+
 def metadata_get_sigdir(appid, vercode=None):
     """Get signature directory for app"""
     if vercode:
@@ -1993,6 +2251,130 @@ def metadata_get_sigdir(appid, vercode=None):
         return os.path.join('metadata', appid, 'signatures')
 
 
+def metadata_find_developer_signature(appid, vercode=None):
+    """Tires to find the developer signature for given appid.
+
+    This picks the first signature file found in metadata an returns its
+    signature.
+
+    :returns: sha256 signing key fingerprint of the developer signing key.
+        None in case no signature can not be found."""
+
+    # fetch list of dirs for all versions of signatures
+    appversigdirs = []
+    if vercode:
+        appversigdirs.append(metadata_get_sigdir(appid, vercode))
+    else:
+        appsigdir = metadata_get_sigdir(appid)
+        if os.path.isdir(appsigdir):
+            numre = re.compile('[0-9]+')
+            for ver in os.listdir(appsigdir):
+                if numre.match(ver):
+                    appversigdir = os.path.join(appsigdir, ver)
+                    appversigdirs.append(appversigdir)
+
+    for sigdir in appversigdirs:
+        sigs = glob.glob(os.path.join(sigdir, '*.DSA')) + \
+            glob.glob(os.path.join(sigdir, '*.EC')) + \
+            glob.glob(os.path.join(sigdir, '*.RSA'))
+        if len(sigs) > 1:
+            raise FDroidException('ambiguous signatures, please make sure there is only one signature in \'{}\'. (The signature has to be the App maintainers signature for version of the APK.)'.format(sigdir))
+        for sig in sigs:
+            with open(sig, 'rb') as f:
+                return signer_fingerprint(f.read())
+    return None
+
+
+def metadata_find_signing_files(appid, vercode):
+    """Gets a list of singed manifests and signatures.
+
+    :param appid: app id string
+    :param vercode: app version code
+    :returns: a list of triplets for each signing key with following paths:
+        (signature_file, singed_file, manifest_file)
+    """
+    ret = []
+    sigdir = metadata_get_sigdir(appid, vercode)
+    sigs = glob.glob(os.path.join(sigdir, '*.DSA')) + \
+        glob.glob(os.path.join(sigdir, '*.EC')) + \
+        glob.glob(os.path.join(sigdir, '*.RSA'))
+    extre = re.compile('(\.DSA|\.EC|\.RSA)$')
+    for sig in sigs:
+        sf = extre.sub('.SF', sig)
+        if os.path.isfile(sf):
+            mf = os.path.join(sigdir, 'MANIFEST.MF')
+            if os.path.isfile(mf):
+                ret.append((sig, sf, mf))
+    return ret
+
+
+def metadata_find_developer_signing_files(appid, vercode):
+    """Get developer signature files for specified app from metadata.
+
+    :returns: A triplet of paths for signing files from metadata:
+        (signature_file, singed_file, manifest_file)
+    """
+    allsigningfiles = metadata_find_signing_files(appid, vercode)
+    if allsigningfiles and len(allsigningfiles) == 1:
+        return allsigningfiles[0]
+    else:
+        return None
+
+
+def apk_strip_signatures(signed_apk, strip_manifest=False):
+    """Removes signatures from APK.
+
+    :param signed_apk: path to apk file.
+    :param strip_manifest: when set to True also the manifest file will
+        be removed from the APK.
+    """
+    with tempfile.TemporaryDirectory() as tmpdir:
+        tmp_apk = os.path.join(tmpdir, 'tmp.apk')
+        os.rename(signed_apk, tmp_apk)
+        with ZipFile(tmp_apk, 'r') as in_apk:
+            with ZipFile(signed_apk, 'w') as out_apk:
+                for info in in_apk.infolist():
+                    if not apk_sigfile.match(info.filename):
+                        if strip_manifest:
+                            if info.filename != 'META-INF/MANIFEST.MF':
+                                buf = in_apk.read(info.filename)
+                                out_apk.writestr(info, buf)
+                        else:
+                            buf = in_apk.read(info.filename)
+                            out_apk.writestr(info, buf)
+
+
+def apk_implant_signatures(apkpath, signaturefile, signedfile, manifest):
+    """Implats a signature from metadata into an APK.
+
+    Note: this changes there supplied APK in place. So copy it if you
+    need the original to be preserved.
+
+    :param apkpath: location of the apk
+    """
+    # get list of available signature files in metadata
+    with tempfile.TemporaryDirectory() as tmpdir:
+        apkwithnewsig = os.path.join(tmpdir, 'newsig.apk')
+        with ZipFile(apkpath, 'r') as in_apk:
+            with ZipFile(apkwithnewsig, 'w') as out_apk:
+                for sig_file in [signaturefile, signedfile, manifest]:
+                    with open(sig_file, 'rb') as fp:
+                        buf = fp.read()
+                    info = zipfile.ZipInfo('META-INF/' + os.path.basename(sig_file))
+                    info.compress_type = zipfile.ZIP_DEFLATED
+                    info.create_system = 0  # "Windows" aka "FAT", what Android SDK uses
+                    out_apk.writestr(info, buf)
+                for info in in_apk.infolist():
+                    if not apk_sigfile.match(info.filename):
+                        if info.filename != 'META-INF/MANIFEST.MF':
+                            buf = in_apk.read(info.filename)
+                            out_apk.writestr(info, buf)
+        os.remove(apkpath)
+        p = SdkToolsPopen(['zipalign', '-v', '4', apkwithnewsig, apkpath])
+        if p.returncode != 0:
+            raise BuildException("Failed to align application")
+
+
 def apk_extract_signatures(apkpath, outdir, manifest=True):
     """Extracts a signature files from APK and puts them into target directory.
 
@@ -2032,30 +2414,35 @@ def verify_apks(signed_apk, unsigned_apk, tmp_dir):
               describing what went wrong.
     """
 
-    signed = ZipFile(signed_apk, 'r')
-    meta_inf_files = ['META-INF/MANIFEST.MF']
-    for f in signed.namelist():
-        if apk_sigfile.match(f) \
-           or f in ['META-INF/fdroidserverid', 'META-INF/buildserverid']:
-            meta_inf_files.append(f)
-    if len(meta_inf_files) < 3:
-        return "Signature files missing from {0}".format(signed_apk)
-
-    tmp_apk = os.path.join(tmp_dir, 'sigcp_' + os.path.basename(unsigned_apk))
-    unsigned = ZipFile(unsigned_apk, 'r')
-    # only read the signature from the signed APK, everything else from unsigned
-    with ZipFile(tmp_apk, 'w') as tmp:
-        for filename in meta_inf_files:
-            tmp.writestr(signed.getinfo(filename), signed.read(filename))
-        for info in unsigned.infolist():
-            if info.filename in meta_inf_files:
-                logging.warning('Ignoring ' + info.filename + ' from ' + unsigned_apk)
-                continue
-            if info.filename in tmp.namelist():
-                return "duplicate filename found: " + info.filename
-            tmp.writestr(info, unsigned.read(info.filename))
-    unsigned.close()
-    signed.close()
+    if not os.path.isfile(signed_apk):
+        return 'can not verify: file does not exists: {}'.format(signed_apk)
+
+    if not os.path.isfile(unsigned_apk):
+        return 'can not verify: file does not exists: {}'.format(unsigned_apk)
+
+    with ZipFile(signed_apk, 'r') as signed:
+        meta_inf_files = ['META-INF/MANIFEST.MF']
+        for f in signed.namelist():
+            if apk_sigfile.match(f) \
+               or f in ['META-INF/fdroidserverid', 'META-INF/buildserverid']:
+                meta_inf_files.append(f)
+        if len(meta_inf_files) < 3:
+            return "Signature files missing from {0}".format(signed_apk)
+
+        tmp_apk = os.path.join(tmp_dir, 'sigcp_' + os.path.basename(unsigned_apk))
+        with ZipFile(unsigned_apk, 'r') as unsigned:
+            # only read the signature from the signed APK, everything else from unsigned
+            with ZipFile(tmp_apk, 'w') as tmp:
+                for filename in meta_inf_files:
+                    tmp.writestr(signed.getinfo(filename), signed.read(filename))
+                for info in unsigned.infolist():
+                    if info.filename in meta_inf_files:
+                        logging.warning('Ignoring %s from %s',
+                                        info.filename, unsigned_apk)
+                        continue
+                    if info.filename in tmp.namelist():
+                        return "duplicate filename found: " + info.filename
+                    tmp.writestr(info, unsigned.read(info.filename))
 
     verified = verify_apk_signature(tmp_apk)
 
@@ -2068,24 +2455,43 @@ def verify_apks(signed_apk, unsigned_apk, tmp_dir):
     return None
 
 
-def verify_apk_signature(apk, jar=False):
+def verify_jar_signature(jar):
+    """Verifies the signature of a given JAR file.
+
+    jarsigner is very shitty: unsigned JARs pass as "verified"! So
+    this has to turn on -strict then check for result 4, since this
+    does not expect the signature to be from a CA-signed certificate.
+
+    :raises: VerificationException() if the JAR's signature could not be verified
+
+    """
+
+    if subprocess.call([config['jarsigner'], '-strict', '-verify', jar]) != 4:
+        raise VerificationException(_("The repository's index could not be verified."))
+
+
+def verify_apk_signature(apk, min_sdk_version=None):
     """verify the signature on an APK
 
     Try to use apksigner whenever possible since jarsigner is very
-    shitty: unsigned APKs pass as "verified"! So this has to turn on
-    -strict then check for result 4.
+    shitty: unsigned APKs pass as "verified"!  Warning, this does
+    not work on JARs with apksigner >= 0.7 (build-tools 26.0.1)
 
-    You can set :param: jar to True if you want to use this method
-    to verify jar signatures.
+    :returns: boolean whether the APK was verified
     """
     if set_command_in_config('apksigner'):
         args = [config['apksigner'], 'verify']
-        if jar:
-            args += ['--min-sdk-version=1']
+        if min_sdk_version:
+            args += ['--min-sdk-version=' + min_sdk_version]
         return subprocess.call(args + [apk]) == 0
     else:
         logging.warning("Using Java's jarsigner, not recommended for verifying APKs! Use apksigner")
-        return subprocess.call([config['jarsigner'], '-strict', '-verify', apk]) == 4
+        try:
+            verify_jar_signature(apk)
+            return True
+        except Exception:
+            pass
+    return False
 
 
 def verify_old_apk_signature(apk):
@@ -2098,6 +2504,7 @@ def verify_old_apk_signature(apk):
     jarsigner passes unsigned APKs as "verified"! So this has to turn
     on -strict then check for result 4.
 
+    :returns: boolean whether the APK was verified
     """
 
     _java_security = os.path.join(os.getcwd(), '.java.security')
@@ -2299,6 +2706,34 @@ def get_certificate(certificate_file):
     return encoder.encode(cert)
 
 
+def load_stats_fdroid_signing_key_fingerprints():
+    """Load list of signing-key fingerprints stored by fdroid publish from file.
+
+    :returns: list of dictionanryies containing the singing-key fingerprints.
+    """
+    jar_file = os.path.join('stats', 'publishsigkeys.jar')
+    if not os.path.isfile(jar_file):
+        return {}
+    cmd = [config['jarsigner'], '-strict', '-verify', jar_file]
+    p = FDroidPopen(cmd, output=False)
+    if p.returncode != 4:
+        raise FDroidException("Signature validation of '{}' failed! "
+                              "Please run publish again to rebuild this file.".format(jar_file))
+
+    jar_sigkey = apk_signer_fingerprint(jar_file)
+    repo_key_sig = config.get('repo_key_sha256')
+    if repo_key_sig:
+        if jar_sigkey != repo_key_sig:
+            raise FDroidException("Signature key fingerprint of file '{}' does not match repo_key_sha256 in config.py (found fingerprint: '{}')".format(jar_file, jar_sigkey))
+    else:
+        logging.warning("repo_key_sha256 not in config.py, setting it to the signature key fingerprint of '{}'".format(jar_file))
+        config['repo_key_sha256'] = jar_sigkey
+        write_to_config(config, 'repo_key_sha256')
+
+    with zipfile.ZipFile(jar_file, 'r') as f:
+        return json.loads(str(f.read('publishsigkeys.json'), 'utf-8'))
+
+
 def write_to_config(thisconfig, key, value=None, config_file=None):
     '''write a key/value to the local config.py
 
@@ -2314,7 +2749,10 @@ def write_to_config(thisconfig, key, value=None, config_file=None):
         value = thisconfig[origkey] if origkey in thisconfig else thisconfig[key]
     cfg = config_file if config_file else 'config.py'
 
-    # load config file
+    # load config file, create one if it doesn't exist
+    if not os.path.exists(cfg):
+        open(cfg, 'a').close()
+        logging.info("Creating empty " + cfg)
     with open(cfg, 'r', encoding="utf-8") as f:
         lines = f.readlines()
 
@@ -2362,6 +2800,28 @@ def string_is_integer(string):
         return False
 
 
+def local_rsync(options, fromdir, todir):
+    '''Rsync method for local to local copying of things
+
+    This is an rsync wrapper with all the settings for safe use within
+    the various fdroidserver use cases. This uses stricter rsync
+    checking on all files since people using offline mode are already
+    prioritizing security above ease and speed.
+
+    '''
+    rsyncargs = ['rsync', '--recursive', '--safe-links', '--times', '--perms',
+                 '--one-file-system', '--delete', '--chmod=Da+rx,Fa-x,a+r,u+w']
+    if not options.no_checksum:
+        rsyncargs.append('--checksum')
+    if options.verbose:
+        rsyncargs += ['--verbose']
+    if options.quiet:
+        rsyncargs += ['--quiet']
+    logging.debug(' '.join(rsyncargs + [fromdir, todir]))
+    if subprocess.call(rsyncargs + [fromdir, todir]) != 0:
+        raise FDroidException()
+
+
 def get_per_app_repos():
     '''per-app repos are dirs named with the packageName of a single app'''
 
@@ -2401,3 +2861,26 @@ def is_repo_file(filename):
             b'index-v1.json',
             b'categories.txt',
         ]
+
+
+def get_examples_dir():
+    '''Return the dir where the fdroidserver example files are available'''
+    examplesdir = None
+    tmp = os.path.dirname(sys.argv[0])
+    if os.path.basename(tmp) == 'bin':
+        egg_links = glob.glob(os.path.join(tmp, '..',
+                                           'local/lib/python3.*/site-packages/fdroidserver.egg-link'))
+        if egg_links:
+            # installed from local git repo
+            examplesdir = os.path.join(open(egg_links[0]).readline().rstrip(), 'examples')
+        else:
+            # try .egg layout
+            examplesdir = os.path.dirname(os.path.dirname(__file__)) + '/share/doc/fdroidserver/examples'
+            if not os.path.exists(examplesdir):  # use UNIX layout
+                examplesdir = os.path.dirname(tmp) + '/share/doc/fdroidserver/examples'
+    else:
+        # we're running straight out of the git repo
+        prefix = os.path.normpath(os.path.join(os.path.dirname(__file__), '..'))
+        examplesdir = prefix + '/examples'
+
+    return examplesdir