Fix the node powered field
[ganeti-local] / lib / backend.py
index 29f0723..e1a410f 100644 (file)
@@ -1,7 +1,7 @@
 #
 #
 
 #
 #
 
-# Copyright (C) 2006, 2007, 2008, 2009, 2010, 2011 Google Inc.
+# Copyright (C) 2006, 2007, 2008, 2009, 2010, 2011, 2012 Google Inc.
 #
 # This program is free software; you can redistribute it and/or modify
 # it under the terms of the GNU General Public License as published by
 #
 # This program is free software; you can redistribute it and/or modify
 # it under the terms of the GNU General Public License as published by
@@ -61,14 +61,17 @@ from ganeti import serializer
 from ganeti import netutils
 from ganeti import runtime
 from ganeti import mcpu
 from ganeti import netutils
 from ganeti import runtime
 from ganeti import mcpu
+from ganeti import compat
+from ganeti import pathutils
+from ganeti import vcluster
 
 
 _BOOT_ID_PATH = "/proc/sys/kernel/random/boot_id"
 _ALLOWED_CLEAN_DIRS = frozenset([
 
 
 _BOOT_ID_PATH = "/proc/sys/kernel/random/boot_id"
 _ALLOWED_CLEAN_DIRS = frozenset([
-  constants.DATA_DIR,
-  constants.JOB_QUEUE_ARCHIVE_DIR,
-  constants.QUEUE_DIR,
-  constants.CRYPTO_KEYS_DIR,
+  pathutils.DATA_DIR,
+  pathutils.JOB_QUEUE_ARCHIVE_DIR,
+  pathutils.QUEUE_DIR,
+  pathutils.CRYPTO_KEYS_DIR,
   ])
 _MAX_SSL_CERT_VALIDITY = 7 * 24 * 60 * 60
 _X509_KEY_FILE = "key"
   ])
 _MAX_SSL_CERT_VALIDITY = 7 * 24 * 60 * 60
 _X509_KEY_FILE = "key"
@@ -78,7 +81,11 @@ _IES_PID_FILE = "pid"
 _IES_CA_FILE = "ca"
 
 #: Valid LVS output line regex
 _IES_CA_FILE = "ca"
 
 #: Valid LVS output line regex
-_LVSLINE_REGEX = re.compile("^ *([^|]+)\|([^|]+)\|([0-9.]+)\|([^|]{6})\|?$")
+_LVSLINE_REGEX = re.compile("^ *([^|]+)\|([^|]+)\|([0-9.]+)\|([^|]{6,})\|?$")
+
+# Actions for the master setup script
+_MASTER_START = "start"
+_MASTER_STOP = "stop"
 
 
 class RPCFail(Exception):
 
 
 class RPCFail(Exception):
@@ -192,22 +199,25 @@ def _BuildUploadFileList():
 
   """
   allowed_files = set([
 
   """
   allowed_files = set([
-    constants.CLUSTER_CONF_FILE,
-    constants.ETC_HOSTS,
-    constants.SSH_KNOWN_HOSTS_FILE,
-    constants.VNC_PASSWORD_FILE,
-    constants.RAPI_CERT_FILE,
-    constants.SPICE_CERT_FILE,
-    constants.SPICE_CACERT_FILE,
-    constants.RAPI_USERS_FILE,
-    constants.CONFD_HMAC_KEY,
-    constants.CLUSTER_DOMAIN_SECRET_FILE,
+    pathutils.CLUSTER_CONF_FILE,
+    pathutils.ETC_HOSTS,
+    pathutils.SSH_KNOWN_HOSTS_FILE,
+    pathutils.VNC_PASSWORD_FILE,
+    pathutils.RAPI_CERT_FILE,
+    pathutils.SPICE_CERT_FILE,
+    pathutils.SPICE_CACERT_FILE,
+    pathutils.RAPI_USERS_FILE,
+    pathutils.CONFD_HMAC_KEY,
+    pathutils.CLUSTER_DOMAIN_SECRET_FILE,
     ])
 
   for hv_name in constants.HYPER_TYPES:
     hv_class = hypervisor.GetHypervisorClass(hv_name)
     allowed_files.update(hv_class.GetAncillaryFiles()[0])
 
     ])
 
   for hv_name in constants.HYPER_TYPES:
     hv_class = hypervisor.GetHypervisorClass(hv_name)
     allowed_files.update(hv_class.GetAncillaryFiles()[0])
 
+  assert pathutils.FILE_STORAGE_PATHS_FILE not in allowed_files, \
+    "Allowed file storage paths should never be uploaded via RPC"
+
   return frozenset(allowed_files)
 
 
   return frozenset(allowed_files)
 
 
@@ -221,8 +231,8 @@ def JobQueuePurge():
   @return: True, None
 
   """
   @return: True, None
 
   """
-  _CleanDirectory(constants.QUEUE_DIR, exclude=[constants.JOB_QUEUE_LOCK_FILE])
-  _CleanDirectory(constants.JOB_QUEUE_ARCHIVE_DIR)
+  _CleanDirectory(pathutils.QUEUE_DIR, exclude=[pathutils.JOB_QUEUE_LOCK_FILE])
+  _CleanDirectory(pathutils.JOB_QUEUE_ARCHIVE_DIR)
 
 
 def GetMasterInfo():
 
 
 def GetMasterInfo():
@@ -247,7 +257,7 @@ def GetMasterInfo():
   except errors.ConfigurationError, err:
     _Fail("Cluster configuration incomplete: %s", err, exc=True)
   return (master_netdev, master_ip, master_node, primary_ip_family,
   except errors.ConfigurationError, err:
     _Fail("Cluster configuration incomplete: %s", err, exc=True)
   return (master_netdev, master_ip, master_node, primary_ip_family,
-      master_netmask)
+          master_netmask)
 
 
 def RunLocalHooks(hook_opcode, hooks_path, env_builder_fn):
 
 
 def RunLocalHooks(hook_opcode, hooks_path, env_builder_fn):
@@ -259,7 +269,8 @@ def RunLocalHooks(hook_opcode, hooks_path, env_builder_fn):
   @param hooks_path: path of the hooks
   @type env_builder_fn: function
   @param env_builder_fn: function that returns a dictionary containing the
   @param hooks_path: path of the hooks
   @type env_builder_fn: function
   @param env_builder_fn: function that returns a dictionary containing the
-    environment variables for the hooks.
+    environment variables for the hooks. Will get all the parameters of the
+    decorated function.
   @raise RPCFail: in case of pre-hook failure
 
   """
   @raise RPCFail: in case of pre-hook failure
 
   """
@@ -268,11 +279,13 @@ def RunLocalHooks(hook_opcode, hooks_path, env_builder_fn):
       _, myself = ssconf.GetMasterAndMyself()
       nodes = ([myself], [myself])  # these hooks run locally
 
       _, myself = ssconf.GetMasterAndMyself()
       nodes = ([myself], [myself])  # these hooks run locally
 
+      env_fn = compat.partial(env_builder_fn, *args, **kwargs)
+
       cfg = _GetConfig()
       hr = HooksRunner()
       hm = mcpu.HooksMaster(hook_opcode, hooks_path, nodes, hr.RunLocalHooks,
       cfg = _GetConfig()
       hr = HooksRunner()
       hm = mcpu.HooksMaster(hook_opcode, hooks_path, nodes, hr.RunLocalHooks,
-                            None, env_builder_fn, logging.warning,
-                            cfg.GetClusterName(), cfg.GetMasterNode())
+                            None, env_fn, logging.warning, cfg.GetClusterName(),
+                            cfg.GetMasterNode())
 
       hm.RunPhase(constants.HOOKS_PHASE_PRE)
       result = fn(*args, **kwargs)
 
       hm.RunPhase(constants.HOOKS_PHASE_PRE)
       result = fn(*args, **kwargs)
@@ -283,66 +296,73 @@ def RunLocalHooks(hook_opcode, hooks_path, env_builder_fn):
   return decorator
 
 
   return decorator
 
 
-def _BuildMasterIpEnv():
+def _BuildMasterIpEnv(master_params, use_external_mip_script=None):
   """Builds environment variables for master IP hooks.
 
   """Builds environment variables for master IP hooks.
 
+  @type master_params: L{objects.MasterNetworkParameters}
+  @param master_params: network parameters of the master
+  @type use_external_mip_script: boolean
+  @param use_external_mip_script: whether to use an external master IP
+    address setup script (unused, but necessary per the implementation of the
+    _RunLocalHooks decorator)
+
   """
   """
-  master_netdev, master_ip, _, family, master_netmask = GetMasterInfo()
-  version = str(netutils.IPAddress.GetVersionFromAddressFamily(family))
+  # pylint: disable=W0613
+  ver = netutils.IPAddress.GetVersionFromAddressFamily(master_params.ip_family)
   env = {
   env = {
-    "MASTER_NETDEV": master_netdev,
-    "MASTER_IP": master_ip,
-    "MASTER_NETMASK": master_netmask,
-    "CLUSTER_IP_VERSION": version,
+    "MASTER_NETDEV": master_params.netdev,
+    "MASTER_IP": master_params.ip,
+    "MASTER_NETMASK": str(master_params.netmask),
+    "CLUSTER_IP_VERSION": str(ver),
   }
 
   return env
 
 
   }
 
   return env
 
 
-@RunLocalHooks(constants.FAKE_OP_MASTER_TURNUP, "master-ip-turnup",
-               _BuildMasterIpEnv)
-def ActivateMasterIp(master_ip, master_netmask, master_netdev, family):
-  """Activate the IP address of the master daemon.
+def _RunMasterSetupScript(master_params, action, use_external_mip_script):
+  """Execute the master IP address setup script.
 
 
-  @param master_ip: the master IP
-  @param master_netmask: the master IP netmask
-  @param master_netdev: the master network device
-  @param family: the IP family
+  @type master_params: L{objects.MasterNetworkParameters}
+  @param master_params: network parameters of the master
+  @type action: string
+  @param action: action to pass to the script. Must be one of
+    L{backend._MASTER_START} or L{backend._MASTER_STOP}
+  @type use_external_mip_script: boolean
+  @param use_external_mip_script: whether to use an external master IP
+    address setup script
+  @raise backend.RPCFail: if there are errors during the execution of the
+    script
 
   """
 
   """
-  err_msg = None
-  if netutils.TcpPing(master_ip, constants.DEFAULT_NODED_PORT):
-    if netutils.IPAddress.Own(master_ip):
-      # we already have the ip:
-      logging.debug("Master IP already configured, doing nothing")
-    else:
-      err_msg = "Someone else has the master ip, not activating"
-      logging.error(err_msg)
+  env = _BuildMasterIpEnv(master_params)
+
+  if use_external_mip_script:
+    setup_script = pathutils.EXTERNAL_MASTER_SETUP_SCRIPT
   else:
   else:
-    ipcls = netutils.IPAddress.GetClassFromIpFamily(family)
+    setup_script = pathutils.DEFAULT_MASTER_SETUP_SCRIPT
 
 
-    result = utils.RunCmd([constants.IP_COMMAND_PATH, "address", "add",
-                           "%s/%s" % (master_ip, master_netmask),
-                           "dev", master_netdev, "label",
-                           "%s:0" % master_netdev])
-    if result.failed:
-      err_msg = "Can't activate master IP: %s" % result.output
-      logging.error(err_msg)
+  result = utils.RunCmd([setup_script, action], env=env, reset_env=True)
 
 
-    else:
-      # we ignore the exit code of the following cmds
-      if ipcls == netutils.IP4Address:
-        utils.RunCmd(["arping", "-q", "-U", "-c 3", "-I", master_netdev, "-s",
-                      master_ip, master_ip])
-      elif ipcls == netutils.IP6Address:
-        try:
-          utils.RunCmd(["ndisc6", "-q", "-r 3", master_ip, master_netdev])
-        except errors.OpExecError:
-          # TODO: Better error reporting
-          logging.warning("Can't execute ndisc6, please install if missing")
+  if result.failed:
+    _Fail("Failed to %s the master IP. Script return value: %s" %
+          (action, result.exit_code), log=True)
+
+
+@RunLocalHooks(constants.FAKE_OP_MASTER_TURNUP, "master-ip-turnup",
+               _BuildMasterIpEnv)
+def ActivateMasterIp(master_params, use_external_mip_script):
+  """Activate the IP address of the master daemon.
+
+  @type master_params: L{objects.MasterNetworkParameters}
+  @param master_params: network parameters of the master
+  @type use_external_mip_script: boolean
+  @param use_external_mip_script: whether to use an external master IP
+    address setup script
+  @raise RPCFail: in case of errors during the IP startup
 
 
-  if err_msg:
-    _Fail(err_msg)
+  """
+  _RunMasterSetupScript(master_params, _MASTER_START,
+                        use_external_mip_script)
 
 
 def StartMasterDaemons(no_voting):
 
 
 def StartMasterDaemons(no_voting):
@@ -366,7 +386,7 @@ def StartMasterDaemons(no_voting):
     "EXTRA_MASTERD_ARGS": masterd_args,
     }
 
     "EXTRA_MASTERD_ARGS": masterd_args,
     }
 
-  result = utils.RunCmd([constants.DAEMON_UTIL, "start-master"], env=env)
+  result = utils.RunCmd([pathutils.DAEMON_UTIL, "start-master"], env=env)
   if result.failed:
     msg = "Can't start Ganeti master: %s" % result.output
     logging.error(msg)
   if result.failed:
     msg = "Can't start Ganeti master: %s" % result.output
     logging.error(msg)
@@ -375,25 +395,19 @@ def StartMasterDaemons(no_voting):
 
 @RunLocalHooks(constants.FAKE_OP_MASTER_TURNDOWN, "master-ip-turndown",
                _BuildMasterIpEnv)
 
 @RunLocalHooks(constants.FAKE_OP_MASTER_TURNDOWN, "master-ip-turndown",
                _BuildMasterIpEnv)
-def DeactivateMasterIp(master_ip, master_netmask, master_netdev, family):
+def DeactivateMasterIp(master_params, use_external_mip_script):
   """Deactivate the master IP on this node.
 
   """Deactivate the master IP on this node.
 
-  @param master_ip: the master IP
-  @param master_netmask: the master IP netmask
-  @param master_netdev: the master network device
-  @param family: the IP family
+  @type master_params: L{objects.MasterNetworkParameters}
+  @param master_params: network parameters of the master
+  @type use_external_mip_script: boolean
+  @param use_external_mip_script: whether to use an external master IP
+    address setup script
+  @raise RPCFail: in case of errors during the IP turndown
 
   """
 
   """
-  # pylint: disable=W0613
-  # TODO: log and report back to the caller the error failures; we
-  # need to decide in which case we fail the RPC for this
-
-  result = utils.RunCmd([constants.IP_COMMAND_PATH, "address", "del",
-                         "%s/%s" % (master_ip, master_netmask),
-                         "dev", master_netdev])
-  if result.failed:
-    logging.error("Can't remove the master IP, error: %s", result.output)
-    # but otherwise ignore the failure
+  _RunMasterSetupScript(master_params, _MASTER_STOP,
+                        use_external_mip_script)
 
 
 def StopMasterDaemons():
 
 
 def StopMasterDaemons():
@@ -407,7 +421,7 @@ def StopMasterDaemons():
   # TODO: log and report back to the caller the error failures; we
   # need to decide in which case we fail the RPC for this
 
   # TODO: log and report back to the caller the error failures; we
   # need to decide in which case we fail the RPC for this
 
-  result = utils.RunCmd([constants.DAEMON_UTIL, "stop-master"])
+  result = utils.RunCmd([pathutils.DAEMON_UTIL, "stop-master"])
   if result.failed:
     logging.error("Could not stop Ganeti master, command %s had exitcode %s"
                   " and error %s",
   if result.failed:
     logging.error("Could not stop Ganeti master, command %s had exitcode %s"
                   " and error %s",
@@ -426,19 +440,23 @@ def ChangeMasterNetmask(old_netmask, netmask, master_ip, master_netdev):
   if old_netmask == netmask:
     return
 
   if old_netmask == netmask:
     return
 
+  if not netutils.IPAddress.Own(master_ip):
+    _Fail("The master IP address is not up, not attempting to change its"
+          " netmask")
+
   result = utils.RunCmd([constants.IP_COMMAND_PATH, "address", "add",
                          "%s/%s" % (master_ip, netmask),
                          "dev", master_netdev, "label",
                          "%s:0" % master_netdev])
   if result.failed:
   result = utils.RunCmd([constants.IP_COMMAND_PATH, "address", "add",
                          "%s/%s" % (master_ip, netmask),
                          "dev", master_netdev, "label",
                          "%s:0" % master_netdev])
   if result.failed:
-    _Fail("Could not change the master IP netmask")
+    _Fail("Could not set the new netmask on the master IP address")
 
   result = utils.RunCmd([constants.IP_COMMAND_PATH, "address", "del",
                          "%s/%s" % (master_ip, old_netmask),
                          "dev", master_netdev, "label",
                          "%s:0" % master_netdev])
   if result.failed:
 
   result = utils.RunCmd([constants.IP_COMMAND_PATH, "address", "del",
                          "%s/%s" % (master_ip, old_netmask),
                          "dev", master_netdev, "label",
                          "%s:0" % master_netdev])
   if result.failed:
-    _Fail("Could not change the master IP netmask")
+    _Fail("Could not bring down the master IP address with the old netmask")
 
 
 def EtcHostsModify(mode, host, ip):
 
 
 def EtcHostsModify(mode, host, ip):
@@ -476,13 +494,13 @@ def LeaveCluster(modify_ssh_setup):
   @param modify_ssh_setup: boolean
 
   """
   @param modify_ssh_setup: boolean
 
   """
-  _CleanDirectory(constants.DATA_DIR)
-  _CleanDirectory(constants.CRYPTO_KEYS_DIR)
+  _CleanDirectory(pathutils.DATA_DIR)
+  _CleanDirectory(pathutils.CRYPTO_KEYS_DIR)
   JobQueuePurge()
 
   if modify_ssh_setup:
     try:
   JobQueuePurge()
 
   if modify_ssh_setup:
     try:
-      priv_key, pub_key, auth_keys = ssh.GetUserFiles(constants.GANETI_RUNAS)
+      priv_key, pub_key, auth_keys = ssh.GetUserFiles(constants.SSH_LOGIN_USER)
 
       utils.RemoveAuthorizedKey(auth_keys, utils.ReadFile(pub_key))
 
 
       utils.RemoveAuthorizedKey(auth_keys, utils.ReadFile(pub_key))
 
@@ -492,15 +510,15 @@ def LeaveCluster(modify_ssh_setup):
       logging.exception("Error while processing ssh files")
 
   try:
       logging.exception("Error while processing ssh files")
 
   try:
-    utils.RemoveFile(constants.CONFD_HMAC_KEY)
-    utils.RemoveFile(constants.RAPI_CERT_FILE)
-    utils.RemoveFile(constants.SPICE_CERT_FILE)
-    utils.RemoveFile(constants.SPICE_CACERT_FILE)
-    utils.RemoveFile(constants.NODED_CERT_FILE)
+    utils.RemoveFile(pathutils.CONFD_HMAC_KEY)
+    utils.RemoveFile(pathutils.RAPI_CERT_FILE)
+    utils.RemoveFile(pathutils.SPICE_CERT_FILE)
+    utils.RemoveFile(pathutils.SPICE_CACERT_FILE)
+    utils.RemoveFile(pathutils.NODED_CERT_FILE)
   except: # pylint: disable=W0702
     logging.exception("Error while removing cluster secrets")
 
   except: # pylint: disable=W0702
     logging.exception("Error while removing cluster secrets")
 
-  result = utils.RunCmd([constants.DAEMON_UTIL, "stop", constants.CONFD])
+  result = utils.RunCmd([pathutils.DAEMON_UTIL, "stop", constants.CONFD])
   if result.failed:
     logging.error("Command %s failed with exitcode %s and error %s",
                   result.cmd, result.exit_code, result.output)
   if result.failed:
     logging.error("Command %s failed with exitcode %s and error %s",
                   result.cmd, result.exit_code, result.output)
@@ -509,44 +527,71 @@ def LeaveCluster(modify_ssh_setup):
   raise errors.QuitGanetiException(True, "Shutdown scheduled")
 
 
   raise errors.QuitGanetiException(True, "Shutdown scheduled")
 
 
-def GetNodeInfo(vgname, hypervisor_type):
-  """Gives back a hash with different information about the node.
+def _GetVgInfo(name):
+  """Retrieves information about a LVM volume group.
 
 
-  @type vgname: C{string}
-  @param vgname: the name of the volume group to ask for disk space information
-  @type hypervisor_type: C{str}
-  @param hypervisor_type: the name of the hypervisor to ask for
-      memory information
-  @rtype: C{dict}
-  @return: dictionary with the following keys:
-      - vg_size is the size of the configured volume group in MiB
-      - vg_free is the free size of the volume group in MiB
-      - memory_dom0 is the memory allocated for domain0 in MiB
-      - memory_free is the currently available (free) ram in MiB
-      - memory_total is the total number of ram in MiB
-      - hv_version: the hypervisor version, if available
+  """
+  # TODO: GetVGInfo supports returning information for multiple VGs at once
+  vginfo = bdev.LogicalVolume.GetVGInfo([name])
+  if vginfo:
+    vg_free = int(round(vginfo[0][0], 0))
+    vg_size = int(round(vginfo[0][1], 0))
+  else:
+    vg_free = None
+    vg_size = None
+
+  return {
+    "name": name,
+    "vg_free": vg_free,
+    "vg_size": vg_size,
+    }
+
+
+def _GetHvInfo(name):
+  """Retrieves node information from a hypervisor.
+
+  The information returned depends on the hypervisor. Common items:
+
+    - vg_size is the size of the configured volume group in MiB
+    - vg_free is the free size of the volume group in MiB
+    - memory_dom0 is the memory allocated for domain0 in MiB
+    - memory_free is the currently available (free) ram in MiB
+    - memory_total is the total number of ram in MiB
+    - hv_version: the hypervisor version, if available
 
   """
 
   """
-  outputarray = {}
+  return hypervisor.GetHypervisor(name).GetNodeInfo()
 
 
-  if vgname is not None:
-    vginfo = bdev.LogicalVolume.GetVGInfo([vgname])
-    vg_free = vg_size = None
-    if vginfo:
-      vg_free = int(round(vginfo[0][0], 0))
-      vg_size = int(round(vginfo[0][1], 0))
-    outputarray["vg_size"] = vg_size
-    outputarray["vg_free"] = vg_free
 
 
-  if hypervisor_type is not None:
-    hyper = hypervisor.GetHypervisor(hypervisor_type)
-    hyp_info = hyper.GetNodeInfo()
-    if hyp_info is not None:
-      outputarray.update(hyp_info)
+def _GetNamedNodeInfo(names, fn):
+  """Calls C{fn} for all names in C{names} and returns a dictionary.
 
 
-  outputarray["bootid"] = utils.ReadFile(_BOOT_ID_PATH, size=128).rstrip("\n")
+  @rtype: None or dict
+
+  """
+  if names is None:
+    return None
+  else:
+    return map(fn, names)
 
 
-  return outputarray
+
+def GetNodeInfo(vg_names, hv_names):
+  """Gives back a hash with different information about the node.
+
+  @type vg_names: list of string
+  @param vg_names: Names of the volume groups to ask for disk space information
+  @type hv_names: list of string
+  @param hv_names: Names of the hypervisors to ask for node information
+  @rtype: tuple; (string, None/dict, None/dict)
+  @return: Tuple containing boot ID, volume group information and hypervisor
+    information
+
+  """
+  bootid = utils.ReadFile(_BOOT_ID_PATH, size=128).rstrip("\n")
+  vg_info = _GetNamedNodeInfo(vg_names, _GetVgInfo)
+  hv_info = _GetNamedNodeInfo(hv_names, _GetHvInfo)
+
+  return (bootid, vg_info, hv_info)
 
 
 def VerifyNode(what, cluster_name):
 
 
 def VerifyNode(what, cluster_name):
@@ -658,7 +703,12 @@ def VerifyNode(what, cluster_name):
     else:
       source = None
     result[constants.NV_MASTERIP] = netutils.TcpPing(master_ip, port,
     else:
       source = None
     result[constants.NV_MASTERIP] = netutils.TcpPing(master_ip, port,
-                                                  source=source)
+                                                     source=source)
+
+  if constants.NV_USERSCRIPTS in what:
+    result[constants.NV_USERSCRIPTS] = \
+      [script for script in what[constants.NV_USERSCRIPTS]
+       if not (os.path.exists(script) and os.access(script, os.X_OK))]
 
   if constants.NV_OOB_PATHS in what:
     result[constants.NV_OOB_PATHS] = tmp = []
 
   if constants.NV_OOB_PATHS in what:
     result[constants.NV_OOB_PATHS] = tmp = []
@@ -944,6 +994,7 @@ def GetInstanceInfo(instance, hname):
       - memory: memory size of instance (int)
       - state: xen state of instance (string)
       - time: cpu time of instance (float)
       - memory: memory size of instance (int)
       - state: xen state of instance (string)
       - time: cpu time of instance (float)
+      - vcpus: the number of vcpus (int)
 
   """
   output = {}
 
   """
   output = {}
@@ -951,6 +1002,7 @@ def GetInstanceInfo(instance, hname):
   iinfo = hypervisor.GetHypervisor(hname).GetInstanceInfo(instance)
   if iinfo is not None:
     output["memory"] = iinfo[2]
   iinfo = hypervisor.GetHypervisor(hname).GetInstanceInfo(instance)
   if iinfo is not None:
     output["memory"] = iinfo[2]
+    output["vcpus"] = iinfo[3]
     output["state"] = iinfo[4]
     output["time"] = iinfo[5]
 
     output["state"] = iinfo[4]
     output["time"] = iinfo[5]
 
@@ -1049,7 +1101,7 @@ def _InstanceLogName(kind, os_name, instance, component):
     c_msg = ""
   base = ("%s-%s-%s%s-%s.log" %
           (kind, os_name, instance, c_msg, utils.TimestampForFilename()))
     c_msg = ""
   base = ("%s-%s-%s%s-%s.log" %
           (kind, os_name, instance, c_msg, utils.TimestampForFilename()))
-  return utils.PathJoin(constants.LOG_OS_DIR, base)
+  return utils.PathJoin(pathutils.LOG_OS_DIR, base)
 
 
 def InstanceOsAdd(instance, reinstall, debug):
 
 
 def InstanceOsAdd(instance, reinstall, debug):
@@ -1118,7 +1170,7 @@ def RunRenameInstance(instance, old_name, debug):
 
 
 def _GetBlockDevSymlinkPath(instance_name, idx):
 
 
 def _GetBlockDevSymlinkPath(instance_name, idx):
-  return utils.PathJoin(constants.DISK_LINKS_DIR, "%s%s%d" %
+  return utils.PathJoin(pathutils.DISK_LINKS_DIR, "%s%s%d" %
                         (instance_name, constants.DISK_SEPARATOR, idx))
 
 
                         (instance_name, constants.DISK_SEPARATOR, idx))
 
 
@@ -1331,6 +1383,27 @@ def InstanceReboot(instance, reboot_type, shutdown_timeout):
     _Fail("Invalid reboot_type received: %s", reboot_type)
 
 
     _Fail("Invalid reboot_type received: %s", reboot_type)
 
 
+def InstanceBalloonMemory(instance, memory):
+  """Resize an instance's memory.
+
+  @type instance: L{objects.Instance}
+  @param instance: the instance object
+  @type memory: int
+  @param memory: new memory amount in MB
+  @rtype: None
+
+  """
+  hyper = hypervisor.GetHypervisor(instance.hypervisor)
+  running = hyper.ListInstances()
+  if instance.name not in running:
+    logging.info("Instance %s is not running, cannot balloon", instance.name)
+    return
+  try:
+    hyper.BalloonInstanceMemory(instance, memory)
+  except errors.HypervisorError, err:
+    _Fail("Failed to balloon instance memory: %s", err, exc=True)
+
+
 def MigrationInfo(instance):
   """Gather information about an instance to be migrated.
 
 def MigrationInfo(instance):
   """Gather information about an instance to be migrated.
 
@@ -1495,7 +1568,7 @@ def BlockdevCreate(disk, size, owner, on_primary, info):
       clist.append(crdev)
 
   try:
       clist.append(crdev)
 
   try:
-    device = bdev.Create(disk.dev_type, disk.physical_id, clist, disk.size)
+    device = bdev.Create(disk, clist)
   except errors.BlockDeviceError, err:
     _Fail("Can't create block device: %s", err)
 
   except errors.BlockDeviceError, err:
     _Fail("Can't create block device: %s", err)
 
@@ -1504,7 +1577,6 @@ def BlockdevCreate(disk, size, owner, on_primary, info):
       device.Assemble()
     except errors.BlockDeviceError, err:
       _Fail("Can't assemble device after creation, unusual event: %s", err)
       device.Assemble()
     except errors.BlockDeviceError, err:
       _Fail("Can't assemble device after creation, unusual event: %s", err)
-    device.SetSyncSpeed(constants.SYNC_SPEED)
     if on_primary or disk.OpenOnSecondary():
       try:
         device.Open(force=True)
     if on_primary or disk.OpenOnSecondary():
       try:
         device.Open(force=True)
@@ -1526,8 +1598,13 @@ def _WipeDevice(path, offset, size):
   @param size: The size in MiB to write
 
   """
   @param size: The size in MiB to write
 
   """
+  # Internal sizes are always in Mebibytes; if the following "dd" command
+  # should use a different block size the offset and size given to this
+  # function must be adjusted accordingly before being passed to "dd".
+  block_size = 1024 * 1024
+
   cmd = [constants.DD_CMD, "if=/dev/zero", "seek=%d" % offset,
   cmd = [constants.DD_CMD, "if=/dev/zero", "seek=%d" % offset,
-         "bs=%d" % constants.WIPE_BLOCK_SIZE, "oflag=direct", "of=%s" % path,
+         "bs=%s" % block_size, "oflag=direct", "of=%s" % path,
          "count=%d" % size]
   result = utils.RunCmd(cmd)
 
          "count=%d" % size]
   result = utils.RunCmd(cmd)
 
@@ -1556,6 +1633,10 @@ def BlockdevWipe(disk, offset, size):
     _Fail("Cannot execute wipe for device %s: device not found", disk.iv_name)
 
   # Do cross verify some of the parameters
     _Fail("Cannot execute wipe for device %s: device not found", disk.iv_name)
 
   # Do cross verify some of the parameters
+  if offset < 0:
+    _Fail("Negative offset")
+  if size < 0:
+    _Fail("Negative size")
   if offset > rdev.size:
     _Fail("Offset is bigger than device size")
   if (offset + size) > rdev.size:
   if offset > rdev.size:
     _Fail("Offset is bigger than device size")
   if (offset + size) > rdev.size:
@@ -1678,8 +1759,7 @@ def _RecursiveAssembleBD(disk, owner, as_primary):
       children.append(cdev)
 
   if as_primary or disk.AssembleOnSecondary():
       children.append(cdev)
 
   if as_primary or disk.AssembleOnSecondary():
-    r_dev = bdev.Assemble(disk.dev_type, disk.physical_id, children, disk.size)
-    r_dev.SetSyncSpeed(constants.SYNC_SPEED)
+    r_dev = bdev.Assemble(disk, children)
     result = r_dev
     if as_primary or disk.OpenOnSecondary():
       r_dev.Open()
     result = r_dev
     if as_primary or disk.OpenOnSecondary():
       r_dev.Open()
@@ -1872,7 +1952,7 @@ def _RecursiveFindBD(disk):
     for chdisk in disk.children:
       children.append(_RecursiveFindBD(chdisk))
 
     for chdisk in disk.children:
       children.append(_RecursiveFindBD(chdisk))
 
-  return bdev.FindDevice(disk.dev_type, disk.physical_id, children, disk.size)
+  return bdev.FindDevice(disk, children)
 
 
 def _OpenRealBD(disk):
 
 
 def _OpenRealBD(disk):
@@ -1971,7 +2051,7 @@ def BlockdevExport(disk, dest_node, dest_path, cluster_name):
                                 " oflag=dsync", dest_path)
 
   remotecmd = _GetSshRunner(cluster_name).BuildCmd(dest_node,
                                 " oflag=dsync", dest_path)
 
   remotecmd = _GetSshRunner(cluster_name).BuildCmd(dest_node,
-                                                   constants.GANETI_RUNAS,
+                                                   constants.SSH_LOGIN_USER,
                                                    destcmd)
 
   # all commands have been checked, so we're safe to combine them
                                                    destcmd)
 
   # all commands have been checked, so we're safe to combine them
@@ -2007,6 +2087,8 @@ def UploadFile(file_name, data, mode, uid, gid, atime, mtime):
   @rtype: None
 
   """
   @rtype: None
 
   """
+  file_name = vcluster.LocalizeVirtualPath(file_name)
+
   if not os.path.isabs(file_name):
     _Fail("Filename passed to UploadFile is not absolute: '%s'", file_name)
 
   if not os.path.isabs(file_name):
     _Fail("Filename passed to UploadFile is not absolute: '%s'", file_name)
 
@@ -2049,33 +2131,6 @@ def RunOob(oob_program, command, node, timeout):
   return result.stdout
 
 
   return result.stdout
 
 
-def WriteSsconfFiles(values):
-  """Update all ssconf files.
-
-  Wrapper around the SimpleStore.WriteFiles.
-
-  """
-  ssconf.SimpleStore().WriteFiles(values)
-
-
-def _ErrnoOrStr(err):
-  """Format an EnvironmentError exception.
-
-  If the L{err} argument has an errno attribute, it will be looked up
-  and converted into a textual C{E...} description. Otherwise the
-  string representation of the error will be returned.
-
-  @type err: L{EnvironmentError}
-  @param err: the exception to format
-
-  """
-  if hasattr(err, "errno"):
-    detail = errno.errorcode[err.errno]
-  else:
-    detail = str(err)
-  return detail
-
-
 def _OSOndiskAPIVersion(os_dir):
   """Compute and return the API version of a given OS.
 
 def _OSOndiskAPIVersion(os_dir):
   """Compute and return the API version of a given OS.
 
@@ -2095,7 +2150,7 @@ def _OSOndiskAPIVersion(os_dir):
     st = os.stat(api_file)
   except EnvironmentError, err:
     return False, ("Required file '%s' not found under path %s: %s" %
     st = os.stat(api_file)
   except EnvironmentError, err:
     return False, ("Required file '%s' not found under path %s: %s" %
-                   (constants.OS_API_FILE, os_dir, _ErrnoOrStr(err)))
+                   (constants.OS_API_FILE, os_dir, utils.ErrnoOrStr(err)))
 
   if not stat.S_ISREG(stat.S_IFMT(st.st_mode)):
     return False, ("File '%s' in %s is not a regular file" %
 
   if not stat.S_ISREG(stat.S_IFMT(st.st_mode)):
     return False, ("File '%s' in %s is not a regular file" %
@@ -2105,7 +2160,7 @@ def _OSOndiskAPIVersion(os_dir):
     api_versions = utils.ReadFile(api_file).splitlines()
   except EnvironmentError, err:
     return False, ("Error while reading the API version file at %s: %s" %
     api_versions = utils.ReadFile(api_file).splitlines()
   except EnvironmentError, err:
     return False, ("Error while reading the API version file at %s: %s" %
-                   (api_file, _ErrnoOrStr(err)))
+                   (api_file, utils.ErrnoOrStr(err)))
 
   try:
     api_versions = [int(version.strip()) for version in api_versions]
 
   try:
     api_versions = [int(version.strip()) for version in api_versions]
@@ -2122,7 +2177,7 @@ def DiagnoseOS(top_dirs=None):
   @type top_dirs: list
   @param top_dirs: the list of directories in which to
       search (if not given defaults to
   @type top_dirs: list
   @param top_dirs: the list of directories in which to
       search (if not given defaults to
-      L{constants.OS_SEARCH_PATH})
+      L{pathutils.OS_SEARCH_PATH})
   @rtype: list of L{objects.OS}
   @return: a list of tuples (name, path, status, diagnose, variants,
       parameters, api_version) for all (potential) OSes under all
   @rtype: list of L{objects.OS}
   @return: a list of tuples (name, path, status, diagnose, variants,
       parameters, api_version) for all (potential) OSes under all
@@ -2137,7 +2192,7 @@ def DiagnoseOS(top_dirs=None):
 
   """
   if top_dirs is None:
 
   """
   if top_dirs is None:
-    top_dirs = constants.OS_SEARCH_PATH
+    top_dirs = pathutils.OS_SEARCH_PATH
 
   result = []
   for dir_name in top_dirs:
 
   result = []
   for dir_name in top_dirs:
@@ -2179,7 +2234,7 @@ def _TryOSFromDisk(name, base_dir=None):
 
   """
   if base_dir is None:
 
   """
   if base_dir is None:
-    os_dir = utils.FindFile(name, constants.OS_SEARCH_PATH, os.path.isdir)
+    os_dir = utils.FindFile(name, pathutils.OS_SEARCH_PATH, os.path.isdir)
   else:
     os_dir = utils.FindFile(name, [base_dir], os.path.isdir)
 
   else:
     os_dir = utils.FindFile(name, [base_dir], os.path.isdir)
 
@@ -2218,7 +2273,7 @@ def _TryOSFromDisk(name, base_dir=None):
         del os_files[filename]
         continue
       return False, ("File '%s' under path '%s' is missing (%s)" %
         del os_files[filename]
         continue
       return False, ("File '%s' under path '%s' is missing (%s)" %
-                     (filename, os_dir, _ErrnoOrStr(err)))
+                     (filename, os_dir, utils.ErrnoOrStr(err)))
 
     if not stat.S_ISREG(stat.S_IFMT(st.st_mode)):
       return False, ("File '%s' under path '%s' is not a regular file" %
 
     if not stat.S_ISREG(stat.S_IFMT(st.st_mode)):
       return False, ("File '%s' under path '%s' is not a regular file" %
@@ -2238,7 +2293,7 @@ def _TryOSFromDisk(name, base_dir=None):
       # we accept missing files, but not other errors
       if err.errno != errno.ENOENT:
         return False, ("Error while reading the OS variants file at %s: %s" %
       # we accept missing files, but not other errors
       if err.errno != errno.ENOENT:
         return False, ("Error while reading the OS variants file at %s: %s" %
-                       (variants_file, _ErrnoOrStr(err)))
+                       (variants_file, utils.ErrnoOrStr(err)))
 
   parameters = []
   if constants.OS_PARAMETERS_FILE in os_files:
 
   parameters = []
   if constants.OS_PARAMETERS_FILE in os_files:
@@ -2247,7 +2302,7 @@ def _TryOSFromDisk(name, base_dir=None):
       parameters = utils.ReadFile(parameters_file).splitlines()
     except EnvironmentError, err:
       return False, ("Error while reading the OS parameters file at %s: %s" %
       parameters = utils.ReadFile(parameters_file).splitlines()
     except EnvironmentError, err:
       return False, ("Error while reading the OS parameters file at %s: %s" %
-                     (parameters_file, _ErrnoOrStr(err)))
+                     (parameters_file, utils.ErrnoOrStr(err)))
     parameters = [v.split(None, 1) for v in parameters]
 
   os_obj = objects.OS(name=name, path=os_dir,
     parameters = [v.split(None, 1) for v in parameters]
 
   os_obj = objects.OS(name=name, path=os_dir,
@@ -2327,6 +2382,11 @@ def OSCoreEnv(os_name, inst_os, os_params, debug=0):
   for pname, pvalue in os_params.items():
     result["OSP_%s" % pname.upper()] = pvalue
 
   for pname, pvalue in os_params.items():
     result["OSP_%s" % pname.upper()] = pvalue
 
+  # Set a default path otherwise programs called by OS scripts (or
+  # even hooks called from OS scripts) might break, and we don't want
+  # to have each script require setting a PATH variable
+  result["PATH"] = constants.HOOKS_PATH
+
   return result
 
 
   return result
 
 
@@ -2392,7 +2452,7 @@ def OSEnvironment(instance, inst_os, debug=0):
   return result
 
 
   return result
 
 
-def BlockdevGrow(disk, amount, dryrun):
+def BlockdevGrow(disk, amount, dryrun, backingstore):
   """Grow a stack of block devices.
 
   This function is called recursively, with the childrens being the
   """Grow a stack of block devices.
 
   This function is called recursively, with the childrens being the
@@ -2405,6 +2465,9 @@ def BlockdevGrow(disk, amount, dryrun):
   @type dryrun: boolean
   @param dryrun: whether to execute the operation in simulation mode
       only, without actually increasing the size
   @type dryrun: boolean
   @param dryrun: whether to execute the operation in simulation mode
       only, without actually increasing the size
+  @param backingstore: whether to execute the operation on backing storage
+      only, or on "logical" storage only; e.g. DRBD is logical storage,
+      whereas LVM, file, RBD are backing storage
   @rtype: (status, result)
   @return: a tuple with the status of the operation (True/False), and
       the errors message if status is False
   @rtype: (status, result)
   @return: a tuple with the status of the operation (True/False), and
       the errors message if status is False
@@ -2415,7 +2478,7 @@ def BlockdevGrow(disk, amount, dryrun):
     _Fail("Cannot find block device %s", disk)
 
   try:
     _Fail("Cannot find block device %s", disk)
 
   try:
-    r_dev.Grow(amount, dryrun)
+    r_dev.Grow(amount, dryrun, backingstore)
   except errors.BlockDeviceError, err:
     _Fail("Failed to grow block device: %s", err, exc=True)
 
   except errors.BlockDeviceError, err:
     _Fail("Failed to grow block device: %s", err, exc=True)
 
@@ -2463,8 +2526,8 @@ def FinalizeExport(instance, snap_disks):
   @rtype: None
 
   """
   @rtype: None
 
   """
-  destdir = utils.PathJoin(constants.EXPORT_DIR, instance.name + ".new")
-  finaldestdir = utils.PathJoin(constants.EXPORT_DIR, instance.name)
+  destdir = utils.PathJoin(pathutils.EXPORT_DIR, instance.name + ".new")
+  finaldestdir = utils.PathJoin(pathutils.EXPORT_DIR, instance.name)
 
   config = objects.SerializableConfigParser()
 
 
   config = objects.SerializableConfigParser()
 
@@ -2477,8 +2540,13 @@ def FinalizeExport(instance, snap_disks):
 
   config.add_section(constants.INISECT_INS)
   config.set(constants.INISECT_INS, "name", instance.name)
 
   config.add_section(constants.INISECT_INS)
   config.set(constants.INISECT_INS, "name", instance.name)
+  config.set(constants.INISECT_INS, "maxmem", "%d" %
+             instance.beparams[constants.BE_MAXMEM])
+  config.set(constants.INISECT_INS, "minmem", "%d" %
+             instance.beparams[constants.BE_MINMEM])
+  # "memory" is deprecated, but useful for exporting to old ganeti versions
   config.set(constants.INISECT_INS, "memory", "%d" %
   config.set(constants.INISECT_INS, "memory", "%d" %
-             instance.beparams[constants.BE_MEMORY])
+             instance.beparams[constants.BE_MAXMEM])
   config.set(constants.INISECT_INS, "vcpus", "%d" %
              instance.beparams[constants.BE_VCPUS])
   config.set(constants.INISECT_INS, "disk_template", instance.disk_template)
   config.set(constants.INISECT_INS, "vcpus", "%d" %
              instance.beparams[constants.BE_VCPUS])
   config.set(constants.INISECT_INS, "disk_template", instance.disk_template)
@@ -2561,8 +2629,8 @@ def ListExports():
   @return: list of the exports
 
   """
   @return: list of the exports
 
   """
-  if os.path.isdir(constants.EXPORT_DIR):
-    return sorted(utils.ListVisibleFiles(constants.EXPORT_DIR))
+  if os.path.isdir(pathutils.EXPORT_DIR):
+    return sorted(utils.ListVisibleFiles(pathutils.EXPORT_DIR))
   else:
     _Fail("No exports directory")
 
   else:
     _Fail("No exports directory")
 
@@ -2575,7 +2643,7 @@ def RemoveExport(export):
   @rtype: None
 
   """
   @rtype: None
 
   """
-  target = utils.PathJoin(constants.EXPORT_DIR, export)
+  target = utils.PathJoin(pathutils.EXPORT_DIR, export)
 
   try:
     shutil.rmtree(target)
 
   try:
     shutil.rmtree(target)
@@ -2637,7 +2705,8 @@ def _TransformFileStorageDir(fs_dir):
   @return: the normalized path if valid, None otherwise
 
   """
   @return: the normalized path if valid, None otherwise
 
   """
-  if not constants.ENABLE_FILE_STORAGE:
+  if not (constants.ENABLE_FILE_STORAGE or
+          constants.ENABLE_SHARED_FILE_STORAGE):
     _Fail("File storage disabled at configure time")
   cfg = _GetConfig()
   fs_dir = os.path.normpath(fs_dir)
     _Fail("File storage disabled at configure time")
   cfg = _GetConfig()
   fs_dir = os.path.normpath(fs_dir)
@@ -2739,12 +2808,9 @@ def _EnsureJobQueueFile(file_name):
   @raises RPCFail: if the file is not valid
 
   """
   @raises RPCFail: if the file is not valid
 
   """
-  queue_dir = os.path.normpath(constants.QUEUE_DIR)
-  result = (os.path.commonprefix([queue_dir, file_name]) == queue_dir)
-
-  if not result:
+  if not utils.IsBelowDir(pathutils.QUEUE_DIR, file_name):
     _Fail("Passed job queue file '%s' does not belong to"
     _Fail("Passed job queue file '%s' does not belong to"
-          " the queue directory '%s'", file_name, queue_dir)
+          " the queue directory '%s'", file_name, pathutils.QUEUE_DIR)
 
 
 def JobQueueUpdate(file_name, content):
 
 
 def JobQueueUpdate(file_name, content):
@@ -2761,6 +2827,8 @@ def JobQueueUpdate(file_name, content):
   @return: the success of the operation
 
   """
   @return: the success of the operation
 
   """
+  file_name = vcluster.LocalizeVirtualPath(file_name)
+
   _EnsureJobQueueFile(file_name)
   getents = runtime.GetEnts()
 
   _EnsureJobQueueFile(file_name)
   getents = runtime.GetEnts()
 
@@ -2782,6 +2850,9 @@ def JobQueueRename(old, new):
   @return: the success of the operation and payload
 
   """
   @return: the success of the operation and payload
 
   """
+  old = vcluster.LocalizeVirtualPath(old)
+  new = vcluster.LocalizeVirtualPath(new)
+
   _EnsureJobQueueFile(old)
   _EnsureJobQueueFile(new)
 
   _EnsureJobQueueFile(old)
   _EnsureJobQueueFile(new)
 
@@ -2918,18 +2989,18 @@ def DemoteFromMC():
   if master == myself:
     _Fail("ssconf status shows I'm the master node, will not demote")
 
   if master == myself:
     _Fail("ssconf status shows I'm the master node, will not demote")
 
-  result = utils.RunCmd([constants.DAEMON_UTIL, "check", constants.MASTERD])
+  result = utils.RunCmd([pathutils.DAEMON_UTIL, "check", constants.MASTERD])
   if not result.failed:
     _Fail("The master daemon is running, will not demote")
 
   try:
   if not result.failed:
     _Fail("The master daemon is running, will not demote")
 
   try:
-    if os.path.isfile(constants.CLUSTER_CONF_FILE):
-      utils.CreateBackup(constants.CLUSTER_CONF_FILE)
+    if os.path.isfile(pathutils.CLUSTER_CONF_FILE):
+      utils.CreateBackup(pathutils.CLUSTER_CONF_FILE)
   except EnvironmentError, err:
     if err.errno != errno.ENOENT:
       _Fail("Error while backing up cluster file: %s", err, exc=True)
 
   except EnvironmentError, err:
     if err.errno != errno.ENOENT:
       _Fail("Error while backing up cluster file: %s", err, exc=True)
 
-  utils.RemoveFile(constants.CLUSTER_CONF_FILE)
+  utils.RemoveFile(pathutils.CLUSTER_CONF_FILE)
 
 
 def _GetX509Filenames(cryptodir, name):
 
 
 def _GetX509Filenames(cryptodir, name):
@@ -2941,7 +3012,7 @@ def _GetX509Filenames(cryptodir, name):
           utils.PathJoin(cryptodir, name, _X509_CERT_FILE))
 
 
           utils.PathJoin(cryptodir, name, _X509_CERT_FILE))
 
 
-def CreateX509Certificate(validity, cryptodir=constants.CRYPTO_KEYS_DIR):
+def CreateX509Certificate(validity, cryptodir=pathutils.CRYPTO_KEYS_DIR):
   """Creates a new X509 certificate for SSL/TLS.
 
   @type validity: int
   """Creates a new X509 certificate for SSL/TLS.
 
   @type validity: int
@@ -2972,7 +3043,7 @@ def CreateX509Certificate(validity, cryptodir=constants.CRYPTO_KEYS_DIR):
     raise
 
 
     raise
 
 
-def RemoveX509Certificate(name, cryptodir=constants.CRYPTO_KEYS_DIR):
+def RemoveX509Certificate(name, cryptodir=pathutils.CRYPTO_KEYS_DIR):
   """Removes a X509 certificate.
 
   @type name: string
   """Removes a X509 certificate.
 
   @type name: string
@@ -3017,9 +3088,9 @@ def _GetImportExportIoCommand(instance, mode, ieio, ieargs):
     real_filename = os.path.realpath(filename)
     directory = os.path.dirname(real_filename)
 
     real_filename = os.path.realpath(filename)
     directory = os.path.dirname(real_filename)
 
-    if not utils.IsBelowDir(constants.EXPORT_DIR, real_filename):
+    if not utils.IsBelowDir(pathutils.EXPORT_DIR, real_filename):
       _Fail("File '%s' is not under exports directory '%s': %s",
       _Fail("File '%s' is not under exports directory '%s': %s",
-            filename, constants.EXPORT_DIR, real_filename)
+            filename, pathutils.EXPORT_DIR, real_filename)
 
     # Create directory
     utils.Makedirs(directory, mode=0750)
 
     # Create directory
     utils.Makedirs(directory, mode=0750)
@@ -3106,7 +3177,7 @@ def _CreateImportExportStatusDir(prefix):
   """Creates status directory for import/export.
 
   """
   """Creates status directory for import/export.
 
   """
-  return tempfile.mkdtemp(dir=constants.IMPORT_EXPORT_DIR,
+  return tempfile.mkdtemp(dir=pathutils.IMPORT_EXPORT_DIR,
                           prefix=("%s-%s-" %
                                   (prefix, utils.TimestampForFilename())))
 
                           prefix=("%s-%s-" %
                                   (prefix, utils.TimestampForFilename())))
 
@@ -3154,11 +3225,11 @@ def StartImportExportDaemon(mode, opts, host, port, instance, component,
 
   if opts.key_name is None:
     # Use server.pem
 
   if opts.key_name is None:
     # Use server.pem
-    key_path = constants.NODED_CERT_FILE
-    cert_path = constants.NODED_CERT_FILE
+    key_path = pathutils.NODED_CERT_FILE
+    cert_path = pathutils.NODED_CERT_FILE
     assert opts.ca_pem is None
   else:
     assert opts.ca_pem is None
   else:
-    (_, key_path, cert_path) = _GetX509Filenames(constants.CRYPTO_KEYS_DIR,
+    (_, key_path, cert_path) = _GetX509Filenames(pathutils.CRYPTO_KEYS_DIR,
                                                  opts.key_name)
     assert opts.ca_pem is not None
 
                                                  opts.key_name)
     assert opts.ca_pem is not None
 
@@ -3174,7 +3245,7 @@ def StartImportExportDaemon(mode, opts, host, port, instance, component,
 
     if opts.ca_pem is None:
       # Use server.pem
 
     if opts.ca_pem is None:
       # Use server.pem
-      ca = utils.ReadFile(constants.NODED_CERT_FILE)
+      ca = utils.ReadFile(pathutils.NODED_CERT_FILE)
     else:
       ca = opts.ca_pem
 
     else:
       ca = opts.ca_pem
 
@@ -3182,7 +3253,7 @@ def StartImportExportDaemon(mode, opts, host, port, instance, component,
     utils.WriteFile(ca_file, data=ca, mode=0400)
 
     cmd = [
     utils.WriteFile(ca_file, data=ca, mode=0400)
 
     cmd = [
-      constants.IMPORT_EXPORT_DAEMON,
+      pathutils.IMPORT_EXPORT_DAEMON,
       status_file, mode,
       "--key=%s" % key_path,
       "--cert=%s" % cert_path,
       status_file, mode,
       "--key=%s" % key_path,
       "--cert=%s" % cert_path,
@@ -3252,7 +3323,7 @@ def GetImportExportStatus(names):
   result = []
 
   for name in names:
   result = []
 
   for name in names:
-    status_file = utils.PathJoin(constants.IMPORT_EXPORT_DIR, name,
+    status_file = utils.PathJoin(pathutils.IMPORT_EXPORT_DIR, name,
                                  _IES_STATUS_FILE)
 
     try:
                                  _IES_STATUS_FILE)
 
     try:
@@ -3277,7 +3348,7 @@ def AbortImportExport(name):
   """
   logging.info("Abort import/export %s", name)
 
   """
   logging.info("Abort import/export %s", name)
 
-  status_dir = utils.PathJoin(constants.IMPORT_EXPORT_DIR, name)
+  status_dir = utils.PathJoin(pathutils.IMPORT_EXPORT_DIR, name)
   pid = utils.ReadLockedPidFile(utils.PathJoin(status_dir, _IES_PID_FILE))
 
   if pid:
   pid = utils.ReadLockedPidFile(utils.PathJoin(status_dir, _IES_PID_FILE))
 
   if pid:
@@ -3295,7 +3366,7 @@ def CleanupImportExport(name):
   """
   logging.info("Finalizing import/export %s", name)
 
   """
   logging.info("Finalizing import/export %s", name)
 
-  status_dir = utils.PathJoin(constants.IMPORT_EXPORT_DIR, name)
+  status_dir = utils.PathJoin(pathutils.IMPORT_EXPORT_DIR, name)
 
   pid = utils.ReadLockedPidFile(utils.PathJoin(status_dir, _IES_PID_FILE))
 
 
   pid = utils.ReadLockedPidFile(utils.PathJoin(status_dir, _IES_PID_FILE))
 
@@ -3479,11 +3550,11 @@ class HooksRunner(object):
 
     @type hooks_base_dir: str or None
     @param hooks_base_dir: if not None, this overrides the
 
     @type hooks_base_dir: str or None
     @param hooks_base_dir: if not None, this overrides the
-        L{constants.HOOKS_BASE_DIR} (useful for unittests)
+        L{pathutils.HOOKS_BASE_DIR} (useful for unittests)
 
     """
     if hooks_base_dir is None:
 
     """
     if hooks_base_dir is None:
-      hooks_base_dir = constants.HOOKS_BASE_DIR
+      hooks_base_dir = pathutils.HOOKS_BASE_DIR
     # yeah, _BASE_DIR is not valid for attributes, we use it like a
     # constant
     self._BASE_DIR = hooks_base_dir # pylint: disable=C0103
     # yeah, _BASE_DIR is not valid for attributes, we use it like a
     # constant
     self._BASE_DIR = hooks_base_dir # pylint: disable=C0103
@@ -3543,7 +3614,7 @@ class HooksRunner(object):
 
     runparts_results = utils.RunParts(dir_name, env=env, reset_env=True)
 
 
     runparts_results = utils.RunParts(dir_name, env=env, reset_env=True)
 
-    for (relname, relstatus, runresult)  in runparts_results:
+    for (relname, relstatus, runresult) in runparts_results:
       if relstatus == constants.RUNPARTS_SKIP:
         rrval = constants.HKR_SKIP
         output = ""
       if relstatus == constants.RUNPARTS_SKIP:
         rrval = constants.HKR_SKIP
         output = ""
@@ -3607,7 +3678,7 @@ class DevCacheManager(object):
 
   """
   _DEV_PREFIX = "/dev/"
 
   """
   _DEV_PREFIX = "/dev/"
-  _ROOT_DIR = constants.BDEV_CACHE_DIR
+  _ROOT_DIR = pathutils.BDEV_CACHE_DIR
 
   @classmethod
   def _ConvertPath(cls, dev_path):
 
   @classmethod
   def _ConvertPath(cls, dev_path):