rpc: Convert wrappers for starting import/export daemons
[ganeti-local] / lib / rpc.py
index 69e692c..6f36ceb 100644 (file)
@@ -1,7 +1,7 @@
 #
 #
 
 #
 #
 
-# Copyright (C) 2006, 2007 Google Inc.
+# Copyright (C) 2006, 2007, 2008, 2009, 2010, 2011 Google Inc.
 #
 # This program is free software; you can redistribute it and/or modify
 # it under the terms of the GNU General Public License as published by
 #
 # This program is free software; you can redistribute it and/or modify
 # it under the terms of the GNU General Public License as published by
@@ -23,7 +23,7 @@
 
 """
 
 
 """
 
-# pylint: disable-msg=C0103,R0201,R0904
+# pylint: disable=C0103,R0201,R0904
 # C0103: Invalid name, since call_ are not valid
 # R0201: Method could be a function, we keep all rpcs instance methods
 # as not to change them back and forth between static/instance methods
 # C0103: Invalid name, since call_ are not valid
 # R0201: Method could be a function, we keep all rpcs instance methods
 # as not to change them back and forth between static/instance methods
@@ -34,6 +34,8 @@ import os
 import logging
 import zlib
 import base64
 import logging
 import zlib
 import base64
+import pycurl
+import threading
 
 from ganeti import utils
 from ganeti import objects
 
 from ganeti import utils
 from ganeti import objects
@@ -41,41 +43,140 @@ from ganeti import http
 from ganeti import serializer
 from ganeti import constants
 from ganeti import errors
 from ganeti import serializer
 from ganeti import constants
 from ganeti import errors
+from ganeti import netutils
+from ganeti import ssconf
+from ganeti import runtime
+from ganeti import compat
+
+# Special module generated at build time
+from ganeti import _generated_rpc
 
 # pylint has a bug here, doesn't see this import
 
 # pylint has a bug here, doesn't see this import
-import ganeti.http.client  # pylint: disable-msg=W0611
+import ganeti.http.client  # pylint: disable=W0611
+
+
+# Timeout for connecting to nodes (seconds)
+_RPC_CONNECT_TIMEOUT = 5
+
+_RPC_CLIENT_HEADERS = [
+  "Content-type: %s" % http.HTTP_APP_JSON,
+  "Expect:",
+  ]
 
 
+# Various time constants for the timeout table
+_TMO_URGENT = 60 # one minute
+_TMO_FAST = 5 * 60 # five minutes
+_TMO_NORMAL = 15 * 60 # 15 minutes
+_TMO_SLOW = 3600 # one hour
+_TMO_4HRS = 4 * 3600
+_TMO_1DAY = 86400
 
 
-# Module level variable
-_http_manager = None
+# Timeout table that will be built later by decorators
+# Guidelines for choosing timeouts:
+# - call used during watcher: timeout -> 1min, _TMO_URGENT
+# - trivial (but be sure it is trivial) (e.g. reading a file): 5min, _TMO_FAST
+# - other calls: 15 min, _TMO_NORMAL
+# - special calls (instance add, etc.): either _TMO_SLOW (1h) or huge timeouts
+
+_TIMEOUTS = {
+}
+
+#: Special value to describe an offline host
+_OFFLINE = object()
 
 
 def Init():
   """Initializes the module-global HTTP client manager.
 
 
 
 def Init():
   """Initializes the module-global HTTP client manager.
 
-  Must be called before using any RPC function.
+  Must be called before using any RPC function and while exactly one thread is
+  running.
 
   """
 
   """
-  global _http_manager # pylint: disable-msg=W0603
-
-  assert not _http_manager, "RPC module initialized more than once"
+  # curl_global_init(3) and curl_global_cleanup(3) must be called with only
+  # one thread running. This check is just a safety measure -- it doesn't
+  # cover all cases.
+  assert threading.activeCount() == 1, \
+         "Found more than one active thread when initializing pycURL"
 
 
-  http.InitSsl()
+  logging.info("Using PycURL %s", pycurl.version)
 
 
-  _http_manager = http.client.HttpClientManager()
+  pycurl.global_init(pycurl.GLOBAL_ALL)
 
 
 def Shutdown():
   """Stops the module-global HTTP client manager.
 
 
 
 def Shutdown():
   """Stops the module-global HTTP client manager.
 
-  Must be called before quitting the program.
+  Must be called before quitting the program and while exactly one thread is
+  running.
+
+  """
+  pycurl.global_cleanup()
+
+
+def _ConfigRpcCurl(curl):
+  noded_cert = str(constants.NODED_CERT_FILE)
+
+  curl.setopt(pycurl.FOLLOWLOCATION, False)
+  curl.setopt(pycurl.CAINFO, noded_cert)
+  curl.setopt(pycurl.SSL_VERIFYHOST, 0)
+  curl.setopt(pycurl.SSL_VERIFYPEER, True)
+  curl.setopt(pycurl.SSLCERTTYPE, "PEM")
+  curl.setopt(pycurl.SSLCERT, noded_cert)
+  curl.setopt(pycurl.SSLKEYTYPE, "PEM")
+  curl.setopt(pycurl.SSLKEY, noded_cert)
+  curl.setopt(pycurl.CONNECTTIMEOUT, _RPC_CONNECT_TIMEOUT)
+
+
+def _RpcTimeout(secs):
+  """Timeout decorator.
+
+  When applied to a rpc call_* function, it updates the global timeout
+  table with the given function/timeout.
+
+  """
+  def decorator(f):
+    name = f.__name__
+    assert name.startswith("call_")
+    _TIMEOUTS[name[len("call_"):]] = secs
+    return f
+  return decorator
+
+
+def RunWithRPC(fn):
+  """RPC-wrapper decorator.
+
+  When applied to a function, it runs it with the RPC system
+  initialized, and it shutsdown the system afterwards. This means the
+  function must be called without RPC being initialized.
+
+  """
+  def wrapper(*args, **kwargs):
+    Init()
+    try:
+      return fn(*args, **kwargs)
+    finally:
+      Shutdown()
+  return wrapper
+
+
+def _Compress(data):
+  """Compresses a string for transport over RPC.
+
+  Small amounts of data are not compressed.
+
+  @type data: str
+  @param data: Data
+  @rtype: tuple
+  @return: Encoded data to send
 
   """
 
   """
-  global _http_manager # pylint: disable-msg=W0603
+  # Small amounts of data are not compressed
+  if len(data) < 512:
+    return (constants.RPC_ENCODING_NONE, data)
 
 
-  if _http_manager:
-    _http_manager.Shutdown()
-    _http_manager = None
+  # Compress with zlib and encode in base64
+  return (constants.RPC_ENCODING_ZLIB_BASE64,
+          base64.b64encode(zlib.compress(data, 3)))
 
 
 class RpcResult(object):
 
 
 class RpcResult(object):
@@ -125,12 +226,9 @@ class RpcResult(object):
         self.fail_msg = None
         self.payload = data[1]
 
         self.fail_msg = None
         self.payload = data[1]
 
-    assert hasattr(self, "call")
-    assert hasattr(self, "data")
-    assert hasattr(self, "fail_msg")
-    assert hasattr(self, "node")
-    assert hasattr(self, "offline")
-    assert hasattr(self, "payload")
+    for attr_name in ["call", "data", "fail_msg",
+                      "node", "offline", "payload"]:
+      assert hasattr(self, attr_name), "Missing attribute %s" % attr_name
 
   @staticmethod
   def _EnsureErr(val):
 
   @staticmethod
   def _EnsureErr(val):
@@ -160,119 +258,206 @@ class RpcResult(object):
     else:
       ec = errors.OpExecError
     if ecode is not None:
     else:
       ec = errors.OpExecError
     if ecode is not None:
-      args = (msg, prereq)
+      args = (msg, ecode)
     else:
       args = (msg, )
     else:
       args = (msg, )
-    raise ec(*args) # pylint: disable-msg=W0142
+    raise ec(*args) # pylint: disable=W0142
 
 
 
 
-class Client:
-  """RPC Client class.
+def _SsconfResolver(node_list,
+                    ssc=ssconf.SimpleStore,
+                    nslookup_fn=netutils.Hostname.GetIP):
+  """Return addresses for given node names.
 
 
-  This class, given a (remote) method name, a list of parameters and a
-  list of nodes, will contact (in parallel) all nodes, and return a
-  dict of results (key: node name, value: result).
-
-  One current bug is that generic failure is still signaled by
-  'False' result, which is not good. This overloading of values can
-  cause bugs.
+  @type node_list: list
+  @param node_list: List of node names
+  @type ssc: class
+  @param ssc: SimpleStore class that is used to obtain node->ip mappings
+  @type nslookup_fn: callable
+  @param nslookup_fn: function use to do NS lookup
+  @rtype: list of tuple; (string, string)
+  @return: List of tuples containing node name and IP address
 
   """
 
   """
-  def __init__(self, procedure, body, port):
-    self.procedure = procedure
-    self.body = body
-    self.port = port
-    self.nc = {}
+  ss = ssc()
+  iplist = ss.GetNodePrimaryIPList()
+  family = ss.GetPrimaryIPFamily()
+  ipmap = dict(entry.split() for entry in iplist)
 
 
-    self._ssl_params = \
-      http.HttpSslParams(ssl_key_path=constants.SSL_CERT_FILE,
-                         ssl_cert_path=constants.SSL_CERT_FILE)
+  result = []
+  for node in node_list:
+    ip = ipmap.get(node)
+    if ip is None:
+      ip = nslookup_fn(node, family=family)
+    result.append((node, ip))
 
 
-  def ConnectList(self, node_list, address_list=None):
-    """Add a list of nodes to the target nodes.
+  return result
 
 
-    @type node_list: list
-    @param node_list: the list of node names to connect
-    @type address_list: list or None
-    @keyword address_list: either None or a list with node addresses,
-        which must have the same length as the node list
 
 
-    """
-    if address_list is None:
-      address_list = [None for _ in node_list]
-    else:
-      assert len(node_list) == len(address_list), \
-             "Name and address lists should have the same length"
-    for node, address in zip(node_list, address_list):
-      self.ConnectNode(node, address)
+class _StaticResolver:
+  def __init__(self, addresses):
+    """Initializes this class.
 
 
-  def ConnectNode(self, name, address=None):
-    """Add a node to the target list.
+    """
+    self._addresses = addresses
 
 
-    @type name: str
-    @param name: the node name
-    @type address: str
-    @keyword address: the node address, if known
+  def __call__(self, hosts):
+    """Returns static addresses for hosts.
 
     """
 
     """
-    if address is None:
-      address = name
+    assert len(hosts) == len(self._addresses)
+    return zip(hosts, self._addresses)
+
+
+def _CheckConfigNode(name, node):
+  """Checks if a node is online.
+
+  @type name: string
+  @param name: Node name
+  @type node: L{objects.Node} or None
+  @param node: Node object
+
+  """
+  if node is None:
+    # Depend on DNS for name resolution
+    ip = name
+  elif node.offline:
+    ip = _OFFLINE
+  else:
+    ip = node.primary_ip
+  return (name, ip)
+
 
 
-    self.nc[name] = \
-      http.client.HttpClientRequest(address, self.port, http.HTTP_PUT,
-                                    "/%s" % self.procedure,
-                                    post_data=self.body,
-                                    ssl_params=self._ssl_params,
-                                    ssl_verify_peer=True)
+def _NodeConfigResolver(single_node_fn, all_nodes_fn, hosts):
+  """Calculate node addresses using configuration.
+
+  """
+  # Special case for single-host lookups
+  if len(hosts) == 1:
+    (name, ) = hosts
+    return [_CheckConfigNode(name, single_node_fn(name))]
+  else:
+    all_nodes = all_nodes_fn()
+    return [_CheckConfigNode(name, all_nodes.get(name, None))
+            for name in hosts]
 
 
-  def GetResults(self):
-    """Call nodes and return results.
 
 
-    @rtype: list
-    @return: List of RPC results
+class _RpcProcessor:
+  def __init__(self, resolver, port, lock_monitor_cb=None):
+    """Initializes this class.
+
+    @param resolver: callable accepting a list of hostnames, returning a list
+      of tuples containing name and IP address (IP address can be the name or
+      the special value L{_OFFLINE} to mark offline machines)
+    @type port: int
+    @param port: TCP port
+    @param lock_monitor_cb: Callable for registering with lock monitor
 
     """
 
     """
-    assert _http_manager, "RPC module not initialized"
+    self._resolver = resolver
+    self._port = port
+    self._lock_monitor_cb = lock_monitor_cb
 
 
-    _http_manager.ExecRequests(self.nc.values())
+  @staticmethod
+  def _PrepareRequests(hosts, port, procedure, body, read_timeout):
+    """Prepares requests by sorting offline hosts into separate list.
 
 
+    """
     results = {}
     results = {}
+    requests = {}
 
 
-    for name, req in self.nc.iteritems():
-      if req.success and req.resp_status_code == http.HTTP_OK:
-        results[name] = RpcResult(data=serializer.LoadJson(req.resp_body),
-                                  node=name, call=self.procedure)
-        continue
+    for (name, ip) in hosts:
+      if ip is _OFFLINE:
+        # Node is marked as offline
+        results[name] = RpcResult(node=name, offline=True, call=procedure)
+      else:
+        requests[name] = \
+          http.client.HttpClientRequest(str(ip), port,
+                                        http.HTTP_PUT, str("/%s" % procedure),
+                                        headers=_RPC_CLIENT_HEADERS,
+                                        post_data=body,
+                                        read_timeout=read_timeout,
+                                        nicename="%s/%s" % (name, procedure),
+                                        curl_config_fn=_ConfigRpcCurl)
+
+    return (results, requests)
+
+  @staticmethod
+  def _CombineResults(results, requests, procedure):
+    """Combines pre-computed results for offline hosts with actual call results.
 
 
-      # TODO: Better error reporting
-      if req.error:
-        msg = req.error
+    """
+    for name, req in requests.items():
+      if req.success and req.resp_status_code == http.HTTP_OK:
+        host_result = RpcResult(data=serializer.LoadJson(req.resp_body),
+                                node=name, call=procedure)
       else:
       else:
-        msg = req.resp_body
+        # TODO: Better error reporting
+        if req.error:
+          msg = req.error
+        else:
+          msg = req.resp_body
 
 
-      logging.error("RPC error in %s from node %s: %s",
-                    self.procedure, name, msg)
-      results[name] = RpcResult(data=msg, failed=True, node=name,
-                                call=self.procedure)
+        logging.error("RPC error in %s on node %s: %s", procedure, name, msg)
+        host_result = RpcResult(data=msg, failed=True, node=name,
+                                call=procedure)
+
+      results[name] = host_result
 
     return results
 
 
     return results
 
+  def __call__(self, hosts, procedure, body, read_timeout=None,
+               _req_process_fn=http.client.ProcessRequests):
+    """Makes an RPC request to a number of nodes.
+
+    @type hosts: sequence
+    @param hosts: Hostnames
+    @type procedure: string
+    @param procedure: Request path
+    @type body: string
+    @param body: Request body
+    @type read_timeout: int or None
+    @param read_timeout: Read timeout for request
+
+    """
+    if read_timeout is None:
+      read_timeout = _TIMEOUTS.get(procedure, None)
+
+    assert read_timeout is not None, \
+      "Missing RPC read timeout for procedure '%s'" % procedure
+
+    (results, requests) = \
+      self._PrepareRequests(self._resolver(hosts), self._port, procedure,
+                            str(body), read_timeout)
+
+    _req_process_fn(requests.values(), lock_monitor_cb=self._lock_monitor_cb)
 
 
-class RpcRunner(object):
-  """RPC runner class"""
+    assert not frozenset(results).intersection(requests)
 
 
-  def __init__(self, cfg):
-    """Initialized the rpc runner.
+    return self._CombineResults(results, requests, procedure)
 
 
-    @type cfg:  C{config.ConfigWriter}
-    @param cfg: the configuration object that will be used to get data
-                about the cluster
+
+class RpcRunner(_generated_rpc.RpcClientDefault):
+  """RPC runner class.
+
+  """
+  def __init__(self, context):
+    """Initialized the RPC runner.
+
+    @type context: C{masterd.GanetiContext}
+    @param context: Ganeti context
 
     """
 
     """
-    self._cfg = cfg
-    self.port = utils.GetDaemonPort(constants.NODED)
+    _generated_rpc.RpcClientDefault.__init__(self)
+
+    self._cfg = context.cfg
+    self._proc = _RpcProcessor(compat.partial(_NodeConfigResolver,
+                                              self._cfg.GetNodeInfo,
+                                              self._cfg.GetAllNodesInfo),
+                               netutils.GetDaemonPort(constants.NODED),
+                               lock_monitor_cb=context.glm.AddToLockMonitor)
 
 
-  def _InstDict(self, instance, hvp=None, bep=None):
+  def _InstDict(self, instance, hvp=None, bep=None, osp=None):
     """Convert the given instance to a dict.
 
     This is done via the instance's ToDict() method and additionally
     """Convert the given instance to a dict.
 
     This is done via the instance's ToDict() method and additionally
@@ -284,6 +469,8 @@ class RpcRunner(object):
     @param hvp: a dictionary with overridden hypervisor parameters
     @type bep: dict or None
     @param bep: a dictionary with overridden backend parameters
     @param hvp: a dictionary with overridden hypervisor parameters
     @type bep: dict or None
     @param bep: a dictionary with overridden backend parameters
+    @type osp: dict or None
+    @param osp: a dictionary with overridden os parameters
     @rtype: dict
     @return: the instance dict, with the hvparams filled with the
         cluster defaults
     @rtype: dict
     @return: the instance dict, with the hvparams filled with the
         cluster defaults
@@ -297,437 +484,222 @@ class RpcRunner(object):
     idict["beparams"] = cluster.FillBE(instance)
     if bep is not None:
       idict["beparams"].update(bep)
     idict["beparams"] = cluster.FillBE(instance)
     if bep is not None:
       idict["beparams"].update(bep)
+    idict["osparams"] = cluster.SimpleFillOS(instance.os, instance.osparams)
+    if osp is not None:
+      idict["osparams"].update(osp)
     for nic in idict["nics"]:
       nic['nicparams'] = objects.FillDict(
         cluster.nicparams[constants.PP_DEFAULT],
         nic['nicparams'])
     return idict
 
     for nic in idict["nics"]:
       nic['nicparams'] = objects.FillDict(
         cluster.nicparams[constants.PP_DEFAULT],
         nic['nicparams'])
     return idict
 
-  def _ConnectList(self, client, node_list, call):
-    """Helper for computing node addresses.
-
-    @type client: L{ganeti.rpc.Client}
-    @param client: a C{Client} instance
-    @type node_list: list
-    @param node_list: the node list we should connect
-    @type call: string
-    @param call: the name of the remote procedure call, for filling in
-        correctly any eventual offline nodes' results
-
-    """
-    all_nodes = self._cfg.GetAllNodesInfo()
-    name_list = []
-    addr_list = []
-    skip_dict = {}
-    for node in node_list:
-      if node in all_nodes:
-        if all_nodes[node].offline:
-          skip_dict[node] = RpcResult(node=node, offline=True, call=call)
-          continue
-        val = all_nodes[node].primary_ip
-      else:
-        val = None
-      addr_list.append(val)
-      name_list.append(node)
-    if name_list:
-      client.ConnectList(name_list, address_list=addr_list)
-    return skip_dict
-
-  def _ConnectNode(self, client, node, call):
-    """Helper for computing one node's address.
-
-    @type client: L{ganeti.rpc.Client}
-    @param client: a C{Client} instance
-    @type node: str
-    @param node: the node we should connect
-    @type call: string
-    @param call: the name of the remote procedure call, for filling in
-        correctly any eventual offline nodes' results
+  def _MultiNodeCall(self, node_list, procedure, args, read_timeout=None):
+    """Helper for making a multi-node call
 
     """
 
     """
-    node_info = self._cfg.GetNodeInfo(node)
-    if node_info is not None:
-      if node_info.offline:
-        return RpcResult(node=node, offline=True, call=call)
-      addr = node_info.primary_ip
-    else:
-      addr = None
-    client.ConnectNode(node, address=addr)
+    body = serializer.DumpJson(args, indent=False)
+    return self._proc(node_list, procedure, body, read_timeout=read_timeout)
 
 
-  def _MultiNodeCall(self, node_list, procedure, args):
-    """Helper for making a multi-node call
+  def _Call(self, node_list, procedure, timeout, args):
+    """Entry point for automatically generated RPC wrappers.
 
     """
 
     """
-    body = serializer.DumpJson(args, indent=False)
-    c = Client(procedure, body, self.port)
-    skip_dict = self._ConnectList(c, node_list, procedure)
-    skip_dict.update(c.GetResults())
-    return skip_dict
+    return self._MultiNodeCall(node_list, procedure, args, read_timeout=timeout)
 
 
-  @classmethod
-  def _StaticMultiNodeCall(cls, node_list, procedure, args,
-                           address_list=None):
+  @staticmethod
+  def _StaticMultiNodeCall(node_list, procedure, args,
+                           address_list=None, read_timeout=None):
     """Helper for making a multi-node static call
 
     """
     body = serializer.DumpJson(args, indent=False)
     """Helper for making a multi-node static call
 
     """
     body = serializer.DumpJson(args, indent=False)
-    c = Client(procedure, body, utils.GetDaemonPort(constants.NODED))
-    c.ConnectList(node_list, address_list=address_list)
-    return c.GetResults()
 
 
-  def _SingleNodeCall(self, node, procedure, args):
+    if address_list is None:
+      resolver = _SsconfResolver
+    else:
+      # Caller provided an address list
+      resolver = _StaticResolver(address_list)
+
+    proc = _RpcProcessor(resolver,
+                         netutils.GetDaemonPort(constants.NODED))
+    return proc(node_list, procedure, body, read_timeout=read_timeout)
+
+  def _SingleNodeCall(self, node, procedure, args, read_timeout=None):
     """Helper for making a single-node call
 
     """
     body = serializer.DumpJson(args, indent=False)
     """Helper for making a single-node call
 
     """
     body = serializer.DumpJson(args, indent=False)
-    c = Client(procedure, body, self.port)
-    result = self._ConnectNode(c, node, procedure)
-    if result is None:
-      # we did connect, node is not offline
-      result = c.GetResults()[node]
-    return result
+    return self._proc([node], procedure, body, read_timeout=read_timeout)[node]
 
   @classmethod
 
   @classmethod
-  def _StaticSingleNodeCall(cls, node, procedure, args):
+  def _StaticSingleNodeCall(cls, node, procedure, args, read_timeout=None):
     """Helper for making a single-node static call
 
     """
     body = serializer.DumpJson(args, indent=False)
     """Helper for making a single-node static call
 
     """
     body = serializer.DumpJson(args, indent=False)
-    c = Client(procedure, body, utils.GetDaemonPort(constants.NODED))
-    c.ConnectNode(node)
-    return c.GetResults()[node]
+    proc = _RpcProcessor(_SsconfResolver,
+                         netutils.GetDaemonPort(constants.NODED))
+    return proc([node], procedure, body, read_timeout=read_timeout)[node]
 
   @staticmethod
 
   @staticmethod
-  def _Compress(data):
-    """Compresses a string for transport over RPC.
-
-    Small amounts of data are not compressed.
-
-    @type data: str
-    @param data: Data
-    @rtype: tuple
-    @return: Encoded data to send
-
-    """
-    # Small amounts of data are not compressed
-    if len(data) < 512:
-      return (constants.RPC_ENCODING_NONE, data)
+  def _BlockdevFindPostProc(result):
+    if not result.fail_msg and result.payload is not None:
+      result.payload = objects.BlockDevStatus.FromDict(result.payload)
+    return result
 
 
-    # Compress with zlib and encode in base64
-    return (constants.RPC_ENCODING_ZLIB_BASE64,
-            base64.b64encode(zlib.compress(data, 3)))
+  @staticmethod
+  def _BlockdevGetMirrorStatusPostProc(result):
+    if not result.fail_msg:
+      result.payload = [objects.BlockDevStatus.FromDict(i)
+                        for i in result.payload]
+    return result
 
 
-  #
-  # Begin RPC calls
-  #
+  @staticmethod
+  def _BlockdevGetMirrorStatusMultiPostProc(result):
+    for nres in result.values():
+      if nres.fail_msg:
+        continue
 
 
-  def call_lv_list(self, node_list, vg_name):
-    """Gets the logical volumes present in a given volume group.
+      for idx, (success, status) in enumerate(nres.payload):
+        if success:
+          nres.payload[idx] = (success, objects.BlockDevStatus.FromDict(status))
 
 
-    This is a multi-node call.
+    return result
 
 
-    """
-    return self._MultiNodeCall(node_list, "lv_list", [vg_name])
+  @staticmethod
+  def _OsGetPostProc(result):
+    if not result.fail_msg and isinstance(result.payload, dict):
+      result.payload = objects.OS.FromDict(result.payload)
+    return result
 
 
-  def call_vg_list(self, node_list):
-    """Gets the volume group list.
+  @staticmethod
+  def _PrepareFinalizeExportDisks(snap_disks):
+    flat_disks = []
 
 
-    This is a multi-node call.
+    for disk in snap_disks:
+      if isinstance(disk, bool):
+        flat_disks.append(disk)
+      else:
+        flat_disks.append(disk.ToDict())
 
 
-    """
-    return self._MultiNodeCall(node_list, "vg_list", [])
+    return flat_disks
 
 
-  def call_storage_list(self, node_list, su_name, su_args, name, fields):
-    """Get list of storage units.
+  @staticmethod
+  def _ImpExpStatusPostProc(result):
+    """Post-processor for import/export status.
 
 
-    This is a multi-node call.
+    @rtype: Payload containing list of L{objects.ImportExportStatus} instances
+    @return: Returns a list of the state of each named import/export or None if
+             a status couldn't be retrieved
 
     """
 
     """
-    return self._MultiNodeCall(node_list, "storage_list",
-                               [su_name, su_args, name, fields])
+    if not result.fail_msg:
+      decoded = []
 
 
-  def call_storage_modify(self, node, su_name, su_args, name, changes):
-    """Modify a storage unit.
+      for i in result.payload:
+        if i is None:
+          decoded.append(None)
+          continue
+        decoded.append(objects.ImportExportStatus.FromDict(i))
 
 
-    This is a single-node call.
+      result.payload = decoded
 
 
-    """
-    return self._SingleNodeCall(node, "storage_modify",
-                                [su_name, su_args, name, changes])
-
-  def call_storage_execute(self, node, su_name, su_args, name, op):
-    """Executes an operation on a storage unit.
+    return result
 
 
-    This is a single-node call.
+  @staticmethod
+  def _EncodeImportExportIO(ieio, ieioargs):
+    """Encodes import/export I/O information.
 
     """
 
     """
-    return self._SingleNodeCall(node, "storage_execute",
-                                [su_name, su_args, name, op])
-
-  def call_bridges_exist(self, node, bridges_list):
-    """Checks if a node has all the bridges given.
+    if ieio == constants.IEIO_RAW_DISK:
+      assert len(ieioargs) == 1
+      return (ieioargs[0].ToDict(), )
 
 
-    This method checks if all bridges given in the bridges_list are
-    present on the remote node, so that an instance that uses interfaces
-    on those bridges can be started.
+    if ieio == constants.IEIO_SCRIPT:
+      assert len(ieioargs) == 2
+      return (ieioargs[0].ToDict(), ieioargs[1])
 
 
-    This is a single-node call.
+    return ieioargs
 
 
-    """
-    return self._SingleNodeCall(node, "bridges_exist", [bridges_list])
+  #
+  # Begin RPC calls
+  #
 
 
-  def call_instance_start(self, node, instance, hvp, bep):
+  @_RpcTimeout(_TMO_NORMAL)
+  def call_instance_start(self, node, instance, hvp, bep, startup_paused):
     """Starts an instance.
 
     This is a single-node call.
 
     """
     idict = self._InstDict(instance, hvp=hvp, bep=bep)
     """Starts an instance.
 
     This is a single-node call.
 
     """
     idict = self._InstDict(instance, hvp=hvp, bep=bep)
-    return self._SingleNodeCall(node, "instance_start", [idict])
-
-  def call_instance_shutdown(self, node, instance, timeout):
-    """Stops an instance.
-
-    This is a single-node call.
-
-    """
-    return self._SingleNodeCall(node, "instance_shutdown",
-                                [self._InstDict(instance), timeout])
-
-  def call_migration_info(self, node, instance):
-    """Gather the information necessary to prepare an instance migration.
-
-    This is a single-node call.
-
-    @type node: string
-    @param node: the node on which the instance is currently running
-    @type instance: C{objects.Instance}
-    @param instance: the instance definition
-
-    """
-    return self._SingleNodeCall(node, "migration_info",
-                                [self._InstDict(instance)])
-
-  def call_accept_instance(self, node, instance, info, target):
-    """Prepare a node to accept an instance.
-
-    This is a single-node call.
-
-    @type node: string
-    @param node: the target node for the migration
-    @type instance: C{objects.Instance}
-    @param instance: the instance definition
-    @type info: opaque/hypervisor specific (string/data)
-    @param info: result for the call_migration_info call
-    @type target: string
-    @param target: target hostname (usually ip address) (on the node itself)
-
-    """
-    return self._SingleNodeCall(node, "accept_instance",
-                                [self._InstDict(instance), info, target])
-
-  def call_finalize_migration(self, node, instance, info, success):
-    """Finalize any target-node migration specific operation.
-
-    This is called both in case of a successful migration and in case of error
-    (in which case it should abort the migration).
-
-    This is a single-node call.
-
-    @type node: string
-    @param node: the target node for the migration
-    @type instance: C{objects.Instance}
-    @param instance: the instance definition
-    @type info: opaque/hypervisor specific (string/data)
-    @param info: result for the call_migration_info call
-    @type success: boolean
-    @param success: whether the migration was a success or a failure
-
-    """
-    return self._SingleNodeCall(node, "finalize_migration",
-                                [self._InstDict(instance), info, success])
-
-  def call_instance_migrate(self, node, instance, target, live):
-    """Migrate an instance.
+    return self._SingleNodeCall(node, "instance_start", [idict, startup_paused])
 
 
-    This is a single-node call.
-
-    @type node: string
-    @param node: the node on which the instance is currently running
-    @type instance: C{objects.Instance}
-    @param instance: the instance definition
-    @type target: string
-    @param target: the target node name
-    @type live: boolean
-    @param live: whether the migration should be done live or not (the
-        interpretation of this parameter is left to the hypervisor)
-
-    """
-    return self._SingleNodeCall(node, "instance_migrate",
-                                [self._InstDict(instance), target, live])
-
-  def call_instance_reboot(self, node, inst, reboot_type, shutdown_timeout):
-    """Reboots an instance.
-
-    This is a single-node call.
-
-    """
-    return self._SingleNodeCall(node, "instance_reboot",
-                                [self._InstDict(inst), reboot_type,
-                                 shutdown_timeout])
-
-  def call_instance_os_add(self, node, inst, reinstall):
+  @_RpcTimeout(_TMO_1DAY)
+  def call_instance_os_add(self, node, inst, reinstall, debug, osparams=None):
     """Installs an OS on the given instance.
 
     This is a single-node call.
 
     """
     return self._SingleNodeCall(node, "instance_os_add",
     """Installs an OS on the given instance.
 
     This is a single-node call.
 
     """
     return self._SingleNodeCall(node, "instance_os_add",
-                                [self._InstDict(inst), reinstall])
-
-  def call_instance_run_rename(self, node, inst, old_name):
-    """Run the OS rename script for an instance.
-
-    This is a single-node call.
-
-    """
-    return self._SingleNodeCall(node, "instance_run_rename",
-                                [self._InstDict(inst), old_name])
-
-  def call_instance_info(self, node, instance, hname):
-    """Returns information about a single instance.
-
-    This is a single-node call.
-
-    @type node: list
-    @param node: the list of nodes to query
-    @type instance: string
-    @param instance: the instance name
-    @type hname: string
-    @param hname: the hypervisor type of the instance
-
-    """
-    return self._SingleNodeCall(node, "instance_info", [instance, hname])
-
-  def call_instance_migratable(self, node, instance):
-    """Checks whether the given instance can be migrated.
-
-    This is a single-node call.
-
-    @param node: the node to query
-    @type instance: L{objects.Instance}
-    @param instance: the instance to check
+                                [self._InstDict(inst, osp=osparams),
+                                 reinstall, debug])
 
 
-
-    """
-    return self._SingleNodeCall(node, "instance_migratable",
-                                [self._InstDict(instance)])
-
-  def call_all_instances_info(self, node_list, hypervisor_list):
-    """Returns information about all instances on the given nodes.
-
-    This is a multi-node call.
-
-    @type node_list: list
-    @param node_list: the list of nodes to query
-    @type hypervisor_list: list
-    @param hypervisor_list: the hypervisors to query for instances
-
-    """
-    return self._MultiNodeCall(node_list, "all_instances_info",
-                               [hypervisor_list])
-
-  def call_instance_list(self, node_list, hypervisor_list):
-    """Returns the list of running instances on a given node.
-
-    This is a multi-node call.
-
-    @type node_list: list
-    @param node_list: the list of nodes to query
-    @type hypervisor_list: list
-    @param hypervisor_list: the hypervisors to query for instances
-
-    """
-    return self._MultiNodeCall(node_list, "instance_list", [hypervisor_list])
-
-  def call_node_tcp_ping(self, node, source, target, port, timeout,
-                         live_port_needed):
-    """Do a TcpPing on the remote node
+  @classmethod
+  @_RpcTimeout(_TMO_FAST)
+  def call_node_start_master_daemons(cls, node, no_voting):
+    """Starts master daemons on a node.
 
     This is a single-node call.
 
     """
 
     This is a single-node call.
 
     """
-    return self._SingleNodeCall(node, "node_tcp_ping",
-                                [source, target, port, timeout,
-                                 live_port_needed])
+    return cls._StaticSingleNodeCall(node, "node_start_master_daemons",
+                                     [no_voting])
 
 
-  def call_node_has_ip_address(self, node, address):
-    """Checks if a node has the given IP address.
+  @classmethod
+  @_RpcTimeout(_TMO_FAST)
+  def call_node_activate_master_ip(cls, node):
+    """Activates master IP on a node.
 
     This is a single-node call.
 
     """
 
     This is a single-node call.
 
     """
-    return self._SingleNodeCall(node, "node_has_ip_address", [address])
-
-  def call_node_info(self, node_list, vg_name, hypervisor_type):
-    """Return node information.
-
-    This will return memory information and volume group size and free
-    space.
-
-    This is a multi-node call.
-
-    @type node_list: list
-    @param node_list: the list of nodes to query
-    @type vg_name: C{string}
-    @param vg_name: the name of the volume group to ask for disk space
-        information
-    @type hypervisor_type: C{str}
-    @param hypervisor_type: the name of the hypervisor to ask for
-        memory information
-
-    """
-    return self._MultiNodeCall(node_list, "node_info",
-                               [vg_name, hypervisor_type])
+    return cls._StaticSingleNodeCall(node, "node_activate_master_ip", [])
 
 
-  def call_node_add(self, node, dsa, dsapub, rsa, rsapub, ssh, sshpub):
-    """Add a node to the cluster.
+  @classmethod
+  @_RpcTimeout(_TMO_FAST)
+  def call_node_stop_master(cls, node):
+    """Deactivates master IP and stops master daemons on a node.
 
     This is a single-node call.
 
     """
 
     This is a single-node call.
 
     """
-    return self._SingleNodeCall(node, "node_add",
-                                [dsa, dsapub, rsa, rsapub, ssh, sshpub])
-
-  def call_node_verify(self, node_list, checkdict, cluster_name):
-    """Request verification of given parameters.
-
-    This is a multi-node call.
-
-    """
-    return self._MultiNodeCall(node_list, "node_verify",
-                               [checkdict, cluster_name])
+    return cls._StaticSingleNodeCall(node, "node_stop_master", [])
 
   @classmethod
 
   @classmethod
-  def call_node_start_master(cls, node, start_daemons, no_voting):
-    """Tells a node to activate itself as a master.
+  @_RpcTimeout(_TMO_FAST)
+  def call_node_deactivate_master_ip(cls, node):
+    """Deactivates master IP on a node.
 
     This is a single-node call.
 
     """
 
     This is a single-node call.
 
     """
-    return cls._StaticSingleNodeCall(node, "node_start_master",
-                                     [start_daemons, no_voting])
+    return cls._StaticSingleNodeCall(node, "node_deactivate_master_ip", [])
 
   @classmethod
 
   @classmethod
-  def call_node_stop_master(cls, node, stop_daemons):
-    """Tells a node to demote itself from master status.
+  @_RpcTimeout(_TMO_FAST)
+  def call_node_change_master_netmask(cls, node, netmask):
+    """Change master IP netmask.
 
     This is a single-node call.
 
     """
 
     This is a single-node call.
 
     """
-    return cls._StaticSingleNodeCall(node, "node_stop_master", [stop_daemons])
+    return cls._StaticSingleNodeCall(node, "node_change_master_netmask",
+                  [netmask])
 
   @classmethod
 
   @classmethod
+  @_RpcTimeout(_TMO_URGENT)
   def call_master_info(cls, node_list):
     """Query master info.
 
   def call_master_info(cls, node_list):
     """Query master info.
 
@@ -738,6 +710,7 @@ class RpcRunner(object):
     return cls._StaticMultiNodeCall(node_list, "master_info", [])
 
   @classmethod
     return cls._StaticMultiNodeCall(node_list, "master_info", [])
 
   @classmethod
+  @_RpcTimeout(_TMO_URGENT)
   def call_version(cls, node_list):
     """Query node version.
 
   def call_version(cls, node_list):
     """Query node version.
 
@@ -746,141 +719,8 @@ class RpcRunner(object):
     """
     return cls._StaticMultiNodeCall(node_list, "version", [])
 
     """
     return cls._StaticMultiNodeCall(node_list, "version", [])
 
-  def call_blockdev_create(self, node, bdev, size, owner, on_primary, info):
-    """Request creation of a given block device.
-
-    This is a single-node call.
-
-    """
-    return self._SingleNodeCall(node, "blockdev_create",
-                                [bdev.ToDict(), size, owner, on_primary, info])
-
-  def call_blockdev_remove(self, node, bdev):
-    """Request removal of a given block device.
-
-    This is a single-node call.
-
-    """
-    return self._SingleNodeCall(node, "blockdev_remove", [bdev.ToDict()])
-
-  def call_blockdev_rename(self, node, devlist):
-    """Request rename of the given block devices.
-
-    This is a single-node call.
-
-    """
-    return self._SingleNodeCall(node, "blockdev_rename",
-                                [(d.ToDict(), uid) for d, uid in devlist])
-
-  def call_blockdev_assemble(self, node, disk, owner, on_primary):
-    """Request assembling of a given block device.
-
-    This is a single-node call.
-
-    """
-    return self._SingleNodeCall(node, "blockdev_assemble",
-                                [disk.ToDict(), owner, on_primary])
-
-  def call_blockdev_shutdown(self, node, disk):
-    """Request shutdown of a given block device.
-
-    This is a single-node call.
-
-    """
-    return self._SingleNodeCall(node, "blockdev_shutdown", [disk.ToDict()])
-
-  def call_blockdev_addchildren(self, node, bdev, ndevs):
-    """Request adding a list of children to a (mirroring) device.
-
-    This is a single-node call.
-
-    """
-    return self._SingleNodeCall(node, "blockdev_addchildren",
-                                [bdev.ToDict(),
-                                 [disk.ToDict() for disk in ndevs]])
-
-  def call_blockdev_removechildren(self, node, bdev, ndevs):
-    """Request removing a list of children from a (mirroring) device.
-
-    This is a single-node call.
-
-    """
-    return self._SingleNodeCall(node, "blockdev_removechildren",
-                                [bdev.ToDict(),
-                                 [disk.ToDict() for disk in ndevs]])
-
-  def call_blockdev_getmirrorstatus(self, node, disks):
-    """Request status of a (mirroring) device.
-
-    This is a single-node call.
-
-    """
-    result = self._SingleNodeCall(node, "blockdev_getmirrorstatus",
-                                  [dsk.ToDict() for dsk in disks])
-    if not result.fail_msg:
-      result.payload = [objects.BlockDevStatus.FromDict(i)
-                        for i in result.payload]
-    return result
-
-  def call_blockdev_find(self, node, disk):
-    """Request identification of a given block device.
-
-    This is a single-node call.
-
-    """
-    result = self._SingleNodeCall(node, "blockdev_find", [disk.ToDict()])
-    if not result.fail_msg and result.payload is not None:
-      result.payload = objects.BlockDevStatus.FromDict(result.payload)
-    return result
-
-  def call_blockdev_close(self, node, instance_name, disks):
-    """Closes the given block devices.
-
-    This is a single-node call.
-
-    """
-    params = [instance_name, [cf.ToDict() for cf in disks]]
-    return self._SingleNodeCall(node, "blockdev_close", params)
-
-  def call_blockdev_getsizes(self, node, disks):
-    """Returns the size of the given disks.
-
-    This is a single-node call.
-
-    """
-    params = [[cf.ToDict() for cf in disks]]
-    return self._SingleNodeCall(node, "blockdev_getsize", params)
-
-  def call_drbd_disconnect_net(self, node_list, nodes_ip, disks):
-    """Disconnects the network of the given drbd devices.
-
-    This is a multi-node call.
-
-    """
-    return self._MultiNodeCall(node_list, "drbd_disconnect_net",
-                               [nodes_ip, [cf.ToDict() for cf in disks]])
-
-  def call_drbd_attach_net(self, node_list, nodes_ip,
-                           disks, instance_name, multimaster):
-    """Disconnects the given drbd devices.
-
-    This is a multi-node call.
-
-    """
-    return self._MultiNodeCall(node_list, "drbd_attach_net",
-                               [nodes_ip, [cf.ToDict() for cf in disks],
-                                instance_name, multimaster])
-
-  def call_drbd_wait_sync(self, node_list, nodes_ip, disks):
-    """Waits for the synchronization of drbd devices is complete.
-
-    This is a multi-node call.
-
-    """
-    return self._MultiNodeCall(node_list, "drbd_wait_sync",
-                               [nodes_ip, [cf.ToDict() for cf in disks]])
-
   @classmethod
   @classmethod
+  @_RpcTimeout(_TMO_NORMAL)
   def call_upload_file(cls, node_list, file_name, address_list=None):
     """Upload a file.
 
   def call_upload_file(cls, node_list, file_name, address_list=None):
     """Upload a file.
 
@@ -899,14 +739,16 @@ class RpcRunner(object):
 
     """
     file_contents = utils.ReadFile(file_name)
 
     """
     file_contents = utils.ReadFile(file_name)
-    data = cls._Compress(file_contents)
+    data = _Compress(file_contents)
     st = os.stat(file_name)
     st = os.stat(file_name)
-    params = [file_name, data, st.st_mode, st.st_uid, st.st_gid,
-              st.st_atime, st.st_mtime]
+    getents = runtime.GetEnts()
+    params = [file_name, data, st.st_mode, getents.LookupUid(st.st_uid),
+              getents.LookupGid(st.st_gid), st.st_atime, st.st_mtime]
     return cls._StaticMultiNodeCall(node_list, "upload_file", params,
                                     address_list=address_list)
 
   @classmethod
     return cls._StaticMultiNodeCall(node_list, "upload_file", params,
                                     address_list=address_list)
 
   @classmethod
+  @_RpcTimeout(_TMO_NORMAL)
   def call_write_ssconf_files(cls, node_list, values):
     """Write ssconf files.
 
   def call_write_ssconf_files(cls, node_list, values):
     """Write ssconf files.
 
@@ -915,143 +757,8 @@ class RpcRunner(object):
     """
     return cls._StaticMultiNodeCall(node_list, "write_ssconf_files", [values])
 
     """
     return cls._StaticMultiNodeCall(node_list, "write_ssconf_files", [values])
 
-  def call_os_diagnose(self, node_list):
-    """Request a diagnose of OS definitions.
-
-    This is a multi-node call.
-
-    """
-    return self._MultiNodeCall(node_list, "os_diagnose", [])
-
-  def call_os_get(self, node, name):
-    """Returns an OS definition.
-
-    This is a single-node call.
-
-    """
-    result = self._SingleNodeCall(node, "os_get", [name])
-    if not result.fail_msg and isinstance(result.payload, dict):
-      result.payload = objects.OS.FromDict(result.payload)
-    return result
-
-  def call_hooks_runner(self, node_list, hpath, phase, env):
-    """Call the hooks runner.
-
-    Args:
-      - op: the OpCode instance
-      - env: a dictionary with the environment
-
-    This is a multi-node call.
-
-    """
-    params = [hpath, phase, env]
-    return self._MultiNodeCall(node_list, "hooks_runner", params)
-
-  def call_iallocator_runner(self, node, name, idata):
-    """Call an iallocator on a remote node
-
-    Args:
-      - name: the iallocator name
-      - input: the json-encoded input string
-
-    This is a single-node call.
-
-    """
-    return self._SingleNodeCall(node, "iallocator_runner", [name, idata])
-
-  def call_blockdev_grow(self, node, cf_bdev, amount):
-    """Request a snapshot of the given block device.
-
-    This is a single-node call.
-
-    """
-    return self._SingleNodeCall(node, "blockdev_grow",
-                                [cf_bdev.ToDict(), amount])
-
-  def call_blockdev_export(self, node, cf_bdev,
-                           dest_node, dest_path, cluster_name):
-    """Export a given disk to another node.
-
-    This is a single-node call.
-
-    """
-    return self._SingleNodeCall(node, "blockdev_export",
-                                [cf_bdev.ToDict(), dest_node, dest_path,
-                                 cluster_name])
-
-  def call_blockdev_snapshot(self, node, cf_bdev):
-    """Request a snapshot of the given block device.
-
-    This is a single-node call.
-
-    """
-    return self._SingleNodeCall(node, "blockdev_snapshot", [cf_bdev.ToDict()])
-
-  def call_snapshot_export(self, node, snap_bdev, dest_node, instance,
-                           cluster_name, idx):
-    """Request the export of a given snapshot.
-
-    This is a single-node call.
-
-    """
-    return self._SingleNodeCall(node, "snapshot_export",
-                                [snap_bdev.ToDict(), dest_node,
-                                 self._InstDict(instance), cluster_name, idx])
-
-  def call_finalize_export(self, node, instance, snap_disks):
-    """Request the completion of an export operation.
-
-    This writes the export config file, etc.
-
-    This is a single-node call.
-
-    """
-    flat_disks = []
-    for disk in snap_disks:
-      if isinstance(disk, bool):
-        flat_disks.append(disk)
-      else:
-        flat_disks.append(disk.ToDict())
-
-    return self._SingleNodeCall(node, "finalize_export",
-                                [self._InstDict(instance), flat_disks])
-
-  def call_export_info(self, node, path):
-    """Queries the export information in a given path.
-
-    This is a single-node call.
-
-    """
-    return self._SingleNodeCall(node, "export_info", [path])
-
-  def call_instance_os_import(self, node, inst, src_node, src_images,
-                              cluster_name):
-    """Request the import of a backup into an instance.
-
-    This is a single-node call.
-
-    """
-    return self._SingleNodeCall(node, "instance_os_import",
-                                [self._InstDict(inst), src_node, src_images,
-                                 cluster_name])
-
-  def call_export_list(self, node_list):
-    """Gets the stored exports list.
-
-    This is a multi-node call.
-
-    """
-    return self._MultiNodeCall(node_list, "export_list", [])
-
-  def call_export_remove(self, node, export):
-    """Requests removal of a given export.
-
-    This is a single-node call.
-
-    """
-    return self._SingleNodeCall(node, "export_remove", [export])
-
   @classmethod
   @classmethod
+  @_RpcTimeout(_TMO_NORMAL)
   def call_node_leave_cluster(cls, node, modify_ssh_setup):
     """Requests a node to clean the cluster information it has.
 
   def call_node_leave_cluster(cls, node, modify_ssh_setup):
     """Requests a node to clean the cluster information it has.
 
@@ -1064,69 +771,18 @@ class RpcRunner(object):
     return cls._StaticSingleNodeCall(node, "node_leave_cluster",
                                      [modify_ssh_setup])
 
     return cls._StaticSingleNodeCall(node, "node_leave_cluster",
                                      [modify_ssh_setup])
 
-  def call_node_volumes(self, node_list):
-    """Gets all volumes on node(s).
-
-    This is a multi-node call.
-
-    """
-    return self._MultiNodeCall(node_list, "node_volumes", [])
-
-  def call_node_demote_from_mc(self, node):
-    """Demote a node from the master candidate role.
-
-    This is a single-node call.
-
-    """
-    return self._SingleNodeCall(node, "node_demote_from_mc", [])
-
-
-  def call_node_powercycle(self, node, hypervisor):
-    """Tries to powercycle a node.
-
-    This is a single-node call.
-
-    """
-    return self._SingleNodeCall(node, "node_powercycle", [hypervisor])
-
-
-  def call_test_delay(self, node_list, duration):
+  def call_test_delay(self, node_list, duration, read_timeout=None):
     """Sleep for a fixed time on given node(s).
 
     This is a multi-node call.
 
     """
     """Sleep for a fixed time on given node(s).
 
     This is a multi-node call.
 
     """
-    return self._MultiNodeCall(node_list, "test_delay", [duration])
-
-  def call_file_storage_dir_create(self, node, file_storage_dir):
-    """Create the given file storage directory.
-
-    This is a single-node call.
-
-    """
-    return self._SingleNodeCall(node, "file_storage_dir_create",
-                                [file_storage_dir])
-
-  def call_file_storage_dir_remove(self, node, file_storage_dir):
-    """Remove the given file storage directory.
-
-    This is a single-node call.
-
-    """
-    return self._SingleNodeCall(node, "file_storage_dir_remove",
-                                [file_storage_dir])
-
-  def call_file_storage_dir_rename(self, node, old_file_storage_dir,
-                                   new_file_storage_dir):
-    """Rename file storage directory.
-
-    This is a single-node call.
-
-    """
-    return self._SingleNodeCall(node, "file_storage_dir_rename",
-                                [old_file_storage_dir, new_file_storage_dir])
+    assert read_timeout is None
+    return self.call_test_delay(node_list, duration,
+                                read_timeout=int(duration + 5))
 
   @classmethod
 
   @classmethod
+  @_RpcTimeout(_TMO_URGENT)
   def call_jobqueue_update(cls, node_list, address_list, file_name, content):
     """Update job queue.
 
   def call_jobqueue_update(cls, node_list, address_list, file_name, content):
     """Update job queue.
 
@@ -1134,10 +790,11 @@ class RpcRunner(object):
 
     """
     return cls._StaticMultiNodeCall(node_list, "jobqueue_update",
 
     """
     return cls._StaticMultiNodeCall(node_list, "jobqueue_update",
-                                    [file_name, cls._Compress(content)],
+                                    [file_name, _Compress(content)],
                                     address_list=address_list)
 
   @classmethod
                                     address_list=address_list)
 
   @classmethod
+  @_RpcTimeout(_TMO_NORMAL)
   def call_jobqueue_purge(cls, node):
     """Purge job queue.
 
   def call_jobqueue_purge(cls, node):
     """Purge job queue.
 
@@ -1147,6 +804,7 @@ class RpcRunner(object):
     return cls._StaticSingleNodeCall(node, "jobqueue_purge", [])
 
   @classmethod
     return cls._StaticSingleNodeCall(node, "jobqueue_purge", [])
 
   @classmethod
+  @_RpcTimeout(_TMO_URGENT)
   def call_jobqueue_rename(cls, node_list, address_list, rename):
     """Rename a job queue file.
 
   def call_jobqueue_rename(cls, node_list, address_list, rename):
     """Rename a job queue file.
 
@@ -1156,21 +814,7 @@ class RpcRunner(object):
     return cls._StaticMultiNodeCall(node_list, "jobqueue_rename", rename,
                                     address_list=address_list)
 
     return cls._StaticMultiNodeCall(node_list, "jobqueue_rename", rename,
                                     address_list=address_list)
 
-  @classmethod
-  def call_jobqueue_set_drain(cls, node_list, drain_flag):
-    """Set the drain flag on the queue.
-
-    This is a multi-node call.
-
-    @type node_list: list
-    @param node_list: the list of nodes to query
-    @type drain_flag: bool
-    @param drain_flag: if True, will set the drain flag, otherwise reset it.
-
-    """
-    return cls._StaticMultiNodeCall(node_list, "jobqueue_set_drain",
-                                    [drain_flag])
-
+  @_RpcTimeout(_TMO_NORMAL)
   def call_hypervisor_validate_params(self, node_list, hvname, hvparams):
     """Validate the hypervisor params.
 
   def call_hypervisor_validate_params(self, node_list, hvname, hvparams):
     """Validate the hypervisor params.