Add option to ignore offline node on instance start/stop
[ganeti-local] / scripts / gnt-cluster
index 636812a..4887bc1 100755 (executable)
@@ -1,7 +1,7 @@
 #!/usr/bin/python
 #
 
-# Copyright (C) 2006, 2007 Google Inc.
+# Copyright (C) 2006, 2007, 2010 Google Inc.
 #
 # This program is free software; you can redistribute it and/or modify
 # it under the terms of the GNU General Public License as published by
@@ -39,7 +39,14 @@ from ganeti import utils
 from ganeti import bootstrap
 from ganeti import ssh
 from ganeti import objects
+from ganeti import uidpool
+from ganeti import compat
 
+PREALLOC_WIPE_DISKS_OPT = cli_option("--prealloc-wipe-disks", default=False,
+                                     action="store_true",
+                                     dest="prealloc_wipe_disks",
+                                     help=("Wipe disks prior to instance"
+                                           " creation"))
 
 @UsesRPC
 def InitCluster(opts, args):
@@ -61,6 +68,14 @@ def InitCluster(opts, args):
   if opts.lvm_storage and not opts.vg_name:
     vg_name = constants.DEFAULT_VG
 
+  if not opts.drbd_storage and opts.drbd_helper:
+    ToStderr("Options --no-drbd-storage and --drbd-usermode-helper conflict.")
+    return 1
+
+  drbd_helper = opts.drbd_helper
+  if opts.drbd_storage and not opts.drbd_helper:
+    drbd_helper = constants.DEFAULT_DRBD_HELPER
+
   hvlist = opts.enabled_hypervisors
   if hvlist is None:
     hvlist = constants.DEFAULT_ENABLED_HYPERVISOR
@@ -91,6 +106,16 @@ def InitCluster(opts, args):
   if opts.mac_prefix is None:
     opts.mac_prefix = constants.DEFAULT_MAC_PREFIX
 
+  uid_pool = opts.uid_pool
+  if uid_pool is not None:
+    uid_pool = uidpool.ParseUidPool(uid_pool)
+
+  try:
+    primary_ip_version = int(opts.primary_ip_version)
+  except (ValueError, TypeError), err:
+    ToStderr("Invalid primary ip version value: %s" % str(err))
+    return 1
+
   bootstrap.InitCluster(cluster_name=args[0],
                         secondary_ip=opts.secondary_ip,
                         vg_name=vg_name,
@@ -105,6 +130,11 @@ def InitCluster(opts, args):
                         modify_etc_hosts=opts.modify_etc_hosts,
                         modify_ssh_setup=opts.modify_ssh_setup,
                         maintain_node_health=opts.maintain_node_health,
+                        drbd_helper=drbd_helper,
+                        uid_pool=uid_pool,
+                        default_iallocator=opts.default_iallocator,
+                        primary_ip_version=primary_ip_version,
+                        prealloc_wipe_disks=opts.prealloc_wipe_disks,
                         )
   op = opcodes.OpPostInitCluster()
   SubmitOpCode(op, opts=opts)
@@ -145,17 +175,26 @@ def RenameCluster(opts, args):
   @return: the desired exit code
 
   """
-  name = args[0]
+  cl = GetClient()
+
+  (cluster_name, ) = cl.QueryConfigValues(["cluster_name"])
+
+  new_name = args[0]
   if not opts.force:
-    usertext = ("This will rename the cluster to '%s'. If you are connected"
-                " over the network to the cluster name, the operation is very"
-                " dangerous as the IP address will be removed from the node"
-                " and the change may not go through. Continue?") % name
+    usertext = ("This will rename the cluster from '%s' to '%s'. If you are"
+                " connected over the network to the cluster name, the"
+                " operation is very dangerous as the IP address will be"
+                " removed from the node and the change may not go through."
+                " Continue?") % (cluster_name, new_name)
     if not AskUser(usertext):
       return 1
 
-  op = opcodes.OpRenameCluster(name=name)
-  SubmitOpCode(op, opts=opts)
+  op = opcodes.OpRenameCluster(name=new_name)
+  result = SubmitOpCode(op, opts=opts, cl=cl)
+
+  if result:
+    ToStdout("Cluster renamed from '%s' to '%s'", cluster_name, result)
+
   return 0
 
 
@@ -209,7 +248,7 @@ def ShowClusterMaster(opts, args):
   return 0
 
 
-def _PrintGroupedParams(paramsdict, level=1):
+def _PrintGroupedParams(paramsdict, level=1, roman=False):
   """Print Grouped parameters (be, nic, disk) by group.
 
   @type paramsdict: dict of dicts
@@ -219,10 +258,12 @@ def _PrintGroupedParams(paramsdict, level=1):
 
   """
   indent = "  " * level
-  for item, val in paramsdict.items():
+  for item, val in sorted(paramsdict.items()):
     if isinstance(val, dict):
       ToStdout("%s- %s:", indent, item)
-      _PrintGroupedParams(val, level=level + 1)
+      _PrintGroupedParams(val, level=level + 1, roman=roman)
+    elif roman and isinstance(val, int):
+      ToStdout("%s  %s: %s", indent, item, compat.TryToRoman(val))
     else:
       ToStdout("%s  %s: %s", indent, item, val)
 
@@ -265,22 +306,39 @@ def ShowClusterConfig(opts, args):
   ToStdout("Hypervisor parameters:")
   _PrintGroupedParams(result["hvparams"])
 
-  ToStdout("OS specific hypervisor parameters:")
+  ToStdout("OS-specific hypervisor parameters:")
   _PrintGroupedParams(result["os_hvp"])
 
+  ToStdout("OS parameters:")
+  _PrintGroupedParams(result["osparams"])
+
   ToStdout("Cluster parameters:")
-  ToStdout("  - candidate pool size: %s", result["candidate_pool_size"])
+  ToStdout("  - candidate pool size: %s",
+            compat.TryToRoman(result["candidate_pool_size"],
+                              convert=opts.roman_integers))
   ToStdout("  - master netdev: %s", result["master_netdev"])
   ToStdout("  - lvm volume group: %s", result["volume_group_name"])
+  if result["reserved_lvs"]:
+    reserved_lvs = utils.CommaJoin(result["reserved_lvs"])
+  else:
+    reserved_lvs = "(none)"
+  ToStdout("  - lvm reserved volumes: %s", reserved_lvs)
+  ToStdout("  - drbd usermode helper: %s", result["drbd_usermode_helper"])
   ToStdout("  - file storage path: %s", result["file_storage_dir"])
   ToStdout("  - maintenance of node health: %s",
            result["maintain_node_health"])
+  ToStdout("  - uid pool: %s",
+            uidpool.FormatUidPool(result["uid_pool"],
+                                  roman=opts.roman_integers))
+  ToStdout("  - default instance allocator: %s", result["default_iallocator"])
+  ToStdout("  - primary ip version: %d", result["primary_ip_version"])
+  ToStdout("  - preallocation wipe disks: %s", result["prealloc_wipe_disks"])
 
   ToStdout("Default instance parameters:")
-  _PrintGroupedParams(result["beparams"])
+  _PrintGroupedParams(result["beparams"], roman=opts.roman_integers)
 
   ToStdout("Default nic parameters:")
-  _PrintGroupedParams(result["nicparams"])
+  _PrintGroupedParams(result["nicparams"], roman=opts.roman_integers)
 
   return 0
 
@@ -385,8 +443,10 @@ def VerifyDisks(opts, args):
   @return: the desired exit code
 
   """
+  cl = GetClient()
+
   op = opcodes.OpVerifyDisks()
-  result = SubmitOpCode(op, opts=opts)
+  result = SubmitOpCode(op, opts=opts, cl=cl)
   if not isinstance(result, (list, tuple)) or len(result) != 3:
     raise errors.ProgrammerError("Unknown result type for OpVerifyDisks")
 
@@ -408,15 +468,17 @@ def VerifyDisks(opts, args):
       op = opcodes.OpActivateInstanceDisks(instance_name=iname)
       try:
         ToStdout("Activating disks for instance '%s'", iname)
-        SubmitOpCode(op, opts=opts)
+        SubmitOpCode(op, opts=opts, cl=cl)
       except errors.GenericError, err:
         nret, msg = FormatError(err)
         retcode |= nret
         ToStderr("Error activating disks for instance %s: %s", iname, msg)
 
   if missing:
+    (vg_name, ) = cl.QueryConfigValues(["volume_group_name"])
+
     for iname, ival in missing.iteritems():
-      all_missing = utils.all(ival, lambda x: x[0] in bad_nodes)
+      all_missing = compat.all(x[0] in bad_nodes for x in ival)
       if all_missing:
         ToStdout("Instance %s cannot be verified as it lives on"
                  " broken nodes", iname)
@@ -425,11 +487,12 @@ def VerifyDisks(opts, args):
         ival.sort()
         for node, vol in ival:
           if node in bad_nodes:
-            ToStdout("\tbroken node %s /dev/xenvg/%s", node, vol)
+            ToStdout("\tbroken node %s /dev/%s/%s", node, vg_name, vol)
           else:
-            ToStdout("\t%s /dev/xenvg/%s", node, vol)
+            ToStdout("\t%s /dev/%s/%s", node, vg_name, vol)
+
     ToStdout("You need to run replace_disks for all the above"
-           " instances, if this message persist after fixing nodes.")
+             " instances, if this message persist after fixing nodes.")
     retcode |= 1
 
   return retcode
@@ -475,6 +538,24 @@ def MasterFailover(opts, args):
   return bootstrap.MasterFailover(no_voting=opts.no_voting)
 
 
+def MasterPing(opts, args):
+  """Checks if the master is alive.
+
+  @param opts: the command line options selected by the user
+  @type args: list
+  @param args: should be an empty list
+  @rtype: int
+  @return: the desired exit code
+
+  """
+  try:
+    cl = GetClient()
+    cl.QueryClusterInfo()
+    return 0
+  except Exception: # pylint: disable-msg=W0703
+    return 1
+
+
 def SearchTags(opts, args):
   """Searches the tags on all the cluster.
 
@@ -626,10 +707,16 @@ def SetClusterParams(opts, args):
 
   """
   if not (not opts.lvm_storage or opts.vg_name or
+          not opts.drbd_storage or opts.drbd_helper or
           opts.enabled_hypervisors or opts.hvparams or
           opts.beparams or opts.nicparams or
           opts.candidate_pool_size is not None or
-          opts.maintain_node_health is not None):
+          opts.uid_pool is not None or
+          opts.maintain_node_health is not None or
+          opts.add_uids is not None or
+          opts.remove_uids is not None or
+          opts.default_iallocator is not None or
+          opts.reserved_lvs is not None):
     ToStderr("Please give at least one of the parameters.")
     return 1
 
@@ -641,6 +728,14 @@ def SetClusterParams(opts, args):
   if not opts.lvm_storage:
     vg_name = ""
 
+  drbd_helper = opts.drbd_helper
+  if not opts.drbd_storage and opts.drbd_helper:
+    ToStderr("Options --no-drbd-storage and --drbd-usermode-helper conflict.")
+    return 1
+
+  if not opts.drbd_storage:
+    drbd_helper = ""
+
   hvlist = opts.enabled_hypervisors
   if hvlist is not None:
     hvlist = hvlist.split(",")
@@ -656,16 +751,41 @@ def SetClusterParams(opts, args):
   nicparams = opts.nicparams
   utils.ForceDictType(nicparams, constants.NICS_PARAMETER_TYPES)
 
+
   mnh = opts.maintain_node_health
 
+  uid_pool = opts.uid_pool
+  if uid_pool is not None:
+    uid_pool = uidpool.ParseUidPool(uid_pool)
+
+  add_uids = opts.add_uids
+  if add_uids is not None:
+    add_uids = uidpool.ParseUidPool(add_uids)
+
+  remove_uids = opts.remove_uids
+  if remove_uids is not None:
+    remove_uids = uidpool.ParseUidPool(remove_uids)
+
+  if opts.reserved_lvs is not None:
+    if opts.reserved_lvs == "":
+      opts.reserved_lvs = []
+    else:
+      opts.reserved_lvs = utils.UnescapeAndSplit(opts.reserved_lvs, sep=",")
+
   op = opcodes.OpSetClusterParams(vg_name=vg_name,
+                                  drbd_helper=drbd_helper,
                                   enabled_hypervisors=hvlist,
                                   hvparams=hvparams,
                                   os_hvp=None,
                                   beparams=beparams,
                                   nicparams=nicparams,
                                   candidate_pool_size=opts.candidate_pool_size,
-                                  maintain_node_health=mnh)
+                                  maintain_node_health=mnh,
+                                  uid_pool=uid_pool,
+                                  add_uids=add_uids,
+                                  remove_uids=remove_uids,
+                                  default_iallocator=opts.default_iallocator,
+                                  reserved_lvs=opts.reserved_lvs)
   SubmitOpCode(op, opts=opts)
   return 0
 
@@ -747,33 +867,39 @@ commands = {
     [BACKEND_OPT, CP_SIZE_OPT, ENABLED_HV_OPT, GLOBAL_FILEDIR_OPT,
      HVLIST_OPT, MAC_PREFIX_OPT, MASTER_NETDEV_OPT, NIC_PARAMS_OPT,
      NOLVM_STORAGE_OPT, NOMODIFY_ETCHOSTS_OPT, NOMODIFY_SSH_SETUP_OPT,
-     SECONDARY_IP_OPT, VG_NAME_OPT, MAINTAIN_NODE_HEALTH_OPT],
+     SECONDARY_IP_OPT, VG_NAME_OPT, MAINTAIN_NODE_HEALTH_OPT,
+     UIDPOOL_OPT, DRBD_HELPER_OPT, NODRBD_STORAGE_OPT,
+     DEFAULT_IALLOCATOR_OPT, PRIMARY_IP_VERSION_OPT, PREALLOC_WIPE_DISKS_OPT],
     "[opts...] <cluster_name>", "Initialises a new cluster configuration"),
   'destroy': (
     DestroyCluster, ARGS_NONE, [YES_DOIT_OPT],
     "", "Destroy cluster"),
   'rename': (
     RenameCluster, [ArgHost(min=1, max=1)],
-    [FORCE_OPT],
+    [FORCE_OPT, DRY_RUN_OPT],
     "<new_name>",
     "Renames the cluster"),
   'redist-conf': (
-    RedistributeConfig, ARGS_NONE, [SUBMIT_OPT],
+    RedistributeConfig, ARGS_NONE, [SUBMIT_OPT, DRY_RUN_OPT, PRIORITY_OPT],
     "", "Forces a push of the configuration file and ssconf files"
     " to the nodes in the cluster"),
   'verify': (
     VerifyCluster, ARGS_NONE,
-    [VERBOSE_OPT, DEBUG_SIMERR_OPT, ERROR_CODES_OPT, NONPLUS1_OPT],
+    [VERBOSE_OPT, DEBUG_SIMERR_OPT, ERROR_CODES_OPT, NONPLUS1_OPT,
+     DRY_RUN_OPT, PRIORITY_OPT],
     "", "Does a check on the cluster configuration"),
   'verify-disks': (
-    VerifyDisks, ARGS_NONE, [],
+    VerifyDisks, ARGS_NONE, [PRIORITY_OPT],
     "", "Does a check on the cluster disk status"),
   'repair-disk-sizes': (
-    RepairDiskSizes, ARGS_MANY_INSTANCES, [],
+    RepairDiskSizes, ARGS_MANY_INSTANCES, [DRY_RUN_OPT, PRIORITY_OPT],
     "", "Updates mismatches in recorded disk sizes"),
-  'masterfailover': (
+  'master-failover': (
     MasterFailover, ARGS_NONE, [NOVOTING_OPT],
     "", "Makes the current node the master"),
+  'master-ping': (
+    MasterPing, ARGS_NONE, [],
+    "", "Checks if the master is alive"),
   'version': (
     ShowClusterVersion, ARGS_NONE, [],
     "", "Shows the cluster version"),
@@ -789,19 +915,19 @@ commands = {
     [NODE_LIST_OPT],
     "[-n node...] <command>", "Runs a command on all (or only some) nodes"),
   'info': (
-    ShowClusterConfig, ARGS_NONE, [],
-    "", "Show cluster configuration"),
+    ShowClusterConfig, ARGS_NONE, [ROMAN_OPT],
+    "[--roman]", "Show cluster configuration"),
   'list-tags': (
     ListTags, ARGS_NONE, [], "", "List the tags of the cluster"),
   'add-tags': (
-    AddTags, [ArgUnknown()], [TAG_SRC_OPT],
+    AddTags, [ArgUnknown()], [TAG_SRC_OPT, PRIORITY_OPT],
     "tag...", "Add tags to the cluster"),
   'remove-tags': (
-    RemoveTags, [ArgUnknown()], [TAG_SRC_OPT],
+    RemoveTags, [ArgUnknown()], [TAG_SRC_OPT, PRIORITY_OPT],
     "tag...", "Remove tags from the cluster"),
   'search-tags': (
-    SearchTags, [ArgUnknown(min=1, max=1)],
-    [], "", "Searches the tags on all objects on"
+    SearchTags, [ArgUnknown(min=1, max=1)], [PRIORITY_OPT], "",
+    "Searches the tags on all objects on"
     " the cluster for a given pattern (regex)"),
   'queue': (
     QueueOps,
@@ -816,7 +942,10 @@ commands = {
   'modify': (
     SetClusterParams, ARGS_NONE,
     [BACKEND_OPT, CP_SIZE_OPT, ENABLED_HV_OPT, HVLIST_OPT,
-     NIC_PARAMS_OPT, NOLVM_STORAGE_OPT, VG_NAME_OPT, MAINTAIN_NODE_HEALTH_OPT],
+     NIC_PARAMS_OPT, NOLVM_STORAGE_OPT, VG_NAME_OPT, MAINTAIN_NODE_HEALTH_OPT,
+     UIDPOOL_OPT, ADD_UIDS_OPT, REMOVE_UIDS_OPT, DRBD_HELPER_OPT,
+     NODRBD_STORAGE_OPT, DEFAULT_IALLOCATOR_OPT, RESERVED_LVS_OPT,
+     DRY_RUN_OPT, PRIORITY_OPT],
     "[opts...]",
     "Alters the parameters of the cluster"),
   "renew-crypto": (
@@ -829,5 +958,12 @@ commands = {
   }
 
 
+#: dictionary with aliases for commands
+aliases = {
+  'masterfailover': 'master-failover',
+}
+
+
 if __name__ == '__main__':
-  sys.exit(GenericMain(commands, override={"tag_type": constants.TAG_CLUSTER}))
+  sys.exit(GenericMain(commands, override={"tag_type": constants.TAG_CLUSTER},
+                       aliases=aliases))