Rename the OpMigrate* parameter 'live' to 'mode'
[ganeti-local] / scripts / gnt-node
index 606b7c8..b3d911f 100755 (executable)
@@ -1,7 +1,7 @@
 #!/usr/bin/python
 #
 
-# Copyright (C) 2006, 2007, 2008 Google Inc.
+# Copyright (C) 2006, 2007, 2008, 2009, 2010 Google Inc.
 #
 # This program is free software; you can redistribute it and/or modify
 # it under the terms of the GNU General Public License as published by
 # Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA
 # 02110-1301, USA.
 
+"""Node related commands"""
 
-# pylint: disable-msg=W0401,W0614
+# pylint: disable-msg=W0401,W0613,W0614,C0103
 # W0401: Wildcard import ganeti.cli
+# W0613: Unused argument, since all functions follow the same API
 # W0614: Unused import %s from wildcard import (since we need cli)
+# C0103: Invalid name gnt-node
 
 import sys
-from optparse import make_option
 
 from ganeti.cli import *
-from ganeti import cli
 from ganeti import opcodes
 from ganeti import utils
 from ganeti import constants
+from ganeti import compat
 from ganeti import errors
 from ganeti import bootstrap
+from ganeti import netutils
 
 
 #: default list of field for L{ListNodes}
@@ -42,6 +45,19 @@ _LIST_DEF_FIELDS = [
   "pinst_cnt", "sinst_cnt",
   ]
 
+
+#: default list of field for L{ListStorage}
+_LIST_STOR_DEF_FIELDS = [
+  constants.SF_NODE,
+  constants.SF_TYPE,
+  constants.SF_NAME,
+  constants.SF_SIZE,
+  constants.SF_USED,
+  constants.SF_FREE,
+  constants.SF_ALLOCATABLE,
+  ]
+
+
 #: headers (and full field list for L{ListNodes}
 _LIST_HEADERS = {
   "name": "Node", "pinst_cnt": "Pinst", "sinst_cnt": "Sinst",
@@ -50,15 +66,63 @@ _LIST_HEADERS = {
   "dtotal": "DTotal", "dfree": "DFree",
   "mtotal": "MTotal", "mnode": "MNode", "mfree": "MFree",
   "bootid": "BootID",
-  "ctotal": "CTotal",
+  "ctotal": "CTotal", "cnodes": "CNodes", "csockets": "CSockets",
   "tags": "Tags",
   "serial_no": "SerialNo",
   "master_candidate": "MasterC",
   "master": "IsMaster",
-  "offline": "Offline",
+  "offline": "Offline", "drained": "Drained",
+  "role": "Role",
+  "ctime": "CTime", "mtime": "MTime", "uuid": "UUID"
   }
 
 
+#: headers (and full field list for L{ListStorage}
+_LIST_STOR_HEADERS = {
+  constants.SF_NODE: "Node",
+  constants.SF_TYPE: "Type",
+  constants.SF_NAME: "Name",
+  constants.SF_SIZE: "Size",
+  constants.SF_USED: "Used",
+  constants.SF_FREE: "Free",
+  constants.SF_ALLOCATABLE: "Allocatable",
+  }
+
+
+#: User-facing storage unit types
+_USER_STORAGE_TYPE = {
+  constants.ST_FILE: "file",
+  constants.ST_LVM_PV: "lvm-pv",
+  constants.ST_LVM_VG: "lvm-vg",
+  }
+
+_STORAGE_TYPE_OPT = \
+  cli_option("-t", "--storage-type",
+             dest="user_storage_type",
+             choices=_USER_STORAGE_TYPE.keys(),
+             default=None,
+             metavar="STORAGE_TYPE",
+             help=("Storage type (%s)" %
+                   utils.CommaJoin(_USER_STORAGE_TYPE.keys())))
+
+_REPAIRABLE_STORAGE_TYPES = \
+  [st for st, so in constants.VALID_STORAGE_OPERATIONS.iteritems()
+   if constants.SO_FIX_CONSISTENCY in so]
+
+_MODIFIABLE_STORAGE_TYPES = constants.MODIFIABLE_STORAGE_FIELDS.keys()
+
+
+def ConvertStorageType(user_storage_type):
+  """Converts a user storage type to its internal name.
+
+  """
+  try:
+    return _USER_STORAGE_TYPE[user_storage_type]
+  except KeyError:
+    raise errors.OpPrereqError("Unknown storage type: %s" % user_storage_type,
+                               errors.ECODE_INVAL)
+
+
 @UsesRPC
 def AddNode(opts, args):
   """Add a node to the cluster.
@@ -71,35 +135,47 @@ def AddNode(opts, args):
 
   """
   cl = GetClient()
-  dns_data = utils.HostInfo(args[0])
+  dns_data = netutils.GetHostInfo(netutils.HostInfo.NormalizeName(args[0]))
   node = dns_data.name
-
-  if not opts.readd:
-    try:
-      output = cl.QueryNodes(names=[node], fields=['name'], use_locking=True)
-    except (errors.OpPrereqError, errors.OpExecError):
-      pass
-    else:
+  readd = opts.readd
+
+  try:
+    output = cl.QueryNodes(names=[node], fields=['name', 'sip'],
+                           use_locking=False)
+    node_exists, sip = output[0]
+  except (errors.OpPrereqError, errors.OpExecError):
+    node_exists = ""
+    sip = None
+
+  if readd:
+    if not node_exists:
+      ToStderr("Node %s not in the cluster"
+               " - please retry without '--readd'", node)
+      return 1
+  else:
+    if node_exists:
       ToStderr("Node %s already in the cluster (as %s)"
-               " - please use --readd", args[0], output[0][0])
+               " - please retry with '--readd'", node, node_exists)
       return 1
+    sip = opts.secondary_ip
 
   # read the cluster name from the master
   output = cl.QueryConfigValues(['cluster_name'])
   cluster_name = output[0]
 
-  ToStderr("-- WARNING -- \n"
-           "Performing this operation is going to replace the ssh daemon"
-           " keypair\n"
-           "on the target machine (%s) with the ones of the"
-           " current one\n"
-           "and grant full intra-cluster ssh root access to/from it\n", node)
+  if not readd:
+    ToStderr("-- WARNING -- \n"
+             "Performing this operation is going to replace the ssh daemon"
+             " keypair\n"
+             "on the target machine (%s) with the ones of the"
+             " current one\n"
+             "and grant full intra-cluster ssh root access to/from it\n", node)
 
   bootstrap.SetupNodeDaemon(cluster_name, node, opts.ssh_key_check)
 
-  op = opcodes.OpAddNode(node_name=args[0], secondary_ip=opts.secondary_ip,
+  op = opcodes.OpAddNode(node_name=args[0], secondary_ip=sip,
                          readd=opts.readd)
-  SubmitOpCode(op)
+  SubmitOpCode(op, opts=opts)
 
 
 def ListNodes(opts, args):
@@ -119,7 +195,7 @@ def ListNodes(opts, args):
   else:
     selected_fields = opts.output.split(",")
 
-  output = GetClient().QueryNodes([], selected_fields, opts.do_locking)
+  output = GetClient().QueryNodes(args, selected_fields, opts.do_locking)
 
   if not opts.no_headers:
     headers = _LIST_HEADERS
@@ -140,13 +216,17 @@ def ListNodes(opts, args):
       val = row[idx]
       if field in list_type_fields:
         val = ",".join(val)
-      elif field in ('master', 'master_candidate', 'offline'):
+      elif field in ('master', 'master_candidate', 'offline', 'drained'):
         if val:
           val = 'Y'
         else:
           val = 'N'
+      elif field == "ctime" or field == "mtime":
+        val = utils.FormatTime(val)
       elif val is None:
         val = "?"
+      elif opts.roman_integers and isinstance(val, int):
+        val = compat.TryToRoman(val)
       row[idx] = str(val)
 
   data = GenerateTable(separator=opts.separator, headers=headers,
@@ -174,53 +254,42 @@ def EvacuateNode(opts, args):
   dst_node = opts.dst_node
   iallocator = opts.iallocator
 
-  cnt = [dst_node, iallocator].count(None)
-  if cnt != 1:
-    raise errors.OpPrereqError("One and only one of the -n and -i"
-                               " options must be passed")
+  op = opcodes.OpNodeEvacuationStrategy(nodes=args,
+                                        iallocator=iallocator,
+                                        remote_node=dst_node)
 
-  selected_fields = ["name", "sinst_list"]
-  src_node = args[0]
-
-  result = cl.QueryNodes(names=[src_node], fields=selected_fields,
-                         use_locking=True)
-  src_node, sinst = result[0]
-
-  if not sinst:
-    ToStderr("No secondary instances on node %s, exiting.", src_node)
+  result = SubmitOpCode(op, cl=cl, opts=opts)
+  if not result:
+    # no instances to migrate
+    ToStderr("No secondary instances on node(s) %s, exiting.",
+             utils.CommaJoin(args))
     return constants.EXIT_SUCCESS
 
-  if dst_node is not None:
-    result = cl.QueryNodes(names=[dst_node], fields=["name"], use_locking=True)
-    dst_node = result[0][0]
-
-    if src_node == dst_node:
-      raise errors.OpPrereqError("Evacuate node needs different source and"
-                                 " target nodes (node %s given twice)" %
-                                 src_node)
-    txt_msg = "to node %s" % dst_node
-  else:
-    txt_msg = "using iallocator %s" % iallocator
-
-  sinst = utils.NiceSort(sinst)
-
-  if not force and not AskUser("Relocate instance(s) %s from node\n"
-                               " %s %s?" %
-                               (",".join("'%s'" % name for name in sinst),
-                               src_node, txt_msg)):
+  if not force and not AskUser("Relocate instance(s) %s from node(s) %s?" %
+                               (",".join("'%s'" % name[0] for name in result),
+                               utils.CommaJoin(args))):
     return constants.EXIT_CONFIRMATION
 
-  ops = []
-  for iname in sinst:
+  jex = JobExecutor(cl=cl, opts=opts)
+  for row in result:
+    iname = row[0]
+    node = row[1]
+    ToStdout("Will relocate instance %s to node %s", iname, node)
     op = opcodes.OpReplaceDisks(instance_name=iname,
-                                remote_node=dst_node,
+                                remote_node=node, disks=[],
                                 mode=constants.REPLACE_DISK_CHG,
-                                iallocator=iallocator,
-                                disks=[])
-    ops.append(op)
-
-  job_id = cli.SendJob(ops, cl=cl)
-  cli.PollJob(job_id, cl=cl)
+                                early_release=opts.early_release)
+    jex.QueueJob(iname, op)
+  results = jex.GetResults()
+  bad_cnt = len([row for row in results if not row[0]])
+  if bad_cnt == 0:
+    ToStdout("All %d instance(s) failed over successfully.", len(results))
+    rcode = constants.EXIT_SUCCESS
+  else:
+    ToStdout("There were errors during the failover:\n"
+             "%d error(s) out of %d instance(s).", bad_cnt, len(results))
+    rcode = constants.EXIT_FAILURE
+  return rcode
 
 
 def FailoverNode(opts, args):
@@ -240,7 +309,7 @@ def FailoverNode(opts, args):
   # these fields are static data anyway, so it doesn't matter, but
   # locking=True should be safer
   result = cl.QueryNodes(names=args, fields=selected_fields,
-                         use_locking=True)
+                         use_locking=False)
   node, pinst = result[0]
 
   if not pinst:
@@ -255,7 +324,7 @@ def FailoverNode(opts, args):
                                (",".join("'%s'" % name for name in pinst))):
     return 2
 
-  jex = JobExecutor(cl=cl)
+  jex = JobExecutor(cl=cl, opts=opts)
   for iname in pinst:
     op = opcodes.OpFailoverInstance(instance_name=iname,
                                     ignore_consistency=opts.ignore_consistency)
@@ -278,7 +347,7 @@ def MigrateNode(opts, args):
   force = opts.force
   selected_fields = ["name", "pinst_list"]
 
-  result = cl.QueryNodes(names=args, fields=selected_fields, use_locking=True)
+  result = cl.QueryNodes(names=args, fields=selected_fields, use_locking=False)
   node, pinst = result[0]
 
   if not pinst:
@@ -287,26 +356,21 @@ def MigrateNode(opts, args):
 
   pinst = utils.NiceSort(pinst)
 
-  retcode = 0
-
   if not force and not AskUser("Migrate instance(s) %s?" %
                                (",".join("'%s'" % name for name in pinst))):
     return 2
 
-  jex = JobExecutor(cl=cl)
-  for iname in pinst:
-    op = opcodes.OpMigrateInstance(instance_name=iname, live=opts.live,
-                                   cleanup=False)
-    jex.QueueJob(iname, op)
-
-  results = jex.GetResults()
-  bad_cnt = len([row for row in results if not row[0]])
-  if bad_cnt == 0:
-    ToStdout("All %d instance(s) migrated successfully.", len(results))
+  # this should be removed once --non-live is deprecated
+  if not opts.live and opts.migration_mode is not None:
+    raise errors.OpPrereqError("Only one of the --non-live and "
+                               "--migration-mode options can be passed",
+                               errors.ECODE_INVAL)
+  if not opts.live: # --non-live passed
+    mode = constants.HT_MIGRATION_NONLIVE
   else:
-    ToStdout("There were errors during the migration:\n"
-             "%d error(s) out of %d instance(s).", bad_cnt, len(results))
-  return retcode
+    mode = opts.migration_mode
+  op = opcodes.OpMigrateNode(node_name=args[0], mode=mode)
+  SubmitOpCode(op, cl=cl, opts=opts)
 
 
 def ShowNodeConfig(opts, args):
@@ -323,22 +387,27 @@ def ShowNodeConfig(opts, args):
   """
   cl = GetClient()
   result = cl.QueryNodes(fields=["name", "pip", "sip",
-                                 "pinst_list", "sinst_list"],
-                         names=args, use_locking=True)
+                                 "pinst_list", "sinst_list",
+                                 "master_candidate", "drained", "offline"],
+                         names=args, use_locking=False)
 
-  for name, primary_ip, secondary_ip, pinst, sinst in result:
+  for (name, primary_ip, secondary_ip, pinst, sinst,
+       is_mc, drained, offline) in result:
     ToStdout("Node name: %s", name)
     ToStdout("  primary ip: %s", primary_ip)
     ToStdout("  secondary ip: %s", secondary_ip)
+    ToStdout("  master candidate: %s", is_mc)
+    ToStdout("  drained: %s", drained)
+    ToStdout("  offline: %s", offline)
     if pinst:
       ToStdout("  primary for instances:")
-      for iname in pinst:
+      for iname in utils.NiceSort(pinst):
         ToStdout("    - %s", iname)
     else:
       ToStdout("  primary for no instances")
     if sinst:
       ToStdout("  secondary for instances:")
-      for iname in sinst:
+      for iname in utils.NiceSort(sinst):
         ToStdout("    - %s", iname)
     else:
       ToStdout("  secondary for no instances")
@@ -358,7 +427,29 @@ def RemoveNode(opts, args):
 
   """
   op = opcodes.OpRemoveNode(node_name=args[0])
-  SubmitOpCode(op)
+  SubmitOpCode(op, opts=opts)
+  return 0
+
+
+def PowercycleNode(opts, args):
+  """Remove a node from the cluster.
+
+  @param opts: the command line options selected by the user
+  @type args: list
+  @param args: should contain only one element, the name of
+      the node to be removed
+  @rtype: int
+  @return: the desired exit code
+
+  """
+  node = args[0]
+  if (not opts.confirm and
+      not AskUser("Are you sure you want to hard powercycle node %s?" % node)):
+    return 2
+
+  op = opcodes.OpPowercycleNode(node_name=node, force=opts.force)
+  result = SubmitOpCode(op, opts=opts)
+  ToStderr(result)
   return 0
 
 
@@ -381,7 +472,7 @@ def ListVolumes(opts, args):
     selected_fields = opts.output.split(",")
 
   op = opcodes.OpQueryNodeVolumes(nodes=args, output_fields=selected_fields)
-  output = SubmitOpCode(op)
+  output = SubmitOpCode(op, opts=opts)
 
   if not opts.no_headers:
     headers = {"node": "Node", "phys": "PhysDev",
@@ -404,6 +495,123 @@ def ListVolumes(opts, args):
   return 0
 
 
+def ListStorage(opts, args):
+  """List physical volumes on node(s).
+
+  @param opts: the command line options selected by the user
+  @type args: list
+  @param args: should either be an empty list, in which case
+      we list data for all nodes, or contain a list of nodes
+      to display data only for those
+  @rtype: int
+  @return: the desired exit code
+
+  """
+  # TODO: Default to ST_FILE if LVM is disabled on the cluster
+  if opts.user_storage_type is None:
+    opts.user_storage_type = constants.ST_LVM_PV
+
+  storage_type = ConvertStorageType(opts.user_storage_type)
+
+  if opts.output is None:
+    selected_fields = _LIST_STOR_DEF_FIELDS
+  elif opts.output.startswith("+"):
+    selected_fields = _LIST_STOR_DEF_FIELDS + opts.output[1:].split(",")
+  else:
+    selected_fields = opts.output.split(",")
+
+  op = opcodes.OpQueryNodeStorage(nodes=args,
+                                  storage_type=storage_type,
+                                  output_fields=selected_fields)
+  output = SubmitOpCode(op, opts=opts)
+
+  if not opts.no_headers:
+    headers = {
+      constants.SF_NODE: "Node",
+      constants.SF_TYPE: "Type",
+      constants.SF_NAME: "Name",
+      constants.SF_SIZE: "Size",
+      constants.SF_USED: "Used",
+      constants.SF_FREE: "Free",
+      constants.SF_ALLOCATABLE: "Allocatable",
+      }
+  else:
+    headers = None
+
+  unitfields = [constants.SF_SIZE, constants.SF_USED, constants.SF_FREE]
+  numfields = [constants.SF_SIZE, constants.SF_USED, constants.SF_FREE]
+
+  # change raw values to nicer strings
+  for row in output:
+    for idx, field in enumerate(selected_fields):
+      val = row[idx]
+      if field == constants.SF_ALLOCATABLE:
+        if val:
+          val = "Y"
+        else:
+          val = "N"
+      row[idx] = str(val)
+
+  data = GenerateTable(separator=opts.separator, headers=headers,
+                       fields=selected_fields, unitfields=unitfields,
+                       numfields=numfields, data=output, units=opts.units)
+
+  for line in data:
+    ToStdout(line)
+
+  return 0
+
+
+def ModifyStorage(opts, args):
+  """Modify storage volume on a node.
+
+  @param opts: the command line options selected by the user
+  @type args: list
+  @param args: should contain 3 items: node name, storage type and volume name
+  @rtype: int
+  @return: the desired exit code
+
+  """
+  (node_name, user_storage_type, volume_name) = args
+
+  storage_type = ConvertStorageType(user_storage_type)
+
+  changes = {}
+
+  if opts.allocatable is not None:
+    changes[constants.SF_ALLOCATABLE] = opts.allocatable
+
+  if changes:
+    op = opcodes.OpModifyNodeStorage(node_name=node_name,
+                                     storage_type=storage_type,
+                                     name=volume_name,
+                                     changes=changes)
+    SubmitOpCode(op, opts=opts)
+  else:
+    ToStderr("No changes to perform, exiting.")
+
+
+def RepairStorage(opts, args):
+  """Repairs a storage volume on a node.
+
+  @param opts: the command line options selected by the user
+  @type args: list
+  @param args: should contain 3 items: node name, storage type and volume name
+  @rtype: int
+  @return: the desired exit code
+
+  """
+  (node_name, user_storage_type, volume_name) = args
+
+  storage_type = ConvertStorageType(user_storage_type)
+
+  op = opcodes.OpRepairNodeStorage(node_name=node_name,
+                                   storage_type=storage_type,
+                                   name=volume_name,
+                                   ignore_consistency=opts.ignore_consistency)
+  SubmitOpCode(op, opts=opts)
+
+
 def SetNodeParams(opts, args):
   """Modifies a node.
 
@@ -414,22 +622,16 @@ def SetNodeParams(opts, args):
   @return: the desired exit code
 
   """
-  if opts.master_candidate is None and opts.offline is None:
+  if [opts.master_candidate, opts.drained, opts.offline].count(None) == 3:
     ToStderr("Please give at least one of the parameters.")
     return 1
 
-  if opts.master_candidate is not None:
-    candidate = opts.master_candidate == 'yes'
-  else:
-    candidate = None
-  if opts.offline is not None:
-    offline = opts.offline == 'yes'
-  else:
-    offline = None
   op = opcodes.OpSetNodeParams(node_name=args[0],
-                               master_candidate=candidate,
-                               offline=offline,
-                               force=opts.force)
+                               master_candidate=opts.master_candidate,
+                               offline=opts.offline,
+                               drained=opts.drained,
+                               force=opts.force,
+                               auto_promote=opts.auto_promote)
 
   # even if here we process the result, we allow submit only
   result = SubmitOrSend(op, opts)
@@ -442,87 +644,83 @@ def SetNodeParams(opts, args):
 
 
 commands = {
-  'add': (AddNode, ARGS_ONE,
-          [DEBUG_OPT,
-           make_option("-s", "--secondary-ip", dest="secondary_ip",
-                       help="Specify the secondary ip for the node",
-                       metavar="ADDRESS", default=None),
-           make_option("--readd", dest="readd",
-                       default=False, action="store_true",
-                       help="Readd old node after replacing it"),
-           make_option("--no-ssh-key-check", dest="ssh_key_check",
-                       default=True, action="store_false",
-                       help="Disable SSH key fingerprint checking"),
-           ],
-          "[-s ip] [--readd] [--no-ssh-key-check] <node_name>",
-          "Add a node to the cluster"),
-  'evacuate': (EvacuateNode, ARGS_ONE,
-               [DEBUG_OPT, FORCE_OPT,
-                make_option("-n", "--new-secondary", dest="dst_node",
-                            help="New secondary node", metavar="NODE",
-                            default=None),
-                make_option("-i", "--iallocator", metavar="<NAME>",
-                            help="Select new secondary for the instance"
-                            " automatically using the"
-                            " <NAME> iallocator plugin",
-                            default=None, type="string"),
-                ],
-               "[-f] {-i <iallocator> | -n <dst>} <node>",
-               "Relocate the secondary instances from a node"
-               " to other nodes (only for instances with drbd disk template)"),
-  'failover': (FailoverNode, ARGS_ONE,
-               [DEBUG_OPT, FORCE_OPT,
-                make_option("--ignore-consistency", dest="ignore_consistency",
-                            action="store_true", default=False,
-                            help="Ignore the consistency of the disks on"
-                            " the secondary"),
-                ],
-               "[-f] <node>",
-               "Stops the primary instances on a node and start them on their"
-               " secondary node (only for instances with drbd disk template)"),
-  'migrate': (MigrateNode, ARGS_ONE,
-               [DEBUG_OPT, FORCE_OPT,
-                make_option("--non-live", dest="live",
-                            default=True, action="store_false",
-                            help="Do a non-live migration (this usually means"
-                            " freeze the instance, save the state,"
-                            " transfer and only then resume running on the"
-                            " secondary node)"),
-                ],
-               "[-f] <node>",
-               "Migrate all the primary instance on a node away from it"
-               " (only for instances of type drbd)"),
-  'info': (ShowNodeConfig, ARGS_ANY, [DEBUG_OPT],
-           "[<node_name>...]", "Show information about the node(s)"),
-  'list': (ListNodes, ARGS_NONE,
-           [DEBUG_OPT, NOHDR_OPT, SEP_OPT, USEUNITS_OPT, FIELDS_OPT,
-            SUBMIT_OPT, SYNC_OPT],
-           "", "Lists the nodes in the cluster. The available fields"
-           " are (see the man page for details): %s"
-           " The default field list is (in order): %s." %
-           (", ".join(_LIST_HEADERS), ", ".join(_LIST_DEF_FIELDS))),
-  'modify': (SetNodeParams, ARGS_ONE,
-             [DEBUG_OPT, FORCE_OPT,
-              SUBMIT_OPT,
-              make_option("-C", "--master-candidate", dest="master_candidate",
-                          choices=('yes', 'no'), default=None,
-                          help="Set the master_candidate flag on the node"),
-              make_option("-O", "--offline", dest="offline",
-                          choices=('yes', 'no'), default=None,
-                          help="Set the offline flag on the node"),
-              ],
-             "<instance>", "Alters the parameters of an instance"),
-  'remove': (RemoveNode, ARGS_ONE, [DEBUG_OPT],
-             "<node_name>", "Removes a node from the cluster"),
-  'volumes': (ListVolumes, ARGS_ANY,
-              [DEBUG_OPT, NOHDR_OPT, SEP_OPT, USEUNITS_OPT, FIELDS_OPT],
-              "[<node_name>...]", "List logical volumes on node(s)"),
-  'list-tags': (ListTags, ARGS_ONE, [DEBUG_OPT],
-                "<node_name>", "List the tags of the given node"),
-  'add-tags': (AddTags, ARGS_ATLEAST(1), [DEBUG_OPT, TAG_SRC_OPT],
-               "<node_name> tag...", "Add tags to the given node"),
-  'remove-tags': (RemoveTags, ARGS_ATLEAST(1), [DEBUG_OPT, TAG_SRC_OPT],
-                  "<node_name> tag...", "Remove tags from the given node"),
+  'add': (
+    AddNode, [ArgHost(min=1, max=1)],
+    [SECONDARY_IP_OPT, READD_OPT, NOSSH_KEYCHECK_OPT],
+    "[-s ip] [--readd] [--no-ssh-key-check] <node_name>",
+    "Add a node to the cluster"),
+  'evacuate': (
+    EvacuateNode, [ArgNode(min=1)],
+    [FORCE_OPT, IALLOCATOR_OPT, NEW_SECONDARY_OPT, EARLY_RELEASE_OPT],
+    "[-f] {-I <iallocator> | -n <dst>} <node>",
+    "Relocate the secondary instances from a node"
+    " to other nodes (only for instances with drbd disk template)"),
+  'failover': (
+    FailoverNode, ARGS_ONE_NODE, [FORCE_OPT, IGNORE_CONSIST_OPT],
+    "[-f] <node>",
+    "Stops the primary instances on a node and start them on their"
+    " secondary node (only for instances with drbd disk template)"),
+  'migrate': (
+    MigrateNode, ARGS_ONE_NODE, [FORCE_OPT, NONLIVE_OPT, MIGRATION_MODE_OPT],
+    "[-f] <node>",
+    "Migrate all the primary instance on a node away from it"
+    " (only for instances of type drbd)"),
+  'info': (
+    ShowNodeConfig, ARGS_MANY_NODES, [],
+    "[<node_name>...]", "Show information about the node(s)"),
+  'list': (
+    ListNodes, ARGS_MANY_NODES,
+    [NOHDR_OPT, SEP_OPT, USEUNITS_OPT, FIELDS_OPT, SYNC_OPT, ROMAN_OPT],
+    "[nodes...]",
+    "Lists the nodes in the cluster. The available fields are (see the man"
+    " page for details): %s. The default field list is (in order): %s." %
+    (utils.CommaJoin(_LIST_HEADERS), utils.CommaJoin(_LIST_DEF_FIELDS))),
+  'modify': (
+    SetNodeParams, ARGS_ONE_NODE,
+    [FORCE_OPT, SUBMIT_OPT, MC_OPT, DRAINED_OPT, OFFLINE_OPT,
+     AUTO_PROMOTE_OPT],
+    "<node_name>", "Alters the parameters of a node"),
+  'powercycle': (
+    PowercycleNode, ARGS_ONE_NODE,
+    [FORCE_OPT, CONFIRM_OPT],
+    "<node_name>", "Tries to forcefully powercycle a node"),
+  'remove': (
+    RemoveNode, ARGS_ONE_NODE, [],
+    "<node_name>", "Removes a node from the cluster"),
+  'volumes': (
+    ListVolumes, [ArgNode()],
+    [NOHDR_OPT, SEP_OPT, USEUNITS_OPT, FIELDS_OPT],
+    "[<node_name>...]", "List logical volumes on node(s)"),
+  'list-storage': (
+    ListStorage, ARGS_MANY_NODES,
+    [NOHDR_OPT, SEP_OPT, USEUNITS_OPT, FIELDS_OPT, _STORAGE_TYPE_OPT],
+    "[<node_name>...]", "List physical volumes on node(s). The available"
+    " fields are (see the man page for details): %s." %
+    (utils.CommaJoin(_LIST_STOR_HEADERS))),
+  'modify-storage': (
+    ModifyStorage,
+    [ArgNode(min=1, max=1),
+     ArgChoice(min=1, max=1, choices=_MODIFIABLE_STORAGE_TYPES),
+     ArgFile(min=1, max=1)],
+    [ALLOCATABLE_OPT],
+    "<node_name> <storage_type> <name>", "Modify storage volume on a node"),
+  'repair-storage': (
+    RepairStorage,
+    [ArgNode(min=1, max=1),
+     ArgChoice(min=1, max=1, choices=_REPAIRABLE_STORAGE_TYPES),
+     ArgFile(min=1, max=1)],
+    [IGNORE_CONSIST_OPT],
+    "<node_name> <storage_type> <name>",
+    "Repairs a storage volume on a node"),
+  'list-tags': (
+    ListTags, ARGS_ONE_NODE, [],
+    "<node_name>", "List the tags of the given node"),
+  'add-tags': (
+    AddTags, [ArgNode(min=1, max=1), ArgUnknown()], [TAG_SRC_OPT],
+    "<node_name> tag...", "Add tags to the given node"),
+  'remove-tags': (
+    RemoveTags, [ArgNode(min=1, max=1), ArgUnknown()], [TAG_SRC_OPT],
+    "<node_name> tag...", "Remove tags from the given node"),
   }