Make root_path an optional hypervisor parameter
[ganeti-local] / man / gnt-instance.rst
1 gnt-instance(8) Ganeti | Version @GANETI_VERSION@
2 =================================================
3
4 Name
5 ----
6
7 gnt-instance - Ganeti instance administration
8
9 Synopsis
10 --------
11
12 **gnt-instance** {command} [arguments...]
13
14 DESCRIPTION
15 -----------
16
17 The **gnt-instance** command is used for instance administration in
18 the Ganeti system.
19
20 COMMANDS
21 --------
22
23 Creation/removal/querying
24 ~~~~~~~~~~~~~~~~~~~~~~~~~
25
26 ADD
27 ^^^
28
29 | **add**
30 | {-t|--disk-template {diskless | file \| plain \| drbd}}
31 | {--disk=*N*: {size=*VAL* \| adopt=*LV*}[,vg=*VG*][,metavg=*VG*][,mode=*ro\|rw*]
32 |  \| {-s|--os-size} *SIZE*}
33 | [--no-ip-check] [--no-name-check] [--no-start] [--no-install]
34 | [--net=*N* [:options...] \| --no-nics]
35 | [{-B|--backend-parameters} *BEPARAMS*]
36 | [{-H|--hypervisor-parameters} *HYPERVISOR* [: option=*value*... ]]
37 | [{-O|--os-parameters} *param*=*value*... ]
38 | [--file-storage-dir *dir\_path*] [--file-driver {loop \| blktap}]
39 | {{-n|--node} *node[:secondary-node]* \| {-I|--iallocator} *name*}
40 | {{-o|--os-type} *os-type*}
41 | [--submit]
42 | {*instance*}
43
44 Creates a new instance on the specified host. The *instance* argument
45 must be in DNS, but depending on the bridge/routing setup, need not be
46 in the same network as the nodes in the cluster.
47
48 The ``disk`` option specifies the parameters for the disks of the
49 instance. The numbering of disks starts at zero, and at least one disk
50 needs to be passed. For each disk, either the size or the adoption
51 source needs to be given, and optionally the access mode (read-only or
52 the default of read-write) and the LVM volume group can also be
53 specified (via the ``vg`` key). For DRBD devices, a different VG can
54 be specified for the metadata device using the ``metavg`` key.  The
55 size is interpreted (when no unit is given) in mebibytes. You can also
56 use one of the suffixes *m*, *g* or *t* to specify the exact the units
57 used; these suffixes map to mebibytes, gibibytes and tebibytes.
58
59 When using the ``adopt`` key in the disk definition, Ganeti will
60 reuse those volumes (instead of creating new ones) as the
61 instance's disks. Ganeti will rename these volumes to the standard
62 format, and (without installing the OS) will use them as-is for the
63 instance. This allows migrating instances from non-managed mode
64 (e.q. plain KVM with LVM) to being managed via Ganeti. Note that
65 this works only for the \`plain' disk template (see below for
66 template details).
67
68 Alternatively, a single-disk instance can be created via the ``-s``
69 option which takes a single argument, the size of the disk. This is
70 similar to the Ganeti 1.2 version (but will only create one disk).
71
72 The minimum disk specification is therefore ``--disk 0:size=20G`` (or
73 ``-s 20G`` when using the ``-s`` option), and a three-disk instance
74 can be specified as ``--disk 0:size=20G --disk 1:size=4G --disk
75 2:size=100G``.
76
77 The ``--no-ip-check`` skips the checks that are done to see if the
78 instance's IP is not already alive (i.e. reachable from the master
79 node).
80
81 The ``--no-name-check`` skips the check for the instance name via
82 the resolver (e.g. in DNS or /etc/hosts, depending on your setup).
83 Since the name check is used to compute the IP address, if you pass
84 this option you must also pass the ``--no-ip-check`` option.
85
86 If you don't wat the instance to automatically start after
87 creation, this is possible via the ``--no-start`` option. This will
88 leave the instance down until a subsequent **gnt-instance start**
89 command.
90
91 The NICs of the instances can be specified via the ``--net``
92 option. By default, one NIC is created for the instance, with a
93 random MAC, and set up according the the cluster level nic
94 parameters. Each NIC can take these parameters (all optional):
95
96 mac
97     either a value or 'generate' to generate a new unique MAC
98
99 ip
100     specifies the IP address assigned to the instance from the Ganeti
101     side (this is not necessarily what the instance will use, but what
102     the node expects the instance to use)
103
104 mode
105     specifies the connection mode for this nic: routed or bridged.
106
107 link
108     in bridged mode specifies the bridge to attach this NIC to, in
109     routed mode it's intended to differentiate between different
110     routing tables/instance groups (but the meaning is dependent on
111     the network script, see gnt-cluster(8) for more details)
112
113
114 Of these "mode" and "link" are nic parameters, and inherit their
115 default at cluster level.  Alternatively, if no network is desired for
116 the instance, you can prevent the default of one NIC with the
117 ``--no-nics`` option.
118
119 The ``-o (--os-type)`` option specifies the operating system to be
120 installed.  The available operating systems can be listed with
121 **gnt-os list**.  Passing ``--no-install`` will however skip the OS
122 installation, allowing a manual import if so desired. Note that the
123 no-installation mode will automatically disable the start-up of the
124 instance (without an OS, it most likely won't be able to start-up
125 successfully).
126
127 The ``-B (--backend-parameters)`` option specifies the backend
128 parameters for the instance. If no such parameters are specified, the
129 values are inherited from the cluster. Possible parameters are:
130
131 memory
132     the memory size of the instance; as usual, suffixes can be used to
133     denote the unit, otherwise the value is taken in mebibites
134
135 vcpus
136     the number of VCPUs to assign to the instance (if this value makes
137     sense for the hypervisor)
138
139 auto\_balance
140     whether the instance is considered in the N+1 cluster checks
141     (enough redundancy in the cluster to survive a node failure)
142
143
144 The ``-H (--hypervisor-parameters)`` option specified the hypervisor
145 to use for the instance (must be one of the enabled hypervisors on the
146 cluster) and optionally custom parameters for this instance. If not
147 other options are used (i.e. the invocation is just -H *NAME*) the
148 instance will inherit the cluster options. The defaults below show the
149 cluster defaults at cluster creation time.
150
151 The possible hypervisor options are as follows:
152
153 boot\_order
154     Valid for the Xen HVM and KVM hypervisors.
155
156     A string value denoting the boot order. This has different meaning
157     for the Xen HVM hypervisor and for the KVM one.
158
159     For Xen HVM, The boot order is a string of letters listing the boot
160     devices, with valid device letters being:
161
162     a
163         floppy drive
164
165     c
166         hard disk
167
168     d
169         CDROM drive
170
171     n
172         network boot (PXE)
173
174     The default is not to set an HVM boot order which is interpreted
175     as 'dc'.
176
177     For KVM the boot order is either "floppy", "cdrom", "disk" or
178     "network".  Please note that older versions of KVM couldn't
179     netboot from virtio interfaces. This has been fixed in more recent
180     versions and is confirmed to work at least with qemu-kvm 0.11.1.
181
182 blockdev\_prefix
183     Valid for the Xen HVM and PVM hypervisors.
184
185     Relevant to nonpvops guest kernels, in which the disk device names
186     are given by the host.  Allows to specify 'xvd', which helps run
187     Red Hat based installers, driven by anaconda.
188
189 floppy\_image\_path
190     Valid for the KVM hypervisor.
191
192     The path to a floppy disk image to attach to the instance.  This
193     is useful to install Windows operating systems on Virt/IO disks
194     because you can specify here the floppy for the drivers at
195     installation time.
196
197 cdrom\_image\_path
198     Valid for the Xen HVM and KVM hypervisors.
199
200     The path to a CDROM image to attach to the instance.
201
202 cdrom2\_image\_path
203     Valid for the KVM hypervisor.
204
205     The path to a second CDROM image to attach to the instance.
206     **NOTE**: This image can't be used to boot the system. To do that
207     you have to use the 'cdrom\_image\_path' option.
208
209 nic\_type
210     Valid for the Xen HVM and KVM hypervisors.
211
212     This parameter determines the way the network cards are presented
213     to the instance. The possible options are:
214
215     - rtl8139 (default for Xen HVM) (HVM & KVM)
216     - ne2k\_isa (HVM & KVM)
217     - ne2k\_pci (HVM & KVM)
218     - i82551 (KVM)
219     - i82557b (KVM)
220     - i82559er (KVM)
221     - pcnet (KVM)
222     - e1000 (KVM)
223     - paravirtual (default for KVM) (HVM & KVM)
224
225 disk\_type
226     Valid for the Xen HVM and KVM hypervisors.
227
228     This parameter determines the way the disks are presented to the
229     instance. The possible options are:
230
231     - ioemu [default] (HVM & KVM)
232     - ide (HVM & KVM)
233     - scsi (KVM)
234     - sd (KVM)
235     - mtd (KVM)
236     - pflash (KVM)
237
238
239 cdrom\_disk\_type
240     Valid for the KVM hypervisor.
241
242     This parameter determines the way the cdroms disks are presented
243     to the instance. The default behavior is to get the same value of
244     the eariler parameter (disk_type). The possible options are:
245
246     - paravirtual
247     - ide
248     - scsi
249     - sd
250     - mtd
251     - pflash
252
253
254 vnc\_bind\_address
255     Valid for the Xen HVM and KVM hypervisors.
256
257     Specifies the address that the VNC listener for this instance
258     should bind to. Valid values are IPv4 addresses. Use the address
259     0.0.0.0 to bind to all available interfaces (this is the default)
260     or specify the address of one of the interfaces on the node to
261     restrict listening to that interface.
262
263 vnc\_tls
264     Valid for the KVM hypervisor.
265
266     A boolean option that controls whether the VNC connection is
267     secured with TLS.
268
269 vnc\_x509\_path
270     Valid for the KVM hypervisor.
271
272     If ``vnc_tls`` is enabled, this options specifies the path to the
273     x509 certificate to use.
274
275 vnc\_x509\_verify
276     Valid for the KVM hypervisor.
277
278 acpi
279     Valid for the Xen HVM and KVM hypervisors.
280
281     A boolean option that specifies if the hypervisor should enable
282     ACPI support for this instance. By default, ACPI is disabled.
283
284 pae
285     Valid for the Xen HVM and KVM hypervisors.
286
287     A boolean option that specifies if the hypervisor should enabled
288     PAE support for this instance. The default is false, disabling PAE
289     support.
290
291 use\_localtime
292     Valid for the Xen HVM and KVM hypervisors.
293
294     A boolean option that specifies if the instance should be started
295     with its clock set to the localtime of the machine (when true) or
296     to the UTC (When false). The default is false, which is useful for
297     Linux/Unix machines; for Windows OSes, it is recommended to enable
298     this parameter.
299
300 kernel\_path
301     Valid for the Xen PVM and KVM hypervisors.
302
303     This option specifies the path (on the node) to the kernel to boot
304     the instance with. Xen PVM instances always require this, while
305     for KVM if this option is empty, it will cause the machine to load
306     the kernel from its disks.
307
308 kernel\_args
309     Valid for the Xen PVM and KVM hypervisors.
310
311     This options specifies extra arguments to the kernel that will be
312     loaded. device. This is always used for Xen PVM, while for KVM it
313     is only used if the ``kernel_path`` option is also specified.
314
315     The default setting for this value is simply ``"ro"``, which
316     mounts the root disk (initially) in read-only one. For example,
317     setting this to single will cause the instance to start in
318     single-user mode.
319
320 initrd\_path
321     Valid for the Xen PVM and KVM hypervisors.
322
323     This option specifies the path (on the node) to the initrd to boot
324     the instance with. Xen PVM instances can use this always, while
325     for KVM if this option is only used if the ``kernel_path`` option
326     is also specified. You can pass here either an absolute filename
327     (the path to the initrd) if you want to use an initrd, or use the
328     format no\_initrd\_path for no initrd.
329
330 root\_path
331     Valid for the Xen PVM and KVM hypervisors.
332
333     This options specifies the name of the root device. This is always
334     needed for Xen PVM, while for KVM it is only used if the
335     ``kernel_path`` option is also specified.
336
337     Please note, that if this setting is an empty string and the
338     hypervisor is Xen it will not be written to the Xen configuration
339     file
340
341 serial\_console
342     Valid for the KVM hypervisor.
343
344     This boolean option specifies whether to emulate a serial console
345     for the instance.
346
347 disk\_cache
348     Valid for the KVM hypervisor.
349
350     The disk cache mode. It can be either default to not pass any
351     cache option to KVM, or one of the KVM cache modes: none (for
352     direct I/O), writethrough (to use the host cache but report
353     completion to the guest only when the host has committed the
354     changes to disk) or writeback (to use the host cache and report
355     completion as soon as the data is in the host cache). Note that
356     there are special considerations for the cache mode depending on
357     version of KVM used and disk type (always raw file under Ganeti),
358     please refer to the KVM documentation for more details.
359
360 security\_model
361     Valid for the KVM hypervisor.
362
363     The security model for kvm. Currently one of *none*, *user* or
364     *pool*. Under *none*, the default, nothing is done and instances
365     are run as the Ganeti daemon user (normally root).
366
367     Under *user* kvm will drop privileges and become the user
368     specified by the security\_domain parameter.
369
370     Under *pool* a global cluster pool of users will be used, making
371     sure no two instances share the same user on the same node. (this
372     mode is not implemented yet)
373
374 security\_domain
375     Valid for the KVM hypervisor.
376
377     Under security model *user* the username to run the instance
378     under.  It must be a valid username existing on the host.
379
380     Cannot be set under security model *none* or *pool*.
381
382 kvm\_flag
383     Valid for the KVM hypervisor.
384
385     If *enabled* the -enable-kvm flag is passed to kvm. If *disabled*
386     -disable-kvm is passed. If unset no flag is passed, and the
387     default running mode for your kvm binary will be used.
388
389 mem\_path
390     Valid for the KVM hypervisor.
391
392     This option passes the -mem-path argument to kvm with the path (on
393     the node) to the mount point of the hugetlbfs file system, along
394     with the -mem-prealloc argument too.
395
396 use\_chroot
397     Valid for the KVM hypervisor.
398
399     This boolean option determines wether to run the KVM instance in a
400     chroot directory.
401
402     If it is set to ``true``, an empty directory is created before
403     starting the instance and its path is passed via the -chroot flag
404     to kvm. The directory is removed when the instance is stopped.
405
406     It is set to ``false`` by default.
407
408 migration\_downtime
409     Valid for the KVM hypervisor.
410
411     The maximum amount of time (in ms) a KVM instance is allowed to be
412     frozen during a live migration, in order to copy dirty memory
413     pages. Default value is 30ms, but you may need to increase this
414     value for busy instances.
415
416     This option is only effective with kvm versions >= 87 and qemu-kvm
417     versions >= 0.11.0.
418
419 cpu\_mask
420     Valid for the LXC hypervisor.
421
422     The processes belonging to the given instance are only scheduled
423     on the specified CPUs.
424
425     The parameter format is a comma-separated list of CPU IDs or CPU
426     ID ranges. The ranges are defined by a lower and higher boundary,
427     separated by a dash. The boundaries are inclusive.
428
429 usb\_mouse
430     Valid for the KVM hypervisor.
431
432     This option specifies the usb mouse type to be used. It can be
433     "mouse" or "tablet". When using VNC it's recommended to set it to
434     "tablet".
435
436
437 The ``-O (--os-parameters)`` option allows customisation of the OS
438 parameters. The actual parameter names and values depends on the OS
439 being used, but the syntax is the same key=value. For example, setting
440 a hypothetical ``dhcp`` parameter to yes can be achieved by::
441
442     gnt-instance add -O dhcp=yes ...
443
444 The ``-I (--iallocator)`` option specifies the instance allocator
445 plugin to use. If you pass in this option the allocator will select
446 nodes for this instance automatically, so you don't need to pass them
447 with the ``-n`` option. For more information please refer to the
448 instance allocator documentation.
449
450 The ``-t (--disk-template)`` options specifies the disk layout type
451 for the instance.  The available choices are:
452
453 diskless
454     This creates an instance with no disks. Its useful for testing only
455     (or other special cases).
456
457 file
458     Disk devices will be regular files.
459
460 plain
461     Disk devices will be logical volumes.
462
463 drbd
464     Disk devices will be drbd (version 8.x) on top of lvm volumes.
465
466
467 The optional second value of the ``-n (--node)`` is used for the drbd
468 template type and specifies the remote node.
469
470 If you do not want gnt-instance to wait for the disk mirror to be
471 synced, use the ``--no-wait-for-sync`` option.
472
473 The ``--file-storage-dir`` specifies the relative path under the
474 cluster-wide file storage directory to store file-based disks. It is
475 useful for having different subdirectories for different
476 instances. The full path of the directory where the disk files are
477 stored will consist of cluster-wide file storage directory + optional
478 subdirectory + instance name. Example:
479 ``@RPL_FILE_STORAGE_DIR@``*/mysubdir/instance1.example.com*. This
480 option is only relevant for instances using the file storage backend.
481
482 The ``--file-driver`` specifies the driver to use for file-based
483 disks. Note that currently these drivers work with the xen hypervisor
484 only. This option is only relevant for instances using the file
485 storage backend. The available choices are:
486
487 loop
488     Kernel loopback driver. This driver uses loopback devices to
489     access the filesystem within the file. However, running I/O
490     intensive applications in your instance using the loop driver
491     might result in slowdowns. Furthermore, if you use the loopback
492     driver consider increasing the maximum amount of loopback devices
493     (on most systems it's 8) using the max\_loop param.
494
495 blktap
496     The blktap driver (for Xen hypervisors). In order to be able to
497     use the blktap driver you should check if the 'blktapctrl' user
498     space disk agent is running (usually automatically started via
499     xend).  This user-level disk I/O interface has the advantage of
500     better performance. Especially if you use a network file system
501     (e.g. NFS) to store your instances this is the recommended choice.
502
503
504 The ``--submit`` option is used to send the job to the master daemon
505 but not wait for its completion. The job ID will be shown so that it
506 can be examined via **gnt-job info**.
507
508 Example::
509
510     # gnt-instance add -t file --disk 0:size=30g -B memory=512 -o debian-etch \
511       -n node1.example.com --file-storage-dir=mysubdir instance1.example.com
512     # gnt-instance add -t plain --disk 0:size=30g -B memory=512 -o debian-etch \
513       -n node1.example.com instance1.example.com
514     # gnt-instance add -t plain --disk 0:size=30g --disk 1:size=100g,vg=san \
515       -B memory=512 -o debian-etch -n node1.example.com instance1.example.com
516     # gnt-instance add -t drbd --disk 0:size=30g -B memory=512 -o debian-etch \
517       -n node1.example.com:node2.example.com instance2.example.com
518
519
520 BATCH-CREATE
521 ^^^^^^^^^^^^
522
523 **batch-create** {instances\_file.json}
524
525 This command (similar to the Ganeti 1.2 **batcher** tool) submits
526 multiple instance creation jobs based on a definition file. The
527 instance configurations do not encompass all the possible options for
528 the **add** command, but only a subset.
529
530 The instance file should be a valid-formed JSON file, containing a
531 dictionary with instance name and instance parameters. The accepted
532 parameters are:
533
534 disk\_size
535     The size of the disks of the instance.
536
537 disk\_template
538     The disk template to use for the instance, the same as in the
539     **add** command.
540
541 backend
542     A dictionary of backend parameters.
543
544 hypervisor
545     A dictionary with a single key (the hypervisor name), and as value
546     the hypervisor options. If not passed, the default hypervisor and
547     hypervisor options will be inherited.
548
549 mac, ip, mode, link
550     Specifications for the one NIC that will be created for the
551     instance. 'bridge' is also accepted as a backwards compatibile
552     key.
553
554 nics
555     List of nics that will be created for the instance. Each entry
556     should be a dict, with mac, ip, mode and link as possible keys.
557     Please don't provide the "mac, ip, mode, link" parent keys if you
558     use this method for specifying nics.
559
560 primary\_node, secondary\_node
561     The primary and optionally the secondary node to use for the
562     instance (in case an iallocator script is not used).
563
564 iallocator
565     Instead of specifying the nodes, an iallocator script can be used
566     to automatically compute them.
567
568 start
569     whether to start the instance
570
571 ip\_check
572     Skip the check for already-in-use instance; see the description in
573     the **add** command for details.
574
575 name\_check
576     Skip the name check for instances; see the description in the
577     **add** command for details.
578
579 file\_storage\_dir, file\_driver
580     Configuration for the file disk type, see the **add** command for
581     details.
582
583
584 A simple definition for one instance can be (with most of the
585 parameters taken from the cluster defaults)::
586
587     {
588       "instance3": {
589         "template": "drbd",
590         "os": "debootstrap",
591         "disk_size": ["25G"],
592         "iallocator": "dumb"
593       },
594       "instance5": {
595         "template": "drbd",
596         "os": "debootstrap",
597         "disk_size": ["25G"],
598         "iallocator": "dumb",
599         "hypervisor": "xen-hvm",
600         "hvparams": {"acpi": true},
601         "backend": {"memory": 512}
602       }
603     }
604
605 The command will display the job id for each submitted instance, as
606 follows::
607
608     # gnt-instance batch-create instances.json
609     instance3: 11224
610     instance5: 11225
611
612 REMOVE
613 ^^^^^^
614
615 **remove** [--ignore-failures] [--shutdown-timeout=*N*] [--submit]
616 {*instance*}
617
618 Remove an instance. This will remove all data from the instance and
619 there is *no way back*. If you are not sure if you use an instance
620 again, use **shutdown** first and leave it in the shutdown state for a
621 while.
622
623 The ``--ignore-failures`` option will cause the removal to proceed
624 even in the presence of errors during the removal of the instance
625 (e.g. during the shutdown or the disk removal). If this option is not
626 given, the command will stop at the first error.
627
628 The ``--shutdown-timeout`` is used to specify how much time to wait
629 before forcing the shutdown (e.g. ``xm destroy`` in Xen, killing the
630 kvm process for KVM, etc.). By default two minutes are given to each
631 instance to stop.
632
633 The ``--submit`` option is used to send the job to the master daemon
634 but not wait for its completion. The job ID will be shown so that it
635 can be examined via **gnt-job info**.
636
637 Example::
638
639     # gnt-instance remove instance1.example.com
640
641
642 LIST
643 ^^^^
644
645 | **list**
646 | [--no-headers] [--separator=*SEPARATOR*] [--units=*UNITS*] [-v]
647 | [{-o|--output} *[+]FIELD,...*] [instance...]
648
649 Shows the currently configured instances with memory usage, disk
650 usage, the node they are running on, and their run status.
651
652 The ``--no-headers`` option will skip the initial header line. The
653 ``--separator`` option takes an argument which denotes what will be
654 used between the output fields. Both these options are to help
655 scripting.
656
657 The units used to display the numeric values in the output varies,
658 depending on the options given. By default, the values will be
659 formatted in the most appropriate unit. If the ``--separator`` option
660 is given, then the values are shown in mebibytes to allow parsing by
661 scripts. In both cases, the ``--units`` option can be used to enforce
662 a given output unit.
663
664 The ``-v`` option activates verbose mode, which changes the display of
665 special field states (see **ganeti(7)**).
666
667 The ``-o (--output)`` option takes a comma-separated list of output
668 fields. The available fields and their meaning are:
669
670 name
671     the instance name
672
673 os
674     the OS of the instance
675
676 pnode
677     the primary node of the instance
678
679 snodes
680     comma-separated list of secondary nodes for the instance; usually
681     this will be just one node
682
683 admin\_state
684     the desired state of the instance (either "yes" or "no" denoting
685     the instance should run or not)
686
687 disk\_template
688     the disk template of the instance
689
690 oper\_state
691     the actual state of the instance; can be one of the values
692     "running", "stopped", "(node down)"
693
694 status
695     combined form of ``admin_state`` and ``oper_stat``; this can be one of:
696     ``ERROR_nodedown`` if the node of the instance is down, ``ERROR_down`` if
697     the instance should run but is down, ``ERROR_up`` if the instance should be
698     stopped but is actually running, ``ERROR_wrongnode`` if the instance is
699     running but not on the primary, ``ADMIN_down`` if the instance has been
700     stopped (and is stopped) and ``running`` if the instance is set to be
701     running (and is running)
702
703 oper\_ram
704     the actual memory usage of the instance as seen by the hypervisor
705
706 oper\_vcpus
707     the actual number of VCPUs the instance is using as seen by the
708     hypervisor
709
710 ip
711     the ip address Ganeti recognizes as associated with the first
712     instance interface
713
714 mac
715     the first instance interface MAC address
716
717 nic\_mode
718     the mode of the first instance NIC (routed or bridged)
719
720 nic\_link
721     the link of the first instance NIC
722
723 sda\_size
724     the size of the instance's first disk
725
726 sdb\_size
727     the size of the instance's second disk, if any
728
729 vcpus
730     the number of VCPUs allocated to the instance
731
732 tags
733     comma-separated list of the instances's tags
734
735 serial\_no
736     the so called 'serial number' of the instance; this is a numeric
737     field that is incremented each time the instance is modified, and
738     it can be used to track modifications
739
740 ctime
741     the creation time of the instance; note that this field contains
742     spaces and as such it's harder to parse
743
744     if this attribute is not present (e.g. when upgrading from older
745     versions), then "N/A" will be shown instead
746
747 mtime
748     the last modification time of the instance; note that this field
749     contains spaces and as such it's harder to parse
750
751     if this attribute is not present (e.g. when upgrading from older
752     versions), then "N/A" will be shown instead
753
754 uuid
755     Show the UUID of the instance (generated automatically by Ganeti)
756
757 network\_port
758     If the instance has a network port assigned to it (e.g. for VNC
759     connections), this will be shown, otherwise - will be displayed.
760
761 beparams
762     A text format of the entire beparams for the instance. It's more
763     useful to select individual fields from this dictionary, see
764     below.
765
766 disk.count
767     The number of instance disks.
768
769 disk.size/N
770     The size of the instance's Nth disk. This is a more generic form of
771     the sda\_size and sdb\_size fields.
772
773 disk.sizes
774     A comma-separated list of the disk sizes for this instance.
775
776 disk\_usage
777     The total disk space used by this instance on each of its nodes.
778     This is not the instance-visible disk size, but the actual disk
779     "cost" of the instance.
780
781 nic.mac/N
782     The MAC of the Nth instance NIC.
783
784 nic.ip/N
785     The IP address of the Nth instance NIC.
786
787 nic.mode/N
788     The mode of the Nth instance NIC
789
790 nic.link/N
791     The link of the Nth instance NIC
792
793 nic.macs
794     A comma-separated list of all the MACs of the instance's NICs.
795
796 nic.ips
797     A comma-separated list of all the IP addresses of the instance's
798     NICs.
799
800 nic.modes
801     A comma-separated list of all the modes of the instance's NICs.
802
803 nic.links
804     A comma-separated list of all the link parameters of the instance's
805     NICs.
806
807 nic.count
808     The number of instance nics.
809
810 hv/*NAME*
811     The value of the hypervisor parameter called *NAME*. For details of
812     what hypervisor parameters exist and their meaning, see the **add**
813     command.
814
815 be/memory
816     The configured memory for the instance.
817
818 be/vcpus
819     The configured number of VCPUs for the instance.
820
821 be/auto\_balance
822     Whether the instance is considered in N+1 checks.
823
824
825 If the value of the option starts with the character ``+``, the new
826 field(s) will be added to the default list. This allows to quickly see
827 the default list plus a few other fields, instead of retyping the
828 entire list of fields.
829
830 There is a subtle grouping about the available output fields: all
831 fields except for ``oper_state``, ``oper_ram``, ``oper_vcpus`` and
832 ``status`` are configuration value and not run-time values. So if you
833 don't select any of the these fields, the query will be satisfied
834 instantly from the cluster configuration, without having to ask the
835 remote nodes for the data. This can be helpful for big clusters when
836 you only want some data and it makes sense to specify a reduced set of
837 output fields.
838
839 The default output field list is: name, os, pnode, admin\_state,
840 oper\_state, oper\_ram.
841
842
843 LIST-FIELDS
844 ~~~~~~~~~~~
845
846 **list-fields** [field...]
847
848 Lists available fields for instances.
849
850
851 INFO
852 ^^^^
853
854 **info** [-s \| --static] [--roman] {--all \| *instance*}
855
856 Show detailed information about the given instance(s). This is
857 different from **list** as it shows detailed data about the instance's
858 disks (especially useful for the drbd disk template).
859
860 If the option ``-s`` is used, only information available in the
861 configuration file is returned, without querying nodes, making the
862 operation faster.
863
864 Use the ``--all`` to get info about all instances, rather than
865 explicitly passing the ones you're interested in.
866
867 The ``--roman`` option can be used to cause envy among people who like
868 ancient cultures, but are stuck with non-latin-friendly cluster
869 virtualization technologies.
870
871 MODIFY
872 ^^^^^^
873
874 | **modify**
875 | [{-H|--hypervisor-parameters} *HYPERVISOR\_PARAMETERS*]
876 | [{-B|--backend-parameters} *BACKEND\_PARAMETERS*]
877 | [--net add*[:options]* \| --net remove \| --net *N:options*]
878 | [--disk add:size=*SIZE*[,vg=*VG*][,metavg=*VG*] \| --disk remove \|
879 |  --disk *N*:mode=*MODE*]
880 | [{-t|--disk-template} plain | {-t|--disk-template} drbd -n *new_secondary*] [--no-wait-for-sync]
881 | [--os-type=*OS* [--force-variant]]
882 | [{-O|--os-parameters} *param*=*value*... ]
883 | [--submit]
884 | {*instance*}
885
886 Modifies the memory size, number of vcpus, ip address, MAC address
887 and/or nic parameters for an instance. It can also add and remove
888 disks and NICs to/from the instance. Note that you need to give at
889 least one of the arguments, otherwise the command complains.
890
891 The ``-H (--hypervisor-parameters)``, ``-B (--backend-parameters)``
892 and ``-O (--os-parameters)`` options specifies hypervisor, backend and
893 OS parameter options in the form of name=value[,...]. For details
894 which options can be specified, see the **add** command.
895
896 The ``-t (--disk-template)`` option will change the disk template of
897 the instance.  Currently only conversions between the plain and drbd
898 disk templates are supported, and the instance must be stopped before
899 attempting the conversion. When changing from the plain to the drbd
900 disk template, a new secondary node must be specified via the ``-n``
901 option. The option ``--no-wait-for-sync`` can be used when converting
902 to the ``drbd`` template in order to make the instance available for
903 startup before DRBD has finished resyncing.
904
905 The ``--disk add:size=``*SIZE* option adds a disk to the instance. The
906 optional ``vg=``*VG* option specifies LVM volume group other than
907 default vg to create the disk on. For DRBD disks, the ``metavg=``*VG*
908 option specifies the volume group for the metadata device. The
909 ``--disk remove`` option will remove the last disk of the
910 instance. The ``--disk`` *N*``:mode=``*MODE* option will change the
911 mode of the Nth disk of the instance between read-only (``ro``) and
912 read-write (``rw``).
913
914 The ``--net add:``*options* option will add a new NIC to the
915 instance. The available options are the same as in the **add** command
916 (mac, ip, link, mode). The ``--net remove`` will remove the last NIC
917 of the instance, while the ``--net`` *N*:*options* option will change
918 the parameters of the Nth instance NIC.
919
920 The option ``-o (--os-type)`` will change the OS name for the instance
921 (without reinstallation). In case an OS variant is specified that is
922 not found, then by default the modification is refused, unless
923 ``--force-variant`` is passed. An invalid OS will also be refused,
924 unless the ``--force`` option is given.
925
926 The ``--submit`` option is used to send the job to the master daemon
927 but not wait for its completion. The job ID will be shown so that it
928 can be examined via **gnt-job info**.
929
930 All the changes take effect at the next restart. If the instance is
931 running, there is no effect on the instance.
932
933 REINSTALL
934 ^^^^^^^^^
935
936 | **reinstall** [{-o|--os-type} *os-type*] [--select-os] [-f *force*]
937 | [--force-multiple]
938 | [--instance \| --node \| --primary \| --secondary \| --all]
939 | [{-O|--os-parameters} *OS\_PARAMETERS*] [--submit] {*instance*...}
940
941 Reinstalls the operating system on the given instance(s). The
942 instance(s) must be stopped when running this command. If the ``-o
943 (--os-type)`` is specified, the operating system is changed.
944
945 The ``--select-os`` option switches to an interactive OS reinstall.
946 The user is prompted to select the OS template from the list of
947 available OS templates. OS parameters can be overridden using ``-O
948 (--os-parameters)`` (more documentation for this option under the
949 **add** command).
950
951 Since this is a potentially dangerous command, the user will be
952 required to confirm this action, unless the ``-f`` flag is passed.
953 When multiple instances are selected (either by passing multiple
954 arguments or by using the ``--node``, ``--primary``, ``--secondary``
955 or ``--all`` options), the user must pass the ``--force-multiple``
956 options to skip the interactive confirmation.
957
958 The ``--submit`` option is used to send the job to the master daemon
959 but not wait for its completion. The job ID will be shown so that it
960 can be examined via **gnt-job info**.
961
962 RENAME
963 ^^^^^^
964
965 | **rename** [--no-ip-check] [--no-name-check] [--submit]
966 | {*instance*} {*new\_name*}
967
968 Renames the given instance. The instance must be stopped when running
969 this command. The requirements for the new name are the same as for
970 adding an instance: the new name must be resolvable and the IP it
971 resolves to must not be reachable (in order to prevent duplicate IPs
972 the next time the instance is started). The IP test can be skipped if
973 the ``--no-ip-check`` option is passed.
974
975 The ``--no-name-check`` skips the check for the new instance name via
976 the resolver (e.g. in DNS or /etc/hosts, depending on your
977 setup). Since the name check is used to compute the IP address, if you
978 pass this option you must also pass the ``--no-ip-check`` option.
979
980 The ``--submit`` option is used to send the job to the master daemon
981 but not wait for its completion. The job ID will be shown so that it
982 can be examined via **gnt-job info**.
983
984 Starting/stopping/connecting to console
985 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
986
987 STARTUP
988 ^^^^^^^
989
990 | **startup**
991 | [--force] [--ignore-offline]
992 | [--force-multiple]
993 | [--instance \| --node \| --primary \| --secondary \| --all \|
994 | --tags \| --node-tags \| --pri-node-tags \| --sec-node-tags]
995 | [{-H|--hypervisor-parameters} ``key=value...``]
996 | [{-B|--backend-parameters} ``key=value...``]
997 | [--submit]
998 | {*name*...}
999
1000 Starts one or more instances, depending on the following options.  The
1001 four available modes are:
1002
1003 --instance
1004     will start the instances given as arguments (at least one argument
1005     required); this is the default selection
1006
1007 --node
1008     will start the instances who have the given node as either primary
1009     or secondary
1010
1011 --primary
1012     will start all instances whose primary node is in the list of nodes
1013     passed as arguments (at least one node required)
1014
1015 --secondary
1016     will start all instances whose secondary node is in the list of
1017     nodes passed as arguments (at least one node required)
1018
1019 --all
1020     will start all instances in the cluster (no arguments accepted)
1021
1022 --tags
1023     will start all instances in the cluster with the tags given as
1024     arguments
1025
1026 --node-tags
1027     will start all instances in the cluster on nodes with the tags
1028     given as arguments
1029
1030 --pri-node-tags
1031     will start all instances in the cluster on primary nodes with the
1032     tags given as arguments
1033
1034 --sec-node-tags
1035     will start all instances in the cluster on secondary nodes with the
1036     tags given as arguments
1037
1038
1039 Note that although you can pass more than one selection option, the
1040 last one wins, so in order to guarantee the desired result, don't pass
1041 more than one such option.
1042
1043 Use ``--force`` to start even if secondary disks are failing.
1044 ``--ignore-offline`` can be used to ignore offline primary nodes and
1045 mark the instance as started even if the primary is not available.
1046
1047 The ``--force-multiple`` will skip the interactive confirmation in the
1048 case the more than one instance will be affected.
1049
1050 The ``-H (--hypervisor-parameters)`` and ``-B (--backend-parameters)``
1051 options specify temporary hypervisor and backend parameters that can
1052 be used to start an instance with modified parameters. They can be
1053 useful for quick testing without having to modify an instance back and
1054 forth, e.g.::
1055
1056     # gnt-instance start -H root_args="single" instance1
1057     # gnt-instance start -B memory=2048 instance2
1058
1059
1060 The first form will start the instance instance1 in single-user mode,
1061 and the instance instance2 with 2GB of RAM (this time only, unless
1062 that is the actual instance memory size already). Note that the values
1063 override the instance parameters (and not extend them): an instance
1064 with "root\_args=ro" when started with -H root\_args=single will
1065 result in "single", not "ro single".  The ``--submit`` option is used
1066 to send the job to the master daemon but not wait for its
1067 completion. The job ID will be shown so that it can be examined via
1068 **gnt-job info**.
1069
1070 Example::
1071
1072     # gnt-instance start instance1.example.com
1073     # gnt-instance start --node node1.example.com node2.example.com
1074     # gnt-instance start --all
1075
1076
1077 SHUTDOWN
1078 ^^^^^^^^
1079
1080 | **shutdown**
1081 | [--timeout=*N*]
1082 | [--force-multiple] [--ignore-offline]
1083 | [--instance \| --node \| --primary \| --secondary \| --all \|
1084 | --tags \| --node-tags \| --pri-node-tags \| --sec-node-tags]
1085 | [--submit]
1086 | {*name*...}
1087
1088 Stops one or more instances. If the instance cannot be cleanly stopped
1089 during a hardcoded interval (currently 2 minutes), it will forcibly
1090 stop the instance (equivalent to switching off the power on a physical
1091 machine).
1092
1093 The ``--timeout`` is used to specify how much time to wait before
1094 forcing the shutdown (e.g. ``xm destroy`` in Xen, killing the kvm
1095 process for KVM, etc.). By default two minutes are given to each
1096 instance to stop.
1097
1098 The ``--instance``, ``--node``, ``--primary``, ``--secondary``,
1099 ``--all``, ``--tags``, ``--node-tags``, ``--pri-node-tags`` and
1100 ``--sec-node-tags`` options are similar as for the **startup** command
1101 and they influence the actual instances being shutdown.
1102
1103 The ``--submit`` option is used to send the job to the master daemon
1104 but not wait for its completion. The job ID will be shown so that it
1105 can be examined via **gnt-job info**.
1106
1107 ``--ignore-offline`` can be used to ignore offline primary nodes and
1108 force the instance to be marked as stopped. This option should be used
1109 with care as it can lead to an inconsistent cluster state.
1110
1111 Example::
1112
1113     # gnt-instance shutdown instance1.example.com
1114     # gnt-instance shutdown --all
1115
1116
1117 REBOOT
1118 ^^^^^^
1119
1120 | **reboot**
1121 | [{-t|--type} *REBOOT-TYPE*]
1122 | [--ignore-secondaries]
1123 | [--shutdown-timeout=*N*]
1124 | [--force-multiple]
1125 | [--instance \| --node \| --primary \| --secondary \| --all \|
1126 | --tags \| --node-tags \| --pri-node-tags \| --sec-node-tags]
1127 | [--submit]
1128 | [*name*...]
1129
1130 Reboots one or more instances. The type of reboot depends on the value
1131 of ``-t (--type)``. A soft reboot does a hypervisor reboot, a hard reboot
1132 does a instance stop, recreates the hypervisor config for the instance
1133 and starts the instance. A full reboot does the equivalent of
1134 **gnt-instance shutdown && gnt-instance startup**.  The default is
1135 hard reboot.
1136
1137 For the hard reboot the option ``--ignore-secondaries`` ignores errors
1138 for the secondary node while re-assembling the instance disks.
1139
1140 The ``--instance``, ``--node``, ``--primary``, ``--secondary``,
1141 ``--all``, ``--tags``, ``--node-tags``, ``--pri-node-tags`` and
1142 ``--sec-node-tags`` options are similar as for the **startup** command
1143 and they influence the actual instances being rebooted.
1144
1145 The ``--shutdown-timeout`` is used to specify how much time to wait
1146 before forcing the shutdown (xm destroy in xen, killing the kvm
1147 process, for kvm). By default two minutes are given to each instance
1148 to stop.
1149
1150 The ``--force-multiple`` will skip the interactive confirmation in the
1151 case the more than one instance will be affected.
1152
1153 Example::
1154
1155     # gnt-instance reboot instance1.example.com
1156     # gnt-instance reboot --type=full instance1.example.com
1157
1158
1159 CONSOLE
1160 ^^^^^^^
1161
1162 **console** [--show-cmd] {*instance*}
1163
1164 Connects to the console of the given instance. If the instance is not
1165 up, an error is returned. Use the ``--show-cmd`` option to display the
1166 command instead of executing it.
1167
1168 For HVM instances, this will attempt to connect to the serial console
1169 of the instance. To connect to the virtualized "physical" console of a
1170 HVM instance, use a VNC client with the connection info from the
1171 **info** command.
1172
1173 Example::
1174
1175     # gnt-instance console instance1.example.com
1176
1177
1178 Disk management
1179 ~~~~~~~~~~~~~~~
1180
1181 REPLACE-DISKS
1182 ^^^^^^^^^^^^^
1183
1184 **replace-disks** [--submit] [--early-release] {-p} [--disks *idx*]
1185 {*instance*}
1186
1187 **replace-disks** [--submit] [--early-release] {-s} [--disks *idx*]
1188 {*instance*}
1189
1190 **replace-disks** [--submit] [--early-release] {--iallocator *name*
1191 \| --new-secondary *NODE*} {*instance*}
1192
1193 **replace-disks** [--submit] [--early-release] {--auto}
1194 {*instance*}
1195
1196 This command is a generalized form for replacing disks. It is
1197 currently only valid for the mirrored (DRBD) disk template.
1198
1199 The first form (when passing the ``-p`` option) will replace the disks
1200 on the primary, while the second form (when passing the ``-s`` option
1201 will replace the disks on the secondary node. For these two cases (as
1202 the node doesn't change), it is possible to only run the replace for a
1203 subset of the disks, using the option ``--disks`` which takes a list
1204 of comma-delimited disk indices (zero-based), e.g. 0,2 to replace only
1205 the first and third disks.
1206
1207 The third form (when passing either the ``--iallocator`` or the
1208 ``--new-secondary`` option) is designed to change secondary node of
1209 the instance. Specifying ``--iallocator`` makes the new secondary be
1210 selected automatically by the specified allocator plugin, otherwise
1211 the new secondary node will be the one chosen manually via the
1212 ``--new-secondary`` option.
1213
1214 The fourth form (when using ``--auto``) will automatically determine
1215 which disks of an instance are faulty and replace them within the same
1216 node. The ``--auto`` option works only when an instance has only
1217 faulty disks on either the primary or secondary node; it doesn't work
1218 when both sides have faulty disks.
1219
1220 The ``--submit`` option is used to send the job to the master daemon
1221 but not wait for its completion. The job ID will be shown so that it
1222 can be examined via **gnt-job info**.
1223
1224 The ``--early-release`` changes the code so that the old storage on
1225 secondary node(s) is removed early (before the resync is completed)
1226 and the internal Ganeti locks for the current (and new, if any)
1227 secondary node are also released, thus allowing more parallelism in
1228 the cluster operation. This should be used only when recovering from a
1229 disk failure on the current secondary (thus the old storage is already
1230 broken) or when the storage on the primary node is known to be fine
1231 (thus we won't need the old storage for potential recovery).
1232
1233 Note that it is not possible to select an offline or drained node as a
1234 new secondary.
1235
1236 ACTIVATE-DISKS
1237 ^^^^^^^^^^^^^^
1238
1239 **activate-disks** [--submit] [--ignore-size] {*instance*}
1240
1241 Activates the block devices of the given instance. If successful, the
1242 command will show the location and name of the block devices::
1243
1244     node1.example.com:disk/0:/dev/drbd0
1245     node1.example.com:disk/1:/dev/drbd1
1246
1247
1248 In this example, *node1.example.com* is the name of the node on which
1249 the devices have been activated. The *disk/0* and *disk/1* are the
1250 Ganeti-names of the instance disks; how they are visible inside the
1251 instance is hypervisor-specific. */dev/drbd0* and */dev/drbd1* are the
1252 actual block devices as visible on the node.  The ``--submit`` option
1253 is used to send the job to the master daemon but not wait for its
1254 completion. The job ID will be shown so that it can be examined via
1255 **gnt-job info**.
1256
1257 The ``--ignore-size`` option can be used to activate disks ignoring
1258 the currently configured size in Ganeti. This can be used in cases
1259 where the configuration has gotten out of sync with the real-world
1260 (e.g. after a partially-failed grow-disk operation or due to rounding
1261 in LVM devices). This should not be used in normal cases, but only
1262 when activate-disks fails without it.
1263
1264 Note that it is safe to run this command while the instance is already
1265 running.
1266
1267 DEACTIVATE-DISKS
1268 ^^^^^^^^^^^^^^^^
1269
1270 **deactivate-disks** [-f] [--submit] {*instance*}
1271
1272 De-activates the block devices of the given instance. Note that if you
1273 run this command for an instance with a drbd disk template, while it
1274 is running, it will not be able to shutdown the block devices on the
1275 primary node, but it will shutdown the block devices on the secondary
1276 nodes, thus breaking the replication.
1277
1278 The ``-f``/``--force`` option will skip checks that the instance is
1279 down; in case the hypervisor is confused and we can't talk to it,
1280 normally Ganeti will refuse to deactivate the disks, but with this
1281 option passed it will skip this check and directly try to deactivate
1282 the disks. This can still fail due to the instance actually running or
1283 other issues.
1284
1285 The ``--submit`` option is used to send the job to the master daemon
1286 but not wait for its completion. The job ID will be shown so that it
1287 can be examined via **gnt-job info**.
1288
1289 GROW-DISK
1290 ^^^^^^^^^
1291
1292 **grow-disk** [--no-wait-for-sync] [--submit] {*instance*} {*disk*}
1293 {*amount*}
1294
1295 Grows an instance's disk. This is only possible for instances having a
1296 plain or drbd disk template.
1297
1298 Note that this command only change the block device size; it will not
1299 grow the actual filesystems, partitions, etc. that live on that
1300 disk. Usually, you will need to:
1301
1302 #. use **gnt-instance grow-disk**
1303
1304 #. reboot the instance (later, at a convenient time)
1305
1306 #. use a filesystem resizer, such as ext2online(8) or
1307    xfs\_growfs(8) to resize the filesystem, or use fdisk(8) to change
1308    the partition table on the disk
1309
1310 The *disk* argument is the index of the instance disk to grow. The
1311 *amount* argument is given either as a number (and it represents the
1312 amount to increase the disk with in mebibytes) or can be given similar
1313 to the arguments in the create instance operation, with a suffix
1314 denoting the unit.
1315
1316 Note that the disk grow operation might complete on one node but fail
1317 on the other; this will leave the instance with different-sized LVs on
1318 the two nodes, but this will not create problems (except for unused
1319 space).
1320
1321 If you do not want gnt-instance to wait for the new disk region to be
1322 synced, use the ``--no-wait-for-sync`` option.
1323
1324 The ``--submit`` option is used to send the job to the master daemon
1325 but not wait for its completion. The job ID will be shown so that it
1326 can be examined via **gnt-job info**.
1327
1328 Example (increase the first disk for instance1 by 16GiB)::
1329
1330     # gnt-instance grow-disk instance1.example.com 0 16g
1331
1332
1333 Also note that disk shrinking is not supported; use **gnt-backup
1334 export** and then **gnt-backup import** to reduce the disk size of an
1335 instance.
1336
1337 RECREATE-DISKS
1338 ^^^^^^^^^^^^^^
1339
1340 **recreate-disks** [--submit] [--disks=``indices``] [-n node1:[node2]]
1341   {*instance*}
1342
1343 Recreates the disks of the given instance, or only a subset of the
1344 disks (if the option ``disks`` is passed, which must be a
1345 comma-separated list of disk indices, starting from zero).
1346
1347 Note that this functionality should only be used for missing disks; if
1348 any of the given disks already exists, the operation will fail.  While
1349 this is suboptimal, recreate-disks should hopefully not be needed in
1350 normal operation and as such the impact of this is low.
1351
1352 Optionally the instance's disks can be recreated on different
1353 nodes. This can be useful if, for example, the original nodes of the
1354 instance have gone down (and are marked offline), so we can't recreate
1355 on the same nodes. To do this, pass the new node(s) via ``-n`` option,
1356 with a syntax similar to the **add** command. The number of nodes
1357 passed must equal the number of nodes that the instance currently
1358 has. Note that changing nodes is only allowed for 'all disk'
1359 replacement (when ``--disks`` is not passed).
1360
1361 The ``--submit`` option is used to send the job to the master daemon
1362 but not wait for its completion. The job ID will be shown so that it
1363 can be examined via **gnt-job info**.
1364
1365 Recovery
1366 ~~~~~~~~
1367
1368 FAILOVER
1369 ^^^^^^^^
1370
1371 **failover** [-f] [--ignore-consistency] [--shutdown-timeout=*N*]
1372 [--submit] {*instance*}
1373
1374 Failover will fail the instance over its secondary node. This works
1375 only for instances having a drbd disk template.
1376
1377 Normally the failover will check the consistency of the disks before
1378 failing over the instance. If you are trying to migrate instances off
1379 a dead node, this will fail. Use the ``--ignore-consistency`` option
1380 for this purpose. Note that this option can be dangerous as errors in
1381 shutting down the instance will be ignored, resulting in possibly
1382 having the instance running on two machines in parallel (on
1383 disconnected DRBD drives).
1384
1385 The ``--shutdown-timeout`` is used to specify how much time to wait
1386 before forcing the shutdown (xm destroy in xen, killing the kvm
1387 process, for kvm). By default two minutes are given to each instance
1388 to stop.
1389
1390 The ``--submit`` option is used to send the job to the master daemon
1391 but not wait for its completion. The job ID will be shown so that it
1392 can be examined via **gnt-job info**.
1393
1394 Example::
1395
1396     # gnt-instance failover instance1.example.com
1397
1398
1399 MIGRATE
1400 ^^^^^^^
1401
1402 **migrate** [-f] {--cleanup} {*instance*}
1403
1404 **migrate** [-f] [--non-live] [--migration-mode=live\|non-live]
1405 {*instance*}
1406
1407 Migrate will move the instance to its secondary node without
1408 shutdown. It only works for instances having the drbd8 disk template
1409 type.
1410
1411 The migration command needs a perfectly healthy instance, as we rely
1412 on the dual-master capability of drbd8 and the disks of the instance
1413 are not allowed to be degraded.
1414
1415 The ``--non-live`` and ``--migration-mode=non-live`` options will
1416 switch (for the hypervisors that support it) between a "fully live"
1417 (i.e. the interruption is as minimal as possible) migration and one in
1418 which the instance is frozen, its state saved and transported to the
1419 remote node, and then resumed there. This all depends on the
1420 hypervisor support for two different methods. In any case, it is not
1421 an error to pass this parameter (it will just be ignored if the
1422 hypervisor doesn't support it). The option ``--migration-mode=live``
1423 option will request a fully-live migration. The default, when neither
1424 option is passed, depends on the hypervisor parameters (and can be
1425 viewed with the **gnt-cluster info** command).
1426
1427 If the ``--cleanup`` option is passed, the operation changes from
1428 migration to attempting recovery from a failed previous migration.  In
1429 this mode, Ganeti checks if the instance runs on the correct node (and
1430 updates its configuration if not) and ensures the instances's disks
1431 are configured correctly. In this mode, the ``--non-live`` option is
1432 ignored.
1433
1434 The option ``-f`` will skip the prompting for confirmation.
1435
1436 Example (and expected output)::
1437
1438     # gnt-instance migrate instance1
1439     Migrate will happen to the instance instance1. Note that migration is
1440     **experimental** in this version. This might impact the instance if
1441     anything goes wrong. Continue?
1442     y/[n]/?: y
1443     * checking disk consistency between source and target
1444     * ensuring the target is in secondary mode
1445     * changing disks into dual-master mode
1446      - INFO: Waiting for instance instance1 to sync disks.
1447      - INFO: Instance instance1's disks are in sync.
1448     * migrating instance to node2.example.com
1449     * changing the instance's disks on source node to secondary
1450      - INFO: Waiting for instance instance1 to sync disks.
1451      - INFO: Instance instance1's disks are in sync.
1452     * changing the instance's disks to single-master
1453     #
1454
1455
1456 MOVE
1457 ^^^^
1458
1459 **move** [-f] [-n *node*] [--shutdown-timeout=*N*] [--submit]
1460 {*instance*}
1461
1462 Move will move the instance to an arbitrary node in the cluster.  This
1463 works only for instances having a plain or file disk template.
1464
1465 Note that since this operation is done via data copy, it will take a
1466 long time for big disks (similar to replace-disks for a drbd
1467 instance).
1468
1469 The ``--shutdown-timeout`` is used to specify how much time to wait
1470 before forcing the shutdown (e.g. ``xm destroy`` in XEN, killing the
1471 kvm process for KVM, etc.). By default two minutes are given to each
1472 instance to stop.
1473
1474 The ``--submit`` option is used to send the job to the master daemon
1475 but not wait for its completion. The job ID will be shown so that it
1476 can be examined via **gnt-job info**.
1477
1478 Example::
1479
1480     # gnt-instance move -n node3.example.com instance1.example.com
1481
1482
1483 TAGS
1484 ~~~~
1485
1486 ADD-TAGS
1487 ^^^^^^^^
1488
1489 **add-tags** [--from *file*] {*instancename*} {*tag*...}
1490
1491 Add tags to the given instance. If any of the tags contains invalid
1492 characters, the entire operation will abort.
1493
1494 If the ``--from`` option is given, the list of tags will be extended
1495 with the contents of that file (each line becomes a tag).  In this
1496 case, there is not need to pass tags on the command line (if you do,
1497 both sources will be used). A file name of ``-`` will be interpreted
1498 as stdin.
1499
1500 LIST-TAGS
1501 ^^^^^^^^^
1502
1503 **list-tags** {*instancename*}
1504
1505 List the tags of the given instance.
1506
1507 REMOVE-TAGS
1508 ^^^^^^^^^^^
1509
1510 **remove-tags** [--from *file*] {*instancename*} {*tag*...}
1511
1512 Remove tags from the given instance. If any of the tags are not
1513 existing on the node, the entire operation will abort.
1514
1515 If the ``--from`` option is given, the list of tags to be removed will
1516 be extended with the contents of that file (each line becomes a tag).
1517 In this case, there is not need to pass tags on the command line (if
1518 you do, tags from both sources will be removed). A file name of ``-``
1519 will be interpreted as stdin.