Recreate instance disks: allow changing nodes
[ganeti-local] / man / gnt-instance.rst
1 gnt-instance(8) Ganeti | Version @GANETI_VERSION@
2 =================================================
3
4 Name
5 ----
6
7 gnt-instance - Ganeti instance administration
8
9 Synopsis
10 --------
11
12 **gnt-instance** {command} [arguments...]
13
14 DESCRIPTION
15 -----------
16
17 The **gnt-instance** command is used for instance administration in
18 the Ganeti system.
19
20 COMMANDS
21 --------
22
23 Creation/removal/querying
24 ~~~~~~~~~~~~~~~~~~~~~~~~~
25
26 ADD
27 ^^^
28
29 | **add**
30 | {-t {diskless | file \| plain \| drbd}}
31 | {--disk=*N*: {size=*VAL* \| adopt=*LV*}[,vg=*VG*][,metavg=*VG*][,mode=*ro\|rw*]
32 |  \| -s *SIZE*}
33 | [--no-ip-check] [--no-name-check] [--no-start] [--no-install]
34 | [--net=*N* [:options...] \| --no-nics]
35 | [-B *BEPARAMS*]
36 | [-H *HYPERVISOR* [: option=*value*... ]]
37 | [-O, --os-parameters *param*=*value*... ]
38 | [--file-storage-dir *dir\_path*] [--file-driver {loop \| blktap}]
39 | {-n *node[:secondary-node]* \| --iallocator *name*}
40 | {-o *os-type*}
41 | [--submit]
42 | {*instance*}
43
44 Creates a new instance on the specified host. The *instance* argument
45 must be in DNS, but depending on the bridge/routing setup, need not be
46 in the same network as the nodes in the cluster.
47
48 The ``disk`` option specifies the parameters for the disks of the
49 instance. The numbering of disks starts at zero, and at least one disk
50 needs to be passed. For each disk, either the size or the adoption
51 source needs to be given, and optionally the access mode (read-only or
52 the default of read-write) and the LVM volume group can also be
53 specified (via the ``vg`` key). For DRBD devices, a different VG can
54 be specified for the metadata device using the ``metavg`` key.  The
55 size is interpreted (when no unit is given) in mebibytes. You can also
56 use one of the suffixes *m*, *g* or *t* to specify the exact the units
57 used; these suffixes map to mebibytes, gibibytes and tebibytes.
58
59 When using the ``adopt`` key in the disk definition, Ganeti will
60 reuse those volumes (instead of creating new ones) as the
61 instance's disks. Ganeti will rename these volumes to the standard
62 format, and (without installing the OS) will use them as-is for the
63 instance. This allows migrating instances from non-managed mode
64 (e.q. plain KVM with LVM) to being managed via Ganeti. Note that
65 this works only for the \`plain' disk template (see below for
66 template details).
67
68 Alternatively, a single-disk instance can be created via the ``-s``
69 option which takes a single argument, the size of the disk. This is
70 similar to the Ganeti 1.2 version (but will only create one disk).
71
72 The minimum disk specification is therefore ``--disk 0:size=20G`` (or
73 ``-s 20G`` when using the ``-s`` option), and a three-disk instance
74 can be specified as ``--disk 0:size=20G --disk 1:size=4G --disk
75 2:size=100G``.
76
77 The ``--no-ip-check`` skips the checks that are done to see if the
78 instance's IP is not already alive (i.e. reachable from the master
79 node).
80
81 The ``--no-name-check`` skips the check for the instance name via
82 the resolver (e.g. in DNS or /etc/hosts, depending on your setup).
83 Since the name check is used to compute the IP address, if you pass
84 this option you must also pass the ``--no-ip-check`` option.
85
86 If you don't wat the instance to automatically start after
87 creation, this is possible via the ``--no-start`` option. This will
88 leave the instance down until a subsequent **gnt-instance start**
89 command.
90
91 The NICs of the instances can be specified via the ``--net``
92 option. By default, one NIC is created for the instance, with a
93 random MAC, and set up according the the cluster level nic
94 parameters. Each NIC can take these parameters (all optional):
95
96
97
98 mac
99     either a value or 'generate' to generate a new unique MAC
100
101 ip
102     specifies the IP address assigned to the instance from the Ganeti
103     side (this is not necessarily what the instance will use, but what
104     the node expects the instance to use)
105
106 mode
107     specifies the connection mode for this nic: routed or bridged.
108
109 link
110     in bridged mode specifies the bridge to attach this NIC to, in
111     routed mode it's intended to differentiate between different
112     routing tables/instance groups (but the meaning is dependent on
113     the network script, see gnt-cluster(8) for more details)
114
115
116 Of these "mode" and "link" are nic parameters, and inherit their
117 default at cluster level.  Alternatively, if no network is desired for
118 the instance, you can prevent the default of one NIC with the
119 ``--no-nics`` option.
120
121 The ``-o`` options specifies the operating system to be installed.
122 The available operating systems can be listed with **gnt-os list**.
123 Passing ``--no-install`` will however skip the OS installation,
124 allowing a manual import if so desired. Note that the no-installation
125 mode will automatically disable the start-up of the instance (without
126 an OS, it most likely won't be able to start-up successfully).
127
128 The ``-B`` option specifies the backend parameters for the
129 instance. If no such parameters are specified, the values are
130 inherited from the cluster. Possible parameters are:
131
132 memory
133     the memory size of the instance; as usual, suffixes can be used to
134     denote the unit, otherwise the value is taken in mebibites
135
136 vcpus
137     the number of VCPUs to assign to the instance (if this value makes
138     sense for the hypervisor)
139
140 auto\_balance
141     whether the instance is considered in the N+1 cluster checks
142     (enough redundancy in the cluster to survive a node failure)
143
144
145 The ``-H`` option specified the hypervisor to use for the instance
146 (must be one of the enabled hypervisors on the cluster) and optionally
147 custom parameters for this instance. If not other options are used
148 (i.e. the invocation is just -H *NAME*) the instance will inherit the
149 cluster options. The defaults below show the cluster defaults at
150 cluster creation time.
151
152 The possible hypervisor options are as follows:
153
154 boot\_order
155     Valid for the Xen HVM and KVM hypervisors.
156
157     A string value denoting the boot order. This has different meaning
158     for the Xen HVM hypervisor and for the KVM one.
159
160     For Xen HVM, The boot order is a string of letters listing the boot
161     devices, with valid device letters being:
162
163     a
164         floppy drive
165
166     c
167         hard disk
168
169     d
170         CDROM drive
171
172     n
173         network boot (PXE)
174
175     The default is not to set an HVM boot order which is interpreted
176     as 'dc'.
177
178     For KVM the boot order is either "floppy", "cdrom", "disk" or
179     "network".  Please note that older versions of KVM couldn't
180     netboot from virtio interfaces. This has been fixed in more recent
181     versions and is confirmed to work at least with qemu-kvm 0.11.1.
182
183 blockdev\_prefix
184     Valid for the Xen HVM and PVM hypervisors.
185
186     Relevant to nonpvops guest kernels, in which the disk device names
187     are given by the host.  Allows to specify 'xvd', which helps run
188     Red Hat based installers, driven by anaconda.
189
190 floppy\_image\_path
191     Valid for the KVM hypervisor.
192
193     The path to a floppy disk image to attach to the instance.  This
194     is useful to install Windows operating systems on Virt/IO disks
195     because you can specify here the floppy for the drivers at
196     installation time.
197
198 cdrom\_image\_path
199     Valid for the Xen HVM and KVM hypervisors.
200
201     The path to a CDROM image to attach to the instance.
202
203 cdrom2\_image\_path
204     Valid for the KVM hypervisor.
205
206     The path to a second CDROM image to attach to the instance.
207     **NOTE**: This image can't be used to boot the system. To do that
208     you have to use the 'cdrom\_image\_path' option.
209
210 nic\_type
211     Valid for the Xen HVM and KVM hypervisors.
212
213     This parameter determines the way the network cards are presented
214     to the instance. The possible options are:
215
216     rtl8139 (default for Xen HVM) (HVM & KVM)
217     ne2k\_isa (HVM & KVM)
218     ne2k\_pci (HVM & KVM)
219     i82551 (KVM)
220     i82557b (KVM)
221     i82559er (KVM)
222     pcnet (KVM)
223     e1000 (KVM)
224     paravirtual (default for KVM) (HVM & KVM)
225
226 disk\_type
227     Valid for the Xen HVM and KVM hypervisors.
228
229     This parameter determines the way the disks are presented to the
230     instance. The possible options are:
231
232     - ioemu [default] (HVM & KVM)
233     - ide (HVM & KVM)
234     - scsi (KVM)
235     - sd (KVM)
236     - mtd (KVM)
237     - pflash (KVM)
238
239
240 cdrom\_disk\_type
241     Valid for the KVM hypervisor.
242
243     This parameter determines the way the cdroms disks are presented
244     to the instance. The default behavior is to get the same value of
245     the eariler parameter (disk_type). The possible options are:
246
247     - paravirtual
248     - ide
249     - scsi
250     - sd
251     - mtd
252     - pflash
253
254
255 vnc\_bind\_address
256     Valid for the Xen HVM and KVM hypervisors.
257
258     Specifies the address that the VNC listener for this instance
259     should bind to. Valid values are IPv4 addresses. Use the address
260     0.0.0.0 to bind to all available interfaces (this is the default)
261     or specify the address of one of the interfaces on the node to
262     restrict listening to that interface.
263
264 vnc\_tls
265     Valid for the KVM hypervisor.
266
267     A boolean option that controls whether the VNC connection is
268     secured with TLS.
269
270 vnc\_x509\_path
271     Valid for the KVM hypervisor.
272
273     If ``vnc_tls`` is enabled, this options specifies the path to the
274     x509 certificate to use.
275
276 vnc\_x509\_verify
277     Valid for the KVM hypervisor.
278
279 acpi
280     Valid for the Xen HVM and KVM hypervisors.
281
282     A boolean option that specifies if the hypervisor should enable
283     ACPI support for this instance. By default, ACPI is disabled.
284
285 pae
286     Valid for the Xen HVM and KVM hypervisors.
287
288     A boolean option that specifies if the hypervisor should enabled
289     PAE support for this instance. The default is false, disabling PAE
290     support.
291
292 use\_localtime
293     Valid for the Xen HVM and KVM hypervisors.
294
295     A boolean option that specifies if the instance should be started
296     with its clock set to the localtime of the machine (when true) or
297     to the UTC (When false). The default is false, which is useful for
298     Linux/Unix machines; for Windows OSes, it is recommended to enable
299     this parameter.
300
301 kernel\_path
302     Valid for the Xen PVM and KVM hypervisors.
303
304     This option specifies the path (on the node) to the kernel to boot
305     the instance with. Xen PVM instances always require this, while
306     for KVM if this option is empty, it will cause the machine to load
307     the kernel from its disks.
308
309 kernel\_args
310     Valid for the Xen PVM and KVM hypervisors.
311
312     This options specifies extra arguments to the kernel that will be
313     loaded. device. This is always used for Xen PVM, while for KVM it
314     is only used if the ``kernel_path`` option is also specified.
315
316     The default setting for this value is simply ``"ro"``, which
317     mounts the root disk (initially) in read-only one. For example,
318     setting this to single will cause the instance to start in
319     single-user mode.
320
321 initrd\_path
322     Valid for the Xen PVM and KVM hypervisors.
323
324     This option specifies the path (on the node) to the initrd to boot
325     the instance with. Xen PVM instances can use this always, while
326     for KVM if this option is only used if the ``kernel_path`` option
327     is also specified. You can pass here either an absolute filename
328     (the path to the initrd) if you want to use an initrd, or use the
329     format no\_initrd\_path for no initrd.
330
331 root\_path
332     Valid for the Xen PVM and KVM hypervisors.
333
334     This options specifies the name of the root device. This is always
335     needed for Xen PVM, while for KVM it is only used if the
336     ``kernel_path`` option is also specified.
337
338 serial\_console
339     Valid for the KVM hypervisor.
340
341     This boolean option specifies whether to emulate a serial console
342     for the instance.
343
344 disk\_cache
345     Valid for the KVM hypervisor.
346
347     The disk cache mode. It can be either default to not pass any
348     cache option to KVM, or one of the KVM cache modes: none (for
349     direct I/O), writethrough (to use the host cache but report
350     completion to the guest only when the host has committed the
351     changes to disk) or writeback (to use the host cache and report
352     completion as soon as the data is in the host cache). Note that
353     there are special considerations for the cache mode depending on
354     version of KVM used and disk type (always raw file under Ganeti),
355     please refer to the KVM documentation for more details.
356
357 security\_model
358     Valid for the KVM hypervisor.
359
360     The security model for kvm. Currently one of *none*, *user* or
361     *pool*. Under *none*, the default, nothing is done and instances
362     are run as the Ganeti daemon user (normally root).
363
364     Under *user* kvm will drop privileges and become the user
365     specified by the security\_domain parameter.
366
367     Under *pool* a global cluster pool of users will be used, making
368     sure no two instances share the same user on the same node. (this
369     mode is not implemented yet)
370
371 security\_domain
372     Valid for the KVM hypervisor.
373
374     Under security model *user* the username to run the instance
375     under.  It must be a valid username existing on the host.
376
377     Cannot be set under security model *none* or *pool*.
378
379 kvm\_flag
380     Valid for the KVM hypervisor.
381
382     If *enabled* the -enable-kvm flag is passed to kvm. If *disabled*
383     -disable-kvm is passed. If unset no flag is passed, and the
384     default running mode for your kvm binary will be used.
385
386 mem\_path
387     Valid for the KVM hypervisor.
388
389     This option passes the -mem-path argument to kvm with the path (on
390     the node) to the mount point of the hugetlbfs file system, along
391     with the -mem-prealloc argument too.
392
393 use\_chroot
394     Valid for the KVM hypervisor.
395
396     This boolean option determines wether to run the KVM instance in a
397     chroot directory.
398
399     If it is set to ``true``, an empty directory is created before
400     starting the instance and its path is passed via the -chroot flag
401     to kvm. The directory is removed when the instance is stopped.
402
403     It is set to ``false`` by default.
404
405 migration\_downtime
406     Valid for the KVM hypervisor.
407
408     The maximum amount of time (in ms) a KVM instance is allowed to be
409     frozen during a live migration, in order to copy dirty memory
410     pages. Default value is 30ms, but you may need to increase this
411     value for busy instances.
412
413     This option is only effective with kvm versions >= 87 and qemu-kvm
414     versions >= 0.11.0.
415
416 cpu\_mask
417     Valid for the LXC hypervisor.
418
419     The processes belonging to the given instance are only scheduled
420     on the specified CPUs.
421
422     The parameter format is a comma-separated list of CPU IDs or CPU
423     ID ranges. The ranges are defined by a lower and higher boundary,
424     separated by a dash. The boundaries are inclusive.
425
426 usb\_mouse
427     Valid for the KVM hypervisor.
428
429     This option specifies the usb mouse type to be used. It can be
430     "mouse" or "tablet". When using VNC it's recommended to set it to
431     "tablet".
432
433
434 The ``-O`` (``--os-parameters``) option allows customisation of the OS
435 parameters. The actual parameter names and values depends on the OS
436 being used, but the syntax is the same key=value. For example, setting
437 a hypothetical ``dhcp`` parameter to yes can be achieved by::
438
439     gnt-instance add -O dhcp=yes ...
440
441
442 The ``--iallocator`` option specifies the instance allocator plugin to
443 use. If you pass in this option the allocator will select nodes for
444 this instance automatically, so you don't need to pass them with the
445 ``-n`` option. For more information please refer to the instance
446 allocator documentation.
447
448 The ``-t`` options specifies the disk layout type for the instance.
449 The available choices are:
450
451 diskless
452     This creates an instance with no disks. Its useful for testing only
453     (or other special cases).
454
455 file
456     Disk devices will be regular files.
457
458 plain
459     Disk devices will be logical volumes.
460
461 drbd
462     Disk devices will be drbd (version 8.x) on top of lvm volumes.
463
464
465 The optional second value of the ``--node`` is used for the drbd
466 template type and specifies the remote node.
467
468 If you do not want gnt-instance to wait for the disk mirror to be
469 synced, use the ``--no-wait-for-sync`` option.
470
471 The ``--file-storage-dir`` specifies the relative path under the
472 cluster-wide file storage directory to store file-based disks. It is
473 useful for having different subdirectories for different
474 instances. The full path of the directory where the disk files are
475 stored will consist of cluster-wide file storage directory + optional
476 subdirectory + instance name. Example:
477 ``@RPL_FILE_STORAGE_DIR@``*/mysubdir/instance1.example.com*. This
478 option is only relevant for instances using the file storage backend.
479
480 The ``--file-driver`` specifies the driver to use for file-based
481 disks. Note that currently these drivers work with the xen hypervisor
482 only. This option is only relevant for instances using the file
483 storage backend. The available choices are:
484
485 loop
486     Kernel loopback driver. This driver uses loopback devices to
487     access the filesystem within the file. However, running I/O
488     intensive applications in your instance using the loop driver
489     might result in slowdowns. Furthermore, if you use the loopback
490     driver consider increasing the maximum amount of loopback devices
491     (on most systems it's 8) using the max\_loop param.
492
493 blktap
494     The blktap driver (for Xen hypervisors). In order to be able to
495     use the blktap driver you should check if the 'blktapctrl' user
496     space disk agent is running (usually automatically started via
497     xend).  This user-level disk I/O interface has the advantage of
498     better performance. Especially if you use a network file system
499     (e.g. NFS) to store your instances this is the recommended choice.
500
501
502 The ``--submit`` option is used to send the job to the master daemon
503 but not wait for its completion. The job ID will be shown so that it
504 can be examined via **gnt-job info**.
505
506 Example::
507
508     # gnt-instance add -t file --disk 0:size=30g -B memory=512 -o debian-etch \
509       -n node1.example.com --file-storage-dir=mysubdir instance1.example.com
510     # gnt-instance add -t plain --disk 0:size=30g -B memory=512 -o debian-etch \
511       -n node1.example.com instance1.example.com
512     # gnt-instance add -t plain --disk 0:size=30g --disk 1:size=100g,vg=san \
513       -B memory=512 -o debian-etch -n node1.example.com instance1.example.com
514     # gnt-instance add -t drbd --disk 0:size=30g -B memory=512 -o debian-etch \
515       -n node1.example.com:node2.example.com instance2.example.com
516
517
518 BATCH-CREATE
519 ^^^^^^^^^^^^
520
521 **batch-create** {instances\_file.json}
522
523 This command (similar to the Ganeti 1.2 **batcher** tool) submits
524 multiple instance creation jobs based on a definition file. The
525 instance configurations do not encompass all the possible options for
526 the **add** command, but only a subset.
527
528 The instance file should be a valid-formed JSON file, containing a
529 dictionary with instance name and instance parameters. The accepted
530 parameters are:
531
532 disk\_size
533     The size of the disks of the instance.
534
535 disk\_template
536     The disk template to use for the instance, the same as in the
537     **add** command.
538
539 backend
540     A dictionary of backend parameters.
541
542 hypervisor
543     A dictionary with a single key (the hypervisor name), and as value
544     the hypervisor options. If not passed, the default hypervisor and
545     hypervisor options will be inherited.
546
547 mac, ip, mode, link
548     Specifications for the one NIC that will be created for the
549     instance. 'bridge' is also accepted as a backwards compatibile
550     key.
551
552 nics
553     List of nics that will be created for the instance. Each entry
554     should be a dict, with mac, ip, mode and link as possible keys.
555     Please don't provide the "mac, ip, mode, link" parent keys if you
556     use this method for specifying nics.
557
558 primary\_node, secondary\_node
559     The primary and optionally the secondary node to use for the
560     instance (in case an iallocator script is not used).
561
562 iallocator
563     Instead of specifying the nodes, an iallocator script can be used
564     to automatically compute them.
565
566 start
567     whether to start the instance
568
569 ip\_check
570     Skip the check for already-in-use instance; see the description in
571     the **add** command for details.
572
573 name\_check
574     Skip the name check for instances; see the description in the
575     **add** command for details.
576
577 file\_storage\_dir, file\_driver
578     Configuration for the file disk type, see the **add** command for
579     details.
580
581
582 A simple definition for one instance can be (with most of the
583 parameters taken from the cluster defaults)::
584
585     {
586       "instance3": {
587         "template": "drbd",
588         "os": "debootstrap",
589         "disk_size": ["25G"],
590         "iallocator": "dumb"
591       },
592       "instance5": {
593         "template": "drbd",
594         "os": "debootstrap",
595         "disk_size": ["25G"],
596         "iallocator": "dumb",
597         "hypervisor": "xen-hvm",
598         "hvparams": {"acpi": true},
599         "backend": {"memory": 512}
600       }
601     }
602
603 The command will display the job id for each submitted instance, as
604 follows::
605
606     # gnt-instance batch-create instances.json
607     instance3: 11224
608     instance5: 11225
609
610 REMOVE
611 ^^^^^^
612
613 **remove** [--ignore-failures] [--shutdown-timeout=*N*] [--submit]
614 {*instance*}
615
616 Remove an instance. This will remove all data from the instance and
617 there is *no way back*. If you are not sure if you use an instance
618 again, use **shutdown** first and leave it in the shutdown state for a
619 while.
620
621 The ``--ignore-failures`` option will cause the removal to proceed
622 even in the presence of errors during the removal of the instance
623 (e.g. during the shutdown or the disk removal). If this option is not
624 given, the command will stop at the first error.
625
626 The ``--shutdown-timeout`` is used to specify how much time to wait
627 before forcing the shutdown (e.g. ``xm destroy`` in Xen, killing the
628 kvm process for KVM, etc.). By default two minutes are given to each
629 instance to stop.
630
631 The ``--submit`` option is used to send the job to the master daemon
632 but not wait for its completion. The job ID will be shown so that it
633 can be examined via **gnt-job info**.
634
635 Example::
636
637     # gnt-instance remove instance1.example.com
638
639
640 LIST
641 ^^^^
642
643 | **list**
644 | [--no-headers] [--separator=*SEPARATOR*] [--units=*UNITS*] [-v]
645 | [-o *[+]FIELD,...*] [instance...]
646
647 Shows the currently configured instances with memory usage, disk
648 usage, the node they are running on, and their run status.
649
650 The ``--no-headers`` option will skip the initial header line. The
651 ``--separator`` option takes an argument which denotes what will be
652 used between the output fields. Both these options are to help
653 scripting.
654
655 The units used to display the numeric values in the output varies,
656 depending on the options given. By default, the values will be
657 formatted in the most appropriate unit. If the ``--separator`` option
658 is given, then the values are shown in mebibytes to allow parsing by
659 scripts. In both cases, the ``--units`` option can be used to enforce
660 a given output unit.
661
662 The ``-v`` option activates verbose mode, which changes the display of
663 special field states (see **ganeti(7)**).
664
665 The ``-o`` option takes a comma-separated list of output fields. The
666 available fields and their meaning are:
667
668
669 name
670     the instance name
671
672 os
673     the OS of the instance
674
675 pnode
676     the primary node of the instance
677
678 snodes
679     comma-separated list of secondary nodes for the instance; usually
680     this will be just one node
681
682 admin\_state
683     the desired state of the instance (either "yes" or "no" denoting
684     the instance should run or not)
685
686 disk\_template
687     the disk template of the instance
688
689 oper\_state
690     the actual state of the instance; can be one of the values
691     "running", "stopped", "(node down)"
692
693 status
694     combined form of ``admin_state`` and ``oper_stat``; this can be one of:
695     ``ERROR_nodedown`` if the node of the instance is down, ``ERROR_down`` if
696     the instance should run but is down, ``ERROR_up`` if the instance should be
697     stopped but is actually running, ``ERROR_wrongnode`` if the instance is
698     running but not on the primary, ``ADMIN_down`` if the instance has been
699     stopped (and is stopped) and ``running`` if the instance is set to be
700     running (and is running)
701
702 oper\_ram
703     the actual memory usage of the instance as seen by the hypervisor
704
705 oper\_vcpus
706     the actual number of VCPUs the instance is using as seen by the
707     hypervisor
708
709 ip
710     the ip address Ganeti recognizes as associated with the first
711     instance interface
712
713 mac
714     the first instance interface MAC address
715
716 nic\_mode
717     the mode of the first instance NIC (routed or bridged)
718
719 nic\_link
720     the link of the first instance NIC
721
722 sda\_size
723     the size of the instance's first disk
724
725 sdb\_size
726     the size of the instance's second disk, if any
727
728 vcpus
729     the number of VCPUs allocated to the instance
730
731 tags
732     comma-separated list of the instances's tags
733
734 serial\_no
735     the so called 'serial number' of the instance; this is a numeric
736     field that is incremented each time the instance is modified, and
737     it can be used to track modifications
738
739 ctime
740     the creation time of the instance; note that this field contains
741     spaces and as such it's harder to parse
742
743     if this attribute is not present (e.g. when upgrading from older
744     versions), then "N/A" will be shown instead
745
746 mtime
747     the last modification time of the instance; note that this field
748     contains spaces and as such it's harder to parse
749
750     if this attribute is not present (e.g. when upgrading from older
751     versions), then "N/A" will be shown instead
752
753 uuid
754     Show the UUID of the instance (generated automatically by Ganeti)
755
756 network\_port
757     If the instance has a network port assigned to it (e.g. for VNC
758     connections), this will be shown, otherwise - will be displayed.
759
760 beparams
761     A text format of the entire beparams for the instance. It's more
762     useful to select individual fields from this dictionary, see
763     below.
764
765 disk.count
766     The number of instance disks.
767
768 disk.size/N
769     The size of the instance's Nth disk. This is a more generic form of
770     the sda\_size and sdb\_size fields.
771
772 disk.sizes
773     A comma-separated list of the disk sizes for this instance.
774
775 disk\_usage
776     The total disk space used by this instance on each of its nodes.
777     This is not the instance-visible disk size, but the actual disk
778     "cost" of the instance.
779
780 nic.mac/N
781     The MAC of the Nth instance NIC.
782
783 nic.ip/N
784     The IP address of the Nth instance NIC.
785
786 nic.mode/N
787     The mode of the Nth instance NIC
788
789 nic.link/N
790     The link of the Nth instance NIC
791
792 nic.macs
793     A comma-separated list of all the MACs of the instance's NICs.
794
795 nic.ips
796     A comma-separated list of all the IP addresses of the instance's
797     NICs.
798
799 nic.modes
800     A comma-separated list of all the modes of the instance's NICs.
801
802 nic.links
803     A comma-separated list of all the link parameters of the instance's
804     NICs.
805
806 nic.count
807     The number of instance nics.
808
809 hv/*NAME*
810     The value of the hypervisor parameter called *NAME*. For details of
811     what hypervisor parameters exist and their meaning, see the **add**
812     command.
813
814 be/memory
815     The configured memory for the instance.
816
817 be/vcpus
818     The configured number of VCPUs for the instance.
819
820 be/auto\_balance
821     Whether the instance is considered in N+1 checks.
822
823
824 If the value of the option starts with the character ``+``, the new
825 field(s) will be added to the default list. This allows to quickly see
826 the default list plus a few other fields, instead of retyping the
827 entire list of fields.
828
829 There is a subtle grouping about the available output fields: all
830 fields except for ``oper_state``, ``oper_ram``, ``oper_vcpus`` and
831 ``status`` are configuration value and not run-time values. So if you
832 don't select any of the these fields, the query will be satisfied
833 instantly from the cluster configuration, without having to ask the
834 remote nodes for the data. This can be helpful for big clusters when
835 you only want some data and it makes sense to specify a reduced set of
836 output fields.
837
838 The default output field list is: name, os, pnode, admin\_state,
839 oper\_state, oper\_ram.
840
841
842 LIST-FIELDS
843 ~~~~~~~~~~~
844
845 **list-fields** [field...]
846
847 Lists available fields for instances.
848
849
850 INFO
851 ^^^^
852
853 **info** [-s \| --static] [--roman] {--all \| *instance*}
854
855 Show detailed information about the given instance(s). This is
856 different from **list** as it shows detailed data about the instance's
857 disks (especially useful for the drbd disk template).
858
859 If the option ``-s`` is used, only information available in the
860 configuration file is returned, without querying nodes, making the
861 operation faster.
862
863 Use the ``--all`` to get info about all instances, rather than
864 explicitly passing the ones you're interested in.
865
866 The ``--roman`` option can be used to cause envy among people who like
867 ancient cultures, but are stuck with non-latin-friendly cluster
868 virtualization technologies.
869
870 MODIFY
871 ^^^^^^
872
873 | **modify**
874 | [-H *HYPERVISOR\_PARAMETERS*]
875 | [-B *BACKEND\_PARAMETERS*]
876 | [--net add*[:options]* \| --net remove \| --net *N:options*]
877 | [--disk add:size=*SIZE*[,vg=*VG*][,metavg=*VG*] \| --disk remove \|
878 |  --disk *N*:mode=*MODE*]
879 | [-t plain | -t drbd -n *new_secondary*]
880 | [--os-type=*OS* [--force-variant]]
881 | [-O, --os-parameters *param*=*value*... ]
882 | [--submit]
883 | {*instance*}
884
885 Modifies the memory size, number of vcpus, ip address, MAC address
886 and/or nic parameters for an instance. It can also add and remove
887 disks and NICs to/from the instance. Note that you need to give at
888 least one of the arguments, otherwise the command complains.
889
890 The ``-H``, ``-B`` and ``-O`` options specifies hypervisor, backend
891 and OS parameter options in the form of name=value[,...]. For details
892 which options can be specified, see the **add** command.
893
894 The ``-t`` option will change the disk template of the instance.
895 Currently only conversions between the plain and drbd disk templates
896 are supported, and the instance must be stopped before attempting the
897 conversion. When changing from the plain to the drbd disk template, a
898 new secondary node must be specified via the ``-n`` option.
899
900 The ``--disk add:size=``*SIZE* option adds a disk to the instance. The
901 optional ``vg=``*VG* option specifies LVM volume group other than
902 default vg to create the disk on. For DRBD disks, the ``metavg=``*VG*
903 option specifies the volume group for the metadata device. The
904 ``--disk remove`` option will remove the last disk of the
905 instance. The ``--disk`` *N*``:mode=``*MODE* option will change the
906 mode of the Nth disk of the instance between read-only (``ro``) and
907 read-write (``rw``).
908
909 The ``--net add:``*options* option will add a new NIC to the
910 instance. The available options are the same as in the **add** command
911 (mac, ip, link, mode). The ``--net remove`` will remove the last NIC
912 of the instance, while the ``--net`` *N*:*options* option will change
913 the parameters of the Nth instance NIC.
914
915 The option ``--os-type`` will change the OS name for the instance
916 (without reinstallation). In case an OS variant is specified that is
917 not found, then by default the modification is refused, unless
918 ``--force-variant`` is passed. An invalid OS will also be refused,
919 unless the ``--force`` option is given.
920
921 The ``--submit`` option is used to send the job to the master daemon
922 but not wait for its completion. The job ID will be shown so that it
923 can be examined via **gnt-job info**.
924
925 All the changes take effect at the next restart. If the instance is
926 running, there is no effect on the instance.
927
928 REINSTALL
929 ^^^^^^^^^
930
931 | **reinstall** [-o *os-type*] [--select-os] [-f *force*]
932 | [--force-multiple]
933 | [--instance \| --node \| --primary \| --secondary \| --all]
934 | [-O *OS\_PARAMETERS*] [--submit] {*instance*...}
935
936 Reinstalls the operating system on the given instance(s). The
937 instance(s) must be stopped when running this command. If the
938 ``--os-type`` is specified, the operating system is changed.
939
940 The ``--select-os`` option switches to an interactive OS reinstall.
941 The user is prompted to select the OS template from the list of
942 available OS templates. OS parameters can be overridden using ``-O``
943 (more documentation for this option under the **add** command).
944
945 Since this is a potentially dangerous command, the user will be
946 required to confirm this action, unless the ``-f`` flag is passed.
947 When multiple instances are selected (either by passing multiple
948 arguments or by using the ``--node``, ``--primary``, ``--secondary``
949 or ``--all`` options), the user must pass the ``--force-multiple``
950 options to skip the interactive confirmation.
951
952 The ``--submit`` option is used to send the job to the master daemon
953 but not wait for its completion. The job ID will be shown so that it
954 can be examined via **gnt-job info**.
955
956 RENAME
957 ^^^^^^
958
959 | **rename** [--no-ip-check] [--no-name-check] [--submit]
960 | {*instance*} {*new\_name*}
961
962 Renames the given instance. The instance must be stopped when running
963 this command. The requirements for the new name are the same as for
964 adding an instance: the new name must be resolvable and the IP it
965 resolves to must not be reachable (in order to prevent duplicate IPs
966 the next time the instance is started). The IP test can be skipped if
967 the ``--no-ip-check`` option is passed.
968
969 The ``--no-name-check`` skips the check for the new instance name via
970 the resolver (e.g. in DNS or /etc/hosts, depending on your
971 setup). Since the name check is used to compute the IP address, if you
972 pass this option you must also pass the ``--no-ip-check`` option.
973
974 The ``--submit`` option is used to send the job to the master daemon
975 but not wait for its completion. The job ID will be shown so that it
976 can be examined via **gnt-job info**.
977
978 Starting/stopping/connecting to console
979 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
980
981 STARTUP
982 ^^^^^^^
983
984 | **startup**
985 | [--force] [--ignore-offline]
986 | [--force-multiple]
987 | [--instance \| --node \| --primary \| --secondary \| --all \|
988 | --tags \| --node-tags \| --pri-node-tags \| --sec-node-tags]
989 | [-H ``key=value...``] [-B ``key=value...``]
990 | [--submit]
991 | {*name*...}
992
993 Starts one or more instances, depending on the following options.  The
994 four available modes are:
995
996 --instance
997     will start the instances given as arguments (at least one argument
998     required); this is the default selection
999
1000 --node
1001     will start the instances who have the given node as either primary
1002     or secondary
1003
1004 --primary
1005     will start all instances whose primary node is in the list of nodes
1006     passed as arguments (at least one node required)
1007
1008 --secondary
1009     will start all instances whose secondary node is in the list of
1010     nodes passed as arguments (at least one node required)
1011
1012 --all
1013     will start all instances in the cluster (no arguments accepted)
1014
1015 --tags
1016     will start all instances in the cluster with the tags given as
1017     arguments
1018
1019 --node-tags
1020     will start all instances in the cluster on nodes with the tags
1021     given as arguments
1022
1023 --pri-node-tags
1024     will start all instances in the cluster on primary nodes with the
1025     tags given as arguments
1026
1027 --sec-node-tags
1028     will start all instances in the cluster on secondary nodes with the
1029     tags given as arguments
1030
1031
1032 Note that although you can pass more than one selection option, the
1033 last one wins, so in order to guarantee the desired result, don't pass
1034 more than one such option.
1035
1036 Use ``--force`` to start even if secondary disks are failing.
1037 ``--ignore-offline`` can be used to ignore offline primary nodes and
1038 mark the instance as started even if the primary is not available.
1039
1040 The ``--force-multiple`` will skip the interactive confirmation in the
1041 case the more than one instance will be affected.
1042
1043 The ``-H`` and ``-B`` options specify temporary hypervisor and backend
1044 parameters that can be used to start an instance with modified
1045 parameters. They can be useful for quick testing without having to
1046 modify an instance back and forth, e.g.::
1047
1048     # gnt-instance start -H root_args="single" instance1
1049     # gnt-instance start -B memory=2048 instance2
1050
1051
1052 The first form will start the instance instance1 in single-user mode,
1053 and the instance instance2 with 2GB of RAM (this time only, unless
1054 that is the actual instance memory size already). Note that the values
1055 override the instance parameters (and not extend them): an instance
1056 with "root\_args=ro" when started with -H root\_args=single will
1057 result in "single", not "ro single".  The ``--submit`` option is used
1058 to send the job to the master daemon but not wait for its
1059 completion. The job ID will be shown so that it can be examined via
1060 **gnt-job info**.
1061
1062 Example::
1063
1064     # gnt-instance start instance1.example.com
1065     # gnt-instance start --node node1.example.com node2.example.com
1066     # gnt-instance start --all
1067
1068
1069 SHUTDOWN
1070 ^^^^^^^^
1071
1072 | **shutdown**
1073 | [--timeout=*N*]
1074 | [--force-multiple] [--ignore-offline]
1075 | [--instance \| --node \| --primary \| --secondary \| --all \|
1076 | --tags \| --node-tags \| --pri-node-tags \| --sec-node-tags]
1077 | [--submit]
1078 | {*name*...}
1079
1080 Stops one or more instances. If the instance cannot be cleanly stopped
1081 during a hardcoded interval (currently 2 minutes), it will forcibly
1082 stop the instance (equivalent to switching off the power on a physical
1083 machine).
1084
1085 The ``--timeout`` is used to specify how much time to wait before
1086 forcing the shutdown (e.g. ``xm destroy`` in Xen, killing the kvm
1087 process for KVM, etc.). By default two minutes are given to each
1088 instance to stop.
1089
1090 The ``--instance``, ``--node``, ``--primary``, ``--secondary``,
1091 ``--all``, ``--tags``, ``--node-tags``, ``--pri-node-tags`` and
1092 ``--sec-node-tags`` options are similar as for the **startup** command
1093 and they influence the actual instances being shutdown.
1094
1095 The ``--submit`` option is used to send the job to the master daemon
1096 but not wait for its completion. The job ID will be shown so that it
1097 can be examined via **gnt-job info**.
1098
1099 ``--ignore-offline`` can be used to ignore offline primary nodes and
1100 force the instance to be marked as stopped. This option should be used
1101 with care as it can lead to an inconsistent cluster state.
1102
1103 Example::
1104
1105     # gnt-instance shutdown instance1.example.com
1106     # gnt-instance shutdown --all
1107
1108
1109 REBOOT
1110 ^^^^^^
1111
1112 | **reboot**
1113 | [--type=*REBOOT-TYPE*]
1114 | [--ignore-secondaries]
1115 | [--shutdown-timeout=*N*]
1116 | [--force-multiple]
1117 | [--instance \| --node \| --primary \| --secondary \| --all \|
1118 | --tags \| --node-tags \| --pri-node-tags \| --sec-node-tags]
1119 | [--submit]
1120 | [*name*...]
1121
1122 Reboots one or more instances. The type of reboot depends on the value
1123 of ``--type``. A soft reboot does a hypervisor reboot, a hard reboot
1124 does a instance stop, recreates the hypervisor config for the instance
1125 and starts the instance. A full reboot does the equivalent of
1126 **gnt-instance shutdown && gnt-instance startup**.  The default is
1127 hard reboot.
1128
1129 For the hard reboot the option ``--ignore-secondaries`` ignores errors
1130 for the secondary node while re-assembling the instance disks.
1131
1132 The ``--instance``, ``--node``, ``--primary``, ``--secondary``,
1133 ``--all``, ``--tags``, ``--node-tags``, ``--pri-node-tags`` and
1134 ``--sec-node-tags`` options are similar as for the **startup** command
1135 and they influence the actual instances being rebooted.
1136
1137 The ``--shutdown-timeout`` is used to specify how much time to wait
1138 before forcing the shutdown (xm destroy in xen, killing the kvm
1139 process, for kvm). By default two minutes are given to each instance
1140 to stop.
1141
1142 The ``--force-multiple`` will skip the interactive confirmation in the
1143 case the more than one instance will be affected.
1144
1145 Example::
1146
1147     # gnt-instance reboot instance1.example.com
1148     # gnt-instance reboot --type=full instance1.example.com
1149
1150
1151 CONSOLE
1152 ^^^^^^^
1153
1154 **console** [--show-cmd] {*instance*}
1155
1156 Connects to the console of the given instance. If the instance is not
1157 up, an error is returned. Use the ``--show-cmd`` option to display the
1158 command instead of executing it.
1159
1160 For HVM instances, this will attempt to connect to the serial console
1161 of the instance. To connect to the virtualized "physical" console of a
1162 HVM instance, use a VNC client with the connection info from the
1163 **info** command.
1164
1165 Example::
1166
1167     # gnt-instance console instance1.example.com
1168
1169
1170 Disk management
1171 ~~~~~~~~~~~~~~~
1172
1173 REPLACE-DISKS
1174 ^^^^^^^^^^^^^
1175
1176 **replace-disks** [--submit] [--early-release] {-p} [--disks *idx*]
1177 {*instance*}
1178
1179 **replace-disks** [--submit] [--early-release] {-s} [--disks *idx*]
1180 {*instance*}
1181
1182 **replace-disks** [--submit] [--early-release] {--iallocator *name*
1183 \| --new-secondary *NODE*} {*instance*}
1184
1185 **replace-disks** [--submit] [--early-release] {--auto}
1186 {*instance*}
1187
1188 This command is a generalized form for replacing disks. It is
1189 currently only valid for the mirrored (DRBD) disk template.
1190
1191 The first form (when passing the ``-p`` option) will replace the disks
1192 on the primary, while the second form (when passing the ``-s`` option
1193 will replace the disks on the secondary node. For these two cases (as
1194 the node doesn't change), it is possible to only run the replace for a
1195 subset of the disks, using the option ``--disks`` which takes a list
1196 of comma-delimited disk indices (zero-based), e.g. 0,2 to replace only
1197 the first and third disks.
1198
1199 The third form (when passing either the ``--iallocator`` or the
1200 ``--new-secondary`` option) is designed to change secondary node of
1201 the instance. Specifying ``--iallocator`` makes the new secondary be
1202 selected automatically by the specified allocator plugin, otherwise
1203 the new secondary node will be the one chosen manually via the
1204 ``--new-secondary`` option.
1205
1206 The fourth form (when using ``--auto``) will automatically determine
1207 which disks of an instance are faulty and replace them within the same
1208 node. The ``--auto`` option works only when an instance has only
1209 faulty disks on either the primary or secondary node; it doesn't work
1210 when both sides have faulty disks.
1211
1212 The ``--submit`` option is used to send the job to the master daemon
1213 but not wait for its completion. The job ID will be shown so that it
1214 can be examined via **gnt-job info**.
1215
1216 The ``--early-release`` changes the code so that the old storage on
1217 secondary node(s) is removed early (before the resync is completed)
1218 and the internal Ganeti locks for the current (and new, if any)
1219 secondary node are also released, thus allowing more parallelism in
1220 the cluster operation. This should be used only when recovering from a
1221 disk failure on the current secondary (thus the old storage is already
1222 broken) or when the storage on the primary node is known to be fine
1223 (thus we won't need the old storage for potential recovery).
1224
1225 Note that it is not possible to select an offline or drained node as a
1226 new secondary.
1227
1228 ACTIVATE-DISKS
1229 ^^^^^^^^^^^^^^
1230
1231 **activate-disks** [--submit] [--ignore-size] {*instance*}
1232
1233 Activates the block devices of the given instance. If successful, the
1234 command will show the location and name of the block devices::
1235
1236     node1.example.com:disk/0:/dev/drbd0
1237     node1.example.com:disk/1:/dev/drbd1
1238
1239
1240 In this example, *node1.example.com* is the name of the node on which
1241 the devices have been activated. The *disk/0* and *disk/1* are the
1242 Ganeti-names of the instance disks; how they are visible inside the
1243 instance is hypervisor-specific. */dev/drbd0* and */dev/drbd1* are the
1244 actual block devices as visible on the node.  The ``--submit`` option
1245 is used to send the job to the master daemon but not wait for its
1246 completion. The job ID will be shown so that it can be examined via
1247 **gnt-job info**.
1248
1249 The ``--ignore-size`` option can be used to activate disks ignoring
1250 the currently configured size in Ganeti. This can be used in cases
1251 where the configuration has gotten out of sync with the real-world
1252 (e.g. after a partially-failed grow-disk operation or due to rounding
1253 in LVM devices). This should not be used in normal cases, but only
1254 when activate-disks fails without it.
1255
1256 Note that it is safe to run this command while the instance is already
1257 running.
1258
1259 DEACTIVATE-DISKS
1260 ^^^^^^^^^^^^^^^^
1261
1262 **deactivate-disks** [-f] [--submit] {*instance*}
1263
1264 De-activates the block devices of the given instance. Note that if you
1265 run this command for an instance with a drbd disk template, while it
1266 is running, it will not be able to shutdown the block devices on the
1267 primary node, but it will shutdown the block devices on the secondary
1268 nodes, thus breaking the replication.
1269
1270 The ``-f``/``--force`` option will skip checks that the instance is
1271 down; in case the hypervisor is confused and we can't talk to it,
1272 normally Ganeti will refuse to deactivate the disks, but with this
1273 option passed it will skip this check and directly try to deactivate
1274 the disks. This can still fail due to the instance actually running or
1275 other issues.
1276
1277 The ``--submit`` option is used to send the job to the master daemon
1278 but not wait for its completion. The job ID will be shown so that it
1279 can be examined via **gnt-job info**.
1280
1281 GROW-DISK
1282 ^^^^^^^^^
1283
1284 **grow-disk** [--no-wait-for-sync] [--submit] {*instance*} {*disk*}
1285 {*amount*}
1286
1287 Grows an instance's disk. This is only possible for instances having a
1288 plain or drbd disk template.
1289
1290 Note that this command only change the block device size; it will not
1291 grow the actual filesystems, partitions, etc. that live on that
1292 disk. Usually, you will need to:
1293
1294 #. use **gnt-instance grow-disk**
1295
1296 #. reboot the instance (later, at a convenient time)
1297
1298 #. use a filesystem resizer, such as ext2online(8) or
1299    xfs\_growfs(8) to resize the filesystem, or use fdisk(8) to change
1300    the partition table on the disk
1301
1302 The *disk* argument is the index of the instance disk to grow. The
1303 *amount* argument is given either as a number (and it represents the
1304 amount to increase the disk with in mebibytes) or can be given similar
1305 to the arguments in the create instance operation, with a suffix
1306 denoting the unit.
1307
1308 Note that the disk grow operation might complete on one node but fail
1309 on the other; this will leave the instance with different-sized LVs on
1310 the two nodes, but this will not create problems (except for unused
1311 space).
1312
1313 If you do not want gnt-instance to wait for the new disk region to be
1314 synced, use the ``--no-wait-for-sync`` option.
1315
1316 The ``--submit`` option is used to send the job to the master daemon
1317 but not wait for its completion. The job ID will be shown so that it
1318 can be examined via **gnt-job info**.
1319
1320 Example (increase the first disk for instance1 by 16GiB)::
1321
1322     # gnt-instance grow-disk instance1.example.com 0 16g
1323
1324
1325 Also note that disk shrinking is not supported; use **gnt-backup
1326 export** and then **gnt-backup import** to reduce the disk size of an
1327 instance.
1328
1329 RECREATE-DISKS
1330 ^^^^^^^^^^^^^^
1331
1332 **recreate-disks** [--submit] [--disks=``indices``] [-n node1:[node2]]
1333   {*instance*}
1334
1335 Recreates the disks of the given instance, or only a subset of the
1336 disks (if the option ``disks`` is passed, which must be a
1337 comma-separated list of disk indices, starting from zero).
1338
1339 Note that this functionality should only be used for missing disks; if
1340 any of the given disks already exists, the operation will fail.  While
1341 this is suboptimal, recreate-disks should hopefully not be needed in
1342 normal operation and as such the impact of this is low.
1343
1344 Optionally the instance's disks can be recreated on different
1345 nodes. This can be useful if, for example, the original nodes of the
1346 instance have gone down (and are marked offline), so we can't recreate
1347 on the same nodes. To do this, pass the new node(s) via ``-n`` option,
1348 with a syntax similar to the **add** command. The number of nodes
1349 passed must equal the number of nodes that the instance currently
1350 has. Note that changing nodes is only allowed for 'all disk'
1351 replacement (when ``--disks`` is not passed).
1352
1353 The ``--submit`` option is used to send the job to the master daemon
1354 but not wait for its completion. The job ID will be shown so that it
1355 can be examined via **gnt-job info**.
1356
1357 Recovery
1358 ~~~~~~~~
1359
1360 FAILOVER
1361 ^^^^^^^^
1362
1363 **failover** [-f] [--ignore-consistency] [--shutdown-timeout=*N*]
1364 [--submit] {*instance*}
1365
1366 Failover will fail the instance over its secondary node. This works
1367 only for instances having a drbd disk template.
1368
1369 Normally the failover will check the consistency of the disks before
1370 failing over the instance. If you are trying to migrate instances off
1371 a dead node, this will fail. Use the ``--ignore-consistency`` option
1372 for this purpose. Note that this option can be dangerous as errors in
1373 shutting down the instance will be ignored, resulting in possibly
1374 having the instance running on two machines in parallel (on
1375 disconnected DRBD drives).
1376
1377 The ``--shutdown-timeout`` is used to specify how much time to wait
1378 before forcing the shutdown (xm destroy in xen, killing the kvm
1379 process, for kvm). By default two minutes are given to each instance
1380 to stop.
1381
1382 The ``--submit`` option is used to send the job to the master daemon
1383 but not wait for its completion. The job ID will be shown so that it
1384 can be examined via **gnt-job info**.
1385
1386 Example::
1387
1388     # gnt-instance failover instance1.example.com
1389
1390
1391 MIGRATE
1392 ^^^^^^^
1393
1394 **migrate** [-f] {--cleanup} {*instance*}
1395
1396 **migrate** [-f] [--non-live] [--migration-mode=live\|non-live]
1397 {*instance*}
1398
1399 Migrate will move the instance to its secondary node without
1400 shutdown. It only works for instances having the drbd8 disk template
1401 type.
1402
1403 The migration command needs a perfectly healthy instance, as we rely
1404 on the dual-master capability of drbd8 and the disks of the instance
1405 are not allowed to be degraded.
1406
1407 The ``--non-live`` and ``--migration-mode=non-live`` options will
1408 switch (for the hypervisors that support it) between a "fully live"
1409 (i.e. the interruption is as minimal as possible) migration and one in
1410 which the instance is frozen, its state saved and transported to the
1411 remote node, and then resumed there. This all depends on the
1412 hypervisor support for two different methods. In any case, it is not
1413 an error to pass this parameter (it will just be ignored if the
1414 hypervisor doesn't support it). The option ``--migration-mode=live``
1415 option will request a fully-live migration. The default, when neither
1416 option is passed, depends on the hypervisor parameters (and can be
1417 viewed with the **gnt-cluster info** command).
1418
1419 If the ``--cleanup`` option is passed, the operation changes from
1420 migration to attempting recovery from a failed previous migration.  In
1421 this mode, Ganeti checks if the instance runs on the correct node (and
1422 updates its configuration if not) and ensures the instances's disks
1423 are configured correctly. In this mode, the ``--non-live`` option is
1424 ignored.
1425
1426 The option ``-f`` will skip the prompting for confirmation.
1427
1428 Example (and expected output)::
1429
1430     # gnt-instance migrate instance1
1431     Migrate will happen to the instance instance1. Note that migration is
1432     **experimental** in this version. This might impact the instance if
1433     anything goes wrong. Continue?
1434     y/[n]/?: y
1435     * checking disk consistency between source and target
1436     * ensuring the target is in secondary mode
1437     * changing disks into dual-master mode
1438      - INFO: Waiting for instance instance1 to sync disks.
1439      - INFO: Instance instance1's disks are in sync.
1440     * migrating instance to node2.example.com
1441     * changing the instance's disks on source node to secondary
1442      - INFO: Waiting for instance instance1 to sync disks.
1443      - INFO: Instance instance1's disks are in sync.
1444     * changing the instance's disks to single-master
1445     #
1446
1447
1448 MOVE
1449 ^^^^
1450
1451 **move** [-f] [-n *node*] [--shutdown-timeout=*N*] [--submit]
1452 {*instance*}
1453
1454 Move will move the instance to an arbitrary node in the cluster.  This
1455 works only for instances having a plain or file disk template.
1456
1457 Note that since this operation is done via data copy, it will take a
1458 long time for big disks (similar to replace-disks for a drbd
1459 instance).
1460
1461 The ``--shutdown-timeout`` is used to specify how much time to wait
1462 before forcing the shutdown (e.g. ``xm destroy`` in XEN, killing the
1463 kvm process for KVM, etc.). By default two minutes are given to each
1464 instance to stop.
1465
1466 The ``--submit`` option is used to send the job to the master daemon
1467 but not wait for its completion. The job ID will be shown so that it
1468 can be examined via **gnt-job info**.
1469
1470 Example::
1471
1472     # gnt-instance move -n node3.example.com instance1.example.com
1473
1474
1475 TAGS
1476 ~~~~
1477
1478 ADD-TAGS
1479 ^^^^^^^^
1480
1481 **add-tags** [--from *file*] {*instancename*} {*tag*...}
1482
1483 Add tags to the given instance. If any of the tags contains invalid
1484 characters, the entire operation will abort.
1485
1486 If the ``--from`` option is given, the list of tags will be extended
1487 with the contents of that file (each line becomes a tag).  In this
1488 case, there is not need to pass tags on the command line (if you do,
1489 both sources will be used). A file name of ``-`` will be interpreted
1490 as stdin.
1491
1492 LIST-TAGS
1493 ^^^^^^^^^
1494
1495 **list-tags** {*instancename*}
1496
1497 List the tags of the given instance.
1498
1499 REMOVE-TAGS
1500 ^^^^^^^^^^^
1501
1502 **remove-tags** [--from *file*] {*instancename*} {*tag*...}
1503
1504 Remove tags from the given instance. If any of the tags are not
1505 existing on the node, the entire operation will abort.
1506
1507 If the ``--from`` option is given, the list of tags to be removed will
1508 be extended with the contents of that file (each line becomes a tag).
1509 In this case, there is not need to pass tags on the command line (if
1510 you do, tags from both sources will be removed). A file name of ``-``
1511 will be interpreted as stdin.