Add --no-wait-for-sync when converting to drbd
[ganeti-local] / man / gnt-instance.rst
1 gnt-instance(8) Ganeti | Version @GANETI_VERSION@
2 =================================================
3
4 Name
5 ----
6
7 gnt-instance - Ganeti instance administration
8
9 Synopsis
10 --------
11
12 **gnt-instance** {command} [arguments...]
13
14 DESCRIPTION
15 -----------
16
17 The **gnt-instance** command is used for instance administration in
18 the Ganeti system.
19
20 COMMANDS
21 --------
22
23 Creation/removal/querying
24 ~~~~~~~~~~~~~~~~~~~~~~~~~
25
26 ADD
27 ^^^
28
29 | **add**
30 | {-t {diskless | file \| plain \| drbd}}
31 | {--disk=*N*: {size=*VAL* \| adopt=*LV*}[,vg=*VG*][,metavg=*VG*][,mode=*ro\|rw*]
32 |  \| -s *SIZE*}
33 | [--no-ip-check] [--no-name-check] [--no-start] [--no-install]
34 | [--net=*N* [:options...] \| --no-nics]
35 | [-B *BEPARAMS*]
36 | [-H *HYPERVISOR* [: option=*value*... ]]
37 | [-O, --os-parameters *param*=*value*... ]
38 | [--file-storage-dir *dir\_path*] [--file-driver {loop \| blktap}]
39 | {-n *node[:secondary-node]* \| --iallocator *name*}
40 | {-o *os-type*}
41 | [--submit]
42 | {*instance*}
43
44 Creates a new instance on the specified host. The *instance* argument
45 must be in DNS, but depending on the bridge/routing setup, need not be
46 in the same network as the nodes in the cluster.
47
48 The ``disk`` option specifies the parameters for the disks of the
49 instance. The numbering of disks starts at zero, and at least one disk
50 needs to be passed. For each disk, either the size or the adoption
51 source needs to be given, and optionally the access mode (read-only or
52 the default of read-write) and the LVM volume group can also be
53 specified (via the ``vg`` key). For DRBD devices, a different VG can
54 be specified for the metadata device using the ``metavg`` key.  The
55 size is interpreted (when no unit is given) in mebibytes. You can also
56 use one of the suffixes *m*, *g* or *t* to specify the exact the units
57 used; these suffixes map to mebibytes, gibibytes and tebibytes.
58
59 When using the ``adopt`` key in the disk definition, Ganeti will
60 reuse those volumes (instead of creating new ones) as the
61 instance's disks. Ganeti will rename these volumes to the standard
62 format, and (without installing the OS) will use them as-is for the
63 instance. This allows migrating instances from non-managed mode
64 (e.q. plain KVM with LVM) to being managed via Ganeti. Note that
65 this works only for the \`plain' disk template (see below for
66 template details).
67
68 Alternatively, a single-disk instance can be created via the ``-s``
69 option which takes a single argument, the size of the disk. This is
70 similar to the Ganeti 1.2 version (but will only create one disk).
71
72 The minimum disk specification is therefore ``--disk 0:size=20G`` (or
73 ``-s 20G`` when using the ``-s`` option), and a three-disk instance
74 can be specified as ``--disk 0:size=20G --disk 1:size=4G --disk
75 2:size=100G``.
76
77 The ``--no-ip-check`` skips the checks that are done to see if the
78 instance's IP is not already alive (i.e. reachable from the master
79 node).
80
81 The ``--no-name-check`` skips the check for the instance name via
82 the resolver (e.g. in DNS or /etc/hosts, depending on your setup).
83 Since the name check is used to compute the IP address, if you pass
84 this option you must also pass the ``--no-ip-check`` option.
85
86 If you don't wat the instance to automatically start after
87 creation, this is possible via the ``--no-start`` option. This will
88 leave the instance down until a subsequent **gnt-instance start**
89 command.
90
91 The NICs of the instances can be specified via the ``--net``
92 option. By default, one NIC is created for the instance, with a
93 random MAC, and set up according the the cluster level nic
94 parameters. Each NIC can take these parameters (all optional):
95
96
97
98 mac
99     either a value or 'generate' to generate a new unique MAC
100
101 ip
102     specifies the IP address assigned to the instance from the Ganeti
103     side (this is not necessarily what the instance will use, but what
104     the node expects the instance to use)
105
106 mode
107     specifies the connection mode for this nic: routed or bridged.
108
109 link
110     in bridged mode specifies the bridge to attach this NIC to, in
111     routed mode it's intended to differentiate between different
112     routing tables/instance groups (but the meaning is dependent on
113     the network script, see gnt-cluster(8) for more details)
114
115
116 Of these "mode" and "link" are nic parameters, and inherit their
117 default at cluster level.  Alternatively, if no network is desired for
118 the instance, you can prevent the default of one NIC with the
119 ``--no-nics`` option.
120
121 The ``-o`` options specifies the operating system to be installed.
122 The available operating systems can be listed with **gnt-os list**.
123 Passing ``--no-install`` will however skip the OS installation,
124 allowing a manual import if so desired. Note that the no-installation
125 mode will automatically disable the start-up of the instance (without
126 an OS, it most likely won't be able to start-up successfully).
127
128 The ``-B`` option specifies the backend parameters for the
129 instance. If no such parameters are specified, the values are
130 inherited from the cluster. Possible parameters are:
131
132 memory
133     the memory size of the instance; as usual, suffixes can be used to
134     denote the unit, otherwise the value is taken in mebibites
135
136 vcpus
137     the number of VCPUs to assign to the instance (if this value makes
138     sense for the hypervisor)
139
140 auto\_balance
141     whether the instance is considered in the N+1 cluster checks
142     (enough redundancy in the cluster to survive a node failure)
143
144
145 The ``-H`` option specified the hypervisor to use for the instance
146 (must be one of the enabled hypervisors on the cluster) and optionally
147 custom parameters for this instance. If not other options are used
148 (i.e. the invocation is just -H *NAME*) the instance will inherit the
149 cluster options. The defaults below show the cluster defaults at
150 cluster creation time.
151
152 The possible hypervisor options are as follows:
153
154 boot\_order
155     Valid for the Xen HVM and KVM hypervisors.
156
157     A string value denoting the boot order. This has different meaning
158     for the Xen HVM hypervisor and for the KVM one.
159
160     For Xen HVM, The boot order is a string of letters listing the boot
161     devices, with valid device letters being:
162
163     a
164         floppy drive
165
166     c
167         hard disk
168
169     d
170         CDROM drive
171
172     n
173         network boot (PXE)
174
175     The default is not to set an HVM boot order which is interpreted
176     as 'dc'.
177
178     For KVM the boot order is either "floppy", "cdrom", "disk" or
179     "network".  Please note that older versions of KVM couldn't
180     netboot from virtio interfaces. This has been fixed in more recent
181     versions and is confirmed to work at least with qemu-kvm 0.11.1.
182
183 blockdev\_prefix
184     Valid for the Xen HVM and PVM hypervisors.
185
186     Relevant to nonpvops guest kernels, in which the disk device names
187     are given by the host.  Allows to specify 'xvd', which helps run
188     Red Hat based installers, driven by anaconda.
189
190 floppy\_image\_path
191     Valid for the KVM hypervisor.
192
193     The path to a floppy disk image to attach to the instance.  This
194     is useful to install Windows operating systems on Virt/IO disks
195     because you can specify here the floppy for the drivers at
196     installation time.
197
198 cdrom\_image\_path
199     Valid for the Xen HVM and KVM hypervisors.
200
201     The path to a CDROM image to attach to the instance.
202
203 cdrom2\_image\_path
204     Valid for the KVM hypervisor.
205
206     The path to a second CDROM image to attach to the instance.
207     **NOTE**: This image can't be used to boot the system. To do that
208     you have to use the 'cdrom\_image\_path' option.
209
210 nic\_type
211     Valid for the Xen HVM and KVM hypervisors.
212
213     This parameter determines the way the network cards are presented
214     to the instance. The possible options are:
215
216     rtl8139 (default for Xen HVM) (HVM & KVM)
217     ne2k\_isa (HVM & KVM)
218     ne2k\_pci (HVM & KVM)
219     i82551 (KVM)
220     i82557b (KVM)
221     i82559er (KVM)
222     pcnet (KVM)
223     e1000 (KVM)
224     paravirtual (default for KVM) (HVM & KVM)
225
226 disk\_type
227     Valid for the Xen HVM and KVM hypervisors.
228
229     This parameter determines the way the disks are presented to the
230     instance. The possible options are:
231
232     - ioemu [default] (HVM & KVM)
233     - ide (HVM & KVM)
234     - scsi (KVM)
235     - sd (KVM)
236     - mtd (KVM)
237     - pflash (KVM)
238
239
240 cdrom\_disk\_type
241     Valid for the KVM hypervisor.
242
243     This parameter determines the way the cdroms disks are presented
244     to the instance. The default behavior is to get the same value of
245     the eariler parameter (disk_type). The possible options are:
246
247     - paravirtual
248     - ide
249     - scsi
250     - sd
251     - mtd
252     - pflash
253
254
255 vnc\_bind\_address
256     Valid for the Xen HVM and KVM hypervisors.
257
258     Specifies the address that the VNC listener for this instance
259     should bind to. Valid values are IPv4 addresses. Use the address
260     0.0.0.0 to bind to all available interfaces (this is the default)
261     or specify the address of one of the interfaces on the node to
262     restrict listening to that interface.
263
264 vnc\_tls
265     Valid for the KVM hypervisor.
266
267     A boolean option that controls whether the VNC connection is
268     secured with TLS.
269
270 vnc\_x509\_path
271     Valid for the KVM hypervisor.
272
273     If ``vnc_tls`` is enabled, this options specifies the path to the
274     x509 certificate to use.
275
276 vnc\_x509\_verify
277     Valid for the KVM hypervisor.
278
279 acpi
280     Valid for the Xen HVM and KVM hypervisors.
281
282     A boolean option that specifies if the hypervisor should enable
283     ACPI support for this instance. By default, ACPI is disabled.
284
285 pae
286     Valid for the Xen HVM and KVM hypervisors.
287
288     A boolean option that specifies if the hypervisor should enabled
289     PAE support for this instance. The default is false, disabling PAE
290     support.
291
292 use\_localtime
293     Valid for the Xen HVM and KVM hypervisors.
294
295     A boolean option that specifies if the instance should be started
296     with its clock set to the localtime of the machine (when true) or
297     to the UTC (When false). The default is false, which is useful for
298     Linux/Unix machines; for Windows OSes, it is recommended to enable
299     this parameter.
300
301 kernel\_path
302     Valid for the Xen PVM and KVM hypervisors.
303
304     This option specifies the path (on the node) to the kernel to boot
305     the instance with. Xen PVM instances always require this, while
306     for KVM if this option is empty, it will cause the machine to load
307     the kernel from its disks.
308
309 kernel\_args
310     Valid for the Xen PVM and KVM hypervisors.
311
312     This options specifies extra arguments to the kernel that will be
313     loaded. device. This is always used for Xen PVM, while for KVM it
314     is only used if the ``kernel_path`` option is also specified.
315
316     The default setting for this value is simply ``"ro"``, which
317     mounts the root disk (initially) in read-only one. For example,
318     setting this to single will cause the instance to start in
319     single-user mode.
320
321 initrd\_path
322     Valid for the Xen PVM and KVM hypervisors.
323
324     This option specifies the path (on the node) to the initrd to boot
325     the instance with. Xen PVM instances can use this always, while
326     for KVM if this option is only used if the ``kernel_path`` option
327     is also specified. You can pass here either an absolute filename
328     (the path to the initrd) if you want to use an initrd, or use the
329     format no\_initrd\_path for no initrd.
330
331 root\_path
332     Valid for the Xen PVM and KVM hypervisors.
333
334     This options specifies the name of the root device. This is always
335     needed for Xen PVM, while for KVM it is only used if the
336     ``kernel_path`` option is also specified.
337
338 serial\_console
339     Valid for the KVM hypervisor.
340
341     This boolean option specifies whether to emulate a serial console
342     for the instance.
343
344 disk\_cache
345     Valid for the KVM hypervisor.
346
347     The disk cache mode. It can be either default to not pass any
348     cache option to KVM, or one of the KVM cache modes: none (for
349     direct I/O), writethrough (to use the host cache but report
350     completion to the guest only when the host has committed the
351     changes to disk) or writeback (to use the host cache and report
352     completion as soon as the data is in the host cache). Note that
353     there are special considerations for the cache mode depending on
354     version of KVM used and disk type (always raw file under Ganeti),
355     please refer to the KVM documentation for more details.
356
357 security\_model
358     Valid for the KVM hypervisor.
359
360     The security model for kvm. Currently one of *none*, *user* or
361     *pool*. Under *none*, the default, nothing is done and instances
362     are run as the Ganeti daemon user (normally root).
363
364     Under *user* kvm will drop privileges and become the user
365     specified by the security\_domain parameter.
366
367     Under *pool* a global cluster pool of users will be used, making
368     sure no two instances share the same user on the same node. (this
369     mode is not implemented yet)
370
371 security\_domain
372     Valid for the KVM hypervisor.
373
374     Under security model *user* the username to run the instance
375     under.  It must be a valid username existing on the host.
376
377     Cannot be set under security model *none* or *pool*.
378
379 kvm\_flag
380     Valid for the KVM hypervisor.
381
382     If *enabled* the -enable-kvm flag is passed to kvm. If *disabled*
383     -disable-kvm is passed. If unset no flag is passed, and the
384     default running mode for your kvm binary will be used.
385
386 mem\_path
387     Valid for the KVM hypervisor.
388
389     This option passes the -mem-path argument to kvm with the path (on
390     the node) to the mount point of the hugetlbfs file system, along
391     with the -mem-prealloc argument too.
392
393 use\_chroot
394     Valid for the KVM hypervisor.
395
396     This boolean option determines wether to run the KVM instance in a
397     chroot directory.
398
399     If it is set to ``true``, an empty directory is created before
400     starting the instance and its path is passed via the -chroot flag
401     to kvm. The directory is removed when the instance is stopped.
402
403     It is set to ``false`` by default.
404
405 migration\_downtime
406     Valid for the KVM hypervisor.
407
408     The maximum amount of time (in ms) a KVM instance is allowed to be
409     frozen during a live migration, in order to copy dirty memory
410     pages. Default value is 30ms, but you may need to increase this
411     value for busy instances.
412
413     This option is only effective with kvm versions >= 87 and qemu-kvm
414     versions >= 0.11.0.
415
416 cpu\_mask
417     Valid for the LXC hypervisor.
418
419     The processes belonging to the given instance are only scheduled
420     on the specified CPUs.
421
422     The parameter format is a comma-separated list of CPU IDs or CPU
423     ID ranges. The ranges are defined by a lower and higher boundary,
424     separated by a dash. The boundaries are inclusive.
425
426 usb\_mouse
427     Valid for the KVM hypervisor.
428
429     This option specifies the usb mouse type to be used. It can be
430     "mouse" or "tablet". When using VNC it's recommended to set it to
431     "tablet".
432
433
434 The ``-O`` (``--os-parameters``) option allows customisation of the OS
435 parameters. The actual parameter names and values depends on the OS
436 being used, but the syntax is the same key=value. For example, setting
437 a hypothetical ``dhcp`` parameter to yes can be achieved by::
438
439     gnt-instance add -O dhcp=yes ...
440
441
442 The ``--iallocator`` option specifies the instance allocator plugin to
443 use. If you pass in this option the allocator will select nodes for
444 this instance automatically, so you don't need to pass them with the
445 ``-n`` option. For more information please refer to the instance
446 allocator documentation.
447
448 The ``-t`` options specifies the disk layout type for the instance.
449 The available choices are:
450
451 diskless
452     This creates an instance with no disks. Its useful for testing only
453     (or other special cases).
454
455 file
456     Disk devices will be regular files.
457
458 plain
459     Disk devices will be logical volumes.
460
461 drbd
462     Disk devices will be drbd (version 8.x) on top of lvm volumes.
463
464
465 The optional second value of the ``--node`` is used for the drbd
466 template type and specifies the remote node.
467
468 If you do not want gnt-instance to wait for the disk mirror to be
469 synced, use the ``--no-wait-for-sync`` option.
470
471 The ``--file-storage-dir`` specifies the relative path under the
472 cluster-wide file storage directory to store file-based disks. It is
473 useful for having different subdirectories for different
474 instances. The full path of the directory where the disk files are
475 stored will consist of cluster-wide file storage directory + optional
476 subdirectory + instance name. Example:
477 ``@RPL_FILE_STORAGE_DIR@``*/mysubdir/instance1.example.com*. This
478 option is only relevant for instances using the file storage backend.
479
480 The ``--file-driver`` specifies the driver to use for file-based
481 disks. Note that currently these drivers work with the xen hypervisor
482 only. This option is only relevant for instances using the file
483 storage backend. The available choices are:
484
485 loop
486     Kernel loopback driver. This driver uses loopback devices to
487     access the filesystem within the file. However, running I/O
488     intensive applications in your instance using the loop driver
489     might result in slowdowns. Furthermore, if you use the loopback
490     driver consider increasing the maximum amount of loopback devices
491     (on most systems it's 8) using the max\_loop param.
492
493 blktap
494     The blktap driver (for Xen hypervisors). In order to be able to
495     use the blktap driver you should check if the 'blktapctrl' user
496     space disk agent is running (usually automatically started via
497     xend).  This user-level disk I/O interface has the advantage of
498     better performance. Especially if you use a network file system
499     (e.g. NFS) to store your instances this is the recommended choice.
500
501
502 The ``--submit`` option is used to send the job to the master daemon
503 but not wait for its completion. The job ID will be shown so that it
504 can be examined via **gnt-job info**.
505
506 Example::
507
508     # gnt-instance add -t file --disk 0:size=30g -B memory=512 -o debian-etch \
509       -n node1.example.com --file-storage-dir=mysubdir instance1.example.com
510     # gnt-instance add -t plain --disk 0:size=30g -B memory=512 -o debian-etch \
511       -n node1.example.com instance1.example.com
512     # gnt-instance add -t plain --disk 0:size=30g --disk 1:size=100g,vg=san \
513       -B memory=512 -o debian-etch -n node1.example.com instance1.example.com
514     # gnt-instance add -t drbd --disk 0:size=30g -B memory=512 -o debian-etch \
515       -n node1.example.com:node2.example.com instance2.example.com
516
517
518 BATCH-CREATE
519 ^^^^^^^^^^^^
520
521 **batch-create** {instances\_file.json}
522
523 This command (similar to the Ganeti 1.2 **batcher** tool) submits
524 multiple instance creation jobs based on a definition file. The
525 instance configurations do not encompass all the possible options for
526 the **add** command, but only a subset.
527
528 The instance file should be a valid-formed JSON file, containing a
529 dictionary with instance name and instance parameters. The accepted
530 parameters are:
531
532 disk\_size
533     The size of the disks of the instance.
534
535 disk\_template
536     The disk template to use for the instance, the same as in the
537     **add** command.
538
539 backend
540     A dictionary of backend parameters.
541
542 hypervisor
543     A dictionary with a single key (the hypervisor name), and as value
544     the hypervisor options. If not passed, the default hypervisor and
545     hypervisor options will be inherited.
546
547 mac, ip, mode, link
548     Specifications for the one NIC that will be created for the
549     instance. 'bridge' is also accepted as a backwards compatibile
550     key.
551
552 nics
553     List of nics that will be created for the instance. Each entry
554     should be a dict, with mac, ip, mode and link as possible keys.
555     Please don't provide the "mac, ip, mode, link" parent keys if you
556     use this method for specifying nics.
557
558 primary\_node, secondary\_node
559     The primary and optionally the secondary node to use for the
560     instance (in case an iallocator script is not used).
561
562 iallocator
563     Instead of specifying the nodes, an iallocator script can be used
564     to automatically compute them.
565
566 start
567     whether to start the instance
568
569 ip\_check
570     Skip the check for already-in-use instance; see the description in
571     the **add** command for details.
572
573 name\_check
574     Skip the name check for instances; see the description in the
575     **add** command for details.
576
577 file\_storage\_dir, file\_driver
578     Configuration for the file disk type, see the **add** command for
579     details.
580
581
582 A simple definition for one instance can be (with most of the
583 parameters taken from the cluster defaults)::
584
585     {
586       "instance3": {
587         "template": "drbd",
588         "os": "debootstrap",
589         "disk_size": ["25G"],
590         "iallocator": "dumb"
591       },
592       "instance5": {
593         "template": "drbd",
594         "os": "debootstrap",
595         "disk_size": ["25G"],
596         "iallocator": "dumb",
597         "hypervisor": "xen-hvm",
598         "hvparams": {"acpi": true},
599         "backend": {"memory": 512}
600       }
601     }
602
603 The command will display the job id for each submitted instance, as
604 follows::
605
606     # gnt-instance batch-create instances.json
607     instance3: 11224
608     instance5: 11225
609
610 REMOVE
611 ^^^^^^
612
613 **remove** [--ignore-failures] [--shutdown-timeout=*N*] [--submit]
614 {*instance*}
615
616 Remove an instance. This will remove all data from the instance and
617 there is *no way back*. If you are not sure if you use an instance
618 again, use **shutdown** first and leave it in the shutdown state for a
619 while.
620
621 The ``--ignore-failures`` option will cause the removal to proceed
622 even in the presence of errors during the removal of the instance
623 (e.g. during the shutdown or the disk removal). If this option is not
624 given, the command will stop at the first error.
625
626 The ``--shutdown-timeout`` is used to specify how much time to wait
627 before forcing the shutdown (e.g. ``xm destroy`` in Xen, killing the
628 kvm process for KVM, etc.). By default two minutes are given to each
629 instance to stop.
630
631 The ``--submit`` option is used to send the job to the master daemon
632 but not wait for its completion. The job ID will be shown so that it
633 can be examined via **gnt-job info**.
634
635 Example::
636
637     # gnt-instance remove instance1.example.com
638
639
640 LIST
641 ^^^^
642
643 | **list**
644 | [--no-headers] [--separator=*SEPARATOR*] [--units=*UNITS*] [-v]
645 | [-o *[+]FIELD,...*] [instance...]
646
647 Shows the currently configured instances with memory usage, disk
648 usage, the node they are running on, and their run status.
649
650 The ``--no-headers`` option will skip the initial header line. The
651 ``--separator`` option takes an argument which denotes what will be
652 used between the output fields. Both these options are to help
653 scripting.
654
655 The units used to display the numeric values in the output varies,
656 depending on the options given. By default, the values will be
657 formatted in the most appropriate unit. If the ``--separator`` option
658 is given, then the values are shown in mebibytes to allow parsing by
659 scripts. In both cases, the ``--units`` option can be used to enforce
660 a given output unit.
661
662 The ``-v`` option activates verbose mode, which changes the display of
663 special field states (see **ganeti(7)**).
664
665 The ``-o`` option takes a comma-separated list of output fields. The
666 available fields and their meaning are:
667
668
669 name
670     the instance name
671
672 os
673     the OS of the instance
674
675 pnode
676     the primary node of the instance
677
678 snodes
679     comma-separated list of secondary nodes for the instance; usually
680     this will be just one node
681
682 admin\_state
683     the desired state of the instance (either "yes" or "no" denoting
684     the instance should run or not)
685
686 disk\_template
687     the disk template of the instance
688
689 oper\_state
690     the actual state of the instance; can be one of the values
691     "running", "stopped", "(node down)"
692
693 status
694     combined form of ``admin_state`` and ``oper_stat``; this can be one of:
695     ``ERROR_nodedown`` if the node of the instance is down, ``ERROR_down`` if
696     the instance should run but is down, ``ERROR_up`` if the instance should be
697     stopped but is actually running, ``ERROR_wrongnode`` if the instance is
698     running but not on the primary, ``ADMIN_down`` if the instance has been
699     stopped (and is stopped) and ``running`` if the instance is set to be
700     running (and is running)
701
702 oper\_ram
703     the actual memory usage of the instance as seen by the hypervisor
704
705 oper\_vcpus
706     the actual number of VCPUs the instance is using as seen by the
707     hypervisor
708
709 ip
710     the ip address Ganeti recognizes as associated with the first
711     instance interface
712
713 mac
714     the first instance interface MAC address
715
716 nic\_mode
717     the mode of the first instance NIC (routed or bridged)
718
719 nic\_link
720     the link of the first instance NIC
721
722 sda\_size
723     the size of the instance's first disk
724
725 sdb\_size
726     the size of the instance's second disk, if any
727
728 vcpus
729     the number of VCPUs allocated to the instance
730
731 tags
732     comma-separated list of the instances's tags
733
734 serial\_no
735     the so called 'serial number' of the instance; this is a numeric
736     field that is incremented each time the instance is modified, and
737     it can be used to track modifications
738
739 ctime
740     the creation time of the instance; note that this field contains
741     spaces and as such it's harder to parse
742
743     if this attribute is not present (e.g. when upgrading from older
744     versions), then "N/A" will be shown instead
745
746 mtime
747     the last modification time of the instance; note that this field
748     contains spaces and as such it's harder to parse
749
750     if this attribute is not present (e.g. when upgrading from older
751     versions), then "N/A" will be shown instead
752
753 uuid
754     Show the UUID of the instance (generated automatically by Ganeti)
755
756 network\_port
757     If the instance has a network port assigned to it (e.g. for VNC
758     connections), this will be shown, otherwise - will be displayed.
759
760 beparams
761     A text format of the entire beparams for the instance. It's more
762     useful to select individual fields from this dictionary, see
763     below.
764
765 disk.count
766     The number of instance disks.
767
768 disk.size/N
769     The size of the instance's Nth disk. This is a more generic form of
770     the sda\_size and sdb\_size fields.
771
772 disk.sizes
773     A comma-separated list of the disk sizes for this instance.
774
775 disk\_usage
776     The total disk space used by this instance on each of its nodes.
777     This is not the instance-visible disk size, but the actual disk
778     "cost" of the instance.
779
780 nic.mac/N
781     The MAC of the Nth instance NIC.
782
783 nic.ip/N
784     The IP address of the Nth instance NIC.
785
786 nic.mode/N
787     The mode of the Nth instance NIC
788
789 nic.link/N
790     The link of the Nth instance NIC
791
792 nic.macs
793     A comma-separated list of all the MACs of the instance's NICs.
794
795 nic.ips
796     A comma-separated list of all the IP addresses of the instance's
797     NICs.
798
799 nic.modes
800     A comma-separated list of all the modes of the instance's NICs.
801
802 nic.links
803     A comma-separated list of all the link parameters of the instance's
804     NICs.
805
806 nic.count
807     The number of instance nics.
808
809 hv/*NAME*
810     The value of the hypervisor parameter called *NAME*. For details of
811     what hypervisor parameters exist and their meaning, see the **add**
812     command.
813
814 be/memory
815     The configured memory for the instance.
816
817 be/vcpus
818     The configured number of VCPUs for the instance.
819
820 be/auto\_balance
821     Whether the instance is considered in N+1 checks.
822
823
824 If the value of the option starts with the character ``+``, the new
825 field(s) will be added to the default list. This allows to quickly see
826 the default list plus a few other fields, instead of retyping the
827 entire list of fields.
828
829 There is a subtle grouping about the available output fields: all
830 fields except for ``oper_state``, ``oper_ram``, ``oper_vcpus`` and
831 ``status`` are configuration value and not run-time values. So if you
832 don't select any of the these fields, the query will be satisfied
833 instantly from the cluster configuration, without having to ask the
834 remote nodes for the data. This can be helpful for big clusters when
835 you only want some data and it makes sense to specify a reduced set of
836 output fields.
837
838 The default output field list is: name, os, pnode, admin\_state,
839 oper\_state, oper\_ram.
840
841
842 LIST-FIELDS
843 ~~~~~~~~~~~
844
845 **list-fields** [field...]
846
847 Lists available fields for instances.
848
849
850 INFO
851 ^^^^
852
853 **info** [-s \| --static] [--roman] {--all \| *instance*}
854
855 Show detailed information about the given instance(s). This is
856 different from **list** as it shows detailed data about the instance's
857 disks (especially useful for the drbd disk template).
858
859 If the option ``-s`` is used, only information available in the
860 configuration file is returned, without querying nodes, making the
861 operation faster.
862
863 Use the ``--all`` to get info about all instances, rather than
864 explicitly passing the ones you're interested in.
865
866 The ``--roman`` option can be used to cause envy among people who like
867 ancient cultures, but are stuck with non-latin-friendly cluster
868 virtualization technologies.
869
870 MODIFY
871 ^^^^^^
872
873 | **modify**
874 | [-H *HYPERVISOR\_PARAMETERS*]
875 | [-B *BACKEND\_PARAMETERS*]
876 | [--net add*[:options]* \| --net remove \| --net *N:options*]
877 | [--disk add:size=*SIZE*[,vg=*VG*][,metavg=*VG*] \| --disk remove \|
878 |  --disk *N*:mode=*MODE*]
879 | [-t plain | -t drbd -n *new_secondary*] [--no-wait-for-sync]
880 | [--os-type=*OS* [--force-variant]]
881 | [-O, --os-parameters *param*=*value*... ]
882 | [--submit]
883 | {*instance*}
884
885 Modifies the memory size, number of vcpus, ip address, MAC address
886 and/or nic parameters for an instance. It can also add and remove
887 disks and NICs to/from the instance. Note that you need to give at
888 least one of the arguments, otherwise the command complains.
889
890 The ``-H``, ``-B`` and ``-O`` options specifies hypervisor, backend
891 and OS parameter options in the form of name=value[,...]. For details
892 which options can be specified, see the **add** command.
893
894 The ``-t`` option will change the disk template of the instance.
895 Currently only conversions between the plain and drbd disk templates
896 are supported, and the instance must be stopped before attempting the
897 conversion. When changing from the plain to the drbd disk template, a
898 new secondary node must be specified via the ``-n`` option. The option
899 ``--no-wait-for-sync`` can be used when converting to the ``drbd``
900 template in order to make the instance available for startup before
901 DRBD has finished resyncing.
902
903 The ``--disk add:size=``*SIZE* option adds a disk to the instance. The
904 optional ``vg=``*VG* option specifies LVM volume group other than
905 default vg to create the disk on. For DRBD disks, the ``metavg=``*VG*
906 option specifies the volume group for the metadata device. The
907 ``--disk remove`` option will remove the last disk of the
908 instance. The ``--disk`` *N*``:mode=``*MODE* option will change the
909 mode of the Nth disk of the instance between read-only (``ro``) and
910 read-write (``rw``).
911
912 The ``--net add:``*options* option will add a new NIC to the
913 instance. The available options are the same as in the **add** command
914 (mac, ip, link, mode). The ``--net remove`` will remove the last NIC
915 of the instance, while the ``--net`` *N*:*options* option will change
916 the parameters of the Nth instance NIC.
917
918 The option ``--os-type`` will change the OS name for the instance
919 (without reinstallation). In case an OS variant is specified that is
920 not found, then by default the modification is refused, unless
921 ``--force-variant`` is passed. An invalid OS will also be refused,
922 unless the ``--force`` option is given.
923
924 The ``--submit`` option is used to send the job to the master daemon
925 but not wait for its completion. The job ID will be shown so that it
926 can be examined via **gnt-job info**.
927
928 All the changes take effect at the next restart. If the instance is
929 running, there is no effect on the instance.
930
931 REINSTALL
932 ^^^^^^^^^
933
934 | **reinstall** [-o *os-type*] [--select-os] [-f *force*]
935 | [--force-multiple]
936 | [--instance \| --node \| --primary \| --secondary \| --all]
937 | [-O *OS\_PARAMETERS*] [--submit] {*instance*...}
938
939 Reinstalls the operating system on the given instance(s). The
940 instance(s) must be stopped when running this command. If the
941 ``--os-type`` is specified, the operating system is changed.
942
943 The ``--select-os`` option switches to an interactive OS reinstall.
944 The user is prompted to select the OS template from the list of
945 available OS templates. OS parameters can be overridden using ``-O``
946 (more documentation for this option under the **add** command).
947
948 Since this is a potentially dangerous command, the user will be
949 required to confirm this action, unless the ``-f`` flag is passed.
950 When multiple instances are selected (either by passing multiple
951 arguments or by using the ``--node``, ``--primary``, ``--secondary``
952 or ``--all`` options), the user must pass the ``--force-multiple``
953 options to skip the interactive confirmation.
954
955 The ``--submit`` option is used to send the job to the master daemon
956 but not wait for its completion. The job ID will be shown so that it
957 can be examined via **gnt-job info**.
958
959 RENAME
960 ^^^^^^
961
962 | **rename** [--no-ip-check] [--no-name-check] [--submit]
963 | {*instance*} {*new\_name*}
964
965 Renames the given instance. The instance must be stopped when running
966 this command. The requirements for the new name are the same as for
967 adding an instance: the new name must be resolvable and the IP it
968 resolves to must not be reachable (in order to prevent duplicate IPs
969 the next time the instance is started). The IP test can be skipped if
970 the ``--no-ip-check`` option is passed.
971
972 The ``--no-name-check`` skips the check for the new instance name via
973 the resolver (e.g. in DNS or /etc/hosts, depending on your
974 setup). Since the name check is used to compute the IP address, if you
975 pass this option you must also pass the ``--no-ip-check`` option.
976
977 The ``--submit`` option is used to send the job to the master daemon
978 but not wait for its completion. The job ID will be shown so that it
979 can be examined via **gnt-job info**.
980
981 Starting/stopping/connecting to console
982 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
983
984 STARTUP
985 ^^^^^^^
986
987 | **startup**
988 | [--force] [--ignore-offline]
989 | [--force-multiple]
990 | [--instance \| --node \| --primary \| --secondary \| --all \|
991 | --tags \| --node-tags \| --pri-node-tags \| --sec-node-tags]
992 | [-H ``key=value...``] [-B ``key=value...``]
993 | [--submit]
994 | {*name*...}
995
996 Starts one or more instances, depending on the following options.  The
997 four available modes are:
998
999 --instance
1000     will start the instances given as arguments (at least one argument
1001     required); this is the default selection
1002
1003 --node
1004     will start the instances who have the given node as either primary
1005     or secondary
1006
1007 --primary
1008     will start all instances whose primary node is in the list of nodes
1009     passed as arguments (at least one node required)
1010
1011 --secondary
1012     will start all instances whose secondary node is in the list of
1013     nodes passed as arguments (at least one node required)
1014
1015 --all
1016     will start all instances in the cluster (no arguments accepted)
1017
1018 --tags
1019     will start all instances in the cluster with the tags given as
1020     arguments
1021
1022 --node-tags
1023     will start all instances in the cluster on nodes with the tags
1024     given as arguments
1025
1026 --pri-node-tags
1027     will start all instances in the cluster on primary nodes with the
1028     tags given as arguments
1029
1030 --sec-node-tags
1031     will start all instances in the cluster on secondary nodes with the
1032     tags given as arguments
1033
1034
1035 Note that although you can pass more than one selection option, the
1036 last one wins, so in order to guarantee the desired result, don't pass
1037 more than one such option.
1038
1039 Use ``--force`` to start even if secondary disks are failing.
1040 ``--ignore-offline`` can be used to ignore offline primary nodes and
1041 mark the instance as started even if the primary is not available.
1042
1043 The ``--force-multiple`` will skip the interactive confirmation in the
1044 case the more than one instance will be affected.
1045
1046 The ``-H`` and ``-B`` options specify temporary hypervisor and backend
1047 parameters that can be used to start an instance with modified
1048 parameters. They can be useful for quick testing without having to
1049 modify an instance back and forth, e.g.::
1050
1051     # gnt-instance start -H root_args="single" instance1
1052     # gnt-instance start -B memory=2048 instance2
1053
1054
1055 The first form will start the instance instance1 in single-user mode,
1056 and the instance instance2 with 2GB of RAM (this time only, unless
1057 that is the actual instance memory size already). Note that the values
1058 override the instance parameters (and not extend them): an instance
1059 with "root\_args=ro" when started with -H root\_args=single will
1060 result in "single", not "ro single".  The ``--submit`` option is used
1061 to send the job to the master daemon but not wait for its
1062 completion. The job ID will be shown so that it can be examined via
1063 **gnt-job info**.
1064
1065 Example::
1066
1067     # gnt-instance start instance1.example.com
1068     # gnt-instance start --node node1.example.com node2.example.com
1069     # gnt-instance start --all
1070
1071
1072 SHUTDOWN
1073 ^^^^^^^^
1074
1075 | **shutdown**
1076 | [--timeout=*N*]
1077 | [--force-multiple] [--ignore-offline]
1078 | [--instance \| --node \| --primary \| --secondary \| --all \|
1079 | --tags \| --node-tags \| --pri-node-tags \| --sec-node-tags]
1080 | [--submit]
1081 | {*name*...}
1082
1083 Stops one or more instances. If the instance cannot be cleanly stopped
1084 during a hardcoded interval (currently 2 minutes), it will forcibly
1085 stop the instance (equivalent to switching off the power on a physical
1086 machine).
1087
1088 The ``--timeout`` is used to specify how much time to wait before
1089 forcing the shutdown (e.g. ``xm destroy`` in Xen, killing the kvm
1090 process for KVM, etc.). By default two minutes are given to each
1091 instance to stop.
1092
1093 The ``--instance``, ``--node``, ``--primary``, ``--secondary``,
1094 ``--all``, ``--tags``, ``--node-tags``, ``--pri-node-tags`` and
1095 ``--sec-node-tags`` options are similar as for the **startup** command
1096 and they influence the actual instances being shutdown.
1097
1098 The ``--submit`` option is used to send the job to the master daemon
1099 but not wait for its completion. The job ID will be shown so that it
1100 can be examined via **gnt-job info**.
1101
1102 ``--ignore-offline`` can be used to ignore offline primary nodes and
1103 force the instance to be marked as stopped. This option should be used
1104 with care as it can lead to an inconsistent cluster state.
1105
1106 Example::
1107
1108     # gnt-instance shutdown instance1.example.com
1109     # gnt-instance shutdown --all
1110
1111
1112 REBOOT
1113 ^^^^^^
1114
1115 | **reboot**
1116 | [--type=*REBOOT-TYPE*]
1117 | [--ignore-secondaries]
1118 | [--shutdown-timeout=*N*]
1119 | [--force-multiple]
1120 | [--instance \| --node \| --primary \| --secondary \| --all \|
1121 | --tags \| --node-tags \| --pri-node-tags \| --sec-node-tags]
1122 | [--submit]
1123 | [*name*...]
1124
1125 Reboots one or more instances. The type of reboot depends on the value
1126 of ``--type``. A soft reboot does a hypervisor reboot, a hard reboot
1127 does a instance stop, recreates the hypervisor config for the instance
1128 and starts the instance. A full reboot does the equivalent of
1129 **gnt-instance shutdown && gnt-instance startup**.  The default is
1130 hard reboot.
1131
1132 For the hard reboot the option ``--ignore-secondaries`` ignores errors
1133 for the secondary node while re-assembling the instance disks.
1134
1135 The ``--instance``, ``--node``, ``--primary``, ``--secondary``,
1136 ``--all``, ``--tags``, ``--node-tags``, ``--pri-node-tags`` and
1137 ``--sec-node-tags`` options are similar as for the **startup** command
1138 and they influence the actual instances being rebooted.
1139
1140 The ``--shutdown-timeout`` is used to specify how much time to wait
1141 before forcing the shutdown (xm destroy in xen, killing the kvm
1142 process, for kvm). By default two minutes are given to each instance
1143 to stop.
1144
1145 The ``--force-multiple`` will skip the interactive confirmation in the
1146 case the more than one instance will be affected.
1147
1148 Example::
1149
1150     # gnt-instance reboot instance1.example.com
1151     # gnt-instance reboot --type=full instance1.example.com
1152
1153
1154 CONSOLE
1155 ^^^^^^^
1156
1157 **console** [--show-cmd] {*instance*}
1158
1159 Connects to the console of the given instance. If the instance is not
1160 up, an error is returned. Use the ``--show-cmd`` option to display the
1161 command instead of executing it.
1162
1163 For HVM instances, this will attempt to connect to the serial console
1164 of the instance. To connect to the virtualized "physical" console of a
1165 HVM instance, use a VNC client with the connection info from the
1166 **info** command.
1167
1168 Example::
1169
1170     # gnt-instance console instance1.example.com
1171
1172
1173 Disk management
1174 ~~~~~~~~~~~~~~~
1175
1176 REPLACE-DISKS
1177 ^^^^^^^^^^^^^
1178
1179 **replace-disks** [--submit] [--early-release] {-p} [--disks *idx*]
1180 {*instance*}
1181
1182 **replace-disks** [--submit] [--early-release] {-s} [--disks *idx*]
1183 {*instance*}
1184
1185 **replace-disks** [--submit] [--early-release] {--iallocator *name*
1186 \| --new-secondary *NODE*} {*instance*}
1187
1188 **replace-disks** [--submit] [--early-release] {--auto}
1189 {*instance*}
1190
1191 This command is a generalized form for replacing disks. It is
1192 currently only valid for the mirrored (DRBD) disk template.
1193
1194 The first form (when passing the ``-p`` option) will replace the disks
1195 on the primary, while the second form (when passing the ``-s`` option
1196 will replace the disks on the secondary node. For these two cases (as
1197 the node doesn't change), it is possible to only run the replace for a
1198 subset of the disks, using the option ``--disks`` which takes a list
1199 of comma-delimited disk indices (zero-based), e.g. 0,2 to replace only
1200 the first and third disks.
1201
1202 The third form (when passing either the ``--iallocator`` or the
1203 ``--new-secondary`` option) is designed to change secondary node of
1204 the instance. Specifying ``--iallocator`` makes the new secondary be
1205 selected automatically by the specified allocator plugin, otherwise
1206 the new secondary node will be the one chosen manually via the
1207 ``--new-secondary`` option.
1208
1209 The fourth form (when using ``--auto``) will automatically determine
1210 which disks of an instance are faulty and replace them within the same
1211 node. The ``--auto`` option works only when an instance has only
1212 faulty disks on either the primary or secondary node; it doesn't work
1213 when both sides have faulty disks.
1214
1215 The ``--submit`` option is used to send the job to the master daemon
1216 but not wait for its completion. The job ID will be shown so that it
1217 can be examined via **gnt-job info**.
1218
1219 The ``--early-release`` changes the code so that the old storage on
1220 secondary node(s) is removed early (before the resync is completed)
1221 and the internal Ganeti locks for the current (and new, if any)
1222 secondary node are also released, thus allowing more parallelism in
1223 the cluster operation. This should be used only when recovering from a
1224 disk failure on the current secondary (thus the old storage is already
1225 broken) or when the storage on the primary node is known to be fine
1226 (thus we won't need the old storage for potential recovery).
1227
1228 Note that it is not possible to select an offline or drained node as a
1229 new secondary.
1230
1231 ACTIVATE-DISKS
1232 ^^^^^^^^^^^^^^
1233
1234 **activate-disks** [--submit] [--ignore-size] {*instance*}
1235
1236 Activates the block devices of the given instance. If successful, the
1237 command will show the location and name of the block devices::
1238
1239     node1.example.com:disk/0:/dev/drbd0
1240     node1.example.com:disk/1:/dev/drbd1
1241
1242
1243 In this example, *node1.example.com* is the name of the node on which
1244 the devices have been activated. The *disk/0* and *disk/1* are the
1245 Ganeti-names of the instance disks; how they are visible inside the
1246 instance is hypervisor-specific. */dev/drbd0* and */dev/drbd1* are the
1247 actual block devices as visible on the node.  The ``--submit`` option
1248 is used to send the job to the master daemon but not wait for its
1249 completion. The job ID will be shown so that it can be examined via
1250 **gnt-job info**.
1251
1252 The ``--ignore-size`` option can be used to activate disks ignoring
1253 the currently configured size in Ganeti. This can be used in cases
1254 where the configuration has gotten out of sync with the real-world
1255 (e.g. after a partially-failed grow-disk operation or due to rounding
1256 in LVM devices). This should not be used in normal cases, but only
1257 when activate-disks fails without it.
1258
1259 Note that it is safe to run this command while the instance is already
1260 running.
1261
1262 DEACTIVATE-DISKS
1263 ^^^^^^^^^^^^^^^^
1264
1265 **deactivate-disks** [-f] [--submit] {*instance*}
1266
1267 De-activates the block devices of the given instance. Note that if you
1268 run this command for an instance with a drbd disk template, while it
1269 is running, it will not be able to shutdown the block devices on the
1270 primary node, but it will shutdown the block devices on the secondary
1271 nodes, thus breaking the replication.
1272
1273 The ``-f``/``--force`` option will skip checks that the instance is
1274 down; in case the hypervisor is confused and we can't talk to it,
1275 normally Ganeti will refuse to deactivate the disks, but with this
1276 option passed it will skip this check and directly try to deactivate
1277 the disks. This can still fail due to the instance actually running or
1278 other issues.
1279
1280 The ``--submit`` option is used to send the job to the master daemon
1281 but not wait for its completion. The job ID will be shown so that it
1282 can be examined via **gnt-job info**.
1283
1284 GROW-DISK
1285 ^^^^^^^^^
1286
1287 **grow-disk** [--no-wait-for-sync] [--submit] {*instance*} {*disk*}
1288 {*amount*}
1289
1290 Grows an instance's disk. This is only possible for instances having a
1291 plain or drbd disk template.
1292
1293 Note that this command only change the block device size; it will not
1294 grow the actual filesystems, partitions, etc. that live on that
1295 disk. Usually, you will need to:
1296
1297 #. use **gnt-instance grow-disk**
1298
1299 #. reboot the instance (later, at a convenient time)
1300
1301 #. use a filesystem resizer, such as ext2online(8) or
1302    xfs\_growfs(8) to resize the filesystem, or use fdisk(8) to change
1303    the partition table on the disk
1304
1305 The *disk* argument is the index of the instance disk to grow. The
1306 *amount* argument is given either as a number (and it represents the
1307 amount to increase the disk with in mebibytes) or can be given similar
1308 to the arguments in the create instance operation, with a suffix
1309 denoting the unit.
1310
1311 Note that the disk grow operation might complete on one node but fail
1312 on the other; this will leave the instance with different-sized LVs on
1313 the two nodes, but this will not create problems (except for unused
1314 space).
1315
1316 If you do not want gnt-instance to wait for the new disk region to be
1317 synced, use the ``--no-wait-for-sync`` option.
1318
1319 The ``--submit`` option is used to send the job to the master daemon
1320 but not wait for its completion. The job ID will be shown so that it
1321 can be examined via **gnt-job info**.
1322
1323 Example (increase the first disk for instance1 by 16GiB)::
1324
1325     # gnt-instance grow-disk instance1.example.com 0 16g
1326
1327
1328 Also note that disk shrinking is not supported; use **gnt-backup
1329 export** and then **gnt-backup import** to reduce the disk size of an
1330 instance.
1331
1332 RECREATE-DISKS
1333 ^^^^^^^^^^^^^^
1334
1335 **recreate-disks** [--submit] [--disks=``indices``] [-n node1:[node2]]
1336   {*instance*}
1337
1338 Recreates the disks of the given instance, or only a subset of the
1339 disks (if the option ``disks`` is passed, which must be a
1340 comma-separated list of disk indices, starting from zero).
1341
1342 Note that this functionality should only be used for missing disks; if
1343 any of the given disks already exists, the operation will fail.  While
1344 this is suboptimal, recreate-disks should hopefully not be needed in
1345 normal operation and as such the impact of this is low.
1346
1347 Optionally the instance's disks can be recreated on different
1348 nodes. This can be useful if, for example, the original nodes of the
1349 instance have gone down (and are marked offline), so we can't recreate
1350 on the same nodes. To do this, pass the new node(s) via ``-n`` option,
1351 with a syntax similar to the **add** command. The number of nodes
1352 passed must equal the number of nodes that the instance currently
1353 has. Note that changing nodes is only allowed for 'all disk'
1354 replacement (when ``--disks`` is not passed).
1355
1356 The ``--submit`` option is used to send the job to the master daemon
1357 but not wait for its completion. The job ID will be shown so that it
1358 can be examined via **gnt-job info**.
1359
1360 Recovery
1361 ~~~~~~~~
1362
1363 FAILOVER
1364 ^^^^^^^^
1365
1366 **failover** [-f] [--ignore-consistency] [--shutdown-timeout=*N*]
1367 [--submit] {*instance*}
1368
1369 Failover will fail the instance over its secondary node. This works
1370 only for instances having a drbd disk template.
1371
1372 Normally the failover will check the consistency of the disks before
1373 failing over the instance. If you are trying to migrate instances off
1374 a dead node, this will fail. Use the ``--ignore-consistency`` option
1375 for this purpose. Note that this option can be dangerous as errors in
1376 shutting down the instance will be ignored, resulting in possibly
1377 having the instance running on two machines in parallel (on
1378 disconnected DRBD drives).
1379
1380 The ``--shutdown-timeout`` is used to specify how much time to wait
1381 before forcing the shutdown (xm destroy in xen, killing the kvm
1382 process, for kvm). By default two minutes are given to each instance
1383 to stop.
1384
1385 The ``--submit`` option is used to send the job to the master daemon
1386 but not wait for its completion. The job ID will be shown so that it
1387 can be examined via **gnt-job info**.
1388
1389 Example::
1390
1391     # gnt-instance failover instance1.example.com
1392
1393
1394 MIGRATE
1395 ^^^^^^^
1396
1397 **migrate** [-f] {--cleanup} {*instance*}
1398
1399 **migrate** [-f] [--non-live] [--migration-mode=live\|non-live]
1400 {*instance*}
1401
1402 Migrate will move the instance to its secondary node without
1403 shutdown. It only works for instances having the drbd8 disk template
1404 type.
1405
1406 The migration command needs a perfectly healthy instance, as we rely
1407 on the dual-master capability of drbd8 and the disks of the instance
1408 are not allowed to be degraded.
1409
1410 The ``--non-live`` and ``--migration-mode=non-live`` options will
1411 switch (for the hypervisors that support it) between a "fully live"
1412 (i.e. the interruption is as minimal as possible) migration and one in
1413 which the instance is frozen, its state saved and transported to the
1414 remote node, and then resumed there. This all depends on the
1415 hypervisor support for two different methods. In any case, it is not
1416 an error to pass this parameter (it will just be ignored if the
1417 hypervisor doesn't support it). The option ``--migration-mode=live``
1418 option will request a fully-live migration. The default, when neither
1419 option is passed, depends on the hypervisor parameters (and can be
1420 viewed with the **gnt-cluster info** command).
1421
1422 If the ``--cleanup`` option is passed, the operation changes from
1423 migration to attempting recovery from a failed previous migration.  In
1424 this mode, Ganeti checks if the instance runs on the correct node (and
1425 updates its configuration if not) and ensures the instances's disks
1426 are configured correctly. In this mode, the ``--non-live`` option is
1427 ignored.
1428
1429 The option ``-f`` will skip the prompting for confirmation.
1430
1431 Example (and expected output)::
1432
1433     # gnt-instance migrate instance1
1434     Migrate will happen to the instance instance1. Note that migration is
1435     **experimental** in this version. This might impact the instance if
1436     anything goes wrong. Continue?
1437     y/[n]/?: y
1438     * checking disk consistency between source and target
1439     * ensuring the target is in secondary mode
1440     * changing disks into dual-master mode
1441      - INFO: Waiting for instance instance1 to sync disks.
1442      - INFO: Instance instance1's disks are in sync.
1443     * migrating instance to node2.example.com
1444     * changing the instance's disks on source node to secondary
1445      - INFO: Waiting for instance instance1 to sync disks.
1446      - INFO: Instance instance1's disks are in sync.
1447     * changing the instance's disks to single-master
1448     #
1449
1450
1451 MOVE
1452 ^^^^
1453
1454 **move** [-f] [-n *node*] [--shutdown-timeout=*N*] [--submit]
1455 {*instance*}
1456
1457 Move will move the instance to an arbitrary node in the cluster.  This
1458 works only for instances having a plain or file disk template.
1459
1460 Note that since this operation is done via data copy, it will take a
1461 long time for big disks (similar to replace-disks for a drbd
1462 instance).
1463
1464 The ``--shutdown-timeout`` is used to specify how much time to wait
1465 before forcing the shutdown (e.g. ``xm destroy`` in XEN, killing the
1466 kvm process for KVM, etc.). By default two minutes are given to each
1467 instance to stop.
1468
1469 The ``--submit`` option is used to send the job to the master daemon
1470 but not wait for its completion. The job ID will be shown so that it
1471 can be examined via **gnt-job info**.
1472
1473 Example::
1474
1475     # gnt-instance move -n node3.example.com instance1.example.com
1476
1477
1478 TAGS
1479 ~~~~
1480
1481 ADD-TAGS
1482 ^^^^^^^^
1483
1484 **add-tags** [--from *file*] {*instancename*} {*tag*...}
1485
1486 Add tags to the given instance. If any of the tags contains invalid
1487 characters, the entire operation will abort.
1488
1489 If the ``--from`` option is given, the list of tags will be extended
1490 with the contents of that file (each line becomes a tag).  In this
1491 case, there is not need to pass tags on the command line (if you do,
1492 both sources will be used). A file name of ``-`` will be interpreted
1493 as stdin.
1494
1495 LIST-TAGS
1496 ^^^^^^^^^
1497
1498 **list-tags** {*instancename*}
1499
1500 List the tags of the given instance.
1501
1502 REMOVE-TAGS
1503 ^^^^^^^^^^^
1504
1505 **remove-tags** [--from *file*] {*instancename*} {*tag*...}
1506
1507 Remove tags from the given instance. If any of the tags are not
1508 existing on the node, the entire operation will abort.
1509
1510 If the ``--from`` option is given, the list of tags to be removed will
1511 be extended with the contents of that file (each line becomes a tag).
1512 In this case, there is not need to pass tags on the command line (if
1513 you do, tags from both sources will be removed). A file name of ``-``
1514 will be interpreted as stdin.