Convert “gnt-instance list” to query2
[ganeti-local] / man / gnt-node.rst
1 gnt-node(8) Ganeti | Version @GANETI_VERSION@
2 =============================================
3
4 Name
5 ----
6
7 gnt-node - Node administration
8
9 Synopsis
10 --------
11
12 **gnt-node** {command} [arguments...]
13
14 DESCRIPTION
15 -----------
16
17 The **gnt-node** is used for managing the (physical) nodes in the
18 Ganeti system.
19
20 COMMANDS
21 --------
22
23 ADD
24 ~~~
25
26 | **add** [--readd] [-s *secondary\_ip*] [-g *nodegroup*]
27 | [--master-capable=``yes|no``] [--vm-capable=``yes|no``]
28 | [--node-parameters *ndparams*]
29 | {*nodename*}
30
31 Adds the given node to the cluster.
32
33 This command is used to join a new node to the cluster. You will
34 have to provide the password for root of the node to be able to add
35 the node in the cluster. The command needs to be run on the Ganeti
36 master.
37
38 Note that the command is potentially destructive, as it will
39 forcibly join the specified host the cluster, not paying attention
40 to its current status (it could be already in a cluster, etc.)
41
42 The ``-s`` is used in dual-home clusters and specifies the new node's
43 IP in the secondary network. See the discussion in **gnt-cluster**(8)
44 for more information.
45
46 In case you're readding a node after hardware failure, you can use
47 the ``--readd`` parameter. In this case, you don't need to pass the
48 secondary IP again, it will reused from the cluster. Also, the
49 drained and offline flags of the node will be cleared before
50 re-adding it.
51
52 The ``-g`` is used to add the new node into a specific node group,
53 specified by UUID or name. If only one node group exists you can
54 skip this option, otherwise it's mandatory.
55
56 The ``vm_capable``, ``master_capable`` and ``ndparams`` options are
57 described in **ganeti**(7), and are used to set the properties of the
58 new node.
59
60 Example::
61
62     # gnt-node add node5.example.com
63     # gnt-node add -s 192.0.2.5 node5.example.com
64     # gnt-node add -g group2 -s 192.0.2.9 node9.group2.example.com
65
66
67 ADD-TAGS
68 ~~~~~~~~
69
70 **add-tags** [--from *file*] {*nodename*} {*tag*...}
71
72 Add tags to the given node. If any of the tags contains invalid
73 characters, the entire operation will abort.
74
75 If the ``--from`` option is given, the list of tags will be
76 extended with the contents of that file (each line becomes a tag).
77 In this case, there is not need to pass tags on the command line
78 (if you do, both sources will be used). A file name of - will be
79 interpreted as stdin.
80
81 EVACUATE
82 ~~~~~~~~
83
84 **evacuate** [-f] [--early-release] [--iallocator *NAME* \|
85 --new-secondary *destination\_node*] {*node*...}
86
87 This command will move all secondary instances away from the given
88 node(s). It works only for instances having a drbd disk template.
89
90 The new location for the instances can be specified in two ways:
91
92 - as a single node for all instances, via the ``--new-secondary``
93   option
94
95 - or via the ``--iallocator`` option, giving a script name as
96   parameter, so each instance will be in turn placed on the (per the
97   script) optimal node
98
99
100 The ``--early-release`` changes the code so that the old storage on
101 node being evacuated is removed early (before the resync is
102 completed) and the internal Ganeti locks are also released for both
103 the current secondary and the new secondary, thus allowing more
104 parallelism in the cluster operation. This should be used only when
105 recovering from a disk failure on the current secondary (thus the
106 old storage is already broken) or when the storage on the primary
107 node is known to be fine (thus we won't need the old storage for
108 potential recovery).
109
110 Example::
111
112     # gnt-node evacuate -I dumb node3.example.com
113
114
115 FAILOVER
116 ~~~~~~~~
117
118 **failover** [-f] [--ignore-consistency] {*node*}
119
120 This command will fail over all instances having the given node as
121 primary to their secondary nodes. This works only for instances having
122 a drbd disk template.
123
124 Normally the failover will check the consistency of the disks before
125 failing over the instance. If you are trying to migrate instances off
126 a dead node, this will fail. Use the ``--ignore-consistency`` option
127 for this purpose.
128
129 Example::
130
131     # gnt-node failover node1.example.com
132
133
134 INFO
135 ~~~~
136
137 **info** [*node*...]
138
139 Show detailed information about the nodes in the cluster. If you
140 don't give any arguments, all nodes will be shows, otherwise the
141 output will be restricted to the given names.
142
143 LIST
144 ~~~~
145
146 | **list**
147 | [--no-headers] [--separator=*SEPARATOR*]
148 | [--units=*UNITS*] [-o *[+]FIELD,...*]
149 | [node...]
150
151 Lists the nodes in the cluster.
152
153 The ``--no-headers`` option will skip the initial header line. The
154 ``--separator`` option takes an argument which denotes what will be
155 used between the output fields. Both these options are to help
156 scripting.
157
158 The units used to display the numeric values in the output varies,
159 depending on the options given. By default, the values will be
160 formatted in the most appropriate unit. If the ``--separator``
161 option is given, then the values are shown in mebibytes to allow
162 parsing by scripts. In both cases, the ``--units`` option can be
163 used to enforce a given output unit.
164
165 Queries of nodes will be done in parallel with any running jobs. This might
166 give inconsistent results for the free disk/memory.
167
168 The ``-o`` option takes a comma-separated list of output fields.
169 The available fields and their meaning are:
170
171
172
173 name
174     the node name
175
176 pinst_cnt
177     the number of instances having this node as primary
178
179 pinst_list
180     the list of instances having this node as primary, comma separated
181
182 sinst_cnt
183     the number of instances having this node as a secondary node
184
185 sinst_list
186     the list of instances having this node as a secondary node, comma
187     separated
188
189 pip
190     the primary ip of this node (used for cluster communication)
191
192 sip
193     the secondary ip of this node (used for data replication in dual-ip
194     clusters, see gnt-cluster(8)
195
196 dtotal
197     total disk space in the volume group used for instance disk
198     allocations
199
200 dfree
201     available disk space in the volume group
202
203 mtotal
204     total memory on the physical node
205
206 mnode
207     the memory used by the node itself
208
209 mfree
210     memory available for instance allocations
211
212 bootid
213     the node bootid value; this is a linux specific feature that
214     assigns a new UUID to the node at each boot and can be use to
215     detect node reboots (by tracking changes in this value)
216
217 tags
218     comma-separated list of the node's tags
219
220 serial_no
221     the so called 'serial number' of the node; this is a numeric field
222     that is incremented each time the node is modified, and it can be
223     used to detect modifications
224
225 ctime
226     the creation time of the node; note that this field contains spaces
227     and as such it's harder to parse
228
229     if this attribute is not present (e.g. when upgrading from older
230     versions), then "N/A" will be shown instead
231
232 mtime
233     the last modification time of the node; note that this field
234     contains spaces and as such it's harder to parse
235
236     if this attribute is not present (e.g. when upgrading from older
237     versions), then "N/A" will be shown instead
238
239 uuid
240     Show the UUID of the node (generated automatically by Ganeti)
241
242 ctotal
243     the toal number of logical processors
244
245 cnodes
246     the number of NUMA domains on the node, if the hypervisor can
247     export this information
248
249 csockets
250     the number of physical CPU sockets, if the hypervisor can export
251     this information
252
253 master_candidate
254     whether the node is a master candidate or not
255
256 drained
257     whether the node is drained or not; the cluster still communicates
258     with drained nodes but excludes them from allocation operations
259
260 offline
261     whether the node is offline or not; if offline, the cluster does
262     not communicate with offline nodes; useful for nodes that are not
263     reachable in order to avoid delays
264
265 role
266     A condensed version of the node flags; this field will output a
267     one-character field, with the following possible values:
268
269     - *M* for the master node
270
271     - *C* for a master candidate
272
273     - *R* for a regular node
274
275     - *D* for a drained node
276
277     - *O* for an offline node
278
279 master_capable
280     whether the node can become a master candidate
281
282 vm_capable
283     whether the node can host instances
284
285 group
286     the name of the node's group, if known (the query is done without
287     locking, so data consistency is not guaranteed)
288
289 group.uuid
290     the UUID of the node's group
291
292
293 If the value of the option starts with the character ``+``, the new
294 fields will be added to the default list. This allows to quickly
295 see the default list plus a few other fields, instead of retyping
296 the entire list of fields.
297
298 Note that some of this fields are known from the configuration of
299 the cluster (e.g. name, pinst, sinst, pip, sip and thus the master
300 does not need to contact the node for this data (making the listing
301 fast if only fields from this set are selected), whereas the other
302 fields are "live" fields and we need to make a query to the cluster
303 nodes.
304
305 Depending on the virtualization type and implementation details,
306 the mtotal, mnode and mfree may have slighly varying meanings. For
307 example, some solutions share the node memory with the pool of
308 memory used for instances (KVM), whereas others have separate
309 memory for the node and for the instances (Xen).
310
311 If no node names are given, then all nodes are queried. Otherwise,
312 only the given nodes will be listed.
313
314
315 LIST-FIELDS
316 ~~~~~~~~~~~
317
318 **list-fields** [field...]
319
320 Lists available fields for nodes.
321
322
323 LIST-TAGS
324 ~~~~~~~~~
325
326 **list-tags** {*nodename*}
327
328 List the tags of the given node.
329
330 MIGRATE
331 ~~~~~~~
332
333 **migrate** [-f] [--non-live] [--migration-mode=live\|non-live]
334 {*node*}
335
336 This command will migrate all instances having the given node as
337 primary to their secondary nodes. This works only for instances
338 having a drbd disk template.
339
340 As for the **gnt-instance migrate** command, the options
341 ``--no-live`` and ``--migration-mode`` can be given to influence
342 the migration type.
343
344 Example::
345
346     # gnt-node migrate node1.example.com
347
348
349 MODIFY
350 ~~~~~~
351
352 | **modify** [-f] [--submit]
353 | [--master-candidate=``yes|no``] [--drained=``yes|no``] [--offline=``yes|no``]
354 | [--master-capable=``yes|no``] [--vm-capable=``yes|no``] [--auto-promote]
355 | [-s *secondary_ip*]
356 | [--node-parameters *ndparams*]
357 | {*node*}
358
359 This command changes the role of the node. Each options takes
360 either a literal yes or no, and only one option should be given as
361 yes. The meaning of the roles and flags are described in the
362 manpage **ganeti**(7).
363
364 In case a node is demoted from the master candidate role, the
365 operation will be refused unless you pass the ``--auto-promote``
366 option. This option will cause the operation to lock all cluster nodes
367 (thus it will not be able to run in parallel with most other jobs),
368 but it allows automated maintenance of the cluster candidate pool. If
369 locking all cluster node is too expensive, another option is to
370 promote manually another node to master candidate before demoting the
371 current one.
372
373 Example (setting a node offline, which will demote it from master
374 candidate role if is in that role)::
375
376     # gnt-node modify --offline=yes node1.example.com
377
378 The ``-s`` can be used to change the node's secondary ip. No drbd
379 instances can be running on the node, while this operation is
380 taking place.
381
382 Example (setting the node back to online and master candidate)::
383
384     # gnt-node modify --offline=no --master-candidate=yes node1.example.com
385
386
387 REMOVE
388 ~~~~~~
389
390 **remove** {*nodename*}
391
392 Removes a node from the cluster. Instances must be removed or
393 migrated to another cluster before.
394
395 Example::
396
397     # gnt-node remove node5.example.com
398
399
400 REMOVE-TAGS
401 ~~~~~~~~~~~
402
403 **remove-tags** [--from *file*] {*nodename*} {*tag*...}
404
405 Remove tags from the given node. If any of the tags are not
406 existing on the node, the entire operation will abort.
407
408 If the ``--from`` option is given, the list of tags to be removed will
409 be extended with the contents of that file (each line becomes a tag).
410 In this case, there is not need to pass tags on the command line (if
411 you do, tags from both sources will be removed). A file name of - will
412 be interpreted as stdin.
413
414 VOLUMES
415 ~~~~~~~
416
417 | **volumes** [--no-headers] [--human-readable]
418 | [--separator=*SEPARATOR*] [--output=*FIELDS*]
419 | [*node*...]
420
421 Lists all logical volumes and their physical disks from the node(s)
422 provided.
423
424 The ``--no-headers`` option will skip the initial header line. The
425 ``--separator`` option takes an argument which denotes what will be
426 used between the output fields. Both these options are to help
427 scripting.
428
429 The units used to display the numeric values in the output varies,
430 depending on the options given. By default, the values will be
431 formatted in the most appropriate unit. If the ``--separator``
432 option is given, then the values are shown in mebibytes to allow
433 parsing by scripts. In both cases, the ``--units`` option can be
434 used to enforce a given output unit.
435
436 The ``-o`` option takes a comma-separated list of output fields.
437 The available fields and their meaning are:
438
439 node
440     the node name on which the volume exists
441
442 phys
443     the physical drive (on which the LVM physical volume lives)
444
445 vg
446     the volume group name
447
448 name
449     the logical volume name
450
451 size
452     the logical volume size
453
454 instance
455     The name of the instance to which this volume belongs, or (in case
456     it's an orphan volume) the character "-"
457
458
459 Example::
460
461     # gnt-node volumes node5.example.com
462     Node              PhysDev   VG    Name                                 Size Instance
463     node1.example.com /dev/hdc1 xenvg instance1.example.com-sda_11000.meta 128  instance1.example.com
464     node1.example.com /dev/hdc1 xenvg instance1.example.com-sda_11001.data 256  instance1.example.com
465
466
467 LIST-STORAGE
468 ~~~~~~~~~~~~
469
470 | **list-storage** [--no-headers] [--human-readable]
471 | [--separator=*SEPARATOR*] [--storage-type=*STORAGE\_TYPE*]
472 | [--output=*FIELDS*]
473 | [*node*...]
474
475 Lists the available storage units and their details for the given
476 node(s).
477
478 The ``--no-headers`` option will skip the initial header line. The
479 ``--separator`` option takes an argument which denotes what will be
480 used between the output fields. Both these options are to help
481 scripting.
482
483 The units used to display the numeric values in the output varies,
484 depending on the options given. By default, the values will be
485 formatted in the most appropriate unit. If the ``--separator``
486 option is given, then the values are shown in mebibytes to allow
487 parsing by scripts. In both cases, the ``--units`` option can be
488 used to enforce a given output unit.
489
490 The ``--storage-type`` option can be used to choose a storage unit
491 type. Possible choices are lvm-pv, lvm-vg or file.
492
493 The ``-o`` option takes a comma-separated list of output fields.
494 The available fields and their meaning are:
495
496 node
497     the node name on which the volume exists
498
499 type
500     the type of the storage unit (currently just what is passed in via
501     ``--storage-type``)
502
503 name
504     the path/identifier of the storage unit
505
506 size
507     total size of the unit; for the file type see a note below
508
509 used
510     used space in the unit; for the file type see a note below
511
512 free
513     available disk space
514
515 allocatable
516     whether we the unit is available for allocation (only lvm-pv can
517     change this setting, the other types always report true)
518
519
520 Note that for the "file" type, the total disk space might not equal
521 to the sum of used and free, due to the method Ganeti uses to
522 compute each of them. The total and free values are computed as the
523 total and free space values for the filesystem to which the
524 directory belongs, but the used space is computed from the used
525 space under that directory *only*, which might not be necessarily
526 the root of the filesystem, and as such there could be files
527 outside the file storage directory using disk space and causing a
528 mismatch in the values.
529
530 Example::
531
532     node1# gnt-node list-storage node2
533     Node  Type   Name        Size Used   Free Allocatable
534     node2 lvm-pv /dev/sda7 673.8G 1.5G 672.3G Y
535     node2 lvm-pv /dev/sdb1 698.6G   0M 698.6G Y
536
537
538 MODIFY-STORAGE
539 ~~~~~~~~~~~~~~
540
541 **modify-storage** [``--allocatable=yes|no``]
542 {*node*} {*storage-type*} {*volume-name*}
543
544 Modifies storage volumes on a node. Only LVM physical volumes can
545 be modified at the moment. They have a storage type of "lvm-pv".
546
547 Example::
548
549     # gnt-node modify-storage --allocatable no node5.example.com lvm-pv /dev/sdb1
550
551
552 REPAIR-STORAGE
553 ~~~~~~~~~~~~~~
554
555 **repair-storage** [--ignore-consistency] {*node*} {*storage-type*}
556 {*volume-name*}
557
558 Repairs a storage volume on a node. Only LVM volume groups can be
559 repaired at this time. They have the storage type "lvm-vg".
560
561 On LVM volume groups, **repair-storage** runs "vgreduce
562 --removemissing".
563
564
565
566 **Caution:** Running this command can lead to data loss. Use it with
567 care.
568
569 The ``--ignore-consistency`` option will ignore any inconsistent
570 disks (on the nodes paired with this one). Use of this option is
571 most likely to lead to data-loss.
572
573 Example::
574
575     # gnt-node repair-storage node5.example.com lvm-vg xenvg
576
577
578 POWERCYCLE
579 ~~~~~~~~~~
580
581 **powercycle** [``--yes``] [``--force``] {*node*}
582
583 This commands (tries to) forcefully reboot a node. It is a command
584 that can be used if the node environemnt is broken, such that the
585 admin can no longer login over ssh, but the Ganeti node daemon is
586 still working.
587
588 Note that this command is not guaranteed to work; it depends on the
589 hypervisor how effective is the reboot attempt. For Linux, this
590 command require that the kernel option CONFIG\_MAGIC\_SYSRQ is
591 enabled.
592
593 The ``--yes`` option can be used to skip confirmation, while the
594 ``--force`` option is needed if the target node is the master
595 node.