Adjust htools code to new Luxi argument format
[ganeti-local] / htools / Ganeti / HTools / Node.hs
1 {-| Module describing a node.
2
3     All updates are functional (copy-based) and return a new node with
4     updated value.
5 -}
6
7 {-
8
9 Copyright (C) 2009, 2010, 2011 Google Inc.
10
11 This program is free software; you can redistribute it and/or modify
12 it under the terms of the GNU General Public License as published by
13 the Free Software Foundation; either version 2 of the License, or
14 (at your option) any later version.
15
16 This program is distributed in the hope that it will be useful, but
17 WITHOUT ANY WARRANTY; without even the implied warranty of
18 MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
19 General Public License for more details.
20
21 You should have received a copy of the GNU General Public License
22 along with this program; if not, write to the Free Software
23 Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA
24 02110-1301, USA.
25
26 -}
27
28 module Ganeti.HTools.Node
29     ( Node(..)
30     , List
31     -- * Constructor
32     , create
33     -- ** Finalization after data loading
34     , buildPeers
35     , setIdx
36     , setAlias
37     , setOffline
38     , setXmem
39     , setFmem
40     , setPri
41     , setSec
42     , setMdsk
43     , setMcpu
44     -- * Tag maps
45     , addTags
46     , delTags
47     , rejectAddTags
48     -- * Instance (re)location
49     , removePri
50     , removeSec
51     , addPri
52     , addPriEx
53     , addSec
54     , addSecEx
55     -- * Stats
56     , availDisk
57     , availMem
58     , availCpu
59     , iMem
60     , iDsk
61     , conflictingPrimaries
62     -- * Formatting
63     , defaultFields
64     , showHeader
65     , showField
66     , list
67     -- * Misc stuff
68     , AssocList
69     , AllocElement
70     , noSecondary
71     , computeGroups
72     ) where
73
74 import Data.List hiding (group)
75 import qualified Data.Map as Map
76 import qualified Data.Foldable as Foldable
77 import Data.Ord (comparing)
78 import Text.Printf (printf)
79
80 import qualified Ganeti.HTools.Container as Container
81 import qualified Ganeti.HTools.Instance as Instance
82 import qualified Ganeti.HTools.PeerMap as P
83
84 import qualified Ganeti.HTools.Types as T
85
86 -- * Type declarations
87
88 -- | The tag map type.
89 type TagMap = Map.Map String Int
90
91 -- | The node type.
92 data Node = Node
93     { name     :: String    -- ^ The node name
94     , alias    :: String    -- ^ The shortened name (for display purposes)
95     , tMem     :: Double    -- ^ Total memory (MiB)
96     , nMem     :: Int       -- ^ Node memory (MiB)
97     , fMem     :: Int       -- ^ Free memory (MiB)
98     , xMem     :: Int       -- ^ Unaccounted memory (MiB)
99     , tDsk     :: Double    -- ^ Total disk space (MiB)
100     , fDsk     :: Int       -- ^ Free disk space (MiB)
101     , tCpu     :: Double    -- ^ Total CPU count
102     , uCpu     :: Int       -- ^ Used VCPU count
103     , pList    :: [T.Idx]   -- ^ List of primary instance indices
104     , sList    :: [T.Idx]   -- ^ List of secondary instance indices
105     , idx      :: T.Ndx     -- ^ Internal index for book-keeping
106     , peers    :: P.PeerMap -- ^ Pnode to instance mapping
107     , failN1   :: Bool      -- ^ Whether the node has failed n1
108     , rMem     :: Int       -- ^ Maximum memory needed for failover by
109                             -- primaries of this node
110     , pMem     :: Double    -- ^ Percent of free memory
111     , pDsk     :: Double    -- ^ Percent of free disk
112     , pRem     :: Double    -- ^ Percent of reserved memory
113     , pCpu     :: Double    -- ^ Ratio of virtual to physical CPUs
114     , mDsk     :: Double    -- ^ Minimum free disk ratio
115     , mCpu     :: Double    -- ^ Max ratio of virt-to-phys CPUs
116     , loDsk    :: Int       -- ^ Autocomputed from mDsk low disk
117                             -- threshold
118     , hiCpu    :: Int       -- ^ Autocomputed from mCpu high cpu
119                             -- threshold
120     , offline  :: Bool      -- ^ Whether the node should not be used
121                             -- for allocations and skipped from score
122                             -- computations
123     , utilPool :: T.DynUtil -- ^ Total utilisation capacity
124     , utilLoad :: T.DynUtil -- ^ Sum of instance utilisation
125     , pTags    :: TagMap    -- ^ Map of primary instance tags and their count
126     , group    :: T.Gdx     -- ^ The node's group (index)
127     } deriving (Show, Read, Eq)
128
129 instance T.Element Node where
130     nameOf = name
131     idxOf = idx
132     setAlias = setAlias
133     setIdx = setIdx
134     allNames n = [name n, alias n]
135
136 -- | A simple name for the int, node association list.
137 type AssocList = [(T.Ndx, Node)]
138
139 -- | A simple name for a node map.
140 type List = Container.Container Node
141
142 -- | A simple name for an allocation element (here just for logistic
143 -- reasons).
144 type AllocElement = (List, Instance.Instance, [Node], T.Score)
145
146 -- | Constant node index for a non-moveable instance.
147 noSecondary :: T.Ndx
148 noSecondary = -1
149
150 -- * Helper functions
151
152 -- | Add a tag to a tagmap.
153 addTag :: TagMap -> String -> TagMap
154 addTag t s = Map.insertWith (+) s 1 t
155
156 -- | Add multiple tags.
157 addTags :: TagMap -> [String] -> TagMap
158 addTags = foldl' addTag
159
160 -- | Adjust or delete a tag from a tagmap.
161 delTag :: TagMap -> String -> TagMap
162 delTag t s = Map.update (\v -> if v > 1
163                                then Just (v-1)
164                                else Nothing)
165              s t
166
167 -- | Remove multiple tags.
168 delTags :: TagMap -> [String] -> TagMap
169 delTags = foldl' delTag
170
171 -- | Check if we can add a list of tags to a tagmap.
172 rejectAddTags :: TagMap -> [String] -> Bool
173 rejectAddTags t = any (`Map.member` t)
174
175 -- | Check how many primary instances have conflicting tags. The
176 -- algorithm to compute this is to sum the count of all tags, then
177 -- subtract the size of the tag map (since each tag has at least one,
178 -- non-conflicting instance); this is equivalent to summing the
179 -- values in the tag map minus one.
180 conflictingPrimaries :: Node -> Int
181 conflictingPrimaries (Node { pTags = t }) = Foldable.sum t - Map.size t
182
183 -- * Initialization functions
184
185 -- | Create a new node.
186 --
187 -- The index and the peers maps are empty, and will be need to be
188 -- update later via the 'setIdx' and 'buildPeers' functions.
189 create :: String -> Double -> Int -> Int -> Double
190        -> Int -> Double -> Bool -> T.Gdx -> Node
191 create name_init mem_t_init mem_n_init mem_f_init
192        dsk_t_init dsk_f_init cpu_t_init offline_init group_init =
193     Node { name = name_init
194          , alias = name_init
195          , tMem = mem_t_init
196          , nMem = mem_n_init
197          , fMem = mem_f_init
198          , tDsk = dsk_t_init
199          , fDsk = dsk_f_init
200          , tCpu = cpu_t_init
201          , uCpu = 0
202          , pList = []
203          , sList = []
204          , failN1 = True
205          , idx = -1
206          , peers = P.empty
207          , rMem = 0
208          , pMem = fromIntegral mem_f_init / mem_t_init
209          , pDsk = fromIntegral dsk_f_init / dsk_t_init
210          , pRem = 0
211          , pCpu = 0
212          , offline = offline_init
213          , xMem = 0
214          , mDsk = T.defReservedDiskRatio
215          , mCpu = T.defVcpuRatio
216          , loDsk = mDskToloDsk T.defReservedDiskRatio dsk_t_init
217          , hiCpu = mCpuTohiCpu T.defVcpuRatio cpu_t_init
218          , utilPool = T.baseUtil
219          , utilLoad = T.zeroUtil
220          , pTags = Map.empty
221          , group = group_init
222          }
223
224 -- | Conversion formula from mDsk\/tDsk to loDsk.
225 mDskToloDsk :: Double -> Double -> Int
226 mDskToloDsk mval = floor . (mval *)
227
228 -- | Conversion formula from mCpu\/tCpu to hiCpu.
229 mCpuTohiCpu :: Double -> Double -> Int
230 mCpuTohiCpu mval = floor . (mval *)
231
232 -- | Changes the index.
233 --
234 -- This is used only during the building of the data structures.
235 setIdx :: Node -> T.Ndx -> Node
236 setIdx t i = t {idx = i}
237
238 -- | Changes the alias.
239 --
240 -- This is used only during the building of the data structures.
241 setAlias :: Node -> String -> Node
242 setAlias t s = t { alias = s }
243
244 -- | Sets the offline attribute.
245 setOffline :: Node -> Bool -> Node
246 setOffline t val = t { offline = val }
247
248 -- | Sets the unnaccounted memory.
249 setXmem :: Node -> Int -> Node
250 setXmem t val = t { xMem = val }
251
252 -- | Sets the max disk usage ratio.
253 setMdsk :: Node -> Double -> Node
254 setMdsk t val = t { mDsk = val, loDsk = mDskToloDsk val (tDsk t) }
255
256 -- | Sets the max cpu usage ratio.
257 setMcpu :: Node -> Double -> Node
258 setMcpu t val = t { mCpu = val, hiCpu = mCpuTohiCpu val (tCpu t) }
259
260 -- | Computes the maximum reserved memory for peers from a peer map.
261 computeMaxRes :: P.PeerMap -> P.Elem
262 computeMaxRes = P.maxElem
263
264 -- | Builds the peer map for a given node.
265 buildPeers :: Node -> Instance.List -> Node
266 buildPeers t il =
267     let mdata = map
268                 (\i_idx -> let inst = Container.find i_idx il
269                                mem = if Instance.autoBalance inst
270                                      then Instance.mem inst
271                                      else 0
272                            in (Instance.pNode inst, mem))
273                 (sList t)
274         pmap = P.accumArray (+) mdata
275         new_rmem = computeMaxRes pmap
276         new_failN1 = fMem t <= new_rmem
277         new_prem = fromIntegral new_rmem / tMem t
278     in t {peers=pmap, failN1 = new_failN1, rMem = new_rmem, pRem = new_prem}
279
280 -- | Assigns an instance to a node as primary and update the used VCPU
281 -- count, utilisation data and tags map.
282 setPri :: Node -> Instance.Instance -> Node
283 setPri t inst = t { pList = Instance.idx inst:pList t
284                   , uCpu = new_count
285                   , pCpu = fromIntegral new_count / tCpu t
286                   , utilLoad = utilLoad t `T.addUtil` Instance.util inst
287                   , pTags = addTags (pTags t) (Instance.tags inst)
288                   }
289     where new_count = uCpu t + Instance.vcpus inst
290
291 -- | Assigns an instance to a node as secondary without other updates.
292 setSec :: Node -> Instance.Instance -> Node
293 setSec t inst = t { sList = Instance.idx inst:sList t
294                   , utilLoad = old_load { T.dskWeight = T.dskWeight old_load +
295                                           T.dskWeight (Instance.util inst) }
296                   }
297     where old_load = utilLoad t
298
299 -- * Update functions
300
301 -- | Sets the free memory.
302 setFmem :: Node -> Int -> Node
303 setFmem t new_mem =
304     let new_n1 = new_mem <= rMem t
305         new_mp = fromIntegral new_mem / tMem t
306     in t { fMem = new_mem, failN1 = new_n1, pMem = new_mp }
307
308 -- | Removes a primary instance.
309 removePri :: Node -> Instance.Instance -> Node
310 removePri t inst =
311     let iname = Instance.idx inst
312         new_plist = delete iname (pList t)
313         new_mem = fMem t + Instance.mem inst
314         new_dsk = fDsk t + Instance.dsk inst
315         new_mp = fromIntegral new_mem / tMem t
316         new_dp = fromIntegral new_dsk / tDsk t
317         new_failn1 = new_mem <= rMem t
318         new_ucpu = uCpu t - Instance.vcpus inst
319         new_rcpu = fromIntegral new_ucpu / tCpu t
320         new_load = utilLoad t `T.subUtil` Instance.util inst
321     in t { pList = new_plist, fMem = new_mem, fDsk = new_dsk
322          , failN1 = new_failn1, pMem = new_mp, pDsk = new_dp
323          , uCpu = new_ucpu, pCpu = new_rcpu, utilLoad = new_load
324          , pTags = delTags (pTags t) (Instance.tags inst) }
325
326 -- | Removes a secondary instance.
327 removeSec :: Node -> Instance.Instance -> Node
328 removeSec t inst =
329     let iname = Instance.idx inst
330         uses_disk = Instance.usesLocalStorage inst
331         cur_dsk = fDsk t
332         pnode = Instance.pNode inst
333         new_slist = delete iname (sList t)
334         new_dsk = if uses_disk
335                   then cur_dsk + Instance.dsk inst
336                   else cur_dsk
337         old_peers = peers t
338         old_peem = P.find pnode old_peers
339         new_peem =  if Instance.autoBalance inst
340                     then old_peem - Instance.mem inst
341                     else old_peem
342         new_peers = if new_peem > 0
343                     then P.add pnode new_peem old_peers
344                     else P.remove pnode old_peers
345         old_rmem = rMem t
346         new_rmem = if old_peem < old_rmem
347                    then old_rmem
348                    else computeMaxRes new_peers
349         new_prem = fromIntegral new_rmem / tMem t
350         new_failn1 = fMem t <= new_rmem
351         new_dp = fromIntegral new_dsk / tDsk t
352         old_load = utilLoad t
353         new_load = old_load { T.dskWeight = T.dskWeight old_load -
354                                             T.dskWeight (Instance.util inst) }
355     in t { sList = new_slist, fDsk = new_dsk, peers = new_peers
356          , failN1 = new_failn1, rMem = new_rmem, pDsk = new_dp
357          , pRem = new_prem, utilLoad = new_load }
358
359 -- | Adds a primary instance (basic version).
360 addPri :: Node -> Instance.Instance -> T.OpResult Node
361 addPri = addPriEx False
362
363 -- | Adds a primary instance (extended version).
364 addPriEx :: Bool               -- ^ Whether to override the N+1 and
365                                -- other /soft/ checks, useful if we
366                                -- come from a worse status
367                                -- (e.g. offline)
368          -> Node               -- ^ The target node
369          -> Instance.Instance  -- ^ The instance to add
370          -> T.OpResult Node    -- ^ The result of the operation,
371                                -- either the new version of the node
372                                -- or a failure mode
373 addPriEx force t inst =
374     let iname = Instance.idx inst
375         uses_disk = Instance.usesLocalStorage inst
376         cur_dsk = fDsk t
377         new_mem = fMem t - Instance.mem inst
378         new_dsk = if uses_disk
379                   then cur_dsk - Instance.dsk inst
380                   else cur_dsk
381         new_failn1 = new_mem <= rMem t
382         new_ucpu = uCpu t + Instance.vcpus inst
383         new_pcpu = fromIntegral new_ucpu / tCpu t
384         new_dp = fromIntegral new_dsk / tDsk t
385         l_cpu = mCpu t
386         new_load = utilLoad t `T.addUtil` Instance.util inst
387         inst_tags = Instance.tags inst
388         old_tags = pTags t
389         strict = not force
390     in case () of
391          _ | new_mem <= 0 -> T.OpFail T.FailMem
392            | uses_disk && new_dsk <= 0 -> T.OpFail T.FailDisk
393            | uses_disk && mDsk t > new_dp && strict -> T.OpFail T.FailDisk
394            | new_failn1 && not (failN1 t) && strict -> T.OpFail T.FailMem
395            | l_cpu >= 0 && l_cpu < new_pcpu && strict -> T.OpFail T.FailCPU
396            | rejectAddTags old_tags inst_tags -> T.OpFail T.FailTags
397            | otherwise ->
398                let new_plist = iname:pList t
399                    new_mp = fromIntegral new_mem / tMem t
400                    r = t { pList = new_plist, fMem = new_mem, fDsk = new_dsk
401                          , failN1 = new_failn1, pMem = new_mp, pDsk = new_dp
402                          , uCpu = new_ucpu, pCpu = new_pcpu
403                          , utilLoad = new_load
404                          , pTags = addTags old_tags inst_tags }
405                in T.OpGood r
406
407 -- | Adds a secondary instance (basic version).
408 addSec :: Node -> Instance.Instance -> T.Ndx -> T.OpResult Node
409 addSec = addSecEx False
410
411 -- | Adds a secondary instance (extended version).
412 addSecEx :: Bool -> Node -> Instance.Instance -> T.Ndx -> T.OpResult Node
413 addSecEx force t inst pdx =
414     let iname = Instance.idx inst
415         old_peers = peers t
416         old_mem = fMem t
417         new_dsk = fDsk t - Instance.dsk inst
418         secondary_needed_mem = if Instance.autoBalance inst
419                                then Instance.mem inst
420                                else 0
421         new_peem = P.find pdx old_peers + secondary_needed_mem
422         new_peers = P.add pdx new_peem old_peers
423         new_rmem = max (rMem t) new_peem
424         new_prem = fromIntegral new_rmem / tMem t
425         new_failn1 = old_mem <= new_rmem
426         new_dp = fromIntegral new_dsk / tDsk t
427         old_load = utilLoad t
428         new_load = old_load { T.dskWeight = T.dskWeight old_load +
429                                             T.dskWeight (Instance.util inst) }
430         strict = not force
431     in case () of
432          _ | not (Instance.hasSecondary inst) -> T.OpFail T.FailDisk
433            | new_dsk <= 0 -> T.OpFail T.FailDisk
434            | mDsk t > new_dp && strict -> T.OpFail T.FailDisk
435            | secondary_needed_mem >= old_mem && strict -> T.OpFail T.FailMem
436            | new_failn1 && not (failN1 t) && strict -> T.OpFail T.FailMem
437            | otherwise ->
438                let new_slist = iname:sList t
439                    r = t { sList = new_slist, fDsk = new_dsk
440                          , peers = new_peers, failN1 = new_failn1
441                          , rMem = new_rmem, pDsk = new_dp
442                          , pRem = new_prem, utilLoad = new_load }
443                in T.OpGood r
444
445 -- * Stats functions
446
447 -- | Computes the amount of available disk on a given node.
448 availDisk :: Node -> Int
449 availDisk t =
450     let _f = fDsk t
451         _l = loDsk t
452     in if _f < _l
453        then 0
454        else _f - _l
455
456 -- | Computes the amount of used disk on a given node.
457 iDsk :: Node -> Int
458 iDsk t = truncate (tDsk t) - fDsk t
459
460 -- | Computes the amount of available memory on a given node.
461 availMem :: Node -> Int
462 availMem t =
463     let _f = fMem t
464         _l = rMem t
465     in if _f < _l
466        then 0
467        else _f - _l
468
469 -- | Computes the amount of available memory on a given node.
470 availCpu :: Node -> Int
471 availCpu t =
472     let _u = uCpu t
473         _l = hiCpu t
474     in if _l >= _u
475        then _l - _u
476        else 0
477
478 -- | The memory used by instances on a given node.
479 iMem :: Node -> Int
480 iMem t = truncate (tMem t) - nMem t - xMem t - fMem t
481
482 -- * Display functions
483
484 -- | Return a field for a given node.
485 showField :: Node   -- ^ Node which we're querying
486           -> String -- ^ Field name
487           -> String -- ^ Field value as string
488 showField t field =
489     case field of
490       "idx"  -> printf "%4d" $ idx t
491       "name" -> alias t
492       "fqdn" -> name t
493       "status" -> case () of
494                     _ | offline t -> "-"
495                       | failN1 t -> "*"
496                       | otherwise -> " "
497       "tmem" -> printf "%5.0f" $ tMem t
498       "nmem" -> printf "%5d" $ nMem t
499       "xmem" -> printf "%5d" $ xMem t
500       "fmem" -> printf "%5d" $ fMem t
501       "imem" -> printf "%5d" $ iMem t
502       "rmem" -> printf "%5d" $ rMem t
503       "amem" -> printf "%5d" $ fMem t - rMem t
504       "tdsk" -> printf "%5.0f" $ tDsk t / 1024
505       "fdsk" -> printf "%5d" $ fDsk t `div` 1024
506       "tcpu" -> printf "%4.0f" $ tCpu t
507       "ucpu" -> printf "%4d" $ uCpu t
508       "pcnt" -> printf "%3d" $ length (pList t)
509       "scnt" -> printf "%3d" $ length (sList t)
510       "plist" -> show $ pList t
511       "slist" -> show $ sList t
512       "pfmem" -> printf "%6.4f" $ pMem t
513       "pfdsk" -> printf "%6.4f" $ pDsk t
514       "rcpu"  -> printf "%5.2f" $ pCpu t
515       "cload" -> printf "%5.3f" uC
516       "mload" -> printf "%5.3f" uM
517       "dload" -> printf "%5.3f" uD
518       "nload" -> printf "%5.3f" uN
519       "ptags" -> intercalate "," . map (uncurry (printf "%s=%d")) .
520                  Map.toList $ pTags t
521       "peermap" -> show $ peers t
522       _ -> T.unknownField
523     where
524       T.DynUtil { T.cpuWeight = uC, T.memWeight = uM,
525                   T.dskWeight = uD, T.netWeight = uN } = utilLoad t
526
527 -- | Returns the header and numeric propery of a field.
528 showHeader :: String -> (String, Bool)
529 showHeader field =
530     case field of
531       "idx" -> ("Index", True)
532       "name" -> ("Name", False)
533       "fqdn" -> ("Name", False)
534       "status" -> ("F", False)
535       "tmem" -> ("t_mem", True)
536       "nmem" -> ("n_mem", True)
537       "xmem" -> ("x_mem", True)
538       "fmem" -> ("f_mem", True)
539       "imem" -> ("i_mem", True)
540       "rmem" -> ("r_mem", True)
541       "amem" -> ("a_mem", True)
542       "tdsk" -> ("t_dsk", True)
543       "fdsk" -> ("f_dsk", True)
544       "tcpu" -> ("pcpu", True)
545       "ucpu" -> ("vcpu", True)
546       "pcnt" -> ("pcnt", True)
547       "scnt" -> ("scnt", True)
548       "plist" -> ("primaries", True)
549       "slist" -> ("secondaries", True)
550       "pfmem" -> ("p_fmem", True)
551       "pfdsk" -> ("p_fdsk", True)
552       "rcpu"  -> ("r_cpu", True)
553       "cload" -> ("lCpu", True)
554       "mload" -> ("lMem", True)
555       "dload" -> ("lDsk", True)
556       "nload" -> ("lNet", True)
557       "ptags" -> ("PrimaryTags", False)
558       "peermap" -> ("PeerMap", False)
559       -- TODO: add node fields (group.uuid, group)
560       _ -> (T.unknownField, False)
561
562 -- | String converter for the node list functionality.
563 list :: [String] -> Node -> [String]
564 list fields t = map (showField t) fields
565
566
567 -- | Constant holding the fields we're displaying by default.
568 defaultFields :: [String]
569 defaultFields =
570     [ "status", "name", "tmem", "nmem", "imem", "xmem", "fmem"
571     , "rmem", "tdsk", "fdsk", "tcpu", "ucpu", "pcnt", "scnt"
572     , "pfmem", "pfdsk", "rcpu"
573     , "cload", "mload", "dload", "nload" ]
574
575 -- | Split a list of nodes into a list of (node group UUID, list of
576 -- associated nodes).
577 computeGroups :: [Node] -> [(T.Gdx, [Node])]
578 computeGroups nodes =
579   let nodes' = sortBy (comparing group) nodes
580       nodes'' = groupBy (\a b -> group a == group b) nodes'
581   in map (\nl -> (group (head nl), nl)) nodes''