mapperd: Always sleep before checking request state.
[archipelago] / xseg / peers / user / mt-mapperd.c
index f51719d..2b4c95c 100644 (file)
+/*
+ * Copyright 2012 GRNET S.A. All rights reserved.
+ *
+ * Redistribution and use in source and binary forms, with or
+ * without modification, are permitted provided that the following
+ * conditions are met:
+ *
+ *   1. Redistributions of source code must retain the above
+ *      copyright notice, this list of conditions and the following
+ *      disclaimer.
+ *   2. Redistributions in binary form must reproduce the above
+ *      copyright notice, this list of conditions and the following
+ *      disclaimer in the documentation and/or other materials
+ *      provided with the distribution.
+ *
+ * THIS SOFTWARE IS PROVIDED BY GRNET S.A. ``AS IS'' AND ANY EXPRESS
+ * OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE IMPLIED
+ * WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR
+ * PURPOSE ARE DISCLAIMED. IN NO EVENT SHALL GRNET S.A OR
+ * CONTRIBUTORS BE LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL,
+ * SPECIAL, EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT
+ * LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES; LOSS OF
+ * USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION) HOWEVER CAUSED
+ * AND ON ANY THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT
+ * LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN
+ * ANY WAY OUT OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE
+ * POSSIBILITY OF SUCH DAMAGE.
+ *
+ * The views and conclusions contained in the software and
+ * documentation are those of the authors and should not be
+ * interpreted as representing official policies, either expressed
+ * or implied, of GRNET S.A.
+ */
+
 #include <stdio.h>
 #include <unistd.h>
 #include <sys/types.h>
 #include <pthread.h>
 #include <xseg/xseg.h>
-#include <mpeer.h>
+#include <peer.h>
 #include <time.h>
 #include <xtypes/xlock.h>
 #include <xtypes/xhash.h>
 #include <xseg/protocol.h>
 #include <sys/stat.h>
 #include <fcntl.h>
-#include <gcrypt.h>
 #include <errno.h>
 #include <sched.h>
 #include <sys/syscall.h>
+#include <openssl/sha.h>
+#include <ctype.h>
 
-GCRY_THREAD_OPTION_PTHREAD_IMPL;
-
-#define MF_PENDING 1
+/* general mapper flags */
+#define MF_LOAD        (1 << 0)
+#define MF_EXCLUSIVE   (1 << 1)
+#define MF_FORCE       (1 << 2)
+#define MF_ARCHIP      (1 << 3)
 
+#ifndef SHA256_DIGEST_SIZE
 #define SHA256_DIGEST_SIZE 32
+#endif
 /* hex representation of sha256 value takes up double the sha256 size */
 #define HEXLIFIED_SHA256_DIGEST_SIZE (SHA256_DIGEST_SIZE << 1)
 
 #define block_size (1<<22) //FIXME this should be defined here?
-#define objectsize_in_map (1 + XSEG_MAX_TARGETLEN) /* transparency byte + max object len */
-#define mapheader_size (SHA256_DIGEST_SIZE + (sizeof(uint64_t)) ) /* magic hash value  + volume size */
 
-#define MF_OBJECT_EXIST                (1 << 0)
-#define MF_OBJECT_COPYING      (1 << 1)
-#define MF_OBJECT_WRITING      (1 << 2)
-#define MF_OBJECT_DELETING     (1 << 3)
+/* transparency byte + max object len in disk */
+#define objectsize_in_map (1 + SHA256_DIGEST_SIZE)
+
+/* Map header contains:
+ *     map version
+ *     volume size
+ */
+#define mapheader_size (sizeof (uint32_t) + sizeof(uint64_t))
+
+
+#define MAPPER_PREFIX "archip_"
+#define MAPPER_PREFIX_LEN 7
 
-#define MF_OBJECT_NOT_READY    (MF_OBJECT_COPYING|MF_OBJECT_WRITING|MF_OBJECT_DELETING)
-extern struct log_ctx lc;
+#define MAX_REAL_VOLUME_LEN (XSEG_MAX_TARGETLEN - MAPPER_PREFIX_LEN)
+#define MAX_VOLUME_LEN (MAPPER_PREFIX_LEN + MAX_REAL_VOLUME_LEN)
 
-char *magic_string = "This a magic string. Please hash me";
-unsigned char magic_sha256[SHA256_DIGEST_SIZE];        /* sha256 hash value of magic string */
-char zero_block[HEXLIFIED_SHA256_DIGEST_SIZE + 1]; /* hexlified sha256 hash value of a block full of zeros */
+#if MAX_VOLUME_LEN > XSEG_MAX_TARGETLEN
+#error         "XSEG_MAX_TARGETLEN should be at least MAX_VOLUME_LEN"
+#endif
 
-//internal mapper states
+#define MAX_OBJECT_LEN (MAPPER_PREFIX_LEN + HEXLIFIED_SHA256_DIGEST_SIZE)
+
+#if MAX_OBJECT_LEN > XSEG_MAX_TARGETLEN
+#error         "XSEG_MAX_TARGETLEN should be at least MAX_OBJECT_LEN"
+#endif
+
+#define MAX_VOLUME_SIZE \
+((uint64_t) (((block_size-mapheader_size)/objectsize_in_map)* block_size))
+
+
+//char *zero_block="0000000000000000000000000000000000000000000000000000000000000000";
+
+/* pithos considers this a block full of zeros, so should we.
+ * it is actually the sha256 hash of nothing.
+ */
+char *zero_block="e3b0c44298fc1c149afbf4c8996fb92427ae41e4649b934ca495991b7852b855";
+#define ZERO_BLOCK_LEN (64) /* strlen(zero_block) */
+
+/* dispatch_internal mapper states */
 enum mapper_state {
        ACCEPTED = 0,
        WRITING = 1,
@@ -48,31 +111,116 @@ enum mapper_state {
        DROPPING_CACHE = 4
 };
 
+typedef void (*cb_t)(struct peer_req *pr, struct xseg_request *req);
+
+
+/* mapper object flags */
+#define MF_OBJECT_EXIST                (1 << 0)
+#define MF_OBJECT_COPYING      (1 << 1)
+#define MF_OBJECT_WRITING      (1 << 2)
+#define MF_OBJECT_DELETING     (1 << 3)
+#define MF_OBJECT_DESTROYED    (1 << 5)
+#define MF_OBJECT_SNAPSHOTTING (1 << 6)
+
+#define MF_OBJECT_NOT_READY    (MF_OBJECT_COPYING|MF_OBJECT_WRITING|\
+                               MF_OBJECT_DELETING|MF_OBJECT_SNAPSHOTTING)
 struct map_node {
        uint32_t flags;
        uint32_t objectidx;
        uint32_t objectlen;
-       char object[XSEG_MAX_TARGETLEN + 1];    /* NULL terminated string */
-       struct xq pending;                      /* pending peer_reqs on this object */
+       char object[MAX_OBJECT_LEN + 1];        /* NULL terminated string */
        struct map *map;
+       uint32_t ref;
+       uint32_t waiters;
+       st_cond_t cond;
 };
 
+
+#define wait_on_pr(__pr, __condition__)        \
+       do {                                    \
+               ta--;                           \
+               __get_mapper_io(pr)->active = 0;\
+               XSEGLOG2(&lc, D, "Waiting on pr %lx, ta: %u",  pr, ta); \
+               st_cond_wait(__pr->cond);       \
+       } while (__condition__)
+
+#define wait_on_mapnode(__mn, __condition__)   \
+       do {                                    \
+               ta--;                           \
+               __mn->waiters++;                \
+               XSEGLOG2(&lc, D, "Waiting on map node %lx %s, waiters: %u, \
+                       ta: %u",  __mn, __mn->object, __mn->waiters, ta);  \
+               st_cond_wait(__mn->cond);       \
+       } while (__condition__)
+
+#define wait_on_map(__map, __condition__)      \
+       do {                                    \
+               ta--;                           \
+               __map->waiters++;               \
+               XSEGLOG2(&lc, D, "Waiting on map %lx %s, waiters: %u, ta: %u",\
+                                  __map, __map->volume, __map->waiters, ta); \
+               st_cond_wait(__map->cond);      \
+       } while (__condition__)
+
+#define signal_pr(__pr)                                \
+       do {                                    \
+               if (!__get_mapper_io(pr)->active){\
+                       ta++;                   \
+                       XSEGLOG2(&lc, D, "Signaling  pr %lx, ta: %u",  pr, ta);\
+                       __get_mapper_io(pr)->active = 1;\
+                       st_cond_signal(__pr->cond);     \
+               }                               \
+       }while(0)
+
+#define signal_map(__map)                      \
+       do {                                    \
+               if (__map->waiters) {           \
+                       ta += 1;                \
+                       XSEGLOG2(&lc, D, "Signaling map %lx %s, waiters: %u, \
+                       ta: %u",  __map, __map->volume, __map->waiters, ta); \
+                       __map->waiters--;       \
+                       st_cond_signal(__map->cond);    \
+               }                               \
+       }while(0)
+
+#define signal_mapnode(__mn)                   \
+       do {                                    \
+               if (__mn->waiters) {            \
+                       ta += __mn->waiters;    \
+                       XSEGLOG2(&lc, D, "Signaling map node %lx %s, waiters: \
+                       %u, ta: %u",  __mn, __mn->object, __mn->waiters, ta); \
+                       __mn->waiters = 0;      \
+                       st_cond_broadcast(__mn->cond);  \
+               }                               \
+       }while(0)
+
+
+/* map flags */
 #define MF_MAP_LOADING         (1 << 0)
 #define MF_MAP_DESTROYED       (1 << 1)
 #define MF_MAP_WRITING         (1 << 2)
 #define MF_MAP_DELETING                (1 << 3)
 #define MF_MAP_DROPPING_CACHE  (1 << 4)
+#define MF_MAP_EXCLUSIVE       (1 << 5)
+#define MF_MAP_OPENING         (1 << 6)
+#define MF_MAP_CLOSING         (1 << 7)
+#define MF_MAP_DELETED         (1 << 8)
+#define MF_MAP_SNAPSHOTTING    (1 << 9)
 
 #define MF_MAP_NOT_READY       (MF_MAP_LOADING|MF_MAP_WRITING|MF_MAP_DELETING|\
-                                       MF_MAP_DROPPING_CACHE)
+                               MF_MAP_DROPPING_CACHE|MF_MAP_OPENING|          \
+                               MF_MAP_SNAPSHOTTING)
 
 struct map {
+       uint32_t version;
        uint32_t flags;
        uint64_t size;
        uint32_t volumelen;
-       char volume[XSEG_MAX_TARGETLEN + 1]; /* NULL terminated string */
+       char volume[MAX_VOLUME_LEN + 1]; /* NULL terminated string */
        xhash_t *objects;       /* obj_index --> map_node */
-       struct xq pending;      /* pending peer_reqs on this map */
+       uint32_t ref;
+       uint32_t waiters;
+       st_cond_t cond;
 };
 
 struct mapperd {
@@ -85,15 +233,31 @@ struct mapper_io {
        volatile uint32_t copyups;      /* nr of copyups pending, issued by this mapper io */
        xhash_t *copyups_nodes;         /* hash map (xseg_request) --> (corresponding map_node of copied up object)*/
        struct map_node *copyup_node;
-       int err;                        /* error flag */
+       volatile int err;                       /* error flag */
+       volatile uint64_t del_pending;
+       volatile uint64_t snap_pending;
        uint64_t delobj;
        uint64_t dcobj;
+       cb_t cb;
        enum mapper_state state;
+       volatile int active;
 };
 
-static int my_dispatch(struct peerd *peer, struct peer_req *pr, struct xseg_request *req);
+/* global vars */
+struct mapperd *mapper;
+
 void print_map(struct map *m);
 
+
+void custom_peer_usage()
+{
+       fprintf(stderr, "Custom peer options: \n"
+                       "-bp  : port for block blocker(!)\n"
+                       "-mbp : port for map blocker\n"
+                       "\n");
+}
+
+
 /*
  * Helper functions
  */
@@ -110,6 +274,8 @@ static inline struct mapper_io * __get_mapper_io(struct peer_req *pr)
 
 static inline uint64_t calc_map_obj(struct map *map)
 {
+       if (map->size == -1)
+               return 0;
        uint64_t nr_objs = map->size / block_size;
        if (map->size % block_size)
                nr_objs++;
@@ -132,31 +298,132 @@ static uint32_t calc_nr_obj(struct xseg_request *req)
        return r;
 }
 
+/* hexlify function.
+ * Unsafe. Doesn't check if data length is odd!
+ */
+
+static void hexlify(unsigned char *data, char *hex)
+{
+       int i;
+       for (i=0; i<SHA256_DIGEST_LENGTH; i++)
+               sprintf(hex+2*i, "%02x", data[i]);
+}
+
+static void unhexlify(char *hex, unsigned char *data)
+{
+       int i;
+       char c;
+       for (i=0; i<SHA256_DIGEST_LENGTH; i++){
+               data[i] = 0;
+               c = hex[2*i];
+               if (isxdigit(c)){
+                       if (isdigit(c)){
+                               c-= '0';
+                       }
+                       else {
+                               c = tolower(c);
+                               c = c-'a' + 10;
+                       }
+               }
+               else {
+                       c = 0;
+               }
+               data[i] |= (c << 4) & 0xF0;
+               c = hex[2*i+1];
+               if (isxdigit(c)){
+                       if (isdigit(c)){
+                               c-= '0';
+                       }
+                       else {
+                               c = tolower(c);
+                               c = c-'a' + 10;
+                       }
+               }
+               else {
+                       c = 0;
+               }
+               data[i] |= c & 0x0F;
+       }
+}
+
+void merkle_hash(unsigned char *hashes, unsigned long len,
+               unsigned char hash[SHA256_DIGEST_SIZE])
+{
+       uint32_t i, l, s = 2;
+       uint32_t nr = len/SHA256_DIGEST_SIZE;
+       unsigned char *buf;
+       unsigned char tmp_hash[SHA256_DIGEST_SIZE];
+
+       if (!nr){
+               SHA256(hashes, 0, hash);
+               return;
+       }
+       if (nr == 1){
+               memcpy(hash, hashes, SHA256_DIGEST_SIZE);
+               return;
+       }
+       while (s < nr)
+               s = s << 1;
+       buf = malloc(sizeof(unsigned char)* SHA256_DIGEST_SIZE * s);
+       memcpy(buf, hashes, nr * SHA256_DIGEST_SIZE);
+       memset(buf + nr * SHA256_DIGEST_SIZE, 0, (s - nr) * SHA256_DIGEST_SIZE);
+       for (l = s; l > 1; l = l/2) {
+               for (i = 0; i < l; i += 2) {
+                       SHA256(buf + (i * SHA256_DIGEST_SIZE),
+                                       2 * SHA256_DIGEST_SIZE, tmp_hash);
+                       memcpy(buf + (i/2 * SHA256_DIGEST_SIZE),
+                                       tmp_hash, SHA256_DIGEST_SIZE);
+               }
+       }
+       memcpy(hash, buf, SHA256_DIGEST_SIZE);
+}
+
 /*
  * Maps handling functions
  */
 
-static struct map * find_map(struct mapperd *mapper, char *target, uint32_t targetlen)
+static struct map * find_map(struct mapperd *mapper, char *volume)
 {
-       int r;
        struct map *m = NULL;
-       char buf[XSEG_MAX_TARGETLEN+1];
-       //assert targetlen <= XSEG_MAX_TARGETLEN
-       strncpy(buf, target, targetlen);
-       buf[targetlen] = 0;
-       XSEGLOG2(&lc, D, "looking up map %s, len %u", buf, targetlen);
-       r = xhash_lookup(mapper->hashmaps, (xhashidx) buf, (xhashidx *) &m);
+       int r = xhash_lookup(mapper->hashmaps, (xhashidx) volume,
+                               (xhashidx *) &m);
        if (r < 0)
                return NULL;
        return m;
 }
 
+static struct map * find_map_len(struct mapperd *mapper, char *target,
+                                       uint32_t targetlen, uint32_t flags)
+{
+       char buf[XSEG_MAX_TARGETLEN+1];
+       if (flags & MF_ARCHIP){
+               strncpy(buf, MAPPER_PREFIX, MAPPER_PREFIX_LEN);
+               strncpy(buf + MAPPER_PREFIX_LEN, target, targetlen);
+               buf[MAPPER_PREFIX_LEN + targetlen] = 0;
+               targetlen += MAPPER_PREFIX_LEN;
+       }
+       else {
+               strncpy(buf, target, targetlen);
+               buf[targetlen] = 0;
+       }
+
+       if (targetlen > MAX_VOLUME_LEN){
+               XSEGLOG2(&lc, E, "Namelen %u too long. Max: %d",
+                                       targetlen, MAX_VOLUME_LEN);
+               return NULL;
+       }
+
+       XSEGLOG2(&lc, D, "looking up map %s, len %u",
+                       buf, targetlen);
+       return find_map(mapper, buf);
+}
+
 
 static int insert_map(struct mapperd *mapper, struct map *map)
 {
        int r = -1;
-       
-       if (find_map(mapper, map->volume, map->volumelen)){
+
+       if (find_map(mapper, map->volume)){
                XSEGLOG2(&lc, W, "Map %s found in hash maps", map->volume);
                goto out;
        }
@@ -182,9 +449,9 @@ out:
 static int remove_map(struct mapperd *mapper, struct map *map)
 {
        int r = -1;
-       
+
        //assert no pending pr on map
-       
+
        r = xhash_delete(mapper->hashmaps, (xhashidx) map->volume);
        while (r == -XHASH_ERESIZE) {
                xhashidx shift = xhash_shrink_size_shift(mapper->hashmaps);
@@ -201,125 +468,83 @@ out:
        return r;
 }
 
-/* async map load */
-static int load_map(struct peerd *peer, struct peer_req *pr, char *target, 
-                       uint32_t targetlen)
+static struct xseg_request * __close_map(struct peer_req *pr, struct map *map)
 {
        int r;
        xport p;
+       struct peerd *peer = pr->peer;
        struct xseg_request *req;
        struct mapperd *mapper = __get_mapperd(peer);
        void *dummy;
 
-       struct map *m = find_map(mapper, target, targetlen);
-       if (!m) {
-               m = malloc(sizeof(struct map));
-               if (!m){
-                       XSEGLOG2(&lc, E, "Cannot allocate map ");
-                       goto out_err;
-               }
-               m->size = -1;
-               strncpy(m->volume, target, targetlen);
-               m->volume[targetlen] = 0;
-               m->volumelen = targetlen;
-               m->flags = MF_MAP_LOADING;
-               xqindex *qidx = xq_alloc_empty(&m->pending, peer->nr_ops);
-               if (!qidx) {
-                       XSEGLOG2(&lc, E, "Cannot allocate pending queue for map %s",
-                                       m->volume);
-                       goto out_map;
-               }
-               m->objects = xhash_new(3, INTEGER); 
-               if (!m->objects){
-                       XSEGLOG2(&lc, E, "Cannot allocate object hashmap for map %s",
-                                       m->volume);
-                       goto out_q;
-               }
-               __xq_append_tail(&m->pending, (xqindex) pr); //FIXME err check
-       } else {
-               goto map_exists;
-       }
-
-       r = insert_map(mapper, m);
-       if (r < 0)  
-               goto out_hash;
-       
+       XSEGLOG2(&lc, I, "Closing map %s", map->volume);
 
-       req = xseg_get_request(peer->xseg, peer->portno, mapper->mbportno, X_ALLOC);
+       req = xseg_get_request(peer->xseg, pr->portno, mapper->mbportno, X_ALLOC);
        if (!req){
                XSEGLOG2(&lc, E, "Cannot allocate request for map %s",
-                               m->volume);
-               goto out_fail;
+                               map->volume);
+               goto out_err;
        }
 
-       r = xseg_prep_request(peer->xseg, req, targetlen, block_size);
+       r = xseg_prep_request(peer->xseg, req, map->volumelen, 0);
        if (r < 0){
                XSEGLOG2(&lc, E, "Cannot prepare request for map %s",
-                               m->volume);
+                               map->volume);
                goto out_put;
        }
 
        char *reqtarget = xseg_get_target(peer->xseg, req);
        if (!reqtarget)
                goto out_put;
-       strncpy(reqtarget, target, req->targetlen);
-       req->op = X_READ;
-       req->size = block_size;
+       strncpy(reqtarget, map->volume, req->targetlen);
+       req->op = X_RELEASE;
+       req->size = 0;
        req->offset = 0;
        r = xseg_set_req_data(peer->xseg, req, pr);
        if (r < 0){
                XSEGLOG2(&lc, E, "Cannot set request data for map %s",
-                               m->volume);
+                               map->volume);
                goto out_put;
        }
-       p = xseg_submit(peer->xseg, req, peer->portno, X_ALLOC);
-       if (p == NoPort){ 
+       p = xseg_submit(peer->xseg, req, pr->portno, X_ALLOC);
+       if (p == NoPort){
                XSEGLOG2(&lc, E, "Cannot submit request for map %s",
-                               m->volume);
+                               map->volume);
                goto out_unset;
        }
        r = xseg_signal(peer->xseg, p);
-       
-       XSEGLOG2(&lc, I, "Map %s loading", m->volume);
-       return 0;
+       map->flags |= MF_MAP_CLOSING;
+
+       XSEGLOG2(&lc, I, "Map %s closing", map->volume);
+       return req;
 
 out_unset:
        xseg_get_req_data(peer->xseg, req, &dummy);
 out_put:
-       xseg_put_request(peer->xseg, req, peer->portno);
-
-out_fail:
-       remove_map(mapper, m);
-       xqindex idx;
-       while((idx = __xq_pop_head(&m->pending)) != Noneidx) {
-               fail(peer, (struct peer_req *) idx);
-       }
-
-out_hash:
-       xhash_free(m->objects);
-out_q:
-       xq_free(&m->pending);
-out_map:
-       XSEGLOG2(&lc, E, "failed to load map %s", m->volume);
-       free(m);
+       xseg_put_request(peer->xseg, req, pr->portno);
 out_err:
-       return -1;
+       return NULL;
+}
 
-map_exists:
-       //assert map loading when this is reached
-       if (m->flags & MF_MAP_LOADING) {
-               XSEGLOG2(&lc, I, "Map %s already exists and loading. "
-                               "Adding to pending queue", m->volume);
-               __xq_append_tail(&m->pending, (xqindex) pr); //FIXME errcheck
-       }
-       else {
-               XSEGLOG2(&lc, I, "Map %s already exists and loaded. Dispatching.", m->volume);
-               my_dispatch(peer, pr, pr->req);
-       }
+static int close_map(struct peer_req *pr, struct map *map)
+{
+       int err;
+       struct xseg_request *req;
+       struct peerd *peer = pr->peer;
+
+       req = __close_map(pr, map);
+       if (!req)
+               return -1;
+       wait_on_pr(pr, (!((req->state & XS_FAILED)||(req->state & XS_SERVED))));
+       map->flags &= ~MF_MAP_CLOSING;
+       err = req->state & XS_FAILED;
+       xseg_put_request(peer->xseg, req, pr->portno);
+       if (err)
+               return -1;
        return 0;
 }
 
-
+/*
 static int find_or_load_map(struct peerd *peer, struct peer_req *pr, 
                                char *target, uint32_t targetlen, struct map **m)
 {
@@ -340,12 +565,12 @@ static int find_or_load_map(struct peerd *peer, struct peer_req *pr,
                        return 0;
                }
        }
-       r = load_map(peer, pr, target, targetlen);
+       r = open_map(peer, pr, target, targetlen, 0);
        if (r < 0)
                return -1; //error
        return MF_PENDING;      
 }
-
+*/
 /*
  * Object handling functions
  */
@@ -375,239 +600,674 @@ static int insert_object(struct map *map, struct map_node *mn)
 
 
 /*
- * map read/write functions 
+ * map read/write functions
+ *
+ * version 0 -> pithos map
+ * version 1 -> archipelago version 1
+ *
+ *
+ * functions
+ *     int read_object(struct map_node *mn, unsigned char *buf)
+ *     int prepare_write_object(struct peer_req *pr, struct map *map,
+ *                             struct map_node *mn, struct xseg_request *req)
+ *     int read_map(struct map *m, unsigned char * data)
+ *     int prepare_write_map(struct peer_req *pr, struct map *map,
+ *                                     struct xseg_request *req)
  */
-static inline void pithosmap_to_object(struct map_node *mn, unsigned char *buf)
-{
-       int i;
-       //hexlify sha256 value
-       for (i = 0; i < SHA256_DIGEST_SIZE; i++) {
-               sprintf(mn->object+2*i, "%02x", buf[i]);
-       }
 
-       mn->object[SHA256_DIGEST_SIZE * 2] = 0;
-       mn->objectlen = SHA256_DIGEST_SIZE * 2;
-       mn->flags = MF_OBJECT_EXIST;
-}
+struct map_functions {
+       int (*read_object)(struct map_node *mn, unsigned char *buf);
+       int (*prepare_write_object)(struct peer_req *pr, struct map *map,
+                               struct map_node *mn, struct xseg_request *req);
+       int (*read_map)(struct map *m, unsigned char * data);
+       int (*prepare_write_map)(struct peer_req *pr, struct map *map,
+                                       struct xseg_request *req);
+};
 
-static inline void map_to_object(struct map_node *mn, char *buf)
-{
-       char c = buf[0];
-       mn->flags = 0;
-       if (c)
-               mn->flags |= MF_OBJECT_EXIST;
-       memcpy(mn->object, buf+1, XSEG_MAX_TARGETLEN);
-       mn->object[XSEG_MAX_TARGETLEN] = 0;
-       mn->objectlen = strlen(mn->object);
-}
+/* version 0 functions */
 
-static inline void object_to_map(char* buf, struct map_node *mn)
+/* no header */
+#define v0_mapheader_size 0
+/* just the unhexlified name */
+#define v0_objectsize_in_map SHA256_DIGEST_SIZE
+
+static inline int read_object_v0(struct map_node *mn, unsigned char *buf)
 {
-       buf[0] = (mn->flags & MF_OBJECT_EXIST)? 1 : 0;
-       memcpy(buf+1, mn->object, mn->objectlen);
-       memset(buf+1+mn->objectlen, 0, XSEG_MAX_TARGETLEN - mn->objectlen); //zero out the rest of the buffer
+       hexlify(buf, mn->object);
+       mn->object[HEXLIFIED_SHA256_DIGEST_SIZE] = 0;
+       mn->objectlen = HEXLIFIED_SHA256_DIGEST_SIZE;
+       mn->flags = MF_OBJECT_EXIST;
+
+       return 0;
 }
 
-static inline void mapheader_to_map(struct map *m, char *buf)
+static void v0_object_to_map(struct map_node *mn, unsigned char *data)
 {
-       uint64_t pos = 0;
-       memcpy(buf + pos, magic_sha256, SHA256_DIGEST_SIZE);
-       pos += SHA256_DIGEST_SIZE;
-       memcpy(buf + pos, &m->size, sizeof(m->size));
-       pos += sizeof(m->size);
+       unhexlify(mn->object, data);
 }
 
-
-static int object_write(struct peerd *peer, struct peer_req *pr, 
-                               struct map *map, struct map_node *mn)
+static int prepare_write_object_v0(struct peer_req *pr, struct map *map,
+                       struct map_node *mn, struct xseg_request *req)
 {
-       void *dummy;
-       struct mapperd *mapper = __get_mapperd(peer);
-       struct xseg_request *req = xseg_get_request(peer->xseg, peer->portno,
-                                                       mapper->mbportno, X_ALLOC);
-       if (!req){
-               XSEGLOG2(&lc, E, "Cannot allocate request for object %s. \n\t"
-                               "(Map: %s [%llu]",
-                               mn->object, map->volume, (unsigned long long) mn->objectidx);
-               goto out_err;
-       }
-       int r = xseg_prep_request(peer->xseg, req, map->volumelen, objectsize_in_map);
+       struct peerd *peer = pr->peer;
+       int r = xseg_prep_request(peer->xseg, req, map->volumelen, v0_objectsize_in_map);
        if (r < 0){
                XSEGLOG2(&lc, E, "Cannot allocate request for object %s. \n\t"
                                "(Map: %s [%llu]",
                                mn->object, map->volume, (unsigned long long) mn->objectidx);
-               goto out_put;
+               return -1;
        }
        char *target = xseg_get_target(peer->xseg, req);
        strncpy(target, map->volume, req->targetlen);
-       req->size = objectsize_in_map;
-       req->offset = mapheader_size + mn->objectidx * objectsize_in_map;
-       req->op = X_WRITE;
-       char *data = xseg_get_data(peer->xseg, req);
-       object_to_map(data, mn);
-
-       r = xseg_set_req_data(peer->xseg, req, pr);
-       if (r < 0){
-               XSEGLOG2(&lc, E, "Cannot set request data for object %s. \n\t"
-                               "(Map: %s [%llu]",
-                               mn->object, map->volume, (unsigned long long) mn->objectidx);
-               goto out_put;
-       }
-       xport p = xseg_submit(peer->xseg, req, peer->portno, X_ALLOC);
-       if (p == NoPort){
-               XSEGLOG2(&lc, E, "Cannot submit request for object %s. \n\t"
-                               "(Map: %s [%llu]",
-                               mn->object, map->volume, (unsigned long long) mn->objectidx);
-               goto out_unset;
-       }
-       r = xseg_signal(peer->xseg, p);
-       if (r < 0)
-               XSEGLOG2(&lc, W, "Cannot signal port %u", p);
-
-       XSEGLOG2(&lc, I, "Writing object %s \n\t"
-                       "Map: %s [%llu]",
-                       mn->object, map->volume, (unsigned long long) mn->objectidx);
-
-       return MF_PENDING;
+       req->size = req->datalen;
+       req->offset = v0_mapheader_size + mn->objectidx * v0_objectsize_in_map;
 
-out_unset:
-       xseg_get_req_data(peer->xseg, req, &dummy);
-out_put:
-       xseg_put_request(peer->xseg, req, peer->portno);
-out_err:
-       XSEGLOG2(&lc, E, "Object write for object %s failed. \n\t"
-                       "(Map: %s [%llu]",
-                       mn->object, map->volume, (unsigned long long) mn->objectidx);
+       unsigned char *data = xseg_get_data(pr->peer->xseg, req);
+       v0_object_to_map(mn, data);
        return -1;
 }
 
-static int map_write(struct peerd *peer, struct peer_req* pr, struct map *map)
+static int read_map_v0(struct map *m, unsigned char * data)
 {
-       void *dummy;
-       struct mapperd *mapper = __get_mapperd(peer);
+       int r;
+       struct map_node *map_node;
+       uint64_t i;
+       uint64_t pos = 0;
+       uint64_t max_nr_objs = block_size/SHA256_DIGEST_SIZE;
+       XSEGLOG2(&lc, D, "Max nr_objs %llu", max_nr_objs);
+       char nulls[SHA256_DIGEST_SIZE];
+       memset(nulls, 0, SHA256_DIGEST_SIZE);
+       map_node = calloc(max_nr_objs, sizeof(struct map_node));
+       if (!map_node)
+               return -1;
+       for (i = 0; i < max_nr_objs; i++) {
+               if (!memcmp(data+pos, nulls, v0_objectsize_in_map))
+                       break;
+               map_node[i].objectidx = i;
+               map_node[i].map = m;
+               map_node[i].waiters = 0;
+               map_node[i].ref = 1;
+               map_node[i].cond = st_cond_new(); //FIXME err check;
+               read_object_v0(&map_node[i], data+pos);
+               pos += v0_objectsize_in_map;
+               r = insert_object(m, &map_node[i]); //FIXME error check
+       }
+       XSEGLOG2(&lc, D, "Found %llu objects", i);
+       m->size = i * block_size;
+       return 0;
+}
+
+static int prepare_write_map_v0(struct peer_req *pr, struct map *map,
+                               struct xseg_request *req)
+{
+       struct peerd *peer = pr->peer;
+       uint64_t i, pos = 0, max_objidx = calc_map_obj(map);
        struct map_node *mn;
-       uint64_t i, pos, max_objidx = calc_map_obj(map);
-       struct xseg_request *req = xseg_get_request(peer->xseg, peer->portno, 
-                                                       mapper->mbportno, X_ALLOC);
-       if (!req){
-               XSEGLOG2(&lc, E, "Cannot allocate request for map %s", map->volume);
-               goto out_err;
-       }
-       int r = xseg_prep_request(peer->xseg, req, map->volumelen, 
-                                       mapheader_size + max_objidx * objectsize_in_map);
+       int r = xseg_prep_request(peer->xseg, req, map->volumelen,
+                       v0_mapheader_size + max_objidx * v0_objectsize_in_map);
        if (r < 0){
                XSEGLOG2(&lc, E, "Cannot prepare request for map %s", map->volume);
-               goto out_put;
+               return -1;
        }
        char *target = xseg_get_target(peer->xseg, req);
        strncpy(target, map->volume, req->targetlen);
        char *data = xseg_get_data(peer->xseg, req);
-       mapheader_to_map(map, data);
-       pos = mapheader_size;
+
        req->op = X_WRITE;
        req->size = req->datalen;
        req->offset = 0;
 
-       if (map->size % block_size)
-               max_objidx++;
        for (i = 0; i < max_objidx; i++) {
                mn = find_object(map, i);
                if (!mn){
-                       XSEGLOG2(&lc, E, "Cannot find object %lli for map %s",
+                       XSEGLOG2(&lc, E, "Cannot find object %llu for map %s",
                                        (unsigned long long) i, map->volume);
-                       goto out_put;
+                       return -1;
                }
-               object_to_map(data+pos, mn);
-               pos += objectsize_in_map;
-       }
-       r = xseg_set_req_data(peer->xseg, req, pr);
-       if (r < 0){
-               XSEGLOG2(&lc, E, "Cannot set request data for map %s",
-                               map->volume);
-               goto out_put;
-       }
-       xport p = xseg_submit(peer->xseg, req, peer->portno, X_ALLOC);
-       if (p == NoPort){
-               XSEGLOG2(&lc, E, "Cannot submit request for map %s",
-                               map->volume);
-               goto out_unset;
+               v0_object_to_map(mn, (unsigned char *)(data+pos));
+               pos += v0_objectsize_in_map;
        }
-       r = xseg_signal(peer->xseg, p);
-       if (r < 0)
-               XSEGLOG2(&lc, W, "Cannot signal port %u", p);
+       XSEGLOG2(&lc, D, "Prepared %llu objects", i);
+       return 0;
+}
 
-       map->flags |= MF_MAP_WRITING;
-       XSEGLOG2(&lc, I, "Writing map %s", map->volume);
-       return MF_PENDING;
+/* static struct map_functions map_functions_v0 =      { */
+/*                     .read_object = read_object_v0, */
+/*                     .read_map = read_map_v0, */
+/*                     .prepare_write_object = prepare_write_object_v0, */
+/*                     .prepare_write_map = prepare_write_map_v0 */
+/* }; */
+#define map_functions_v0 {                             \
+                       .read_object = read_object_v0,  \
+                       .read_map = read_map_v0,        \
+                       .prepare_write_object = prepare_write_object_v0,\
+                       .prepare_write_map = prepare_write_map_v0       \
+                       }
+/* v1 functions */
 
-out_unset:
-       xseg_get_req_data(peer->xseg, req, &dummy);
-out_put:
-       xseg_put_request(peer->xseg, req, peer->portno);
-out_err:
-       XSEGLOG2(&lc, E, "Map write for map %s failed.", map->volume);
-       return -1;
-}
+/* transparency byte + max object len in disk */
+#define v1_objectsize_in_map (1 + SHA256_DIGEST_SIZE)
 
-static int read_map (struct peerd *peer, struct map *map, char *buf)
-{
+/* Map header contains:
+ *     map version
+ *     volume size
+ */
+#define v1_mapheader_size (sizeof (uint32_t) + sizeof(uint64_t))
+
+static inline int read_object_v1(struct map_node *mn, unsigned char *buf)
+{
+       char c = buf[0];
+       mn->flags = 0;
+       if (c){
+               mn->flags |= MF_OBJECT_EXIST;
+               strcpy(mn->object, MAPPER_PREFIX);
+               hexlify(buf+1, mn->object + MAPPER_PREFIX_LEN);
+               mn->object[MAX_OBJECT_LEN] = 0;
+               mn->objectlen = strlen(mn->object);
+       }
+       else {
+               mn->flags &= ~MF_OBJECT_EXIST;
+               hexlify(buf+1, mn->object);
+               mn->object[HEXLIFIED_SHA256_DIGEST_SIZE] = 0;
+               mn->objectlen = strlen(mn->object);
+       }
+       return 0;
+}
+
+static inline void v1_object_to_map(char* buf, struct map_node *mn)
+{
+       buf[0] = (mn->flags & MF_OBJECT_EXIST)? 1 : 0;
+       if (buf[0]){
+               /* strip common prefix */
+               unhexlify(mn->object+MAPPER_PREFIX_LEN, (unsigned char *)(buf+1));
+       }
+       else {
+               unhexlify(mn->object, (unsigned char *)(buf+1));
+       }
+}
+
+static int prepare_write_object_v1(struct peer_req *pr, struct map *map,
+                               struct map_node *mn, struct xseg_request *req)
+{
+       struct peerd *peer = pr->peer;
+       int r = xseg_prep_request(peer->xseg, req, map->volumelen, v1_objectsize_in_map);
+       if (r < 0){
+               XSEGLOG2(&lc, E, "Cannot allocate request for object %s. \n\t"
+                               "(Map: %s [%llu]",
+                               mn->object, map->volume, (unsigned long long) mn->objectidx);
+               return -1;
+       }
+       char *target = xseg_get_target(peer->xseg, req);
+       strncpy(target, map->volume, req->targetlen);
+       req->size = req->datalen;
+       req->offset = v1_mapheader_size + mn->objectidx * v1_objectsize_in_map;
+
+       char *data = xseg_get_data(pr->peer->xseg, req);
+       v1_object_to_map(data, mn);
+       return 0;
+}
+
+static int read_map_v1(struct map *m, unsigned char * data)
+{
+       int r;
+       struct map_node *map_node;
+       uint64_t i;
+       uint64_t pos = 0;
+       uint64_t nr_objs;
+
+       /* read header */
+       m->version = *(uint32_t *) (data + pos);
+       pos += sizeof(uint32_t);
+       m->size = *(uint64_t *) (data + pos);
+       pos += sizeof(uint64_t);
+
+       /* read objects */
+       nr_objs = m->size / block_size;
+       if (m->size % block_size)
+               nr_objs++;
+       map_node = calloc(nr_objs, sizeof(struct map_node));
+       if (!map_node)
+               return -1;
+
+       for (i = 0; i < nr_objs; i++) {
+               map_node[i].map = m;
+               map_node[i].objectidx = i;
+               map_node[i].waiters = 0;
+               map_node[i].ref = 1;
+               map_node[i].cond = st_cond_new(); //FIXME err check;
+               read_object_v1(&map_node[i], data+pos);
+               pos += objectsize_in_map;
+               r = insert_object(m, &map_node[i]); //FIXME error check
+       }
+       return 0;
+}
+
+static int prepare_write_map_v1(struct peer_req *pr, struct map *m,
+                               struct xseg_request *req)
+{
+       struct peerd *peer = pr->peer;
+       uint64_t i, pos = 0, max_objidx = calc_map_obj(m);
+       struct map_node *mn;
+
+       int r = xseg_prep_request(peer->xseg, req, m->volumelen,
+                       v1_mapheader_size + max_objidx * v1_objectsize_in_map);
+       if (r < 0){
+               XSEGLOG2(&lc, E, "Cannot prepare request for map %s", m->volume);
+               return -1;
+       }
+       char *target = xseg_get_target(peer->xseg, req);
+       strncpy(target, m->volume, req->targetlen);
+       char *data = xseg_get_data(peer->xseg, req);
+
+       memcpy(data + pos, &m->version, sizeof(m->version));
+       pos += sizeof(m->version);
+       memcpy(data + pos, &m->size, sizeof(m->size));
+       pos += sizeof(m->size);
+
+       req->op = X_WRITE;
+       req->size = req->datalen;
+       req->offset = 0;
+
+       for (i = 0; i < max_objidx; i++) {
+               mn = find_object(m, i);
+               if (!mn){
+                       XSEGLOG2(&lc, E, "Cannot find object %lli for map %s",
+                                       (unsigned long long) i, m->volume);
+                       return -1;
+               }
+               v1_object_to_map(data+pos, mn);
+               pos += v1_objectsize_in_map;
+       }
+       return 0;
+}
+
+/* static struct map_functions map_functions_v1 =      { */
+/*                     .read_object = read_object_v1, */
+/*                     .read_map = read_map_v1, */
+/*                     .prepare_write_object = prepare_write_object_v1, */
+/*                     .prepare_write_map = prepare_write_map_v1 */
+/* }; */
+#define map_functions_v1 {                             \
+                       .read_object = read_object_v1,  \
+                       .read_map = read_map_v1,        \
+                       .prepare_write_object = prepare_write_object_v1,\
+                       .prepare_write_map = prepare_write_map_v1       \
+                       }
+
+static struct map_functions map_functions[] = { map_functions_v0,
+                                               map_functions_v1 };
+#define MAP_LATEST_VERSION 1
+/* end of functions */
+
+
+
+
+
+static inline void pithosmap_to_object(struct map_node *mn, unsigned char *buf)
+{
+       hexlify(buf, mn->object);
+       mn->object[HEXLIFIED_SHA256_DIGEST_SIZE] = 0;
+       mn->objectlen = HEXLIFIED_SHA256_DIGEST_SIZE;
+       mn->flags = MF_OBJECT_EXIST;
+}
+
+static inline void map_to_object(struct map_node *mn, unsigned char *buf)
+{
+       char c = buf[0];
+       mn->flags = 0;
+       if (c){
+               mn->flags |= MF_OBJECT_EXIST;
+               strcpy(mn->object, MAPPER_PREFIX);
+               hexlify(buf+1, mn->object + MAPPER_PREFIX_LEN);
+               mn->object[MAX_OBJECT_LEN] = 0;
+               mn->objectlen = strlen(mn->object);
+       }
+       else {
+               hexlify(buf+1, mn->object);
+               mn->object[HEXLIFIED_SHA256_DIGEST_SIZE] = 0;
+               mn->objectlen = strlen(mn->object);
+       }
+
+}
+
+static inline void object_to_map(char* buf, struct map_node *mn)
+{
+       buf[0] = (mn->flags & MF_OBJECT_EXIST)? 1 : 0;
+       if (buf[0]){
+               /* strip common prefix */
+               unhexlify(mn->object+MAPPER_PREFIX_LEN, (unsigned char *)(buf+1));
+       }
+       else {
+               unhexlify(mn->object, (unsigned char *)(buf+1));
+       }
+}
+
+static inline void mapheader_to_map(struct map *m, char *buf)
+{
+       uint64_t pos = 0;
+       memcpy(buf + pos, &m->version, sizeof(m->version));
+       pos += sizeof(m->version);
+       memcpy(buf + pos, &m->size, sizeof(m->size));
+       pos += sizeof(m->size);
+}
+
+
+static struct xseg_request * object_write(struct peerd *peer, struct peer_req *pr,
+                               struct map *map, struct map_node *mn)
+{
+       int r;
+       void *dummy;
+       struct mapperd *mapper = __get_mapperd(peer);
+       struct xseg_request *req = xseg_get_request(peer->xseg, pr->portno,
+                                                       mapper->mbportno, X_ALLOC);
+       if (!req){
+               XSEGLOG2(&lc, E, "Cannot allocate request for object %s. \n\t"
+                               "(Map: %s [%llu]",
+                               mn->object, map->volume, (unsigned long long) mn->objectidx);
+               goto out_err;
+       }
+
+       r = map_functions[map->version].prepare_write_object(pr, map, mn, req);
+       if (r < 0){
+               XSEGLOG2(&lc, E, "Cannot prepare write object");
+               goto out_put;
+       }
+       req->op = X_WRITE;
+
+       r = xseg_set_req_data(peer->xseg, req, pr);
+       if (r < 0){
+               XSEGLOG2(&lc, E, "Cannot set request data for object %s. \n\t"
+                               "(Map: %s [%llu]",
+                               mn->object, map->volume, (unsigned long long) mn->objectidx);
+               goto out_put;
+       }
+       xport p = xseg_submit(peer->xseg, req, pr->portno, X_ALLOC);
+       if (p == NoPort){
+               XSEGLOG2(&lc, E, "Cannot submit request for object %s. \n\t"
+                               "(Map: %s [%llu]",
+                               mn->object, map->volume, (unsigned long long) mn->objectidx);
+               goto out_unset;
+       }
+       r = xseg_signal(peer->xseg, p);
+       if (r < 0)
+               XSEGLOG2(&lc, W, "Cannot signal port %u", p);
+
+       XSEGLOG2(&lc, I, "Writing object %s \n\t"
+                       "Map: %s [%llu]",
+                       mn->object, map->volume, (unsigned long long) mn->objectidx);
+
+       return req;
+
+out_unset:
+       xseg_get_req_data(peer->xseg, req, &dummy);
+out_put:
+       xseg_put_request(peer->xseg, req, pr->portno);
+out_err:
+       XSEGLOG2(&lc, E, "Object write for object %s failed. \n\t"
+                       "(Map: %s [%llu]",
+                       mn->object, map->volume, (unsigned long long) mn->objectidx);
+       return NULL;
+}
+
+static struct xseg_request * __write_map(struct peer_req* pr, struct map *map)
+{
+       int r;
+       void *dummy;
+       struct peerd *peer = pr->peer;
+       struct mapperd *mapper = __get_mapperd(peer);
+       struct xseg_request *req = xseg_get_request(peer->xseg, pr->portno,
+                                                       mapper->mbportno, X_ALLOC);
+       if (!req){
+               XSEGLOG2(&lc, E, "Cannot allocate request for map %s", map->volume);
+               goto out_err;
+       }
+
+       r = map_functions[map->version].prepare_write_map(pr, map, req);
+       if (r < 0){
+               XSEGLOG2(&lc, E, "Cannot prepare write map");
+               goto out_put;
+       }
+
+       req->op = X_WRITE;
+
+       r = xseg_set_req_data(peer->xseg, req, pr);
+       if (r < 0){
+               XSEGLOG2(&lc, E, "Cannot set request data for map %s",
+                               map->volume);
+               goto out_put;
+       }
+       xport p = xseg_submit(peer->xseg, req, pr->portno, X_ALLOC);
+       if (p == NoPort){
+               XSEGLOG2(&lc, E, "Cannot submit request for map %s",
+                               map->volume);
+               goto out_unset;
+       }
+       r = xseg_signal(peer->xseg, p);
+       if (r < 0)
+               XSEGLOG2(&lc, W, "Cannot signal port %u", p);
+
+       map->flags |= MF_MAP_WRITING;
+       XSEGLOG2(&lc, I, "Writing map %s", map->volume);
+       return req;
+
+out_unset:
+       xseg_get_req_data(peer->xseg, req, &dummy);
+out_put:
+       xseg_put_request(peer->xseg, req, pr->portno);
+out_err:
+       XSEGLOG2(&lc, E, "Map write for map %s failed.", map->volume);
+       return NULL;
+}
+
+static int write_map(struct peer_req* pr, struct map *map)
+{
+       int r = 0;
+       struct peerd *peer = pr->peer;
+       struct xseg_request *req = __write_map(pr, map);
+       if (!req)
+               return -1;
+       wait_on_pr(pr, (!(req->state & XS_FAILED || req->state & XS_SERVED)));
+       if (req->state & XS_FAILED)
+               r = -1;
+       xseg_put_request(peer->xseg, req, pr->portno);
+       map->flags &= ~MF_MAP_WRITING;
+       return r;
+}
+
+static struct xseg_request * __load_map(struct peer_req *pr, struct map *m)
+{
+       int r;
+       xport p;
+       struct xseg_request *req;
+       struct peerd *peer = pr->peer;
+       struct mapperd *mapper = __get_mapperd(peer);
+       void *dummy;
+
+       XSEGLOG2(&lc, I, "Loading ng map %s", m->volume);
+
+       req = xseg_get_request(peer->xseg, pr->portno, mapper->mbportno, X_ALLOC);
+       if (!req){
+               XSEGLOG2(&lc, E, "Cannot allocate request for map %s",
+                               m->volume);
+               goto out_fail;
+       }
+
+       r = xseg_prep_request(peer->xseg, req, m->volumelen, block_size);
+       if (r < 0){
+               XSEGLOG2(&lc, E, "Cannot prepare request for map %s",
+                               m->volume);
+               goto out_put;
+       }
+
+       char *reqtarget = xseg_get_target(peer->xseg, req);
+       if (!reqtarget)
+               goto out_put;
+       strncpy(reqtarget, m->volume, req->targetlen);
+       req->op = X_READ;
+       req->size = block_size;
+       req->offset = 0;
+       r = xseg_set_req_data(peer->xseg, req, pr);
+       if (r < 0){
+               XSEGLOG2(&lc, E, "Cannot set request data for map %s",
+                               m->volume);
+               goto out_put;
+       }
+       p = xseg_submit(peer->xseg, req, pr->portno, X_ALLOC);
+       if (p == NoPort){
+               XSEGLOG2(&lc, E, "Cannot submit request for map %s",
+                               m->volume);
+               goto out_unset;
+       }
+       r = xseg_signal(peer->xseg, p);
+
+       m->flags |= MF_MAP_LOADING;
+       XSEGLOG2(&lc, I, "Map %s loading", m->volume);
+       return req;
+
+out_unset:
+       xseg_get_req_data(peer->xseg, req, &dummy);
+out_put:
+       xseg_put_request(peer->xseg, req, pr->portno);
+out_fail:
+       return NULL;
+}
+
+static int read_map (struct map *map, unsigned char *buf)
+{
        char nulls[SHA256_DIGEST_SIZE];
        memset(nulls, 0, SHA256_DIGEST_SIZE);
 
        int r = !memcmp(buf, nulls, SHA256_DIGEST_SIZE);
        if (r) {
-               //read error;
+               XSEGLOG2(&lc, E, "Read zeros");
                return -1;
        }
-       //type 1, our type, type 0 pithos map
-       int type = !memcmp(buf, magic_sha256, SHA256_DIGEST_SIZE);
+       //type 1, archip type, type 0 pithos map
+       int type = !memcmp(map->volume, MAPPER_PREFIX, MAPPER_PREFIX_LEN);
        XSEGLOG2(&lc, I, "Type %d detected for map %s", type, map->volume);
-       uint64_t pos;
-       uint64_t i, nr_objs;
-       struct map_node *map_node;
-       if (type) {
-               pos = SHA256_DIGEST_SIZE;
-               map->size = *(uint64_t *) (buf + pos);
-               pos += sizeof(uint64_t);
-               nr_objs = map->size / block_size;
-               if (map->size % block_size)
-                       nr_objs++;
-               map_node = calloc(nr_objs, sizeof(struct map_node));
-               if (!map_node)
-                       return -1;
+       uint32_t version;
+       if (type)
+               version = *(uint32_t *) (buf); //version should always be the first uint32_t
+       else
+               version = 0;
+       if (version > MAP_LATEST_VERSION){
+               XSEGLOG2(&lc, E, "Map read for map %s failed. Invalid version %u",
+                               map->volume, version);
+               return -1;
+       }
 
-               for (i = 0; i < nr_objs; i++) {
-                       map_node[i].map = map;
-                       map_node[i].objectidx = i;
-                       xqindex *qidx = xq_alloc_empty(&map_node[i].pending, peer->nr_ops); //FIXME error check
-                       (void) qidx;
-                       map_to_object(&map_node[i], buf + pos);
-                       pos += objectsize_in_map;
-                       r = insert_object(map, &map_node[i]); //FIXME error check
-               }
-       } else {
-               pos = 0;
-               uint64_t max_nr_objs = block_size/SHA256_DIGEST_SIZE;
-               map_node = calloc(max_nr_objs, sizeof(struct map_node));
-               if (!map_node)
-                       return -1;
-               for (i = 0; i < max_nr_objs; i++) {
-                       if (!memcmp(buf+pos, nulls, SHA256_DIGEST_SIZE))
-                               break;
-                       map_node[i].objectidx = i;
-                       map_node[i].map = map;
-                       xqindex *qidx = xq_alloc_empty(&map_node[i].pending, peer->nr_ops); //FIXME error check
-                       (void) qidx;
-                       pithosmap_to_object(&map_node[i], buf + pos);
-                       pos += SHA256_DIGEST_SIZE; 
-                       r = insert_object(map, &map_node[i]); //FIXME error check
-               }
-               map->size = i * block_size; 
+       r = map_functions[version].read_map(map, buf);
+       if (r < 0){
+               XSEGLOG2(&lc, E, "Map read for map %s failed", map->volume);
+               return -1;
        }
+
+       print_map(map);
        XSEGLOG2(&lc, I, "Map read for map %s completed", map->volume);
        return 0;
 
-       //FIXME cleanup on error
+}
+
+static int load_map(struct peer_req *pr, struct map *map)
+{
+       int r = 0;
+       struct xseg_request *req;
+       struct peerd *peer = pr->peer;
+       req = __load_map(pr, map);
+       if (!req)
+               return -1;
+       wait_on_pr(pr, (!(req->state & XS_FAILED || req->state & XS_SERVED)));
+       map->flags &= ~MF_MAP_LOADING;
+       if (req->state & XS_FAILED){
+               XSEGLOG2(&lc, E, "Map load failed for map %s", map->volume);
+               xseg_put_request(peer->xseg, req, pr->portno);
+               return -1;
+       }
+       r = read_map(map, (unsigned char *) xseg_get_data(peer->xseg, req));
+       xseg_put_request(peer->xseg, req, pr->portno);
+       return r;
+}
+
+static struct xseg_request * __open_map(struct peer_req *pr, struct map *m,
+                                               uint32_t flags)
+{
+       int r;
+       xport p;
+       struct xseg_request *req;
+       struct peerd *peer = pr->peer;
+       struct mapperd *mapper = __get_mapperd(peer);
+       void *dummy;
+
+       XSEGLOG2(&lc, I, "Opening map %s", m->volume);
+
+       req = xseg_get_request(peer->xseg, pr->portno, mapper->mbportno, X_ALLOC);
+       if (!req){
+               XSEGLOG2(&lc, E, "Cannot allocate request for map %s",
+                               m->volume);
+               goto out_fail;
+       }
+
+       r = xseg_prep_request(peer->xseg, req, m->volumelen, block_size);
+       if (r < 0){
+               XSEGLOG2(&lc, E, "Cannot prepare request for map %s",
+                               m->volume);
+               goto out_put;
+       }
+
+       char *reqtarget = xseg_get_target(peer->xseg, req);
+       if (!reqtarget)
+               goto out_put;
+       strncpy(reqtarget, m->volume, req->targetlen);
+       req->op = X_ACQUIRE;
+       req->size = block_size;
+       req->offset = 0;
+       if (!(flags & MF_FORCE))
+               req->flags = XF_NOSYNC;
+       r = xseg_set_req_data(peer->xseg, req, pr);
+       if (r < 0){
+               XSEGLOG2(&lc, E, "Cannot set request data for map %s",
+                               m->volume);
+               goto out_put;
+       }
+       p = xseg_submit(peer->xseg, req, pr->portno, X_ALLOC);
+       if (p == NoPort){ 
+               XSEGLOG2(&lc, E, "Cannot submit request for map %s",
+                               m->volume);
+               goto out_unset;
+       }
+       r = xseg_signal(peer->xseg, p);
+
+       m->flags |= MF_MAP_OPENING;
+       XSEGLOG2(&lc, I, "Map %s opening", m->volume);
+       return req;
+
+out_unset:
+       xseg_get_req_data(peer->xseg, req, &dummy);
+out_put:
+       xseg_put_request(peer->xseg, req, pr->portno);
+out_fail:
+       return NULL;
+}
+
+static int open_map(struct peer_req *pr, struct map *map, uint32_t flags)
+{
+       int err;
+       struct xseg_request *req;
+       struct peerd *peer = pr->peer;
+
+       req = __open_map(pr, map, flags);
+       if (!req){
+               return -1;
+       }
+       wait_on_pr(pr, (!((req->state & XS_FAILED)||(req->state & XS_SERVED))));
+       map->flags &= ~MF_MAP_OPENING;
+       err = req->state & XS_FAILED;
+       xseg_put_request(peer->xseg, req, pr->portno);
+       if (err)
+               return -1;
+       else
+               map->flags |= MF_MAP_EXCLUSIVE;
+       return 0;
 }
 
 /*
@@ -617,8 +1277,9 @@ static int read_map (struct peerd *peer, struct map *map, char *buf)
 static int __set_copyup_node(struct mapper_io *mio, struct xseg_request *req, struct map_node *mn)
 {
        int r = 0;
-       /*
        if (mn){
+               XSEGLOG2(&lc, D, "Inserting (req: %lx, mapnode: %lx) on mio %lx",
+                               req, mn, mio);
                r = xhash_insert(mio->copyups_nodes, (xhashidx) req, (xhashidx) mn);
                if (r == -XHASH_ERESIZE) {
                        xhashidx shift = xhash_grow_size_shift(mio->copyups_nodes);
@@ -628,8 +1289,13 @@ static int __set_copyup_node(struct mapper_io *mio, struct xseg_request *req, st
                        mio->copyups_nodes = new_hashmap;
                        r = xhash_insert(mio->copyups_nodes, (xhashidx) req, (xhashidx) mn);
                }
+               if (r < 0)
+                       XSEGLOG2(&lc, E, "Insertion of (%lx, %lx) on mio %lx failed",
+                                       req, mn, mio);
        }
        else {
+               XSEGLOG2(&lc, D, "Deleting req: %lx from mio %lx",
+                               req, mio);
                r = xhash_delete(mio->copyups_nodes, (xhashidx) req);
                if (r == -XHASH_ERESIZE) {
                        xhashidx shift = xhash_shrink_size_shift(mio->copyups_nodes);
@@ -639,59 +1305,133 @@ static int __set_copyup_node(struct mapper_io *mio, struct xseg_request *req, st
                        mio->copyups_nodes = new_hashmap;
                        r = xhash_delete(mio->copyups_nodes, (xhashidx) req);
                }
+               if (r < 0)
+                       XSEGLOG2(&lc, E, "Deletion of %lx on mio %lx failed",
+                                       req, mio);
        }
 out:
-       */
-       mio->copyup_node = mn;
        return r;
 }
 
 static struct map_node * __get_copyup_node(struct mapper_io *mio, struct xseg_request *req)
 {
-       /*
        struct map_node *mn;
        int r = xhash_lookup(mio->copyups_nodes, (xhashidx) req, (xhashidx *) &mn);
-       if (r < 0)
+       if (r < 0){
+               XSEGLOG2(&lc, W, "Cannot find req %lx on mio %lx", req, mio);
                return NULL;
+       }
+       XSEGLOG2(&lc, D, "Found mapnode %lx req %lx on mio %lx", mn, req, mio);
        return mn;
-       */
-       return mio->copyup_node;
 }
 
-static int copyup_object(struct peerd *peer, struct map_node *mn, struct peer_req *pr)
+static struct xseg_request * __snapshot_object(struct peer_req *pr,
+                                               struct map_node *mn)
+{
+       struct peerd *peer = pr->peer;
+       struct mapperd *mapper = __get_mapperd(peer);
+       struct mapper_io *mio = __get_mapper_io(pr);
+       //struct map *map = mn->map;
+       void *dummy;
+       int r = -1;
+       xport p;
+
+       //assert mn->volume != zero_block
+       //assert mn->flags & MF_OBJECT_EXIST
+       struct xseg_request *req = xseg_get_request(peer->xseg, pr->portno,
+                                               mapper->bportno, X_ALLOC);
+       if (!req){
+               XSEGLOG2(&lc, E, "Cannot get request for object %s", mn->object);
+               goto out_err;
+       }
+       r = xseg_prep_request(peer->xseg, req, mn->objectlen,
+                               sizeof(struct xseg_request_snapshot));
+       if (r < 0){
+               XSEGLOG2(&lc, E, "Cannot prepare request for object %s", mn->object);
+               goto out_put;
+       }
+
+       char *target = xseg_get_target(peer->xseg, req);
+       strncpy(target, mn->object, req->targetlen);
+
+       struct xseg_request_snapshot *xsnapshot = (struct xseg_request_snapshot *) xseg_get_data(peer->xseg, req);
+       xsnapshot->target[0] = 0;
+       xsnapshot->targetlen = 0;
+
+       req->offset = 0;
+       req->size = block_size;
+       req->op = X_SNAPSHOT;
+       r = xseg_set_req_data(peer->xseg, req, pr);
+       if (r<0){
+               XSEGLOG2(&lc, E, "Cannot set request data for object %s", mn->object);
+               goto out_put;
+       }
+       r = __set_copyup_node(mio, req, mn);
+       if (r < 0)
+               goto out_unset;
+       p = xseg_submit(peer->xseg, req, pr->portno, X_ALLOC);
+       if (p == NoPort) {
+               XSEGLOG2(&lc, E, "Cannot submit for object %s", mn->object);
+               goto out_mapper_unset;
+       }
+       xseg_signal(peer->xseg, p);
+
+       mn->flags |= MF_OBJECT_SNAPSHOTTING;
+       XSEGLOG2(&lc, I, "Snapshotting up object %s", mn->object);
+       return req;
+
+out_mapper_unset:
+       __set_copyup_node(mio, req, NULL);
+out_unset:
+       xseg_get_req_data(peer->xseg, req, &dummy);
+out_put:
+       xseg_put_request(peer->xseg, req, pr->portno);
+out_err:
+       XSEGLOG2(&lc, E, "Snapshotting object %s failed", mn->object);
+       return NULL;
+}
+
+static struct xseg_request * copyup_object(struct peerd *peer, struct map_node *mn, struct peer_req *pr)
 {
        struct mapperd *mapper = __get_mapperd(peer);
        struct mapper_io *mio = __get_mapper_io(pr);
        struct map *map = mn->map;
        void *dummy;
-       int r = -1, i;
+       int r = -1;
        xport p;
 
-       //struct sha256_ctx sha256ctx;
        uint32_t newtargetlen;
-       char new_target[XSEG_MAX_TARGETLEN + 1]; 
-       unsigned char buf[SHA256_DIGEST_SIZE];  //assert sha256_digest_size(32) <= MAXTARGETLEN 
-       char new_object[XSEG_MAX_TARGETLEN + 20]; //20 is an arbitrary padding able to hold string representation of objectidx
-       strncpy(new_object, map->volume, map->volumelen);
-       sprintf(new_object + map->volumelen, "%u", mn->objectidx); //sprintf adds null termination
-       new_object[XSEG_MAX_TARGETLEN + 19] = 0;
-
-       gcry_md_hash_buffer(GCRY_MD_SHA256, buf, new_object, strlen(new_object));
-       for (i = 0; i < SHA256_DIGEST_SIZE; ++i)
-               sprintf (new_target + 2*i, "%02x", buf[i]);
-       newtargetlen = SHA256_DIGEST_SIZE  * 2;
-
-       if (!strncmp(mn->object, zero_block, (mn->objectlen < HEXLIFIED_SHA256_DIGEST_SIZE)? mn->objectlen : HEXLIFIED_SHA256_DIGEST_SIZE)) 
+       char new_target[MAX_OBJECT_LEN + 1];
+       unsigned char sha[SHA256_DIGEST_SIZE];
+
+       strncpy(new_target, MAPPER_PREFIX, MAPPER_PREFIX_LEN);
+
+       char tmp[XSEG_MAX_TARGETLEN + 1];
+       uint32_t tmplen;
+       strncpy(tmp, map->volume, map->volumelen);
+       sprintf(tmp + map->volumelen, "_%u", mn->objectidx);
+       tmp[XSEG_MAX_TARGETLEN] = 0;
+       tmplen = strlen(tmp);
+       SHA256((unsigned char *)tmp, tmplen, sha);
+       hexlify(sha, new_target+MAPPER_PREFIX_LEN);
+       newtargetlen = MAPPER_PREFIX_LEN + HEXLIFIED_SHA256_DIGEST_SIZE;
+
+
+       if (!strncmp(mn->object, zero_block, ZERO_BLOCK_LEN))
                goto copyup_zeroblock;
 
-       struct xseg_request *req = xseg_get_request(peer->xseg, peer->portno, 
-                                                       mapper->bportno, X_ALLOC);
-       if (!req)
+       struct xseg_request *req = xseg_get_request(peer->xseg, pr->portno,
+                                               mapper->bportno, X_ALLOC);
+       if (!req){
+               XSEGLOG2(&lc, E, "Cannot get request for object %s", mn->object);
                goto out_err;
+       }
        r = xseg_prep_request(peer->xseg, req, newtargetlen, 
                                sizeof(struct xseg_request_copy));
-       if (r < 0)
+       if (r < 0){
+               XSEGLOG2(&lc, E, "Cannot prepare request for object %s", mn->object);
                goto out_put;
+       }
 
        char *target = xseg_get_target(peer->xseg, req);
        strncpy(target, new_target, req->targetlen);
@@ -704,28 +1444,34 @@ static int copyup_object(struct peerd *peer, struct map_node *mn, struct peer_re
        req->size = block_size;
        req->op = X_COPY;
        r = xseg_set_req_data(peer->xseg, req, pr);
-       if (r<0)
+       if (r<0){
+               XSEGLOG2(&lc, E, "Cannot set request data for object %s", mn->object);
                goto out_put;
+       }
        r = __set_copyup_node(mio, req, mn);
-       p = xseg_submit(peer->xseg, req, peer->portno, X_ALLOC);
-       if (p == NoPort) {
+       if (r < 0)
                goto out_unset;
+       p = xseg_submit(peer->xseg, req, pr->portno, X_ALLOC);
+       if (p == NoPort) {
+               XSEGLOG2(&lc, E, "Cannot submit for object %s", mn->object);
+               goto out_mapper_unset;
        }
        xseg_signal(peer->xseg, p);
-       mio->copyups++;
+//     mio->copyups++;
 
        mn->flags |= MF_OBJECT_COPYING;
        XSEGLOG2(&lc, I, "Copying up object %s \n\t to %s", mn->object, new_target);
-       return 0;
+       return req;
 
+out_mapper_unset:
+       __set_copyup_node(mio, req, NULL);
 out_unset:
-       r = __set_copyup_node(mio, req, NULL);
        xseg_get_req_data(peer->xseg, req, &dummy);
 out_put:
-       xseg_put_request(peer->xseg, req, peer->portno);
+       xseg_put_request(peer->xseg, req, pr->portno);
 out_err:
        XSEGLOG2(&lc, E, "Copying up object %s \n\t to %s failed", mn->object, new_target);
-       return -1;
+       return NULL;
 
 copyup_zeroblock:
        XSEGLOG2(&lc, I, "Copying up of zero block is not needed."
@@ -737,364 +1483,524 @@ copyup_zeroblock:
        newmn.object[newtargetlen] = 0;
        newmn.objectlen = newtargetlen;
        newmn.objectidx = mn->objectidx; 
+       req = object_write(peer, pr, map, &newmn);
        r = __set_copyup_node(mio, req, mn);
-       r = object_write(peer, pr, map, &newmn);
-       if (r != MF_PENDING){
+       if (r < 0)
+               return NULL;
+       if (!req){
                XSEGLOG2(&lc, E, "Object write returned error for object %s"
                                "\n\t of map %s [%llu]",
                                mn->object, map->volume, (unsigned long long) mn->objectidx);
-               return -1;
+               return NULL;
        }
        mn->flags |= MF_OBJECT_WRITING;
        XSEGLOG2(&lc, I, "Object %s copy up completed. Pending writing.", mn->object);
-       return 0;
+       return req;
 }
 
-/*
- * request handling functions
- */
-
-static int handle_mapread(struct peerd *peer, struct peer_req *pr, 
-                               struct xseg_request *req)
+static struct xseg_request * __delete_object(struct peer_req *pr, struct map_node *mn)
 {
-       int r;
-       xqindex idx;
-       char buf[XSEG_MAX_TARGETLEN];
+       void *dummy;
+       struct peerd *peer = pr->peer;
        struct mapperd *mapper = __get_mapperd(peer);
-       //assert req->op = X_READ;
+       struct mapper_io *mio = __get_mapper_io(pr);
+       struct xseg_request *req = xseg_get_request(peer->xseg, pr->portno, 
+                                                       mapper->bportno, X_ALLOC);
+       XSEGLOG2(&lc, I, "Deleting mapnode %s", mn->object);
+       if (!req){
+               XSEGLOG2(&lc, E, "Cannot get request for object %s", mn->object);
+               goto out_err;
+       }
+       int r = xseg_prep_request(peer->xseg, req, mn->objectlen, 0);
+       if (r < 0){
+               XSEGLOG2(&lc, E, "Cannot prep request for object %s", mn->object);
+               goto out_put;
+       }
        char *target = xseg_get_target(peer->xseg, req);
-       struct map *map = find_map(mapper, target, req->targetlen);
-       if (!map)
+       strncpy(target, mn->object, req->targetlen);
+       req->op = X_DELETE;
+       req->size = req->datalen;
+       req->offset = 0;
+       r = xseg_set_req_data(peer->xseg, req, pr);
+       if (r < 0){
+               XSEGLOG2(&lc, E, "Cannot set req data for object %s", mn->object);
+               goto out_put;
+       }
+       r = __set_copyup_node(mio, req, mn);
+       if (r < 0)
+               goto out_unset;
+       xport p = xseg_submit(peer->xseg, req, pr->portno, X_ALLOC);
+       if (p == NoPort){
+               XSEGLOG2(&lc, E, "Cannot submit request for object %s", mn->object);
+               goto out_mapper_unset;
+       }
+       r = xseg_signal(peer->xseg, p);
+       mn->flags |= MF_OBJECT_DELETING;
+       XSEGLOG2(&lc, I, "Object %s deletion pending", mn->object);
+       return req;
+
+out_mapper_unset:
+       __set_copyup_node(mio, req, NULL);
+out_unset:
+       xseg_get_req_data(peer->xseg, req, &dummy);
+out_put:
+       xseg_put_request(peer->xseg, req, pr->portno);
+out_err:
+       XSEGLOG2(&lc, I, "Object %s deletion failed", mn->object);
+       return NULL;
+}
+
+static struct xseg_request * __delete_map(struct peer_req *pr, struct map *map)
+{
+       void *dummy;
+       struct peerd *peer = pr->peer;
+       struct mapperd *mapper = __get_mapperd(peer);
+       struct mapper_io *mio = __get_mapper_io(pr);
+       struct xseg_request *req = xseg_get_request(peer->xseg, pr->portno, 
+                                                       mapper->mbportno, X_ALLOC);
+       XSEGLOG2(&lc, I, "Deleting map %s", map->volume);
+       if (!req){
+               XSEGLOG2(&lc, E, "Cannot get request for map %s", map->volume);
                goto out_err;
-       //assert map->flags & MF_MAP_LOADING
+       }
+       int r = xseg_prep_request(peer->xseg, req, map->volumelen, 0);
+       if (r < 0){
+               XSEGLOG2(&lc, E, "Cannot prep request for map %s", map->volume);
+               goto out_put;
+       }
+       char *target = xseg_get_target(peer->xseg, req);
+       strncpy(target, map->volume, req->targetlen);
+       req->op = X_DELETE;
+       req->size = req->datalen;
+       req->offset = 0;
+       r = xseg_set_req_data(peer->xseg, req, pr);
+       if (r < 0){
+               XSEGLOG2(&lc, E, "Cannot set req data for map %s", map->volume);
+               goto out_put;
+       }
+       /* do not check return value. just make sure there is no node set */
+       __set_copyup_node(mio, req, NULL);
+       xport p = xseg_submit(peer->xseg, req, pr->portno, X_ALLOC);
+       if (p == NoPort){
+               XSEGLOG2(&lc, E, "Cannot submit request for map %s", map->volume);
+               goto out_unset;
+       }
+       r = xseg_signal(peer->xseg, p);
+       map->flags |= MF_MAP_DELETING;
+       XSEGLOG2(&lc, I, "Map %s deletion pending", map->volume);
+       return req;
+
+out_unset:
+       xseg_get_req_data(peer->xseg, req, &dummy);
+out_put:
+       xseg_put_request(peer->xseg, req, pr->portno);
+out_err:
+       XSEGLOG2(&lc, E, "Map %s deletion failed", map->volume);
+       return  NULL;
+}
 
-       if (req->state & XS_FAILED)
-               goto out_fail;
 
-       char *data = xseg_get_data(peer->xseg, req);
-       r = read_map(peer, map, data);
-       if (r < 0)
-               goto out_fail;
-       
-       xseg_put_request(peer->xseg, req, peer->portno);
-       map->flags &= ~MF_MAP_LOADING;
-       XSEGLOG2(&lc, I, "Map %s loaded. Dispatching pending", map->volume);
-       uint64_t qsize = xq_count(&map->pending);
-       while(qsize > 0 && (idx = __xq_pop_head(&map->pending)) != Noneidx){
-               qsize--;
-               struct peer_req *preq = (struct peer_req *) idx;
-               my_dispatch(peer, preq, preq->req);
-       }
-       return 0;
+static inline struct map_node * get_mapnode(struct map *map, uint32_t index)
+{
+       struct map_node *mn = find_object(map, index);
+       if (mn)
+               mn->ref++;
+       return mn;
+}
 
-out_fail:
-       XSEGLOG2(&lc, E, "Map read for map %s failed", map->volume);
-       xseg_put_request(peer->xseg, req, peer->portno);
-       map->flags &= ~MF_MAP_LOADING;
-       while((idx = __xq_pop_head(&map->pending)) != Noneidx){
-               struct peer_req *preq = (struct peer_req *) idx;
-               fail(peer, preq);
+static inline void put_mapnode(struct map_node *mn)
+{
+       mn->ref--;
+       if (!mn->ref){
+               //clean up mn
+               st_cond_destroy(mn->cond);
        }
-       remove_map(mapper, map);
-       //FIXME not freeing up all objects + object hash
-       free(map);
-       return 0;
+}
 
-out_err:
-       strncpy(buf, target, req->targetlen);
-       buf[req->targetlen] = 0;
-       XSEGLOG2(&lc, E, "Cannot find map for request target %s", buf);
-       xseg_put_request(peer->xseg, req, peer->portno);
-       return -1;
+static inline void __get_map(struct map *map)
+{
+       map->ref++;
 }
 
-static int handle_mapwrite(struct peerd *peer, struct peer_req *pr,
-                               struct xseg_request *req)
+static inline void put_map(struct map *map)
 {
-       xqindex idx;
-       char buf[XSEG_MAX_TARGETLEN];
-       struct mapperd *mapper = __get_mapperd(peer);
-       //assert req->op = X_WRITE;
-       char *target = xseg_get_target(peer->xseg, req);
-       struct map *map = find_map(mapper, target, req->targetlen);
-       if (!map) {
-               fprintf(stderr, "couldn't find map\n");
-               goto out_err;
+       struct map_node *mn;
+       map->ref--;
+       if (!map->ref){
+               XSEGLOG2(&lc, I, "Freeing map %s", map->volume);
+               //clean up map
+               uint64_t i;
+               for (i = 0; i < calc_map_obj(map); i++) {
+                       mn = get_mapnode(map, i);
+                       if (mn) {
+                               //make sure all pending operations on all objects are completed
+                               //this should never happen...
+                               if (mn->flags & MF_OBJECT_NOT_READY)
+                                       wait_on_mapnode(mn, mn->flags & MF_OBJECT_NOT_READY);
+                               mn->flags |= MF_OBJECT_DESTROYED;
+                               put_mapnode(mn); //matchin mn->ref = 1 on mn init
+                               put_mapnode(mn); //matcing get_mapnode;
+                               //assert mn->ref == 0;
+                       }
+               }
+               mn = find_object(map, 0);
+               if (mn)
+                       free(mn);
+               XSEGLOG2(&lc, I, "Freed map %s", map->volume);
+               free(map);
        }
-       //assert map->flags & MF_MAP_WRITING
+}
 
-       if (req->state & XS_FAILED){
-               fprintf(stderr, "write request failed\n");
-               goto out_fail;
+static struct map * create_map(struct mapperd *mapper, char *name,
+                               uint32_t namelen, uint32_t flags)
+{
+       int r;
+       if (namelen + MAPPER_PREFIX_LEN > MAX_VOLUME_LEN){
+               XSEGLOG2(&lc, E, "Namelen %u too long. Max: %d",
+                                       namelen, MAX_VOLUME_LEN);
+               return NULL;
        }
-       
-       xseg_put_request(peer->xseg, req, peer->portno);
-       map->flags &= ~MF_MAP_WRITING;
-       XSEGLOG2(&lc, I, "Map %s written. Dispatching pending", map->volume);
-       uint64_t qsize = xq_count(&map->pending);
-       while(qsize > 0 && (idx = __xq_pop_head(&map->pending)) != Noneidx){
-               qsize--;
-               struct peer_req *preq = (struct peer_req *) idx;
-               my_dispatch(peer, preq, preq->req);
+       struct map *m = malloc(sizeof(struct map));
+       if (!m){
+               XSEGLOG2(&lc, E, "Cannot allocate map ");
+               goto out_err;
        }
-       return 0;
-
-
-out_fail:
-       XSEGLOG2(&lc, E, "Map write for map %s failed", map->volume);
-       xseg_put_request(peer->xseg, req, peer->portno);
-       map->flags &= ~MF_MAP_WRITING;
-       while((idx = __xq_pop_head(&map->pending)) != Noneidx){
-               struct peer_req *preq = (struct peer_req *) idx;
-               fail(peer, preq);
+       m->size = -1;
+       if (flags & MF_ARCHIP){
+               strncpy(m->volume, MAPPER_PREFIX, MAPPER_PREFIX_LEN);
+               strncpy(m->volume + MAPPER_PREFIX_LEN, name, namelen);
+               m->volume[MAPPER_PREFIX_LEN + namelen] = 0;
+               m->volumelen = MAPPER_PREFIX_LEN + namelen;
+               m->version = 1; /* keep this hardcoded for now */
        }
-       remove_map(mapper, map);
-       //FIXME not freeing up all objects + object hash
-       free(map);
-       return 0;
+       else {
+               strncpy(m->volume, name, namelen);
+               m->volume[namelen] = 0;
+               m->volumelen = namelen;
+               m->version = 0; /* version 0 should be pithos maps */
+       }
+       m->flags = 0;
+       m->objects = xhash_new(3, INTEGER); 
+       if (!m->objects){
+               XSEGLOG2(&lc, E, "Cannot allocate object hashmap for map %s",
+                               m->volume);
+               goto out_map;
+       }
+       m->ref = 1;
+       m->waiters = 0;
+       m->cond = st_cond_new(); //FIXME err check;
+       r = insert_map(mapper, m);
+       if (r < 0){
+               XSEGLOG2(&lc, E, "Cannot insert map %s", m->volume);
+               goto out_hash;
+       }
+
+       return m;
 
+out_hash:
+       xhash_free(m->objects);
+out_map:
+       XSEGLOG2(&lc, E, "failed to create map %s", m->volume);
+       free(m);
 out_err:
-       strncpy(buf, target, req->targetlen);
-       buf[req->targetlen] = 0;
-       XSEGLOG2(&lc, E, "Cannot find map for request target %s", buf);
-       xseg_put_request(peer->xseg, req, peer->portno);
-       return -1;
+       return NULL;
 }
 
-static int handle_clone(struct peerd *peer, struct peer_req *pr, 
-                               struct xseg_request *req)
+
+
+void deletion_cb(struct peer_req *pr, struct xseg_request *req)
 {
+       struct peerd *peer = pr->peer;
        struct mapperd *mapper = __get_mapperd(peer);
+       (void)mapper;
        struct mapper_io *mio = __get_mapper_io(pr);
-       (void) mio;
-       int r;
-       char buf[XSEG_MAX_TARGETLEN + 1];
-       char *target;
+       struct map_node *mn = __get_copyup_node(mio, req);
 
-       if (pr->req->op != X_CLONE) {
-               //wtf??
-               XSEGLOG2(&lc, E, "Unknown op %u", req->op);
-               fail(peer, pr);
-               return 0;
-       }
+       __set_copyup_node(mio, req, NULL);
 
-       if (req->op == X_WRITE){
-                       //assert state = WRITING;
-                       r = handle_mapwrite(peer, pr ,req);
-                       if (r < 0){
-                               XSEGLOG2(&lc, E, "handle mapwrite returned error");
-                               fail(peer, pr);
-                       }
-                       return 0;
-       }
+       //assert req->op = X_DELETE;
+       //assert pr->req->op = X_DELETE only map deletions make delete requests
+       //assert mio->del_pending > 0
+       XSEGLOG2(&lc, D, "mio: %lx, del_pending: %llu", mio, mio->del_pending);
+       mio->del_pending--;
 
-       if (mio->state == WRITING) {
-               target = xseg_get_target(peer->xseg, pr->req);
-               strncpy(buf, target, req->targetlen);
-               buf[req->targetlen] = 0;
-               XSEGLOG2(&lc, I, "Completing clone request for map %s", buf);
-               complete(peer, pr);
-               return 0;
+       if (req->state & XS_FAILED){
+               mio->err = 1;
+       }
+       if (mn){
+               XSEGLOG2(&lc, D, "Found mapnode %lx %s for mio: %lx, req: %lx",
+                               mn, mn->object, mio, req);
+               // assert mn->flags & MF_OBJECT_DELETING
+               mn->flags &= ~MF_OBJECT_DELETING;
+               mn->flags |= MF_OBJECT_DESTROYED;
+               signal_mapnode(mn);
+               /* put mapnode here, matches get_mapnode on do_destroy */
+               put_mapnode(mn);
+       } else {
+               XSEGLOG2(&lc, E, "Cannot get map node for mio: %lx, req: %lx",
+                               mio, req);
        }
+       xseg_put_request(peer->xseg, req, pr->portno);
+       signal_pr(pr);
+}
 
-       struct xseg_request_clone *xclone = (struct xseg_request_clone *) xseg_get_data(peer->xseg, pr->req);
-       if (!xclone) {
+void snapshot_cb(struct peer_req *pr, struct xseg_request *req)
+{
+       struct peerd *peer = pr->peer;
+       struct mapperd *mapper = __get_mapperd(peer);
+       (void)mapper;
+       struct mapper_io *mio = __get_mapper_io(pr);
+       struct map_node *mn = __get_copyup_node(mio, req);
+       if (!mn){
+               XSEGLOG2(&lc, E, "Cannot get map node");
                goto out_err;
        }
-       struct map *map;
-       r = find_or_load_map(peer, pr, xclone->target, xclone->targetlen, &map);
-       if (r < 0){
+       __set_copyup_node(mio, req, NULL);
+
+       if (req->state & XS_FAILED){
+               if (req->op == X_DELETE){
+                       XSEGLOG2(&lc, E, "Delete req failed");
+                       goto out_ok;
+               }
+               XSEGLOG2(&lc, E, "Req failed");
+               mn->flags &= ~MF_OBJECT_SNAPSHOTTING;
+               mn->flags &= ~MF_OBJECT_WRITING;
                goto out_err;
        }
-       else if (r == MF_PENDING)
-               return 0;
-       
-       if (map->flags & MF_MAP_DESTROYED) {
-               strncpy(buf, xclone->target, xclone->targetlen);
-               buf[xclone->targetlen] = 0;
-               XSEGLOG2(&lc, W, "Map %s destroyed", buf);
-               target = xseg_get_target(peer->xseg, pr->req);
-               strncpy(buf, target, req->targetlen);
-               buf[req->targetlen] = 0;
-               XSEGLOG2(&lc, W, "Cannont clone %s because base map destroyed", buf);
-               fail(peer, pr);
-               return 0;
+
+       if (req->op == X_WRITE) {
+               char old_object_name[MAX_OBJECT_LEN + 1];
+               uint32_t old_objectlen;
+
+               char *target = xseg_get_target(peer->xseg, req);
+               (void)target;
+               //assert mn->flags & MF_OBJECT_WRITING
+               mn->flags &= ~MF_OBJECT_WRITING;
+               strncpy(old_object_name, mn->object, mn->objectlen);
+               old_objectlen = mn->objectlen;
+
+               struct map_node tmp;
+               char *data = xseg_get_data(peer->xseg, req);
+               map_to_object(&tmp, (unsigned char *) data);
+               mn->flags &= ~MF_OBJECT_EXIST;
+
+               strncpy(mn->object, tmp.object, tmp.objectlen);
+               mn->object[tmp.objectlen] = 0;
+               mn->objectlen = tmp.objectlen;
+               XSEGLOG2(&lc, I, "Object write of %s completed successfully", mn->object);
+               //signal_mapnode since Snapshot was successfull
+               signal_mapnode(mn);
+
+               //do delete old object
+               strncpy(tmp.object, old_object_name, old_objectlen);
+               tmp.object[old_objectlen] = 0;
+               tmp.objectlen = old_objectlen;
+               tmp.flags = MF_OBJECT_EXIST;
+               struct xseg_request *xreq = __delete_object(pr, &tmp);
+               if (!xreq){
+                       //just a warning. Snapshot was successfull
+                       XSEGLOG2(&lc, W, "Cannot delete old object %s", tmp.object);
+                       goto out_ok;
+               }
+               //overwrite copyup node, since tmp is a stack dummy variable
+               __set_copyup_node (mio, xreq, mn);
+               XSEGLOG2(&lc, I, "Deletion of %s pending", tmp.object);
+       } else if (req->op == X_SNAPSHOT) {
+               //issue write_object;
+               mn->flags &= ~MF_OBJECT_SNAPSHOTTING;
+               struct map *map = mn->map;
+               if (!map){
+                       XSEGLOG2(&lc, E, "Object %s has not map back pointer", mn->object);
+                       goto out_err;
+               }
+
+               /* construct a tmp map_node for writing purposes */
+               //char *target = xseg_get_target(peer->xseg, req);
+               struct map_node newmn = *mn;
+               newmn.flags = 0;
+               struct xseg_reply_snapshot *xreply;
+               xreply = (struct xseg_reply_snapshot *) xseg_get_data(peer->xseg, req);
+               //assert xreply->targetlen !=0
+               //assert xreply->targetlen < XSEG_MAX_TARGETLEN
+               //xreply->target[xreply->targetlen] = 0;
+               //assert xreply->target valid
+               strncpy(newmn.object, xreply->target, xreply->targetlen);
+               newmn.object[req->targetlen] = 0;
+               newmn.objectlen = req->targetlen;
+               newmn.objectidx = mn->objectidx;
+               struct xseg_request *xreq = object_write(peer, pr, map, &newmn);
+               if (!xreq){
+                       XSEGLOG2(&lc, E, "Object write returned error for object %s"
+                                       "\n\t of map %s [%llu]",
+                                       mn->object, map->volume, (unsigned long long) mn->objectidx);
+                       goto out_err;
+               }
+               mn->flags |= MF_OBJECT_WRITING;
+               __set_copyup_node (mio, xreq, mn);
+
+               XSEGLOG2(&lc, I, "Object %s snapshot completed. Pending writing.", mn->object);
+       } else if (req->op == X_DELETE){
+               //deletion of the old block completed
+               XSEGLOG2(&lc, I, "Deletion of completed");
+               goto out_ok;
+               ;
+       } else {
+               //wtf??
+               ;
        }
 
-       struct map *clonemap = malloc(sizeof(struct map));
-       if (!clonemap) {
+out:
+       xseg_put_request(peer->xseg, req, pr->portno);
+       return;
+
+out_err:
+       mio->snap_pending--;
+       XSEGLOG2(&lc, D, "Mio->snap_pending: %u", mio->snap_pending);
+       mio->err = 1;
+       if (mn)
+               signal_mapnode(mn);
+       signal_pr(pr);
+       goto out;
+
+out_ok:
+       mio->snap_pending--;
+       signal_pr(pr);
+       goto out;
+
+
+}
+void copyup_cb(struct peer_req *pr, struct xseg_request *req)
+{
+       struct peerd *peer = pr->peer;
+       struct mapperd *mapper = __get_mapperd(peer);
+       (void)mapper;
+       struct mapper_io *mio = __get_mapper_io(pr);
+       struct map_node *mn = __get_copyup_node(mio, req);
+       if (!mn){
+               XSEGLOG2(&lc, E, "Cannot get map node");
                goto out_err;
        }
-       /*
-       FIXME check if clone map exists
-       find_or_load_map(peer, pr, target, req->targetlen, &clonemap)
-       ... (on destroyed what ??
-       if (clonemap) {
-               target = xseg_get_target(peer->xseg, pr->req);
-               strncpy(buf, target, req->targetlen);
-               buf[req->targetlen] = 0;
-               XSEGLOG2(&lc, W, "Map %s requested for clone exists", buf);
-               fail(peer, pr);
-               return 0;
-       }
-       */
-       //alloc and init struct map
-       clonemap->objects = xhash_new(3, INTEGER);
-       if (!clonemap->objects){
-               goto out_err_clonemap;
-       }
-       xqindex *qidx = xq_alloc_empty(&clonemap->pending, peer->nr_ops);
-       if (!qidx){
-               goto out_err_objhash;
-       }
-       if (xclone->size < map->size) {
-               target = xseg_get_target(peer->xseg, pr->req);
-               strncpy(buf, target, req->targetlen);
-               buf[req->targetlen] = 0;
-               XSEGLOG2(&lc, W, "Requested clone size (%llu) < map size (%llu)"
-                               "\n\t for requested clone %s",
-                               (unsigned long long) xclone->size,
-                               (unsigned long long) map->size, buf);
-               goto out_err_q;
-       }
-       if (xclone->size == -1)
-               clonemap->size = map->size;
-       else
-               clonemap->size = xclone->size;
-       clonemap->flags = 0;
-       target = xseg_get_target(peer->xseg, pr->req);
-       strncpy(clonemap->volume, target, pr->req->targetlen);
-       clonemap->volumelen = pr->req->targetlen;
-       clonemap->volume[clonemap->volumelen] = 0; //NULL TERMINATE
+       __set_copyup_node(mio, req, NULL);
 
-       //alloc and init map_nodes
-       unsigned long c = clonemap->size/block_size + 1;
-       struct map_node *map_nodes = calloc(c, sizeof(struct map_node));
-       if (!map_nodes){
-               goto out_err_q;
+       if (req->state & XS_FAILED){
+               XSEGLOG2(&lc, E, "Req failed");
+               mn->flags &= ~MF_OBJECT_COPYING;
+               mn->flags &= ~MF_OBJECT_WRITING;
+               goto out_err;
        }
-       int i;
-       for (i = 0; i < clonemap->size/block_size + 1; i++) {
-               struct map_node *mn = find_object(map, i);
-               if (mn) {
-                       strncpy(map_nodes[i].object, mn->object, mn->objectlen);
-                       map_nodes[i].objectlen = mn->objectlen;
-               } else {
-                       strncpy(map_nodes[i].object, zero_block, strlen(zero_block)); //this should be SHA256_DIGEST_SIZE *2 ?
-                       map_nodes[i].objectlen = strlen(zero_block);
+       if (req->op == X_WRITE) {
+               char *target = xseg_get_target(peer->xseg, req);
+               (void)target;
+               //printf("handle object write replyi\n");
+               __set_copyup_node(mio, req, NULL);
+               //assert mn->flags & MF_OBJECT_WRITING
+               mn->flags &= ~MF_OBJECT_WRITING;
+
+               struct map_node tmp;
+               char *data = xseg_get_data(peer->xseg, req);
+               map_to_object(&tmp, (unsigned char *) data);
+               mn->flags |= MF_OBJECT_EXIST;
+               if (mn->flags != MF_OBJECT_EXIST){
+                       XSEGLOG2(&lc, E, "map node %s has wrong flags", mn->object);
+                       goto out_err;
                }
-               map_nodes[i].object[map_nodes[i].objectlen] = 0; //NULL terminate
-               map_nodes[i].flags = 0;
-               map_nodes[i].objectidx = i;
-               map_nodes[i].map = clonemap;
-               xq_alloc_empty(&map_nodes[i].pending, peer->nr_ops);
-               r = insert_object(clonemap, &map_nodes[i]);
-               if (r < 0){
-                       goto out_free_all;
+               //assert mn->flags & MF_OBJECT_EXIST
+               strncpy(mn->object, tmp.object, tmp.objectlen);
+               mn->object[tmp.objectlen] = 0;
+               mn->objectlen = tmp.objectlen;
+               XSEGLOG2(&lc, I, "Object write of %s completed successfully", mn->object);
+               mio->copyups--;
+               signal_mapnode(mn);
+               signal_pr(pr);
+       } else if (req->op == X_COPY) {
+       //      issue write_object;
+               mn->flags &= ~MF_OBJECT_COPYING;
+               struct map *map = mn->map;
+               if (!map){
+                       XSEGLOG2(&lc, E, "Object %s has not map back pointer", mn->object);
+                       goto out_err;
                }
-       }
-       //insert map
-       r = insert_map(mapper, clonemap);
-       if ( r < 0) {
-               XSEGLOG2(&lc, E, "Cannot insert map %s", clonemap->volume);
-               goto out_free_all;
-       }
-       r = map_write(peer, pr, clonemap);
-       if (r < 0){
-               XSEGLOG2(&lc, E, "Cannot write map %s", clonemap->volume);
-               goto out_remove;
-       }
-       else if (r == MF_PENDING) {
-               //maybe move this to map_write
-               XSEGLOG2(&lc, I, "Writing map %s", clonemap->volume);
-               __xq_append_tail(&clonemap->pending, (xqindex) pr);
-               mio->state = WRITING;
-               return 0;
+
+               /* construct a tmp map_node for writing purposes */
+               char *target = xseg_get_target(peer->xseg, req);
+               struct map_node newmn = *mn;
+               newmn.flags = MF_OBJECT_EXIST;
+               strncpy(newmn.object, target, req->targetlen);
+               newmn.object[req->targetlen] = 0;
+               newmn.objectlen = req->targetlen;
+               newmn.objectidx = mn->objectidx; 
+               struct xseg_request *xreq = object_write(peer, pr, map, &newmn);
+               if (!xreq){
+                       XSEGLOG2(&lc, E, "Object write returned error for object %s"
+                                       "\n\t of map %s [%llu]",
+                                       mn->object, map->volume, (unsigned long long) mn->objectidx);
+                       goto out_err;
+               }
+               mn->flags |= MF_OBJECT_WRITING;
+               __set_copyup_node (mio, xreq, mn);
+
+               XSEGLOG2(&lc, I, "Object %s copy up completed. Pending writing.", mn->object);
        } else {
-               //unknown state
-               XSEGLOG2(&lc, I, "Map write for map %s returned unknown value", clonemap->volume);
-               goto out_remove;
+               //wtf??
+               ;
        }
-       
-       return 0;
 
-out_remove:
-       remove_map(mapper, clonemap);
-out_free_all:
-       //FIXME not freeing allocated queues of map_nodes
-       free(map_nodes);
-out_err_q:
-       xq_free(&clonemap->pending);
-out_err_objhash:
-       xhash_free(clonemap->objects);
-out_err_clonemap:
-       free(clonemap);
+out:
+       xseg_put_request(peer->xseg, req, pr->portno);
+       return;
+
 out_err:
-       target = xseg_get_target(peer->xseg, pr->req);
-       strncpy(buf, target, req->targetlen);
-       buf[req->targetlen] = 0;
-       XSEGLOG2(&lc, E, "Clone map for %s failed", buf);
-       fail(peer, pr);
-       return -1;
+       mio->copyups--;
+       XSEGLOG2(&lc, D, "Mio->copyups: %u", mio->copyups);
+       mio->err = 1;
+       if (mn)
+               signal_mapnode(mn);
+       signal_pr(pr);
+       goto out;
+
 }
 
-static int req2objs(struct peerd *peer, struct peer_req *pr, 
-                                       struct map *map, int write)
+struct r2o {
+       struct map_node *mn;
+       uint64_t offset;
+       uint64_t size;
+};
+
+static int req2objs(struct peer_req *pr, struct map *map, int write)
 {
+       int r = 0;
+       struct peerd *peer = pr->peer;
+       struct mapper_io *mio = __get_mapper_io(pr);
        char *target = xseg_get_target(peer->xseg, pr->req);
        uint32_t nr_objs = calc_nr_obj(pr->req);
        uint64_t size = sizeof(struct xseg_reply_map) + 
                        nr_objs * sizeof(struct xseg_reply_map_scatterlist);
-
+       uint32_t idx, i;
+       uint64_t rem_size, obj_index, obj_offset, obj_size; 
+       struct map_node *mn;
+       mio->copyups = 0;
        XSEGLOG2(&lc, D, "Calculated %u nr_objs", nr_objs);
-       /* resize request to fit reply */
-       char buf[XSEG_MAX_TARGETLEN];
-       strncpy(buf, target, pr->req->targetlen);
-       int r = xseg_resize_request(peer->xseg, pr->req, pr->req->targetlen, size);
-       if (r < 0) {
-               XSEGLOG2(&lc, E, "Cannot resize request");
+
+       /* get map_nodes of request */
+       struct r2o *mns = malloc(sizeof(struct r2o)*nr_objs);
+       if (!mns){
+               XSEGLOG2(&lc, E, "Cannot allocate mns");
                return -1;
        }
-       target = xseg_get_target(peer->xseg, pr->req);
-       strncpy(target, buf, pr->req->targetlen);
-
-       /* structure reply */
-       struct xseg_reply_map *reply = (struct xseg_reply_map *) xseg_get_data(peer->xseg, pr->req);
-       reply->cnt = nr_objs;
-
-       uint32_t idx = 0;
-       uint64_t rem_size = pr->req->size;
-       uint64_t obj_index = pr->req->offset / block_size;
-       uint64_t obj_offset = pr->req->offset & (block_size -1); //modulo
-       uint64_t obj_size =  (obj_offset + rem_size > block_size) ? block_size - obj_offset : rem_size;
-       struct map_node * mn = find_object(map, obj_index);
+       idx = 0;
+       rem_size = pr->req->size;
+       obj_index = pr->req->offset / block_size;
+       obj_offset = pr->req->offset & (block_size -1); //modulo
+       obj_size =  (obj_offset + rem_size > block_size) ? block_size - obj_offset : rem_size;
+       mn = get_mapnode(map, obj_index);
        if (!mn) {
                XSEGLOG2(&lc, E, "Cannot find obj_index %llu\n", (unsigned long long) obj_index);
-               goto out_err;
+               r = -1;
+               goto out;
        }
-       if (write && (mn->flags & MF_OBJECT_NOT_READY)) 
-               goto out_object_copying;
-       if (write && !(mn->flags & MF_OBJECT_EXIST)) {
-               //calc new_target, copy up object
-               r = copyup_object(peer, mn, pr);
-               if (r < 0) {
-                       XSEGLOG2(&lc, E, "Error in copy up object");
-                       goto out_err_copy;
-               }
-               goto out_object_copying;
-       }
-
-//     XSEGLOG2(&lc, D, "pr->req->offset: %llu, pr->req->size %llu, block_size %u\n", 
-//                             (unsigned long long) pr->req->offset, 
-//                             (unsigned long long) pr->req->size, 
-//                             block_size);
-       strncpy(reply->segs[idx].target, mn->object, mn->objectlen);
-       reply->segs[idx].targetlen = mn->objectlen;
-       reply->segs[idx].offset = obj_offset;
-       reply->segs[idx].size = obj_size;
-//     XSEGLOG2(&lc, D, "Added object: %s, size: %llu, offset: %llu", mn->object,
-//                                     (unsigned long long) reply->segs[idx].size,
-//                                     (unsigned long long) reply->segs[idx].offset);
+       mns[idx].mn = mn;
+       mns[idx].offset = obj_offset;
+       mns[idx].size = obj_size;
        rem_size -= obj_size;
        while (rem_size > 0) {
                idx++;
@@ -1102,873 +2008,884 @@ static int req2objs(struct peerd *peer, struct peer_req *pr,
                obj_offset = 0;
                obj_size = (rem_size >  block_size) ? block_size : rem_size;
                rem_size -= obj_size;
-               mn = find_object(map, obj_index);
+               mn = get_mapnode(map, obj_index);
                if (!mn) {
                        XSEGLOG2(&lc, E, "Cannot find obj_index %llu\n", (unsigned long long) obj_index);
-                       goto out_err;
+                       r = -1;
+                       goto out;
                }
-               if (write && (mn->flags & MF_OBJECT_NOT_READY)) 
-                       goto out_object_copying;
-               if (write && !(mn->flags & MF_OBJECT_EXIST)) {
-                       //calc new_target, copy up object
-                       r = copyup_object(peer, mn, pr);
-                       if (r < 0) {
-                               XSEGLOG2(&lc, E, "Error in copy up object");
-                               goto out_err_copy;
+               mns[idx].mn = mn;
+               mns[idx].offset = obj_offset;
+               mns[idx].size = obj_size;
+       }
+       if (write) {
+               int can_wait = 0;
+               mio->cb=copyup_cb;
+               /* do a first scan and issue as many copyups as we can.
+                * then retry and wait when an object is not ready.
+                * this could be done better, since now we wait also on the
+                * pending copyups
+                */
+               int j;
+               for (j = 0; j < 2 && !mio->err; j++) {
+                       for (i = 0; i < (idx+1); i++) {
+                               mn = mns[i].mn;
+                               //do copyups
+                               if (mn->flags & MF_OBJECT_NOT_READY){
+                                       if (!can_wait)
+                                               continue;
+                                       if (mn->flags & MF_OBJECT_NOT_READY)
+                                               wait_on_mapnode(mn, mn->flags & MF_OBJECT_NOT_READY);
+                                       if (mn->flags & MF_OBJECT_DESTROYED){
+                                               mio->err = 1;
+                                               continue;
+                                       }
+                               }
+
+                               if (!(mn->flags & MF_OBJECT_EXIST)) {
+                                       //calc new_target, copy up object
+                                       if (copyup_object(peer, mn, pr) == NULL){
+                                               XSEGLOG2(&lc, E, "Error in copy up object");
+                                               mio->err = 1;
+                                       } else {
+                                               mio->copyups++;
+                                       }
+                               }
+
+                               if (mio->err){
+                                       XSEGLOG2(&lc, E, "Mio-err, pending_copyups: %d", mio->copyups);
+                                       break;
+                               }
                        }
-                       goto out_object_copying;
+                       can_wait = 1;
                }
-               strncpy(reply->segs[idx].target, mn->object, mn->objectlen);
-               reply->segs[idx].targetlen = mn->objectlen;
-               reply->segs[idx].offset = obj_offset;
-               reply->segs[idx].size = obj_size;
-//             XSEGLOG2(&lc, D, "Added object: %s, size: %llu, offset: %llu", mn->object,
-//                             (unsigned long long) reply->segs[idx].size,
-//                             (unsigned long long) reply->segs[idx].offset);
-       }
-       if (reply->cnt != (idx + 1)){
-               XSEGLOG2(&lc, E, "reply->cnt %u, idx+1: %u", reply->cnt, idx+1);
-               goto out_err;
+               if (mio->copyups > 0)
+                       wait_on_pr(pr, mio->copyups > 0);
+       }
+
+       if (mio->err){
+               r = -1;
+               XSEGLOG2(&lc, E, "Mio->err");
+               goto out;
+       }
+
+       /* resize request to fit reply */
+       char buf[XSEG_MAX_TARGETLEN];
+       strncpy(buf, target, pr->req->targetlen);
+       r = xseg_resize_request(peer->xseg, pr->req, pr->req->targetlen, size);
+       if (r < 0) {
+               XSEGLOG2(&lc, E, "Cannot resize request");
+               goto out;
+       }
+       target = xseg_get_target(peer->xseg, pr->req);
+       strncpy(target, buf, pr->req->targetlen);
+
+       /* structure reply */
+       struct xseg_reply_map *reply = (struct xseg_reply_map *) xseg_get_data(peer->xseg, pr->req);
+       reply->cnt = nr_objs;
+       for (i = 0; i < (idx+1); i++) {
+               strncpy(reply->segs[i].target, mns[i].mn->object, mns[i].mn->objectlen);
+               reply->segs[i].targetlen = mns[i].mn->objectlen;
+               reply->segs[i].offset = mns[i].offset;
+               reply->segs[i].size = mns[i].size;
+       }
+out:
+       for (i = 0; i < idx; i++) {
+               put_mapnode(mns[i].mn);
        }
+       free(mns);
+       mio->cb = NULL;
+       return r;
+}
 
+static int do_dropcache(struct peer_req *pr, struct map *map)
+{
+       struct map_node *mn;
+       struct peerd *peer = pr->peer;
+       struct mapperd *mapper = __get_mapperd(peer);
+       uint64_t i;
+       XSEGLOG2(&lc, I, "Dropping cache for map %s", map->volume);
+       map->flags |= MF_MAP_DROPPING_CACHE;
+       for (i = 0; i < calc_map_obj(map); i++) {
+               mn = get_mapnode(map, i);
+               if (mn) {
+                       if (!(mn->flags & MF_OBJECT_DESTROYED)){
+                               //make sure all pending operations on all objects are completed
+                               if (mn->flags & MF_OBJECT_NOT_READY)
+                                       wait_on_mapnode(mn, mn->flags & MF_OBJECT_NOT_READY);
+                               mn->flags |= MF_OBJECT_DESTROYED;
+                       }
+                       put_mapnode(mn);
+               }
+       }
+       map->flags &= ~MF_MAP_DROPPING_CACHE;
+       map->flags |= MF_MAP_DESTROYED;
+       remove_map(mapper, map);
+       XSEGLOG2(&lc, I, "Dropping cache for map %s completed", map->volume);
+       put_map(map);   // put map here to destroy it (matches m->ref = 1 on map create)
        return 0;
+}
 
-out_object_copying:
-       //printf("r2o mn: %lx\n", mn);
-       //printf("volume %s pending on %s\n", map->volume, mn->object);
-       //assert write
-       if(__xq_append_tail(&mn->pending, (xqindex) pr) == Noneidx)
-               XSEGLOG2(&lc, E, "Cannot append pr to tail");
-       XSEGLOG2(&lc, I, "object %s is pending \n\t idx:%llu of map %s",
-                       mn->object, (unsigned long long) mn->objectidx, map->volume);
-       return MF_PENDING;
-
-out_err_copy:
-out_err:
-       return -1;
+static int do_info(struct peer_req *pr, struct map *map)
+{
+       struct peerd *peer = pr->peer;
+       struct xseg_reply_info *xinfo = (struct xseg_reply_info *) xseg_get_data(peer->xseg, pr->req);
+       xinfo->size = map->size;
+       return 0;
+}
+
+
+static int do_open(struct peer_req *pr, struct map *map)
+{
+       if (map->flags & MF_MAP_EXCLUSIVE){
+               return 0;
+       }
+       else {
+               return -1;
+       }
+}
+
+static int do_close(struct peer_req *pr, struct map *map)
+{
+       if (map->flags & MF_MAP_EXCLUSIVE){
+               /* do not drop cache if close failed and map not deleted */
+               if (close_map(pr, map) < 0 && !(map->flags & MF_MAP_DELETED))
+                       return -1;
+       }
+       return do_dropcache(pr, map);
 }
 
-static int handle_mapr(struct peerd *peer, struct peer_req *pr, 
-                               struct xseg_request *req)
+static int do_snapshot(struct peer_req *pr, struct map *map)
 {
-       struct mapperd *mapper = __get_mapperd(peer);
+       uint64_t i;
+       struct peerd *peer = pr->peer;
        struct mapper_io *mio = __get_mapper_io(pr);
-       (void)mapper;
-       (void)mio;
-       //get_map
-       char *target = xseg_get_target(peer->xseg, pr->req);
-       struct map *map;
-       int r = find_or_load_map(peer, pr, target, pr->req->targetlen, &map);
-       if (r < 0) {
-               fail(peer, pr);
+       struct map_node *mn;
+       struct xseg_request *req;
+
+       if (!(map->flags & MF_MAP_EXCLUSIVE)){
+               XSEGLOG2(&lc, E, "Map was not opened exclusively");
                return -1;
        }
-       else if (r == MF_PENDING)
-               return 0;
-       
-       if (map->flags & MF_MAP_DESTROYED) {
-               fail(peer, pr);
-               return 0;
-       }
-       
-       //get_object
-       r = req2objs(peer, pr, map, 0);
-       if  (r < 0){
-               XSEGLOG2(&lc, I, "Map r of map %s, range: %llu-%llu failed",
-                               map->volume, 
-                               (unsigned long long) pr->req->offset, 
-                               (unsigned long long) (pr->req->offset + pr->req->size));
-               fail(peer, pr);
-       }
-       else if (r == 0)
-               XSEGLOG2(&lc, I, "Map r of map %s, range: %llu-%llu completed",
-                               map->volume, 
-                               (unsigned long long) pr->req->offset, 
-                               (unsigned long long) (pr->req->offset + pr->req->size));
-               XSEGLOG2(&lc, D, "Req->offset: %llu, req->size: %llu",
-                               (unsigned long long) req->offset,
-                               (unsigned long long) req->size);
-               char buf[XSEG_MAX_TARGETLEN+1];
-               struct xseg_reply_map *reply = (struct xseg_reply_map *) xseg_get_data(peer->xseg, pr->req);
-               int i;
-               for (i = 0; i < reply->cnt; i++) {
-                       XSEGLOG2(&lc, D, "i: %d, reply->cnt: %u",i, reply->cnt);
-                       strncpy(buf, reply->segs[i].target, reply->segs[i].targetlen);
-                       buf[reply->segs[i].targetlen] = 0;
-                       XSEGLOG2(&lc, D, "%d: Object: %s, offset: %llu, size: %llu", i, buf,
-                                       (unsigned long long) reply->segs[i].offset,
-                                       (unsigned long long) reply->segs[i].size);
+       XSEGLOG2(&lc, I, "Starting snapshot for map %s", map->volume);
+       map->flags |= MF_MAP_SNAPSHOTTING;
+
+       uint64_t nr_obj = calc_map_obj(map);
+       mio->cb = snapshot_cb;
+       mio->snap_pending = 0;
+       mio->err = 0;
+       for (i = 0; i < nr_obj; i++){
+
+               /* throttle pending snapshots
+                * this should be nr_ops of the blocker, but since we don't know
+                * that, we assume based on our own nr_ops
+                */
+               if (mio->snap_pending >= peer->nr_ops)
+                       wait_on_pr(pr, mio->snap_pending >= peer->nr_ops);
+
+               mn = get_mapnode(map, i);
+               if (!mn)
+                       //warning?
+                       continue;
+               if (!(mn->flags & MF_OBJECT_EXIST)){
+                       put_mapnode(mn);
+                       continue;
                }
-               complete(peer, pr);
+               // make sure all pending operations on all objects are completed
+               if (mn->flags & MF_OBJECT_NOT_READY)
+                       wait_on_mapnode(mn, mn->flags & MF_OBJECT_NOT_READY);
 
-       return 0;
+               /* TODO will this ever happen?? */
+               if (mn->flags & MF_OBJECT_DESTROYED){
+                       put_mapnode(mn);
+                       continue;
+               }
 
+               req = __snapshot_object(pr, mn);
+               if (!req){
+                       mio->err = 1;
+                       put_mapnode(mn);
+                       break;
+               }
+               mio->snap_pending++;
+               /* do not put_mapnode here. cb does that */
+       }
 
-}
+       if (mio->snap_pending > 0)
+               wait_on_pr(pr, mio->snap_pending > 0);
+       mio->cb = NULL;
 
-static int handle_copyup(struct peerd *peer, struct peer_req *pr,
-                               struct xseg_request *req)
-{
-       struct mapperd *mapper = __get_mapperd(peer);
-       (void) mapper;
-       struct mapper_io *mio = __get_mapper_io(pr);
-       int r = 0;
-       xqindex idx;
-       struct map_node *mn = __get_copyup_node(mio, req);
-       if (!mn)
+       if (mio->err)
                goto out_err;
 
-       mn->flags &= ~MF_OBJECT_COPYING;
-       if (req->state & XS_FAILED && !(req->state & XS_SERVED)){
-               XSEGLOG2(&lc, E, "Copy up of object %s failed", mn->object);
-               goto out_fail;
-       }
-       struct map *map = mn->map;
-       if (!map){
-               XSEGLOG2(&lc, E, "Object %s has not map back pointer", mn->object);
-               goto out_fail;
-       }
-       
-       /* construct a tmp map_node for writing purposes */
-       char *target = xseg_get_target(peer->xseg, req);
-       struct map_node newmn = *mn;
-       newmn.flags = MF_OBJECT_EXIST;
-       strncpy(newmn.object, target, req->targetlen);
-       newmn.object[req->targetlen] = 0;
-       newmn.objectlen = req->targetlen;
-       newmn.objectidx = mn->objectidx; 
-       r = object_write(peer, pr, map, &newmn);
-       if (r != MF_PENDING){
-               XSEGLOG2(&lc, E, "Object write returned error for object %s"
-                               "\n\t of map %s [%llu]",
-                               mn->object, map->volume, (unsigned long long) mn->objectidx);
-               goto out_fail;
-       }
-       mn->flags |= MF_OBJECT_WRITING;
-       xseg_put_request(peer->xseg, req, peer->portno);
-       XSEGLOG2(&lc, I, "Object %s copy up completed. Pending writing.", mn->object);
-       return 0;
+       /* calculate name of snapshot */
+       struct map tmp_map = *map;
+       unsigned char sha[SHA256_DIGEST_SIZE];
+       unsigned char *buf = malloc(block_size);
+       char newvolumename[MAX_VOLUME_LEN];
+       uint32_t newvolumenamelen = HEXLIFIED_SHA256_DIGEST_SIZE;
+       uint64_t pos = 0;
+       uint64_t max_objidx = calc_map_obj(map);
+       int r;
 
-out_fail:
-       xseg_put_request(peer->xseg, req, peer->portno);
-       __set_copyup_node(mio, req, NULL);
-       while ((idx = __xq_pop_head(&mn->pending)) != Noneidx){
-               struct peer_req * preq = (struct peer_req *) idx;
-               fail(peer, preq);
+       for (i = 0; i < max_objidx; i++) {
+               mn = find_object(map, i);
+               if (!mn){
+                       XSEGLOG2(&lc, E, "Cannot find object %llu for map %s",
+                                       (unsigned long long) i, map->volume);
+                       goto out_err;
+               }
+               v0_object_to_map(mn, buf+pos);
+               pos += v0_objectsize_in_map;
+       }
+//     SHA256(buf, pos, sha);
+       merkle_hash(buf, pos, sha);
+       hexlify(sha, newvolumename);
+       strncpy(tmp_map.volume, newvolumename, newvolumenamelen);
+       tmp_map.volumelen = newvolumenamelen;
+       free(buf);
+       tmp_map.version = 0; // set volume version to pithos image
+
+       /* write the map of the Snapshot */
+       r = write_map(pr, &tmp_map);
+       if (r < 0)
+               goto out_err;
+       char targetbuf[XSEG_MAX_TARGETLEN];
+       char *target = xseg_get_target(peer->xseg, pr->req);
+       strncpy(targetbuf, target, pr->req->targetlen);
+       r = xseg_resize_request(peer->xseg, pr->req, pr->req->targetlen,
+                       sizeof(struct xseg_reply_snapshot));
+       if (r < 0){
+               XSEGLOG2(&lc, E, "Cannot resize request");
+               goto out_err;
        }
+       target = xseg_get_target(peer->xseg, pr->req);
+       strncpy(target, targetbuf, pr->req->targetlen);
+
+       struct xseg_reply_snapshot *xreply = (struct xseg_reply_snapshot *)
+                                               xseg_get_data(peer->xseg, pr->req);
+       strncpy(xreply->target, newvolumename, newvolumenamelen);
+       xreply->targetlen = newvolumenamelen;
+       map->flags &= ~MF_MAP_SNAPSHOTTING;
+       XSEGLOG2(&lc, I, "Snapshot for map %s completed", map->volume);
        return 0;
 
 out_err:
-       XSEGLOG2(&lc, E, "Cannot get map node");
+       map->flags &= ~MF_MAP_SNAPSHOTTING;
+       XSEGLOG2(&lc, E, "Snapshot for map %s failed", map->volume);
        return -1;
 }
 
-static int handle_objectwrite(struct peerd *peer, struct peer_req *pr,
-                               struct xseg_request *req)
+
+static int do_destroy(struct peer_req *pr, struct map *map)
 {
-       xqindex idx;
-       struct mapperd *mapper = __get_mapperd(peer);
+       uint64_t i;
+       struct peerd *peer = pr->peer;
        struct mapper_io *mio = __get_mapper_io(pr);
-       //assert req->op = X_WRITE;
-       char *target = xseg_get_target(peer->xseg, req);
-       (void)target;
-       (void)mapper;
-       //printf("handle object write replyi\n");
-       struct map_node *mn = __get_copyup_node(mio, req);
-       if (!mn)
-               goto out_err;
-       
-       __set_copyup_node(mio, req, NULL);
-       
-       //assert mn->flags & MF_OBJECT_WRITING
-       mn->flags &= ~MF_OBJECT_WRITING;
-       if (req->state & XS_FAILED)
-               goto out_fail;
+       struct map_node *mn;
+       struct xseg_request *req;
 
-       struct map_node tmp;
-       char *data = xseg_get_data(peer->xseg, req);
-       map_to_object(&tmp, data);
-       mn->flags |= MF_OBJECT_EXIST;
-       if (mn->flags != MF_OBJECT_EXIST){
-               XSEGLOG2(&lc, E, "map node %s has wrong flags", mn->object);
-               return *(int *) 0;
-       }
-       //assert mn->flags & MF_OBJECT_EXIST
-       strncpy(mn->object, tmp.object, tmp.objectlen);
-       mn->object[tmp.objectlen] = 0;
-       mn->objectlen = tmp.objectlen;
-       xseg_put_request(peer->xseg, req, peer->portno);
-
-       XSEGLOG2(&lc, I, "Object write of %s completed successfully", mn->object);
-       uint64_t qsize = xq_count(&mn->pending);
-       while(qsize > 0 && (idx = __xq_pop_head(&mn->pending)) != Noneidx){
-               qsize--;
-               struct peer_req * preq = (struct peer_req *) idx;
-               my_dispatch(peer, preq, preq->req);
-       }
-       return 0;
+       if (!(map->flags & MF_MAP_EXCLUSIVE))
+               return -1;
 
-out_fail:
-       XSEGLOG2(&lc, E, "Write of object %s failed", mn->object);
-       xseg_put_request(peer->xseg, req, peer->portno);
-       while((idx = __xq_pop_head(&mn->pending)) != Noneidx){
-               struct peer_req *preq = (struct peer_req *) idx;
-               fail(peer, preq);
+       XSEGLOG2(&lc, I, "Destroying map %s", map->volume);
+       req = __delete_map(pr, map);
+       if (!req)
+               return -1;
+       wait_on_pr(pr, (!((req->state & XS_FAILED)||(req->state & XS_SERVED))));
+       if (req->state & XS_FAILED){
+               xseg_put_request(peer->xseg, req, pr->portno);
+               map->flags &= ~MF_MAP_DELETING;
+               return -1;
        }
-       return 0;
+       xseg_put_request(peer->xseg, req, pr->portno);
 
-out_err:
-       XSEGLOG2(&lc, E, "Cannot find map node. Failure!");
-       xseg_put_request(peer->xseg, req, peer->portno);
-       return -1;
-}
+       uint64_t nr_obj = calc_map_obj(map);
+       mio->cb = deletion_cb;
+       mio->del_pending = 0;
+       mio->err = 0;
+       for (i = 0; i < nr_obj; i++){
 
-static int handle_mapw(struct peerd *peer, struct peer_req *pr, 
-                               struct xseg_request *req)
-{
-       struct mapperd *mapper = __get_mapperd(peer);
-       struct mapper_io *mio = __get_mapper_io(pr);
-       (void) mapper;
-       (void) mio;
-       /* handle copy up replies separately */
-       if (req->op == X_COPY){
-               if (handle_copyup(peer, pr, req) < 0){
-                       XSEGLOG2(&lc, E, "Handle copy up returned error");
-                       fail(peer, pr);
-                       return -1;
-               } else {
-                       return 0;
+               /* throttle pending deletions
+                * this should be nr_ops of the blocker, but since we don't know
+                * that, we assume based on our own nr_ops
+                */
+               if (mio->del_pending >= peer->nr_ops)
+                       wait_on_pr(pr, mio->del_pending >= peer->nr_ops);
+
+               mn = get_mapnode(map, i);
+               if (!mn)
+                       continue;
+               if (mn->flags & MF_OBJECT_DESTROYED){
+                       put_mapnode(mn);
+                       continue;
                }
-       }
-       else if(req->op == X_WRITE){
-               /* handle replies of object write operations */
-               if (handle_objectwrite(peer, pr, req) < 0) {
-                       XSEGLOG2(&lc, E, "Handle object write returned error");
-                       fail(peer, pr);
-                       return -1;
-               } else {
-                       return 0;
+               if (!(mn->flags & MF_OBJECT_EXIST)){
+                       mn->flags |= MF_OBJECT_DESTROYED;
+                       put_mapnode(mn);
+                       continue;
                }
-       }
 
-       char *target = xseg_get_target(peer->xseg, pr->req);
-       struct map *map;
-       int r = find_or_load_map(peer, pr, target, pr->req->targetlen, &map);
-       if (r < 0) {
-               fail(peer, pr);
-               return -1;
-       }
-       else if (r == MF_PENDING)
-               return 0;
-       
-       if (map->flags & MF_MAP_DESTROYED) {
-               fail(peer, pr);
-               return 0;
+               // make sure all pending operations on all objects are completed
+               if (mn->flags & MF_OBJECT_NOT_READY)
+                       wait_on_mapnode(mn, mn->flags & MF_OBJECT_NOT_READY);
+
+               req = __delete_object(pr, mn);
+               if (!req){
+                       mio->err = 1;
+                       put_mapnode(mn);
+                       continue;
+               }
+               mio->del_pending++;
+               /* do not put_mapnode here. cb does that */
        }
 
-       r = req2objs(peer, pr, map, 1);
-       if (r < 0){
+       if (mio->del_pending > 0)
+               wait_on_pr(pr, mio->del_pending > 0);
+
+       mio->cb = NULL;
+       map->flags &= ~MF_MAP_DELETING;
+       map->flags |= MF_MAP_DELETED;
+       XSEGLOG2(&lc, I, "Destroyed map %s", map->volume);
+       return do_close(pr, map);
+}
+
+static int do_mapr(struct peer_req *pr, struct map *map)
+{
+       struct peerd *peer = pr->peer;
+       int r = req2objs(pr, map, 0);
+       if  (r < 0){
                XSEGLOG2(&lc, I, "Map r of map %s, range: %llu-%llu failed",
                                map->volume, 
                                (unsigned long long) pr->req->offset, 
                                (unsigned long long) (pr->req->offset + pr->req->size));
-               fail(peer, pr);
+               return -1;
        }
-       if (r == 0){
-               XSEGLOG2(&lc, I, "Map r of map %s, range: %llu-%llu completed",
-                               map->volume, 
-                               (unsigned long long) pr->req->offset, 
-                               (unsigned long long) (pr->req->offset + pr->req->size));
-               XSEGLOG2(&lc, D, "Req->offset: %llu, req->size: %llu",
-                               (unsigned long long) req->offset,
-                               (unsigned long long) req->size);
-               char buf[XSEG_MAX_TARGETLEN+1];
-               struct xseg_reply_map *reply = (struct xseg_reply_map *) xseg_get_data(peer->xseg, pr->req);
-               int i;
-               for (i = 0; i < reply->cnt; i++) {
-                       XSEGLOG2(&lc, D, "i: %d, reply->cnt: %u",i, reply->cnt);
-                       strncpy(buf, reply->segs[i].target, reply->segs[i].targetlen);
-                       buf[reply->segs[i].targetlen] = 0;
-                       XSEGLOG2(&lc, D, "%d: Object: %s, offset: %llu, size: %llu", i, buf,
-                                       (unsigned long long) reply->segs[i].offset,
-                                       (unsigned long long) reply->segs[i].size);
-               }
-               complete(peer, pr);
+       XSEGLOG2(&lc, I, "Map r of map %s, range: %llu-%llu completed",
+                       map->volume, 
+                       (unsigned long long) pr->req->offset, 
+                       (unsigned long long) (pr->req->offset + pr->req->size));
+       XSEGLOG2(&lc, D, "Req->offset: %llu, req->size: %llu",
+                       (unsigned long long) pr->req->offset,
+                       (unsigned long long) pr->req->size);
+       char buf[XSEG_MAX_TARGETLEN+1];
+       struct xseg_reply_map *reply = (struct xseg_reply_map *) xseg_get_data(peer->xseg, pr->req);
+       int i;
+       for (i = 0; i < reply->cnt; i++) {
+               XSEGLOG2(&lc, D, "i: %d, reply->cnt: %u",i, reply->cnt);
+               strncpy(buf, reply->segs[i].target, reply->segs[i].targetlen);
+               buf[reply->segs[i].targetlen] = 0;
+               XSEGLOG2(&lc, D, "%d: Object: %s, offset: %llu, size: %llu", i, buf,
+                               (unsigned long long) reply->segs[i].offset,
+                               (unsigned long long) reply->segs[i].size);
        }
-       //else copyup pending, wait for pr restart
-
        return 0;
 }
 
-static int handle_snap(struct peerd *peer, struct peer_req *pr, 
-                               struct xseg_request *req)
+static int do_mapw(struct peer_req *pr, struct map *map)
 {
-       fail(peer, pr);
+       struct peerd *peer = pr->peer;
+       int r = req2objs(pr, map, 1);
+       if  (r < 0){
+               XSEGLOG2(&lc, I, "Map w of map %s, range: %llu-%llu failed",
+                               map->volume, 
+                               (unsigned long long) pr->req->offset, 
+                               (unsigned long long) (pr->req->offset + pr->req->size));
+               return -1;
+       }
+       XSEGLOG2(&lc, I, "Map w of map %s, range: %llu-%llu completed",
+                       map->volume, 
+                       (unsigned long long) pr->req->offset, 
+                       (unsigned long long) (pr->req->offset + pr->req->size));
+       XSEGLOG2(&lc, D, "Req->offset: %llu, req->size: %llu",
+                       (unsigned long long) pr->req->offset,
+                       (unsigned long long) pr->req->size);
+       char buf[XSEG_MAX_TARGETLEN+1];
+       struct xseg_reply_map *reply = (struct xseg_reply_map *) xseg_get_data(peer->xseg, pr->req);
+       int i;
+       for (i = 0; i < reply->cnt; i++) {
+               XSEGLOG2(&lc, D, "i: %d, reply->cnt: %u",i, reply->cnt);
+               strncpy(buf, reply->segs[i].target, reply->segs[i].targetlen);
+               buf[reply->segs[i].targetlen] = 0;
+               XSEGLOG2(&lc, D, "%d: Object: %s, offset: %llu, size: %llu", i, buf,
+                               (unsigned long long) reply->segs[i].offset,
+                               (unsigned long long) reply->segs[i].size);
+       }
        return 0;
 }
 
-static int handle_info(struct peerd *peer, struct peer_req *pr, 
-                               struct xseg_request *req)
+//here map is the parent map
+static int do_clone(struct peer_req *pr, struct map *map)
 {
+       int r;
+       struct peerd *peer = pr->peer;
        struct mapperd *mapper = __get_mapperd(peer);
-       struct mapper_io *mio = __get_mapper_io(pr);
-       (void) mapper;
-       (void) mio;
        char *target = xseg_get_target(peer->xseg, pr->req);
-       if (!target) {
-               fail(peer, pr);
-               return 0;
-       }
-       //printf("Handle info\n");
-       struct map *map;
-       int r = find_or_load_map(peer, pr, target, pr->req->targetlen, &map);
-       if (r < 0) {
-               fail(peer, pr);
+       struct map *clonemap;
+       struct xseg_request_clone *xclone =
+               (struct xseg_request_clone *) xseg_get_data(peer->xseg, pr->req);
+
+       XSEGLOG2(&lc, I, "Cloning map %s", map->volume);
+
+       clonemap = create_map(mapper, target, pr->req->targetlen, MF_ARCHIP);
+       if (!clonemap)
                return -1;
+
+       /* open map to get exclusive access to map */
+       r = open_map(pr, clonemap, 0);
+       if (r < 0){
+               XSEGLOG2(&lc, E, "Cannot open map %s", clonemap->volume);
+               XSEGLOG2(&lc, E, "Target volume %s exists", clonemap->volume);
+               goto out_err;
        }
-       else if (r == MF_PENDING)
-               return 0;
-       if (map->flags & MF_MAP_DESTROYED) {
-               fail(peer, pr);
-               return 0;
+       r = load_map(pr, clonemap);
+       if (r >= 0) {
+               XSEGLOG2(&lc, E, "Target volume %s exists", clonemap->volume);
+               goto out_err;
        }
-       
-       struct xseg_reply_info *xinfo = (struct xseg_reply_info *) xseg_get_data(peer->xseg, pr->req);
-       xinfo->size = map->size;
-       complete(peer, pr);
-
-       return 0;
-}
-
-static int delete_object(struct peerd *peer, struct peer_req *pr,
-                               struct map_node *mn)
-{
-       void *dummy;
-       struct mapperd *mapper = __get_mapperd(peer);
-       struct mapper_io *mio = __get_mapper_io(pr);
 
-       mio->delobj = mn->objectidx;
-       if (xq_count(&mn->pending) != 0) {
-               __xq_append_tail(&mn->pending, (xqindex) pr); //FIXME err check
-               XSEGLOG2(&lc, I, "Object %s has pending requests. Adding to pending",
-                               mn->object);
-               return MF_PENDING;
+       if (xclone->size == -1)
+               clonemap->size = map->size;
+       else
+               clonemap->size = xclone->size;
+       if (clonemap->size < map->size){
+               XSEGLOG2(&lc, W, "Requested clone size (%llu) < map size (%llu)"
+                               "\n\t for requested clone %s",
+                               (unsigned long long) xclone->size,
+                               (unsigned long long) map->size, clonemap->volume);
+               goto out_err;
+       }
+       if (clonemap->size > MAX_VOLUME_SIZE) {
+               XSEGLOG2(&lc, E, "Requested size %llu > max volume size %llu"
+                               "\n\t for volume %s",
+                               clonemap->size, MAX_VOLUME_SIZE, clonemap->volume);
+               goto out_err;
        }
 
-       struct xseg_request *req = xseg_get_request(peer->xseg, peer->portno, 
-                                                       mapper->bportno, X_ALLOC);
-       if (!req)
+       //alloc and init map_nodes
+       //unsigned long c = clonemap->size/block_size + 1;
+       unsigned long c = calc_map_obj(clonemap);
+       struct map_node *map_nodes = calloc(c, sizeof(struct map_node));
+       if (!map_nodes){
                goto out_err;
-       int r = xseg_prep_request(peer->xseg, req, mn->objectlen, 0);
-       if (r < 0)
-               goto out_put;
-       char *target = xseg_get_target(peer->xseg, req);
-       strncpy(target, mn->object, req->targetlen);
-       req->op = X_DELETE;
-       req->size = req->datalen;
-       req->offset = 0;
+       }
+       int i;
+       //for (i = 0; i < clonemap->size/block_size + 1; i++) {
+       for (i = 0; i < c; i++) {
+               struct map_node *mn = get_mapnode(map, i);
+               if (mn) {
+                       strncpy(map_nodes[i].object, mn->object, mn->objectlen);
+                       map_nodes[i].objectlen = mn->objectlen;
+                       put_mapnode(mn);
+               } else {
+                       strncpy(map_nodes[i].object, zero_block, ZERO_BLOCK_LEN);
+                       map_nodes[i].objectlen = ZERO_BLOCK_LEN;
+               }
+               map_nodes[i].object[map_nodes[i].objectlen] = 0; //NULL terminate
+               map_nodes[i].flags = 0;
+               map_nodes[i].objectidx = i;
+               map_nodes[i].map = clonemap;
+               map_nodes[i].ref = 1;
+               map_nodes[i].waiters = 0;
+               map_nodes[i].cond = st_cond_new(); //FIXME errcheck;
+               r = insert_object(clonemap, &map_nodes[i]);
+               if (r < 0){
+                       XSEGLOG2(&lc, E, "Cannot insert object %d to map %s", i, clonemap->volume);
+                       goto out_err;
+               }
+       }
 
-       r = xseg_set_req_data(peer->xseg, req, pr);
-       if (r < 0)
-               goto out_put;
-       __set_copyup_node(mio, req, mn);
-       xport p = xseg_submit(peer->xseg, req, peer->portno, X_ALLOC);
-       if (p == NoPort)
-               goto out_unset;
-       r = xseg_signal(peer->xseg, p);
-       mn->flags |= MF_OBJECT_DELETING;
-       XSEGLOG2(&lc, I, "Object %s deletion pending", mn->object);
-       return MF_PENDING;
+       r = write_map(pr, clonemap);
+       if (r < 0){
+               XSEGLOG2(&lc, E, "Cannot write map %s", clonemap->volume);
+               goto out_err;
+       }
+       do_close(pr, clonemap);
+       return 0;
 
-out_unset:
-       xseg_get_req_data(peer->xseg, req, &dummy);
-out_put:
-       xseg_put_request(peer->xseg, req, peer->portno);
 out_err:
-       XSEGLOG2(&lc, I, "Object %s deletion failed", mn->object);
+       do_close(pr, clonemap);
        return -1;
 }
 
-/*
- * Find next object for deletion. Start searching on idx mio->delobj.
- * Skip non existing map_nodes, free_resources and skip non-existing objects
- * Wait for all pending operations on the object, before moving forward to the 
- * next object.
- *
- * Return MF_PENDING if theres is a pending operation on the next object
- * or zero if there is no next object
- */
-static int delete_next_object(struct peerd *peer, struct peer_req *pr,
-                               struct map *map)
+static int open_load_map(struct peer_req *pr, struct map *map, uint32_t flags)
 {
-       struct mapperd *mapper = __get_mapperd(peer);
-       struct mapper_io *mio = __get_mapper_io(pr);
-       uint64_t idx = mio->delobj;
-       struct map_node *mn;
-       int r;
-retry:
-       while (idx < calc_map_obj(map)) {
-               mn = find_object(map, idx);
-               if (!mn) {
-                       idx++;
-                       goto retry;
-               }
-               mio->delobj = idx;
-               if (xq_count(&mn->pending) != 0) {
-                       __xq_append_tail(&mn->pending, (xqindex) pr); //FIXME err check
-                       XSEGLOG2(&lc, I, "Object %s has pending requests. Adding to pending",
-                                       mn->object);
-                       return MF_PENDING;
-               }
-               if (mn->flags & MF_OBJECT_EXIST){
-                       r = delete_object(peer, pr, mn);
-                       if (r < 0) {
-                               /* on error, just log it, release resources and
-                                * proceed to the next object
-                                */
-                               XSEGLOG2(&lc, E, "Object %s delete object return error"
-                                               "\n\t Map: %s [%llu]", 
-                                               mn->object, mn->map->volume, 
-                                               (unsigned long long) mn->objectidx);
-                               xq_free(&mn->pending);
-                       }
-                       else if (r == MF_PENDING){
-                               return r;
+       int r, opened = 0;
+       if (flags & MF_EXCLUSIVE){
+               r = open_map(pr, map, flags);
+               if (r < 0) {
+                       if (flags & MF_FORCE){
+                               return -1;
                        }
                } else {
-                       xq_free(&mn->pending);
+                       opened = 1;
                }
-               idx++;
        }
-       return 0;
+       r = load_map(pr, map);
+       if (r < 0 && opened){
+               close_map(pr, map);
+       }
+       return r;
 }
 
-static int handle_object_delete(struct peerd *peer, struct peer_req *pr, 
-                                struct map_node *mn, int err)
+struct map * get_map(struct peer_req *pr, char *name, uint32_t namelen,
+                       uint32_t flags)
 {
-       struct mapperd *mapper = __get_mapperd(peer);
-       struct mapper_io *mio = __get_mapper_io(pr);
-       uint64_t idx;
-       struct map *map = mn->map;
        int r;
-       (void) mio;
-       //if object deletion failed, map deletion must continue
-       //and report OK, since map block has been deleted succesfully
-       //so, no check for err
-
-       //assert object flags OK
-       //free map_node_resources
-       mn->flags &= ~MF_OBJECT_DELETING;
-       xq_free(&mn->pending);
-
-       mio->delobj++;
-       r = delete_next_object(peer, pr, map);
-       if (r != MF_PENDING){
-               /* if there is no next object to delete, remove the map block
-                * from memory
-                */
-
-               //assert map flags OK
-               map->flags |= MF_MAP_DESTROYED;
-               XSEGLOG2(&lc, I, "Map %s deleted", map->volume);
-               //make all pending requests on map to fail
-               uint64_t qsize = xq_count(&map->pending);
-               while(qsize > 0 && (idx = __xq_pop_head(&map->pending)) != Noneidx){
-                       qsize--;
-                       struct peer_req * preq = (struct peer_req *) idx;
-                       my_dispatch(peer, preq, preq->req);
+       struct peerd *peer = pr->peer;
+       struct mapperd *mapper = __get_mapperd(peer);
+       struct map *map = find_map_len(mapper, name, namelen, flags);
+       if (!map){
+               if (flags & MF_LOAD){
+                       map = create_map(mapper, name, namelen, flags);
+                       if (!map)
+                               return NULL;
+                       r = open_load_map(pr, map, flags);
+                       if (r < 0){
+                               do_dropcache(pr, map);
+                               return NULL;
+                       }
+               } else {
+                       return NULL;
                }
-               //free map resources;
-               remove_map(mapper, map);
-               mn = find_object(map, 0);
-               free(mn);
-               xq_free(&map->pending);
-               free(map);
+       } else if (map->flags & MF_MAP_DESTROYED){
+               return NULL;
        }
-       XSEGLOG2(&lc, I, "Handle object delete OK");
-       return 0;
+       __get_map(map);
+       return map;
+
 }
 
-static int delete_map(struct peerd *peer, struct peer_req *pr,
-                       struct map *map)
+static int map_action(int (action)(struct peer_req *pr, struct map *map),
+               struct peer_req *pr, char *name, uint32_t namelen, uint32_t flags)
 {
-       void *dummy;
-       struct mapperd *mapper = __get_mapperd(peer);
-       struct mapper_io *mio = __get_mapper_io(pr);
-       struct xseg_request *req = xseg_get_request(peer->xseg, peer->portno, 
-                                                       mapper->mbportno, X_ALLOC);
-       if (!req)
-               goto out_err;
-       int r = xseg_prep_request(peer->xseg, req, map->volumelen, 0);
-       if (r < 0)
-               goto out_put;
-       char *target = xseg_get_target(peer->xseg, req);
-       strncpy(target, map->volume, req->targetlen);
-       req->op = X_DELETE;
-       req->size = req->datalen;
-       req->offset = 0;
+       //struct peerd *peer = pr->peer;
+       struct map *map;
+start:
+       map = get_map(pr, name, namelen, flags);
+       if (!map)
+               return -1;
+       if (map->flags & MF_MAP_NOT_READY){
+               wait_on_map(map, (map->flags & MF_MAP_NOT_READY));
+               put_map(map);
+               goto start;
+       }
+       int r = action(pr, map);
+       //always drop cache if map not read exclusively
+       if (!(map->flags & MF_MAP_EXCLUSIVE))
+               do_dropcache(pr, map);
+       signal_map(map);
+       put_map(map);
+       return r;
+}
 
-       r = xseg_set_req_data(peer->xseg, req, pr);
+void * handle_info(struct peer_req *pr)
+{
+       struct peerd *peer = pr->peer;
+       char *target = xseg_get_target(peer->xseg, pr->req);
+       int r = map_action(do_info, pr, target, pr->req->targetlen,
+                               MF_ARCHIP|MF_LOAD);
        if (r < 0)
-               goto out_put;
-       __set_copyup_node(mio, req, NULL);
-       xport p = xseg_submit(peer->xseg, req, peer->portno, X_ALLOC);
-       if (p == NoPort)
-               goto out_unset;
-       r = xseg_signal(peer->xseg, p);
-       map->flags |= MF_MAP_DELETING;
-       XSEGLOG2(&lc, I, "Map %s deletion pending", map->volume);
-       return MF_PENDING;
-
-out_unset:
-       xseg_get_req_data(peer->xseg, req, &dummy);
-out_put:
-       xseg_put_request(peer->xseg, req, peer->portno);
-out_err:
-       XSEGLOG2(&lc, I, "Map %s deletion failed", map->volume);
-       return -1;
+               fail(peer, pr);
+       else
+               complete(peer, pr);
+       ta--;
+       return NULL;
 }
 
-static int handle_map_delete(struct peerd *peer, struct peer_req *pr, 
-                               struct map *map, int err)
+void * handle_clone(struct peer_req *pr)
 {
-       struct mapperd *mapper = __get_mapperd(peer);
-       struct mapper_io *mio = __get_mapper_io(pr);
-       xqindex idx;
        int r;
-       (void) mio;
-       map->flags &= ~MF_MAP_DELETING;
-       if (err) {
-               XSEGLOG2(&lc, E, "Map %s deletion failed", map->volume);
-               //dispatch all pending
-               while ((idx = __xq_pop_head(&map->pending)) != Noneidx){
-                       struct peer_req * preq = (struct peer_req *) idx;
-                       my_dispatch(peer, preq, preq->req);
-               }
-       } else {
-               map->flags |= MF_MAP_DESTROYED;
-               //delete all objects
-               XSEGLOG2(&lc, I, "Map %s map block deleted. Deleting objects", map->volume);
-               mio->delobj = 0;
-               r = delete_next_object(peer, pr, map);
-               if (r != MF_PENDING){
-                       /* if there is no next object to delete, remove the map block
-                        * from memory
-                        */
-                       //assert map flags OK
-                       map->flags |= MF_MAP_DESTROYED;
-                       XSEGLOG2(&lc, I, "Map %s deleted", map->volume);
-                       //make all pending requests on map to fail
-                       uint64_t qsize = xq_count(&map->pending);
-                       while(qsize > 0 && (idx = __xq_pop_head(&map->pending)) != Noneidx){
-                               qsize--;
-                               struct peer_req * preq = (struct peer_req *) idx;
-                               my_dispatch(peer, preq, preq->req);
-                       }
-                       //free map resources;
-                       remove_map(mapper, map);
-                       struct map_node *mn = find_object(map, 0);
-                       if (mn)
-                               free(mn);
-                       xq_free(&map->pending);
-                       free(map);
-               }
+       struct peerd *peer = pr->peer;
+       struct xseg_request_clone *xclone = (struct xseg_request_clone *) xseg_get_data(peer->xseg, pr->req);
+       if (!xclone) {
+               r = -1;
+               goto out;
        }
-       return 0;
-}
 
-static int handle_delete(struct peerd *peer, struct peer_req *pr, 
-                               struct xseg_request *req)
-{
-       struct mapperd *mapper = __get_mapperd(peer);
-       struct mapper_io *mio = __get_mapper_io(pr);
-       struct map_node *mn;
-       struct map *map;
-       int err = 0;
-       if (req->state & XS_FAILED && !(req->state &XS_SERVED)) 
-               err = 1;
-       
-       mn = __get_copyup_node(mio, req);
-       __set_copyup_node(mio, req, NULL);
-       char *target = xseg_get_target(peer->xseg, req);
-       if (!mn) {
-               //map block delete
-               map = find_map(mapper, target, req->targetlen);
-               if (!map) {
-                       xseg_put_request(peer->xseg, req, peer->portno);
-                       return -1;
-               }
-               handle_map_delete(peer, pr, map, err);
+       if (xclone->targetlen){
+               /* if snap was defined */
+               //support clone only from pithos
+               r = map_action(do_clone, pr, xclone->target, xclone->targetlen,
+                                       MF_LOAD);
        } else {
-               //object delete
-               map = mn->map;
-               if (!map) {
-                       xseg_put_request(peer->xseg, req, peer->portno);
-                       return -1;
+               /* else try to create a new volume */
+               XSEGLOG2(&lc, I, "Creating volume");
+               if (!xclone->size){
+                       XSEGLOG2(&lc, E, "Cannot create volume. Size not specified");
+                       r = -1;
+                       goto out;
+               }
+               if (xclone->size > MAX_VOLUME_SIZE) {
+                       XSEGLOG2(&lc, E, "Requested size %llu > max volume "
+                                       "size %llu", xclone->size, MAX_VOLUME_SIZE);
+                       r = -1;
+                       goto out;
                }
-               handle_object_delete(peer, pr, mn, err);
-       }
-       xseg_put_request(peer->xseg, req, peer->portno);
-       return 0;
-}
 
-static int handle_destroy(struct peerd *peer, struct peer_req *pr, 
-                               struct xseg_request *req)
-{
-       struct mapperd *mapper = __get_mapperd(peer);
-       struct mapper_io *mio = __get_mapper_io(pr);
-       (void) mapper;
-       int r;
-       char buf[XSEG_MAX_TARGETLEN+1];
-       char *target = xseg_get_target(peer->xseg, pr->req);
+               struct map *map;
+               char *target = xseg_get_target(peer->xseg, pr->req);
 
-       strncpy(buf, target, pr->req->targetlen);
-       buf[req->targetlen] = 0;
-
-       XSEGLOG2(&lc, D, "Handle destroy pr: %lx, pr->req: %lx, req: %lx",
-                       (unsigned long) pr, (unsigned long) pr->req,
-                       (unsigned long) req);
-       XSEGLOG2(&lc, D, "target: %s (%u)", buf, strlen(buf));
-       if (pr->req != req && req->op == X_DELETE) {
-               //assert mio->state == DELETING
-               r = handle_delete(peer, pr, req);
-               if (r < 0) {
-                       XSEGLOG2(&lc, E, "Handle delete returned error");
-                       fail(peer, pr);
-                       return -1;
-               } else {
-                       return 0;
+               //create a new empty map of size
+               map = create_map(mapper, target, pr->req->targetlen, MF_ARCHIP);
+               if (!map){
+                       r = -1;
+                       goto out;
                }
-       }
+               /* open map to get exclusive access to map */
+               r = open_map(pr, map, 0);
+               if (r < 0){
+                       XSEGLOG2(&lc, E, "Cannot open map %s", map->volume);
+                       XSEGLOG2(&lc, E, "Target volume %s exists", map->volume);
+                       do_dropcache(pr, map);
+                       r = -1;
+                       goto out;
+               }
+               r = load_map(pr, map);
+               if (r >= 0) {
+                       XSEGLOG2(&lc, E, "Map exists %s", map->volume);
+                       do_close(pr, map);
+                       r = -1;
+                       goto out;
+               }
+               map->size = xclone->size;
+               //populate_map with zero objects;
+               uint64_t nr_objs = xclone->size / block_size;
+               if (xclone->size % block_size)
+                       nr_objs++;
 
-       struct map *map;
-       r = find_or_load_map(peer, pr, target, pr->req->targetlen, &map);
-       if (r < 0) {
-               fail(peer, pr);
-               return -1;
-       }
-       else if (r == MF_PENDING)
-               return 0;
-       if (map->flags & MF_MAP_DESTROYED) {
-               if (mio->state == DELETING){
-                       XSEGLOG2(&lc, I, "Map %s destroyed", map->volume);
-                       complete(peer, pr);
+               struct map_node *map_nodes = calloc(nr_objs, sizeof(struct map_node));
+               if (!map_nodes){
+                       do_close(pr, map);
+                       r = -1;
+                       goto out;
                }
-               else{
-                       XSEGLOG2(&lc, I, "Map %s already destroyed", map->volume);
-                       fail(peer, pr);
+
+               uint64_t i;
+               for (i = 0; i < nr_objs; i++) {
+                       strncpy(map_nodes[i].object, zero_block, ZERO_BLOCK_LEN);
+                       map_nodes[i].objectlen = ZERO_BLOCK_LEN;
+                       map_nodes[i].object[map_nodes[i].objectlen] = 0; //NULL terminate
+                       map_nodes[i].flags = 0;
+                       map_nodes[i].objectidx = i;
+                       map_nodes[i].map = map;
+                       map_nodes[i].ref = 1;
+                       map_nodes[i].waiters = 0;
+                       map_nodes[i].cond = st_cond_new(); //FIXME errcheck;
+                       r = insert_object(map, &map_nodes[i]);
+                       if (r < 0){
+                               do_close(pr, map);
+                               r = -1;
+                               goto out;
+                       }
                }
-               return 0;
-       }
-       if (mio->state == DELETING) {
-               //continue deleting map objects;
-               r = delete_next_object(peer ,pr, map);
-               if (r != MF_PENDING){
-                       complete(peer, pr);
+               r = write_map(pr, map);
+               if (r < 0){
+                       XSEGLOG2(&lc, E, "Cannot write map %s", map->volume);
+                       do_close(pr, map);
+                       goto out;
                }
-               return 0;
+               XSEGLOG2(&lc, I, "Volume %s created", map->volume);
+               r = 0;
+               do_close(pr, map); //drop cache here for consistency
        }
-       //delete map block
-       r = delete_map(peer, pr, map);
-       if (r < 0) {
-               XSEGLOG2(&lc, E, "Map delete for map %s returned error", map->volume);
+out:
+       if (r < 0)
                fail(peer, pr);
-               return -1;
-       } else if (r == MF_PENDING) {
-               XSEGLOG2(&lc, I, "Map %s delete pending", map->volume);
-               __xq_append_tail(&map->pending, (xqindex) pr);
-               mio->state = DELETING;
-               return 0;
-       }
-       //unreachable
-       XSEGLOG2(&lc, E, "Destroy unreachable");
-       fail(peer, pr);
-       return 0;
+       else
+               complete(peer, pr);
+       ta--;
+       return NULL;
 }
 
-static int handle_dropcache(struct peerd *peer, struct peer_req *pr, 
-                               struct xseg_request *req)
+void * handle_mapr(struct peer_req *pr)
 {
-       struct mapperd *mapper = __get_mapperd(peer);
-       struct mapper_io *mio = __get_mapper_io(pr);
-       (void) mapper;
-       (void) mio;
+       struct peerd *peer = pr->peer;
        char *target = xseg_get_target(peer->xseg, pr->req);
-       if (!target) {
+       int r = map_action(do_mapr, pr, target, pr->req->targetlen,
+                               MF_ARCHIP|MF_LOAD|MF_EXCLUSIVE);
+       if (r < 0)
                fail(peer, pr);
-               return 0;
-       }
-
-       struct map *map = find_map(mapper, target, pr->req->targetlen);
-       if (!map){
+       else
                complete(peer, pr);
-               return 0;
-       } else if (map->flags & MF_MAP_DESTROYED) {
+       ta--;
+       return NULL;
+}
+
+void * handle_mapw(struct peer_req *pr)
+{
+       struct peerd *peer = pr->peer;
+       char *target = xseg_get_target(peer->xseg, pr->req);
+       int r = map_action(do_mapw, pr, target, pr->req->targetlen,
+                               MF_ARCHIP|MF_LOAD|MF_EXCLUSIVE|MF_FORCE);
+       if (r < 0)
+               fail(peer, pr);
+       else
                complete(peer, pr);
-               return 0;
-       } else if (map->flags & MF_MAP_NOT_READY && mio->state != DROPPING_CACHE) {
-               __xq_append_tail(&map->pending, (xqindex) pr);
-               return 0;
-       }
+       XSEGLOG2(&lc, D, "Ta: %d", ta);
+       ta--;
+       return NULL;
+}
 
-       if (mio->state != DROPPING_CACHE) {
-               /* block all future operations on the map */
-               map->flags |= MF_MAP_DROPPING_CACHE;
-               mio->dcobj = 0;
-               mio->state = DROPPING_CACHE;
-               XSEGLOG2(&lc, I, "Map %s start dropping cache", map->volume);
-       } else {
-               XSEGLOG2(&lc, I, "Map %s continue dropping cache", map->volume);
-       }
+void * handle_destroy(struct peer_req *pr)
+{
+       struct peerd *peer = pr->peer;
+       char *target = xseg_get_target(peer->xseg, pr->req);
+       /* request EXCLUSIVE access, but do not force it.
+        * check if succeeded on do_destroy
+        */
+       int r = map_action(do_destroy, pr, target, pr->req->targetlen,
+                               MF_ARCHIP|MF_LOAD|MF_EXCLUSIVE);
+       if (r < 0)
+               fail(peer, pr);
+       else
+               complete(peer, pr);
+       ta--;
+       return NULL;
+}
 
-       struct map_node *mn; 
-       uint64_t i;
-       for (i = mio->dcobj; i < calc_map_obj(map); i++) {
-               mn = find_object(map, i);
-               if (!mn)
-                       continue;
-               mio->dcobj = i;
-               if (xq_count(&mn->pending) != 0){
-                       XSEGLOG2(&lc, D, "Map %s pending dropping cache for obj idx: %llu", 
-                               map->volume, (unsigned long long) mn->objectidx);
-                       __xq_append_tail(&mn->pending, (xqindex) pr);
-                       return 0;
-               }
-               xq_free(&mn->pending);
-               XSEGLOG2(&lc, D, "Map %s dropped cache for obj idx: %llu", 
-                               map->volume, (unsigned long long) mn->objectidx);
-       }
-       remove_map(mapper, map);
-       //dispatch pending
-       uint64_t qsize = xq_count(&map->pending);
-       while(qsize > 0 && (i = __xq_pop_head(&map->pending)) != Noneidx){
-               qsize--;
-               struct peer_req * preq = (struct peer_req *) i;
-               my_dispatch(peer, preq, preq->req);
-       }
-       XSEGLOG2(&lc, I, "Map %s droped cache", map->volume);
-       
-       //free map resources;
-       mn = find_object(map, 0);
-       if (mn)
-               free(mn);
-       xq_free(&map->pending);
-       free(map);
+void * handle_open(struct peer_req *pr)
+{
+       struct peerd *peer = pr->peer;
+       char *target = xseg_get_target(peer->xseg, pr->req);
+       //here we do not want to load
+       int r = map_action(do_open, pr, target, pr->req->targetlen,
+                               MF_ARCHIP|MF_LOAD|MF_EXCLUSIVE);
+       if (r < 0)
+               fail(peer, pr);
+       else
+               complete(peer, pr);
+       ta--;
+       return NULL;
+}
 
-       complete(peer, pr);
+void * handle_close(struct peer_req *pr)
+{
+       struct peerd *peer = pr->peer;
+       char *target = xseg_get_target(peer->xseg, pr->req);
+       //here we do not want to load
+       int r = map_action(do_close, pr, target, pr->req->targetlen,
+                               MF_ARCHIP|MF_EXCLUSIVE|MF_FORCE);
+       if (r < 0)
+               fail(peer, pr);
+       else
+               complete(peer, pr);
+       ta--;
+       return NULL;
+}
 
-       return 0;
+void * handle_snapshot(struct peer_req *pr)
+{
+       struct peerd *peer = pr->peer;
+       char *target = xseg_get_target(peer->xseg, pr->req);
+       /* request EXCLUSIVE access, but do not force it.
+        * check if succeeded on do_snapshot
+        */
+       int r = map_action(do_snapshot, pr, target, pr->req->targetlen,
+                               MF_ARCHIP|MF_LOAD|MF_EXCLUSIVE);
+       if (r < 0)
+               fail(peer, pr);
+       else
+               complete(peer, pr);
+       ta--;
+       return NULL;
 }
 
-static int my_dispatch(struct peerd *peer, struct peer_req *pr, struct xseg_request *req)
+int dispatch_accepted(struct peerd *peer, struct peer_req *pr,
+                       struct xseg_request *req)
 {
-       struct mapperd *mapper = __get_mapperd(peer);
-       (void) mapper;
+       //struct mapperd *mapper = __get_mapperd(peer);
        struct mapper_io *mio = __get_mapper_io(pr);
-       (void) mio;
-
-       if (req->op == X_READ) {
-               /* catch map reads requests here */
-               handle_mapread(peer, pr, req);
-               return 0;
-       }
+       void *(*action)(struct peer_req *) = NULL;
 
+       mio->state = ACCEPTED;
+       mio->err = 0;
+       mio->cb = NULL;
        switch (pr->req->op) {
                /* primary xseg operations of mapper */
-               case X_CLONE: handle_clone(peer, pr, req); break;
-               case X_MAPR: handle_mapr(peer, pr, req); break;
-               case X_MAPW: handle_mapw(peer, pr, req); break;
-//             case X_SNAPSHOT: handle_snap(peer, pr, req); break;
-               case X_INFO: handle_info(peer, pr, req); break;
-               case X_DELETE: handle_destroy(peer, pr, req); break;
-               case X_CLOSE: handle_dropcache(peer, pr, req); break;
+               case X_CLONE: action = handle_clone; break;
+               case X_MAPR: action = handle_mapr; break;
+               case X_MAPW: action = handle_mapw; break;
+               case X_SNAPSHOT: action = handle_snapshot; break;
+               case X_INFO: action = handle_info; break;
+               case X_DELETE: action = handle_destroy; break;
+               case X_OPEN: action = handle_open; break;
+               case X_CLOSE: action = handle_close; break;
                default: fprintf(stderr, "mydispatch: unknown up\n"); break;
        }
+       if (action){
+               ta++;
+               mio->active = 1;
+               st_thread_create(action, pr, 0, 0);
+       }
        return 0;
+
 }
 
-int dispatch(struct peerd *peer, struct peer_req *pr, struct xseg_request *req)
+int dispatch(struct peerd *peer, struct peer_req *pr, struct xseg_request *req,
+               enum dispatch_reason reason)
 {
        struct mapperd *mapper = __get_mapperd(peer);
        (void) mapper;
        struct mapper_io *mio = __get_mapper_io(pr);
        (void) mio;
 
-       if (pr->req == req)
-               mio->state = ACCEPTED;
-       my_dispatch(peer, pr ,req);
+
+       if (reason == dispatch_accept)
+               dispatch_accepted(peer, pr, req);
+       else {
+               if (mio->cb){
+                       mio->cb(pr, req);
+               } else { 
+                       signal_pr(pr);
+               }
+       }
        return 0;
 }
 
 int custom_peer_init(struct peerd *peer, int argc, char *argv[])
 {
        int i;
-       unsigned char buf[SHA256_DIGEST_SIZE];
-       char *zero;
-
-       gcry_control (GCRYCTL_SET_THREAD_CBS, &gcry_threads_pthread);
-
-               /* Version check should be the very first call because it
-          makes sure that important subsystems are intialized. */
-               gcry_check_version (NULL);
-     
-               /* Disable secure memory.  */
-               gcry_control (GCRYCTL_DISABLE_SECMEM, 0);
-     
-               /* Tell Libgcrypt that initialization has completed. */
-               gcry_control (GCRYCTL_INITIALIZATION_FINISHED, 0);
-
-       /* calculate out magic sha hash value */
-       gcry_md_hash_buffer(GCRY_MD_SHA256, magic_sha256, magic_string, strlen(magic_string));
-
-       /* calculate zero block */
-       //FIXME check hash value
-       zero = malloc(block_size);
-       memset(zero, 0, block_size);
-       gcry_md_hash_buffer(GCRY_MD_SHA256, buf, zero, block_size);
-       for (i = 0; i < SHA256_DIGEST_SIZE; ++i)
-               sprintf(zero_block + 2*i, "%02x", buf[i]);
-       printf("%s \n", zero_block);
-       free(zero);
 
        //FIXME error checks
-       struct mapperd *mapper = malloc(sizeof(struct mapperd));
+       struct mapperd *mapperd = malloc(sizeof(struct mapperd));
+       peer->priv = mapperd;
+       mapper = mapperd;
        mapper->hashmaps = xhash_new(3, STRING);
-       peer->priv = mapper;
-       
+
        for (i = 0; i < peer->nr_ops; i++) {
                struct mapper_io *mio = malloc(sizeof(struct mapper_io));
                mio->copyups_nodes = xhash_new(3, INTEGER);
                mio->copyups = 0;
                mio->err = 0;
+               mio->active = 0;
                peer->peer_reqs[i].priv = mio;
        }
 
-       for (i = 0; i < argc; i++) {
-               if (!strcmp(argv[i], "-bp") && (i+1) < argc){
-                       mapper->bportno = atoi(argv[i+1]);
-                       i += 1;
-                       continue;
-               }
-               if (!strcmp(argv[i], "-mbp") && (i+1) < argc){
-                       mapper->mbportno = atoi(argv[i+1]);
-                       i += 1;
-                       continue;
-               }
-               /* enforce only one thread */
-               if (!strcmp(argv[i], "-t") && (i+1) < argc){
-                       int t = atoi(argv[i+1]);
-                       if (t != 1) {
-                               printf("ERROR: mapperd supports only one thread for the moment\nExiting ...\n");
-                               return -1;
-                       }
-                       i += 1;
-                       continue;
-               }
+       mapper->bportno = -1;
+       mapper->mbportno = -1;
+       BEGIN_READ_ARGS(argc, argv);
+       READ_ARG_ULONG("-bp", mapper->bportno);
+       READ_ARG_ULONG("-mbp", mapper->mbportno);
+       END_READ_ARGS();
+       if (mapper->bportno == -1){
+               XSEGLOG2(&lc, E, "Portno for blocker must be provided");
+               usage(argv[0]);
+               return -1;
+       }
+       if (mapper->mbportno == -1){
+               XSEGLOG2(&lc, E, "Portno for mblocker must be provided");
+               usage(argv[0]);
+               return -1;
        }
 
        const struct sched_param param = { .sched_priority = 99 };
        sched_setscheduler(syscall(SYS_gettid), SCHED_FIFO, &param);
+       /* FIXME maybe place it in peer
+        * should be done for each port (sportno to eportno)
+        */
+       xseg_set_max_requests(peer->xseg, peer->portno_start, 5000);
+       xseg_set_freequeue_size(peer->xseg, peer->portno_start, 3000, 0);
 
 
 //     test_map(peer);
@@ -1976,6 +2893,80 @@ int custom_peer_init(struct peerd *peer, int argc, char *argv[])
        return 0;
 }
 
+/* FIXME this should not be here */
+int wait_reply(struct peerd *peer, struct xseg_request *expected_req)
+{
+       struct xseg *xseg = peer->xseg;
+       xport portno_start = peer->portno_start;
+       xport portno_end = peer->portno_end;
+       struct peer_req *pr;
+       xport i;
+       int  r, c = 0;
+       struct xseg_request *received;
+       xseg_prepare_wait(xseg, portno_start);
+       while(1) {
+               XSEGLOG2(&lc, D, "Attempting to check for reply");
+               c = 1;
+               while (c){
+                       c = 0;
+                       for (i = portno_start; i <= portno_end; i++) {
+                               received = xseg_receive(xseg, i, 0);
+                               if (received) {
+                                       c = 1;
+                                       r =  xseg_get_req_data(xseg, received, (void **) &pr);
+                                       if (r < 0 || !pr || received != expected_req){
+                                               XSEGLOG2(&lc, W, "Received request with no pr data\n");
+                                               xport p = xseg_respond(peer->xseg, received, peer->portno_start, X_ALLOC);
+                                               if (p == NoPort){
+                                                       XSEGLOG2(&lc, W, "Could not respond stale request");
+                                                       xseg_put_request(xseg, received, portno_start);
+                                                       continue;
+                                               } else {
+                                                       xseg_signal(xseg, p);
+                                               }
+                                       } else {
+                                               xseg_cancel_wait(xseg, portno_start);
+                                               return 0;
+                                       }
+                               }
+                       }
+               }
+               xseg_wait_signal(xseg, 1000000UL);
+       }
+}
+
+
+void custom_peer_finalize(struct peerd *peer)
+{
+       struct mapperd *mapper = __get_mapperd(peer);
+       struct peer_req *pr = alloc_peer_req(peer);
+       if (!pr){
+               XSEGLOG2(&lc, E, "Cannot get peer request");
+               return;
+       }
+       struct map *map;
+       struct xseg_request *req;
+       xhash_iter_t it;
+       xhashidx key, val;
+       xhash_iter_init(mapper->hashmaps, &it);
+       while (xhash_iterate(mapper->hashmaps, &it, &key, &val)){
+               map = (struct map *)val;
+               if (!(map->flags & MF_MAP_EXCLUSIVE))
+                       continue;
+               req = __close_map(pr, map);
+               if (!req)
+                       continue;
+               wait_reply(peer, req);
+               if (!(req->state & XS_SERVED))
+                       XSEGLOG2(&lc, E, "Couldn't close map %s", map->volume);
+               map->flags &= ~MF_MAP_CLOSING;
+               xseg_put_request(peer->xseg, req, pr->portno);
+       }
+       return;
+
+
+}
+
 void print_obj(struct map_node *mn)
 {
        fprintf(stderr, "[%llu]object name: %s[%u] exists: %c\n", 
@@ -1989,10 +2980,11 @@ void print_map(struct map *m)
        uint64_t nr_objs = m->size/block_size;
        if (m->size % block_size)
                nr_objs++;
-       fprintf(stderr, "Volume name: %s[%u], size: %llu, nr_objs: %llu\n", 
+       fprintf(stderr, "Volume name: %s[%u], size: %llu, nr_objs: %llu, version: %u\n", 
                        m->volume, m->volumelen, 
                        (unsigned long long) m->size, 
-                       (unsigned long long) nr_objs);
+                       (unsigned long long) nr_objs,
+                       m->version);
        uint64_t i;
        struct map_node *mn;
        if (nr_objs > 1000000) //FIXME to protect against invalid volume size