Data migration tool - initial version. Handles uploading of blocks.
[pithos] / tools / migrate-data
1 #!/usr/bin/env python
2
3 # Copyright 2011 GRNET S.A. All rights reserved.
4
5 # Redistribution and use in source and binary forms, with or
6 # without modification, are permitted provided that the following
7 # conditions are met:
8
9 #   1. Redistributions of source code must retain the above
10 #      copyright notice, this list of conditions and the following
11 #      disclaimer.
12
13 #   2. Redistributions in binary form must reproduce the above
14 #      copyright notice, this list of conditions and the following
15 #      disclaimer in the documentation and/or other materials
16 #      provided with the distribution.
17
18 # THIS SOFTWARE IS PROVIDED BY GRNET S.A. ``AS IS'' AND ANY EXPRESS
19 # OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE IMPLIED
20 # WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR
21 # PURPOSE ARE DISCLAIMED. IN NO EVENT SHALL GRNET S.A OR
22 # CONTRIBUTORS BE LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL,
23 # SPECIAL, EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT
24 # LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES; LOSS OF
25 # USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION) HOWEVER CAUSED
26 # AND ON ANY THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT
27 # LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN
28 # ANY WAY OUT OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE
29 # POSSIBILITY OF SUCH DAMAGE.
30
31 # The views and conclusions contained in the software and
32 # documentation are those of the authors and should not be
33 # interpreted as representing official policies, either expressed
34 # or implied, of GRNET S.A.
35
36 from binascii import hexlify
37
38 from sqlalchemy import create_engine
39 from sqlalchemy import Table, Column, String, MetaData
40 from sqlalchemy.sql import select
41
42 from pithos import settings
43 from pithos.backends.modular import ModularBackend
44
45 from lib.hashmap import HashMap
46
47
48 class Migration(object):
49     def __init__(self, db):
50         self.engine = create_engine(db)
51         self.metadata = MetaData(self.engine)
52         #self.engine.echo = True
53         self.conn = self.engine.connect()
54         
55         options = getattr(settings, 'BACKEND', None)[1]
56         self.backend = ModularBackend(*options)
57     
58     def execute(self):
59         pass
60
61 class DataMigration(Migration):
62     def __init__(self, db):
63         Migration.__init__(self, db)
64         # XXX Need more columns for primary key - last modified timestamp...
65         columns=[]
66         columns.append(Column('path', String(2048), primary_key=True))
67         columns.append(Column('hash', String(255)))
68         self.files = Table('files', self.metadata, *columns)
69         self.metadata.create_all(self.engine)
70     
71     def cache_put(self, path, hash):
72         # Insert or replace.
73         s = self.files.delete().where(self.files.c.path==path)
74         r = self.conn.execute(s)
75         r.close()
76         s = self.files.insert()
77         r = self.conn.execute(s, {'path': path, 'hash': hash})
78         r.close()
79     
80     def cache_get(self, path):
81         s = select([self.files.c.hash], self.files.c.path == path)
82         r = self.conn.execute(s)
83         l = r.fetchone()
84         r.close()
85         if not l:
86             return l
87         return l[0]
88     
89     def execute(self):
90         blocksize = self.backend.block_size
91         blockhash = self.backend.hash_algorithm
92         
93         # Loop for all available files.
94         for path in ['README', 'store', 'test']:
95             map = HashMap(blocksize, blockhash)
96             map.load(path)
97             hash = hexlify(map.hash())
98             
99             if hash != self.cache_get(path):
100                 missing = self.backend.blocker.block_ping(map) # XXX Backend hack...
101                 status = '[>] ' + path
102                 if missing:
103                     status += ' - %d block(s) missing' % len(missing)
104                     with open(path) as fp:
105                         for h in missing:
106                             offset = map.index(h) * blocksize
107                             fp.seek(offset)
108                             block = fp.read(blocksize)
109                             self.backend.put_block(block)
110                 else:
111                     status += ' - no blocks missing'
112                 self.cache_put(path, hash)
113             else:
114                 status = '[-] ' + path
115             print status
116     
117 if __name__ == "__main__":
118     db = 'sqlite:///migrate.db'
119     
120     dt = DataMigration(db)
121     dt.execute()