Migration Tools: Progess II
[pithos] / tools / migrate-data
1 #!/usr/bin/env python
2
3 # Copyright 2011 GRNET S.A. All rights reserved.
4
5 # Redistribution and use in source and binary forms, with or
6 # without modification, are permitted provided that the following
7 # conditions are met:
8
9 #   1. Redistributions of source code must retain the above
10 #      copyright notice, this list of conditions and the following
11 #      disclaimer.
12
13 #   2. Redistributions in binary form must reproduce the above
14 #      copyright notice, this list of conditions and the following
15 #      disclaimer in the documentation and/or other materials
16 #      provided with the distribution.
17
18 # THIS SOFTWARE IS PROVIDED BY GRNET S.A. ``AS IS'' AND ANY EXPRESS
19 # OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE IMPLIED
20 # WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR
21 # PURPOSE ARE DISCLAIMED. IN NO EVENT SHALL GRNET S.A OR
22 # CONTRIBUTORS BE LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL,
23 # SPECIAL, EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT
24 # LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES; LOSS OF
25 # USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION) HOWEVER CAUSED
26 # AND ON ANY THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT
27 # LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN
28 # ANY WAY OUT OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE
29 # POSSIBILITY OF SUCH DAMAGE.
30
31 # The views and conclusions contained in the software and
32 # documentation are those of the authors and should not be
33 # interpreted as representing official policies, either expressed
34 # or implied, of GRNET S.A.
35
36 from binascii import hexlify
37
38 from sqlalchemy import create_engine
39 from sqlalchemy import Table, Column, String, MetaData
40 from sqlalchemy.sql import select
41
42 from pithos import settings
43 from pithos.backends.modular import ModularBackend
44
45 from lib.hashmap import HashMap
46 from lib.migrate import Migration
47
48 class DataMigration(Migration):
49     def __init__(self, db):
50         Migration.__init__(self, db)
51         # XXX Need more columns for primary key - last modified timestamp...
52         columns=[]
53         columns.append(Column('path', String(2048), primary_key=True))
54         columns.append(Column('hash', String(255)))
55         self.files = Table('files', self.metadata, *columns)
56         self.metadata.create_all(self.engine)
57     
58     def cache_put(self, path, hash):
59         # Insert or replace.
60         s = self.files.delete().where(self.files.c.path==path)
61         r = self.conn.execute(s)
62         r.close()
63         s = self.files.insert()
64         r = self.conn.execute(s, {'path': path, 'hash': hash})
65         r.close()
66     
67     def cache_get(self, path):
68         s = select([self.files.c.hash], self.files.c.path == path)
69         r = self.conn.execute(s)
70         l = r.fetchone()
71         r.close()
72         if not l:
73             return l
74         return l[0]
75     
76     def execute(self):
77         blocksize = self.backend.block_size
78         blockhash = self.backend.hash_algorithm
79         
80         # Loop for all available files.
81         filebody = Table('filebody', self.metadata, autoload=True)
82         s = select([filebody.c.storedfilepath])
83         rp = self.conn.execute(s)
84         paths = rp.fetchall()
85         rp.close()
86         
87         for path in paths:
88             map = HashMap(blocksize, blockhash)
89             map.load(path)
90             hash = hexlify(map.hash())
91             
92             if hash != self.cache_get(path):
93                 missing = self.backend.blocker.block_ping(map) # XXX Backend hack...
94                 status = '[>] ' + path
95                 if missing:
96                     status += ' - %d block(s) missing' % len(missing)
97                     with open(path) as fp:
98                         for h in missing:
99                             offset = map.index(h) * blocksize
100                             fp.seek(offset)
101                             block = fp.read(blocksize)
102                             self.backend.put_block(block)
103                 else:
104                     status += ' - no blocks missing'
105                 self.cache_put(path, hash)
106             else:
107                 status = '[-] ' + path
108             print status
109     
110 if __name__ == "__main__":
111     db = 'sqlite:///migrate.db'
112     
113     dt = DataMigration(db)
114     dt.execute()