lbs-util: Add a command for dumping a flattened metadata log file.
[cumulus.git] / lbs-util
1 #!/usr/bin/python
2 #
3 # Utility for managing LBS archives.
4
5 import getpass, os, stat, sys, time
6 from optparse import OptionParser
7 import lbs
8
9 parser = OptionParser(usage="%prog [option]... command [arg]...")
10 parser.add_option("-v", action="store_true", dest="verbose", default=False,
11                   help="increase verbosity")
12 parser.add_option("--store", dest="store",
13                   help="specify path to backup data store")
14 parser.add_option("--localdb", dest="localdb",
15                   help="specify path to local database")
16 (options, args) = parser.parse_args(sys.argv[1:])
17
18 # Read a passphrase from the user and store it in the LBS_GPG_PASSPHRASE
19 # environment variable.
20 def get_passphrase():
21     ENV_KEY = 'LBS_GPG_PASSPHRASE'
22     if not os.environ.has_key(ENV_KEY):
23         os.environ[ENV_KEY] = getpass.getpass()
24
25 # Delete old snapshots from the local database, though do not actually schedule
26 # any segment cleaning.
27 # Syntax: $0 --localdb=LOCALDB prune-db
28 def cmd_prune_db():
29     db = lbs.LocalDatabase(options.localdb)
30
31     # Delete old snapshots from the local database.
32     db.garbage_collect()
33     db.commit()
34
35 # Run the segment cleaner.
36 # Syntax: $0 --localdb=LOCALDB clean
37 def cmd_clean(clean_threshold=7.0):
38     db = lbs.LocalDatabase(options.localdb)
39
40     # Delete old snapshots from the local database.
41     db.garbage_collect()
42
43     # Expire segments which are poorly-utilized.
44     for s in db.get_segment_cleaning_list():
45         if s.cleaning_benefit > clean_threshold:
46             print "Cleaning segment %d (benefit %.2f)" % (s.id,
47                                                           s.cleaning_benefit)
48             db.mark_segment_expired(s)
49         else:
50             break
51     db.balance_expired_objects()
52     db.commit()
53
54 # List snapshots stored.
55 # Syntax: $0 --data=DATADIR list-snapshots
56 def cmd_list_snapshots():
57     store = lbs.LowlevelDataStore(options.store)
58     for s in sorted(store.list_snapshots()):
59         print s
60
61 # List size of data needed for each snapshot.
62 # Syntax: $0 --data=DATADIR list-snapshot-sizes
63 def cmd_list_snapshot_sizes():
64     lowlevel = lbs.LowlevelDataStore(options.store)
65     store = lbs.ObjectStore(lowlevel)
66     previous = set()
67     for s in sorted(lowlevel.list_snapshots()):
68         d = lbs.parse_full(store.load_snapshot(s))
69         segments = d['Segments'].split()
70         (size, added, removed) = (0, 0, 0)
71         for seg in segments:
72             segsize = lowlevel.lowlevel_stat(seg + ".tar.gpg")['size']
73             size += segsize
74             if seg not in previous: added += segsize
75         for seg in previous:
76             if seg not in segments:
77                 removed += lowlevel.lowlevel_stat(seg + ".tar.gpg")['size']
78         previous = set(segments)
79         print "%s: %.3f +%.3f -%.3f" % (s, size / 1024.0**2, added / 1024.0**2, removed / 1024.0**2)
80
81 # Build checksum list for objects in the given segments, or all segments if
82 # none are specified.
83 def cmd_object_checksums(segments):
84     get_passphrase()
85     lowlevel = lbs.LowlevelDataStore(options.store)
86     store = lbs.ObjectStore(lowlevel)
87     if len(segments) == 0:
88         segments = sorted(lowlevel.list_segments())
89     for s in segments:
90         for (o, data) in store.load_segment(s):
91             csum = lbs.ChecksumCreator().update(data).compute()
92             print "%s/%s:%d:%s" % (s, o, len(data), csum)
93     store.cleanup()
94
95 # Read a snapshot file
96 def cmd_read_snapshots(snapshots):
97     get_passphrase()
98     lowlevel = lbs.LowlevelDataStore(options.store)
99     store = lbs.ObjectStore(lowlevel)
100     for s in snapshots:
101         d = lbs.parse_full(store.load_snapshot(s))
102         print d
103         print d['Segments'].split()
104     store.cleanup()
105
106 # Produce a flattened metadata dump from a snapshot
107 def cmd_read_metadata(snapshot):
108     get_passphrase()
109     lowlevel = lbs.LowlevelDataStore(options.store)
110     store = lbs.ObjectStore(lowlevel)
111     d = lbs.parse_full(store.load_snapshot(snapshot))
112     metadata = lbs.read_metadata(store, d['Root'])
113     for l in metadata:
114         sys.stdout.write(l)
115     store.cleanup()
116
117 # Verify snapshot integrity
118 def cmd_verify_snapshots(snapshots):
119     get_passphrase()
120     lowlevel = lbs.LowlevelDataStore(options.store)
121     store = lbs.ObjectStore(lowlevel)
122     for s in snapshots:
123         print "#### Snapshot", s
124         d = lbs.parse_full(store.load_snapshot(s))
125         print "## Root:", d['Root']
126         metadata = lbs.iterate_metadata(store, d['Root'])
127         for m in metadata:
128             if m.fields['type'] != '-': continue
129             print "%s [%d bytes]" % (m.fields['name'], int(m.fields['size']))
130             verifier = lbs.ChecksumVerifier(m.fields['checksum'])
131             size = 0
132             for block in m.data():
133                 data = store.get(block)
134                 verifier.update(data)
135                 size += len(data)
136             if int(m.fields['size']) != size:
137                 raise ValueError("File size does not match!")
138             if not verifier.valid():
139                 raise ValueError("Bad checksum found")
140     store.cleanup()
141
142 # Restore a snapshot, or some subset of files from it
143 def cmd_restore_snapshot(args):
144     get_passphrase()
145     lowlevel = lbs.LowlevelDataStore(options.store)
146     store = lbs.ObjectStore(lowlevel)
147     snapshot = lbs.parse_full(store.load_snapshot(args[0]))
148     destdir = args[1]
149     paths = args[2:]
150
151     def warn(m, msg):
152         print "Warning: %s: %s" % (m.items.name, msg)
153
154     for m in lbs.iterate_metadata(store, snapshot['Root']):
155         pathname = os.path.normpath(m.items.name)
156         while os.path.isabs(pathname):
157             pathname = pathname[1:]
158         print pathname
159         destpath = os.path.join(destdir, pathname)
160         (path, filename) = os.path.split(destpath)
161
162         # TODO: Check for ../../../paths that might attempt to write outside
163         # the destination directory.  Maybe also check attempts to follow
164         # symlinks pointing outside?
165
166         try:
167             if not os.path.isdir(path):
168                 os.makedirs(path)
169
170             if m.items.type == '-':
171                 file = open(destpath, 'wb')
172                 verifier = lbs.ChecksumVerifier(m.items.checksum)
173                 size = 0
174                 for block in m.data():
175                     data = store.get(block)
176                     verifier.update(data)
177                     size += len(data)
178                     file.write(data)
179                 file.close()
180                 if int(m.fields['size']) != size:
181                     raise ValueError("File size does not match!")
182                 if not verifier.valid():
183                     raise ValueError("Bad checksum found")
184             elif m.items.type == 'd':
185                 if filename != '.':
186                     os.mkdir(destpath)
187             elif m.items.type == 'l':
188                 os.symlink(m.items.contents, destpath)
189             elif m.items.type == 'p':
190                 os.mkfifo(destpath)
191             elif m.items.type in ('c', 'b'):
192                 if m.items.type == 'c':
193                     mode = 0600 | stat.S_IFCHR
194                 else:
195                     mode = 0600 | stat.S_IFBLK
196                 os.mknod(destpath, mode, os.makedev(*m.items.device))
197             elif m.items.type == 's':
198                 pass        # TODO: Implement
199             else:
200                 warn(m, "Unknown type code: " + m.items.type)
201                 continue
202
203         except Exception, e:
204             warn(m, "Error restoring: %s" % (e,))
205             continue
206
207         try:
208             uid = m.items.user[0]
209             gid = m.items.group[0]
210             os.lchown(destpath, uid, gid)
211         except Exception, e:
212             warn(m, "Error restoring file ownership: %s" % (e,))
213
214         if m.items.type == 'l':
215             continue
216
217         try:
218             os.chmod(destpath, m.items.mode)
219         except Exception, e:
220             warn(m, "Error restoring file permissions: %s" % (e,))
221
222         try:
223             os.utime(destpath, (time.time(), m.items.mtime))
224         except Exception, e:
225             warn(m, "Error restoring file timestamps: %s" % (e,))
226
227     store.cleanup()
228
229 if len(args) == 0:
230     parser.print_usage()
231     sys.exit(1)
232 cmd = args[0]
233 args = args[1:]
234 if cmd == 'clean':
235     cmd_clean()
236 elif cmd == 'prune-db':
237     cmd_prune_db()
238 elif cmd == 'list-snapshots':
239     cmd_list_snapshots()
240 elif cmd == 'object-sums':
241     cmd_object_checksums(args)
242 elif cmd == 'read-snapshots':
243     cmd_read_snapshots(args)
244 elif cmd == 'read-metadata':
245     cmd_read_metadata(args[0])
246 elif cmd == 'list-snapshot-sizes':
247     cmd_list_snapshot_sizes()
248 elif cmd == 'verify-snapshots':
249     cmd_verify_snapshots(args)
250 elif cmd == 'restore-snapshot':
251     cmd_restore_snapshot(args)
252 else:
253     print "Unknown command:", cmd
254     parser.print_usage()
255     sys.exit(1)