6bb474992406c67e060d0ac8ff6fc153a5d84bd8
[cumulus.git] / cumulus-util
1 #!/usr/bin/python
2 #
3 # Utility for managing Cumulus archives.
4
5 import getpass, os, stat, sys, time
6 from optparse import OptionParser
7
8 # Automatically set Python path, based on script directory.  This should be
9 # removed if the tools are properly installed somewhere.
10 script_directory = os.path.dirname(sys.argv[0])
11 sys.path.append(os.path.join(script_directory, 'python'))
12
13 import cumulus
14
15 # Compatibility
16 lbs = cumulus
17
18 # We support up to "LBS Snapshot v0.8" formats, but are also limited by the lbs
19 # module.
20 FORMAT_VERSION = min(lbs.FORMAT_VERSION, (0, 8))
21
22 def check_version(format):
23     ver = lbs.parse_metadata_version(format)
24     if ver > FORMAT_VERSION:
25         raise RuntimeError("Unsupported LBS format: " + format)
26
27 parser = OptionParser(usage="%prog [option]... command [arg]...")
28 parser.add_option("-v", action="store_true", dest="verbose", default=False,
29                   help="increase verbosity")
30 parser.add_option("--store", dest="store",
31                   help="specify path to backup data store")
32 parser.add_option("--localdb", dest="localdb",
33                   help="specify path to local database")
34 parser.add_option("--intent", dest="intent", default=1.0,
35                   help="give expected next snapshot type when cleaning")
36 (options, args) = parser.parse_args(sys.argv[1:])
37
38 # Read a passphrase from the user and store it in the LBS_GPG_PASSPHRASE
39 # environment variable.
40 def get_passphrase():
41     ENV_KEY = 'LBS_GPG_PASSPHRASE'
42     if not os.environ.has_key(ENV_KEY):
43         os.environ[ENV_KEY] = getpass.getpass()
44
45 # Delete old snapshots from the local database, though do not actually schedule
46 # any segment cleaning.
47 # Syntax: $0 --localdb=LOCALDB prune-db
48 def cmd_prune_db():
49     db = lbs.LocalDatabase(options.localdb)
50
51     # Delete old snapshots from the local database.
52     #db.garbage_collect()
53     #db.commit()
54
55 # Run the segment cleaner.
56 # Syntax: $0 --localdb=LOCALDB clean
57 def cmd_clean(clean_threshold=7.0):
58     db = lbs.LocalDatabase(options.localdb)
59
60     # Delete old snapshots from the local database.
61     intent = float(options.intent)
62     for s in db.list_schemes():
63         db.garbage_collect(s, intent)
64
65     # Expire segments which are poorly-utilized.
66     for s in db.get_segment_cleaning_list():
67         if s.cleaning_benefit > clean_threshold:
68             print "Cleaning segment %d (benefit %.2f)" % (s.id,
69                                                           s.cleaning_benefit)
70             db.mark_segment_expired(s)
71         else:
72             break
73     db.balance_expired_objects()
74     db.commit()
75
76 # List snapshots stored.
77 # Syntax: $0 --data=DATADIR list-snapshots
78 def cmd_list_snapshots():
79     store = lbs.LowlevelDataStore(options.store)
80     for s in sorted(store.list_snapshots()):
81         print s
82
83 # List size of data needed for each snapshot.
84 # Syntax: $0 --data=DATADIR list-snapshot-sizes
85 def cmd_list_snapshot_sizes():
86     lowlevel = lbs.LowlevelDataStore(options.store)
87     store = lbs.ObjectStore(lowlevel)
88     previous = set()
89     for s in sorted(lowlevel.list_snapshots()):
90         d = lbs.parse_full(store.load_snapshot(s))
91         check_version(d['Format'])
92
93         try:
94             intent = float(d['Backup-Intent'])
95         except:
96             intent = 1.0
97
98         segments = d['Segments'].split()
99         (size, added, removed, addcount, remcount) = (0, 0, 0, 0, 0)
100         for seg in segments:
101             segsize = lowlevel.lowlevel_stat(seg + ".tar.gpg")['size']
102             size += segsize
103             if seg not in previous:
104                 added += segsize
105                 addcount += 1
106         for seg in previous:
107             if seg not in segments:
108                 removed += lowlevel.lowlevel_stat(seg + ".tar.gpg")['size']
109                 remcount += 1
110         previous = set(segments)
111         print "%s [%s]: %.3f +%.3f -%.3f (+%d/-%d segments)" % (s, intent, size / 1024.0**2, added / 1024.0**2, removed / 1024.0**2, addcount, remcount)
112
113 # Build checksum list for objects in the given segments, or all segments if
114 # none are specified.
115 def cmd_object_checksums(segments):
116     get_passphrase()
117     lowlevel = lbs.LowlevelDataStore(options.store)
118     store = lbs.ObjectStore(lowlevel)
119     if len(segments) == 0:
120         segments = sorted(lowlevel.list_segments())
121     for s in segments:
122         for (o, data) in store.load_segment(s):
123             csum = lbs.ChecksumCreator().update(data).compute()
124             print "%s/%s:%d:%s" % (s, o, len(data), csum)
125     store.cleanup()
126
127 # Read a snapshot file
128 def cmd_read_snapshots(snapshots):
129     get_passphrase()
130     lowlevel = lbs.LowlevelDataStore(options.store)
131     store = lbs.ObjectStore(lowlevel)
132     for s in snapshots:
133         d = lbs.parse_full(store.load_snapshot(s))
134         check_version(d['Format'])
135         print d
136         print d['Segments'].split()
137     store.cleanup()
138
139 # Produce a flattened metadata dump from a snapshot
140 def cmd_read_metadata(snapshot):
141     get_passphrase()
142     lowlevel = lbs.LowlevelDataStore(options.store)
143     store = lbs.ObjectStore(lowlevel)
144     d = lbs.parse_full(store.load_snapshot(snapshot))
145     check_version(d['Format'])
146     metadata = lbs.read_metadata(store, d['Root'])
147     blank = True
148     for l in metadata:
149         if l == '\n':
150             if blank: continue
151             blank = True
152         else:
153             blank = False
154         sys.stdout.write(l)
155     store.cleanup()
156
157 # Verify snapshot integrity
158 def cmd_verify_snapshots(snapshots):
159     get_passphrase()
160     lowlevel = lbs.LowlevelDataStore(options.store)
161     store = lbs.ObjectStore(lowlevel)
162     for s in snapshots:
163         lbs.accessed_segments.clear()
164         print "#### Snapshot", s
165         d = lbs.parse_full(store.load_snapshot(s))
166         check_version(d['Format'])
167         print "## Root:", d['Root']
168         metadata = lbs.iterate_metadata(store, d['Root'])
169         for m in metadata:
170             if m.fields['type'] not in ('-', 'f'): continue
171             print "%s [%d bytes]" % (m.fields['name'], int(m.fields['size']))
172             verifier = lbs.ChecksumVerifier(m.fields['checksum'])
173             size = 0
174             for block in m.data():
175                 data = store.get(block)
176                 verifier.update(data)
177                 size += len(data)
178             if int(m.fields['size']) != size:
179                 raise ValueError("File size does not match!")
180             if not verifier.valid():
181                 raise ValueError("Bad checksum found")
182
183         # Verify that the list of segments included with the snapshot was
184         # actually accurate: covered all segments that were really read, and
185         # doesn't contain duplicates.
186         listed_segments = set(d['Segments'].split())
187         if lbs.accessed_segments - listed_segments:
188             print "Error: Some segments not listed in descriptor!"
189             print sorted(list(lbs.accessed_segments - listed_segments))
190         if listed_segments - lbs.accessed_segments :
191             print "Warning: Extra unused segments listed in descriptor!"
192             print sorted(list(listed_segments - lbs.accessed_segments))
193     store.cleanup()
194
195 # Restore a snapshot, or some subset of files from it
196 def cmd_restore_snapshot(args):
197     get_passphrase()
198     lowlevel = lbs.LowlevelDataStore(options.store)
199     store = lbs.ObjectStore(lowlevel)
200     snapshot = lbs.parse_full(store.load_snapshot(args[0]))
201     check_version(snapshot['Format'])
202     destdir = args[1]
203     paths = args[2:]
204
205     def matchpath(path):
206         "Return true if the specified path should be included in the restore."
207
208         # No specification of what to restore => restore everything
209         if len(paths) == 0: return True
210
211         for p in paths:
212             if path == p: return True
213             if path.startswith(p + "/"): return True
214         return False
215
216     def warn(m, msg):
217         print "Warning: %s: %s" % (m.items.name, msg)
218
219     # Phase 1: Read the complete metadata log and create directory structure.
220     metadata_items = []
221     metadata_paths = {}
222     metadata_segments = {}
223     for m in lbs.iterate_metadata(store, snapshot['Root']):
224         pathname = os.path.normpath(m.items.name)
225         while os.path.isabs(pathname):
226             pathname = pathname[1:]
227         if not matchpath(pathname): continue
228
229         destpath = os.path.join(destdir, pathname)
230         if m.items.type == 'd':
231             path = destpath
232         else:
233             (path, filename) = os.path.split(destpath)
234
235         metadata_items.append((pathname, m))
236         if m.items.type in ('-', 'f'):
237             metadata_paths[pathname] = m
238             for block in m.data():
239                 (segment, object, checksum, slice) \
240                     = lbs.ObjectStore.parse_ref(block)
241                 if segment not in metadata_segments:
242                     metadata_segments[segment] = set()
243                 metadata_segments[segment].add(pathname)
244
245         try:
246             if not os.path.isdir(path):
247                 print "mkdir:", path
248                 os.makedirs(path)
249         except Exception, e:
250             warn(m, "Error creating directory structure: %s" % (e,))
251             continue
252
253     # Phase 2: Restore files, ordered by how data is stored in segments.
254     def restore_file(pathname, m):
255         assert m.items.type in ('-', 'f')
256         print "extract:", pathname
257         destpath = os.path.join(destdir, pathname)
258
259         file = open(destpath, 'wb')
260         verifier = lbs.ChecksumVerifier(m.items.checksum)
261         size = 0
262         for block in m.data():
263             data = store.get(block)
264             verifier.update(data)
265             size += len(data)
266             file.write(data)
267         file.close()
268         if int(m.fields['size']) != size:
269             raise ValueError("File size does not match!")
270         if not verifier.valid():
271             raise ValueError("Bad checksum found")
272
273     while metadata_segments:
274         (segment, items) = metadata_segments.popitem()
275         print "+ Segment", segment
276         for pathname in sorted(items):
277             if pathname in metadata_paths:
278                 restore_file(pathname, metadata_paths[pathname])
279                 del metadata_paths[pathname]
280
281     print "+ Remaining files"
282     while metadata_paths:
283         (pathname, m) = metadata_paths.popitem()
284         restore_file(pathname, m)
285
286     # Phase 3: Restore special files (symlinks, devices).
287     # Phase 4: Restore directory permissions and modification times.
288     for (pathname, m) in reversed(metadata_items):
289         print "permissions:", pathname
290         destpath = os.path.join(destdir, pathname)
291         (path, filename) = os.path.split(destpath)
292
293         # TODO: Check for ../../../paths that might attempt to write outside
294         # the destination directory.  Maybe also check attempts to follow
295         # symlinks pointing outside?
296
297         try:
298             if m.items.type in ('-', 'f', 'd'):
299                 pass
300             elif m.items.type == 'l':
301                 try:
302                     target = m.items.target
303                 except:
304                     # Old (v0.2 format) name for 'target'
305                     target = m.items.contents
306                 os.symlink(target, destpath)
307             elif m.items.type == 'p':
308                 os.mkfifo(destpath)
309             elif m.items.type in ('c', 'b'):
310                 if m.items.type == 'c':
311                     mode = 0600 | stat.S_IFCHR
312                 else:
313                     mode = 0600 | stat.S_IFBLK
314                 os.mknod(destpath, mode, os.makedev(*m.items.device))
315             elif m.items.type == 's':
316                 pass        # TODO: Implement
317             else:
318                 warn(m, "Unknown type code: " + m.items.type)
319                 continue
320
321         except Exception, e:
322             warn(m, "Error restoring: %s" % (e,))
323             continue
324
325         try:
326             uid = m.items.user[0]
327             gid = m.items.group[0]
328             os.lchown(destpath, uid, gid)
329         except Exception, e:
330             warn(m, "Error restoring file ownership: %s" % (e,))
331
332         if m.items.type == 'l':
333             continue
334
335         try:
336             os.chmod(destpath, m.items.mode)
337         except Exception, e:
338             warn(m, "Error restoring file permissions: %s" % (e,))
339
340         try:
341             os.utime(destpath, (time.time(), m.items.mtime))
342         except Exception, e:
343             warn(m, "Error restoring file timestamps: %s" % (e,))
344
345     store.cleanup()
346
347 if len(args) == 0:
348     parser.print_usage()
349     sys.exit(1)
350 cmd = args[0]
351 args = args[1:]
352 if cmd == 'clean':
353     cmd_clean()
354 elif cmd == 'prune-db':
355     cmd_prune_db()
356 elif cmd == 'list-snapshots':
357     cmd_list_snapshots()
358 elif cmd == 'object-sums':
359     cmd_object_checksums(args)
360 elif cmd == 'read-snapshots':
361     cmd_read_snapshots(args)
362 elif cmd == 'read-metadata':
363     cmd_read_metadata(args[0])
364 elif cmd == 'list-snapshot-sizes':
365     cmd_list_snapshot_sizes()
366 elif cmd == 'verify-snapshots':
367     cmd_verify_snapshots(args)
368 elif cmd == 'restore-snapshot':
369     cmd_restore_snapshot(args)
370 else:
371     print "Unknown command:", cmd
372     parser.print_usage()
373     sys.exit(1)