Convert to sqlite3 module, from pysqlite2.
[cumulus.git] / store.cc
1 /* Cumulus: Efficient Filesystem Backup to the Cloud
2  * Copyright (C) 2008-2009 The Cumulus Developers
3  * See the AUTHORS file for a list of contributors.
4  *
5  * This program is free software; you can redistribute it and/or modify
6  * it under the terms of the GNU General Public License as published by
7  * the Free Software Foundation; either version 2 of the License, or
8  * (at your option) any later version.
9  *
10  * This program is distributed in the hope that it will be useful,
11  * but WITHOUT ANY WARRANTY; without even the implied warranty of
12  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
13  * GNU General Public License for more details.
14  *
15  * You should have received a copy of the GNU General Public License along
16  * with this program; if not, write to the Free Software Foundation, Inc.,
17  * 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA.
18  */
19
20 /* Backup data is stored in a collection of objects, which are grouped together
21  * into segments for storage purposes.  This implementation of the object store
22  * represents segments as TAR files and objects as files within them. */
23
24 #include <assert.h>
25 #include <errno.h>
26 #include <stdio.h>
27 #include <string.h>
28 #include <sys/types.h>
29 #include <sys/stat.h>
30 #include <sys/resource.h>
31 #include <sys/wait.h>
32 #include <unistd.h>
33 #include <fcntl.h>
34 #include <time.h>
35
36 #include <algorithm>
37 #include <list>
38 #include <map>
39 #include <set>
40 #include <string>
41 #include <iostream>
42
43 #include "hash.h"
44 #include "localdb.h"
45 #include "store.h"
46 #include "ref.h"
47 #include "util.h"
48
49 using std::max;
50 using std::list;
51 using std::map;
52 using std::pair;
53 using std::set;
54 using std::string;
55
56 /* Default filter program is bzip2 */
57 const char *filter_program = "bzip2 -c";
58 const char *filter_extension = ".bz2";
59
60 Tarfile::Tarfile(RemoteFile *file, const string &segment)
61     : size(0),
62       segment_name(segment)
63 {
64     assert(sizeof(struct tar_header) == TAR_BLOCK_SIZE);
65
66     this->file = file;
67     real_fd = file->get_fd();
68     filter_fd = spawn_filter(real_fd, filter_program, &filter_pid);
69 }
70
71 Tarfile::~Tarfile()
72 {
73     char buf[TAR_BLOCK_SIZE];
74
75     /* Append the EOF marker: two blocks filled with nulls. */
76     memset(buf, 0, sizeof(buf));
77     tar_write(buf, TAR_BLOCK_SIZE);
78     tar_write(buf, TAR_BLOCK_SIZE);
79
80     if (close(filter_fd) != 0)
81         fatal("Error closing Tarfile");
82
83     /* ...and wait for filter process to finish. */
84     int status;
85     waitpid(filter_pid, &status, 0);
86
87     if (!WIFEXITED(status) || WEXITSTATUS(status) != 0) {
88         fatal("Filter process error");
89     }
90
91     close(real_fd);
92 }
93
94 /* Launch a child process which can act as a filter (compress, encrypt, etc.)
95  * on the TAR output.  The file descriptor to which output should be written
96  * must be specified; the return value is the file descriptor which will be
97  * attached to the standard input of the filter program. */
98 int spawn_filter(int fd_out, const char *program, pid_t *filter_pid)
99 {
100     int fds[2];
101     pid_t pid;
102
103     /* Create a pipe for communicating with the filter process. */
104     if (pipe(fds) < 0) {
105         fatal("Unable to create pipe for filter");
106     }
107
108     /* Create a child process which can exec() the filter program. */
109     pid = fork();
110     if (pid < 0)
111         fatal("Unable to fork filter process");
112
113     if (pid > 0) {
114         /* Parent process */
115         close(fds[0]);
116         cloexec(fds[1]);
117         if (filter_pid != NULL)
118             *filter_pid = pid;
119     } else {
120         /* Child process.  Rearrange file descriptors.  stdin is fds[0], stdout
121          * is fd_out, stderr is unchanged. */
122         close(fds[1]);
123
124         if (dup2(fds[0], 0) < 0)
125             exit(1);
126         close(fds[0]);
127
128         if (dup2(fd_out, 1) < 0)
129             exit(1);
130         close(fd_out);
131
132         /* Exec the filter program. */
133         execlp("/bin/sh", "/bin/sh", "-c", program, NULL);
134
135         /* Should not reach here except for error cases. */
136         fprintf(stderr, "Could not exec filter: %m\n");
137         exit(1);
138     }
139
140     return fds[1];
141 }
142
143 void Tarfile::tar_write(const char *data, size_t len)
144 {
145     size += len;
146
147     while (len > 0) {
148         int res = write(filter_fd, data, len);
149
150         if (res < 0) {
151             if (errno == EINTR)
152                 continue;
153             fprintf(stderr, "Write error: %m\n");
154             fatal("Write error");
155         }
156
157         len -= res;
158         data += res;
159     }
160 }
161
162 void Tarfile::write_object(int id, const char *data, size_t len)
163 {
164     struct tar_header header;
165     memset(&header, 0, sizeof(header));
166
167     char buf[64];
168     sprintf(buf, "%08x", id);
169     string path = segment_name + "/" + buf;
170
171     assert(path.size() < 100);
172     memcpy(header.name, path.data(), path.size());
173     sprintf(header.mode, "%07o", 0600);
174     sprintf(header.uid, "%07o", 0);
175     sprintf(header.gid, "%07o", 0);
176     sprintf(header.size, "%011o", (int)len);
177     sprintf(header.mtime, "%011o", (int)time(NULL));
178     header.typeflag = '0';
179     strcpy(header.magic, "ustar  ");
180     strcpy(header.uname, "root");
181     strcpy(header.gname, "root");
182
183     memset(header.chksum, ' ', sizeof(header.chksum));
184     int checksum = 0;
185     for (int i = 0; i < TAR_BLOCK_SIZE; i++) {
186         checksum += ((uint8_t *)&header)[i];
187     }
188     sprintf(header.chksum, "%06o", checksum);
189
190     tar_write((const char *)&header, TAR_BLOCK_SIZE);
191
192     if (len == 0)
193         return;
194
195     tar_write(data, len);
196
197     char padbuf[TAR_BLOCK_SIZE];
198     size_t blocks = (len + TAR_BLOCK_SIZE - 1) / TAR_BLOCK_SIZE;
199     size_t padding = blocks * TAR_BLOCK_SIZE - len;
200     memset(padbuf, 0, padding);
201     tar_write(padbuf, padding);
202 }
203
204 /* Estimate the size based on the size of the actual output file on disk.
205  * However, it might be the case that the filter program is buffering all its
206  * data, and might potentially not write a single byte until we have closed
207  * our end of the pipe.  If we don't do so until we see data written, we have
208  * a problem.  So, arbitrarily pick an upper bound on the compression ratio
209  * that the filter will achieve (128:1), and return a size estimate which is
210  * the larger of a) bytes actually seen written to disk, and b) input
211  * bytes/128. */
212 size_t Tarfile::size_estimate()
213 {
214     struct stat statbuf;
215
216     if (fstat(real_fd, &statbuf) == 0)
217         return max((int64_t)statbuf.st_size, (int64_t)(size / 128));
218
219     /* Couldn't stat the file on disk, so just return the actual number of
220      * bytes, before compression. */
221     return size;
222 }
223
224 static const size_t SEGMENT_SIZE = 4 * 1024 * 1024;
225
226 /* Backup size summary: segment type -> (uncompressed size, compressed size) */
227 static map<string, pair<int64_t, int64_t> > group_sizes;
228
229 ObjectReference TarSegmentStore::write_object(const char *data, size_t len,
230                                               const std::string &group,
231                                               const std::string &checksum,
232                                               double age)
233 {
234     struct segment_info *segment;
235
236     // Find the segment into which the object should be written, looking up by
237     // group.  If no segment exists yet, create one.
238     if (segments.find(group) == segments.end()) {
239         segment = new segment_info;
240
241         segment->name = generate_uuid();
242         segment->group = group;
243         segment->basename = segment->name + ".tar";
244         segment->basename += filter_extension;
245         segment->count = 0;
246         segment->data_size = 0;
247         segment->rf = remote->alloc_file(segment->basename,
248                                          group == "metadata" ? "segments0"
249                                                              : "segments1");
250         segment->file = new Tarfile(segment->rf, segment->name);
251
252         segments[group] = segment;
253     } else {
254         segment = segments[group];
255     }
256
257     int id = segment->count;
258     char id_buf[64];
259     sprintf(id_buf, "%08x", id);
260
261     segment->file->write_object(id, data, len);
262     segment->count++;
263     segment->data_size += len;
264
265     group_sizes[group].first += len;
266
267     ObjectReference ref(segment->name, id_buf);
268     ref.set_range(0, len, true);
269     if (checksum.size() > 0)
270         ref.set_checksum(checksum);
271     if (db != NULL)
272         db->StoreObject(ref, age);
273
274     // If this segment meets or exceeds the size target, close it so that
275     // future objects will go into a new segment.
276     if (segment->file->size_estimate() >= SEGMENT_SIZE)
277         close_segment(group);
278
279     return ref;
280 }
281
282 void TarSegmentStore::sync()
283 {
284     while (!segments.empty())
285         close_segment(segments.begin()->first);
286 }
287
288 void TarSegmentStore::dump_stats()
289 {
290     printf("Data written:\n");
291     for (map<string, pair<int64_t, int64_t> >::iterator i = group_sizes.begin();
292          i != group_sizes.end(); ++i) {
293         printf("    %s: %lld (%lld compressed)\n", i->first.c_str(),
294                (long long)i->second.first, (long long)i->second.second);
295     }
296 }
297
298 void TarSegmentStore::close_segment(const string &group)
299 {
300     struct segment_info *segment = segments[group];
301
302     delete segment->file;
303
304     if (db != NULL) {
305         struct stat stat_buf;
306         int disk_size = 0;
307         if (stat(segment->rf->get_local_path().c_str(), &stat_buf) == 0) {
308             disk_size = stat_buf.st_size;
309             group_sizes[segment->group].second += disk_size;
310         }
311
312         SHA1Checksum segment_checksum;
313         string checksum;
314         if (segment_checksum.process_file(segment->rf->get_local_path().c_str())) {
315             checksum = segment_checksum.checksum_str();
316         }
317
318         db->SetSegmentMetadata(segment->name, segment->basename, checksum,
319                                group, segment->data_size, disk_size);
320     }
321
322     segment->rf->send();
323
324     segments.erase(segments.find(group));
325     delete segment;
326 }
327
328 string TarSegmentStore::object_reference_to_segment(const string &object)
329 {
330     return object;
331 }
332
333 LbsObject::LbsObject()
334     : group(""), age(0.0), data(NULL), data_len(0), written(false)
335 {
336 }
337
338 LbsObject::~LbsObject()
339 {
340 }
341
342 void LbsObject::set_data(const char *d, size_t len, const char *checksum)
343 {
344     data = d;
345     data_len = len;
346
347     if (checksum != NULL) {
348         this->checksum = checksum;
349     } else {
350         Hash *hash = Hash::New();
351         hash->update(data, data_len);
352         this->checksum = hash->digest_str();
353         delete hash;
354     }
355 }
356
357 void LbsObject::write(TarSegmentStore *store)
358 {
359     assert(data != NULL);
360     assert(!written);
361
362     ref = store->write_object(data, data_len, group, checksum, age);
363     written = true;
364 }