Statistics
| Branch: | Revision:

root / block / qed-check.c @ 7371d56f

History | View | Annotate | Download (6.5 kB)

1 01979a98 Stefan Hajnoczi
/*
2 01979a98 Stefan Hajnoczi
 * QEMU Enhanced Disk Format Consistency Check
3 01979a98 Stefan Hajnoczi
 *
4 01979a98 Stefan Hajnoczi
 * Copyright IBM, Corp. 2010
5 01979a98 Stefan Hajnoczi
 *
6 01979a98 Stefan Hajnoczi
 * Authors:
7 01979a98 Stefan Hajnoczi
 *  Stefan Hajnoczi   <stefanha@linux.vnet.ibm.com>
8 01979a98 Stefan Hajnoczi
 *
9 01979a98 Stefan Hajnoczi
 * This work is licensed under the terms of the GNU LGPL, version 2 or later.
10 01979a98 Stefan Hajnoczi
 * See the COPYING.LIB file in the top-level directory.
11 01979a98 Stefan Hajnoczi
 *
12 01979a98 Stefan Hajnoczi
 */
13 01979a98 Stefan Hajnoczi
14 01979a98 Stefan Hajnoczi
#include "qed.h"
15 01979a98 Stefan Hajnoczi
16 01979a98 Stefan Hajnoczi
typedef struct {
17 01979a98 Stefan Hajnoczi
    BDRVQEDState *s;
18 01979a98 Stefan Hajnoczi
    BdrvCheckResult *result;
19 01979a98 Stefan Hajnoczi
    bool fix;                           /* whether to fix invalid offsets */
20 01979a98 Stefan Hajnoczi
21 19dfc44a Stefan Hajnoczi
    uint64_t nclusters;
22 01979a98 Stefan Hajnoczi
    uint32_t *used_clusters;            /* referenced cluster bitmap */
23 01979a98 Stefan Hajnoczi
24 01979a98 Stefan Hajnoczi
    QEDRequest request;
25 01979a98 Stefan Hajnoczi
} QEDCheck;
26 01979a98 Stefan Hajnoczi
27 01979a98 Stefan Hajnoczi
static bool qed_test_bit(uint32_t *bitmap, uint64_t n) {
28 01979a98 Stefan Hajnoczi
    return !!(bitmap[n / 32] & (1 << (n % 32)));
29 01979a98 Stefan Hajnoczi
}
30 01979a98 Stefan Hajnoczi
31 01979a98 Stefan Hajnoczi
static void qed_set_bit(uint32_t *bitmap, uint64_t n) {
32 01979a98 Stefan Hajnoczi
    bitmap[n / 32] |= 1 << (n % 32);
33 01979a98 Stefan Hajnoczi
}
34 01979a98 Stefan Hajnoczi
35 01979a98 Stefan Hajnoczi
/**
36 01979a98 Stefan Hajnoczi
 * Set bitmap bits for clusters
37 01979a98 Stefan Hajnoczi
 *
38 01979a98 Stefan Hajnoczi
 * @check:          Check structure
39 01979a98 Stefan Hajnoczi
 * @offset:         Starting offset in bytes
40 01979a98 Stefan Hajnoczi
 * @n:              Number of clusters
41 01979a98 Stefan Hajnoczi
 */
42 01979a98 Stefan Hajnoczi
static bool qed_set_used_clusters(QEDCheck *check, uint64_t offset,
43 01979a98 Stefan Hajnoczi
                                  unsigned int n)
44 01979a98 Stefan Hajnoczi
{
45 01979a98 Stefan Hajnoczi
    uint64_t cluster = qed_bytes_to_clusters(check->s, offset);
46 01979a98 Stefan Hajnoczi
    unsigned int corruptions = 0;
47 01979a98 Stefan Hajnoczi
48 01979a98 Stefan Hajnoczi
    while (n-- != 0) {
49 01979a98 Stefan Hajnoczi
        /* Clusters should only be referenced once */
50 01979a98 Stefan Hajnoczi
        if (qed_test_bit(check->used_clusters, cluster)) {
51 01979a98 Stefan Hajnoczi
            corruptions++;
52 01979a98 Stefan Hajnoczi
        }
53 01979a98 Stefan Hajnoczi
54 01979a98 Stefan Hajnoczi
        qed_set_bit(check->used_clusters, cluster);
55 01979a98 Stefan Hajnoczi
        cluster++;
56 01979a98 Stefan Hajnoczi
    }
57 01979a98 Stefan Hajnoczi
58 01979a98 Stefan Hajnoczi
    check->result->corruptions += corruptions;
59 01979a98 Stefan Hajnoczi
    return corruptions == 0;
60 01979a98 Stefan Hajnoczi
}
61 01979a98 Stefan Hajnoczi
62 01979a98 Stefan Hajnoczi
/**
63 01979a98 Stefan Hajnoczi
 * Check an L2 table
64 01979a98 Stefan Hajnoczi
 *
65 01979a98 Stefan Hajnoczi
 * @ret:            Number of invalid cluster offsets
66 01979a98 Stefan Hajnoczi
 */
67 01979a98 Stefan Hajnoczi
static unsigned int qed_check_l2_table(QEDCheck *check, QEDTable *table)
68 01979a98 Stefan Hajnoczi
{
69 01979a98 Stefan Hajnoczi
    BDRVQEDState *s = check->s;
70 01979a98 Stefan Hajnoczi
    unsigned int i, num_invalid = 0;
71 11c9c615 Dong Xu Wang
    uint64_t last_offset = 0;
72 01979a98 Stefan Hajnoczi
73 01979a98 Stefan Hajnoczi
    for (i = 0; i < s->table_nelems; i++) {
74 01979a98 Stefan Hajnoczi
        uint64_t offset = table->offsets[i];
75 01979a98 Stefan Hajnoczi
76 21df65b6 Anthony Liguori
        if (qed_offset_is_unalloc_cluster(offset) ||
77 21df65b6 Anthony Liguori
            qed_offset_is_zero_cluster(offset)) {
78 01979a98 Stefan Hajnoczi
            continue;
79 01979a98 Stefan Hajnoczi
        }
80 11c9c615 Dong Xu Wang
        check->result->bfi.allocated_clusters++;
81 11c9c615 Dong Xu Wang
        if (last_offset && (last_offset + s->header.cluster_size != offset)) {
82 11c9c615 Dong Xu Wang
            check->result->bfi.fragmented_clusters++;
83 11c9c615 Dong Xu Wang
        }
84 11c9c615 Dong Xu Wang
        last_offset = offset;
85 01979a98 Stefan Hajnoczi
86 01979a98 Stefan Hajnoczi
        /* Detect invalid cluster offset */
87 01979a98 Stefan Hajnoczi
        if (!qed_check_cluster_offset(s, offset)) {
88 01979a98 Stefan Hajnoczi
            if (check->fix) {
89 01979a98 Stefan Hajnoczi
                table->offsets[i] = 0;
90 ccf34716 Kevin Wolf
                check->result->corruptions_fixed++;
91 01979a98 Stefan Hajnoczi
            } else {
92 01979a98 Stefan Hajnoczi
                check->result->corruptions++;
93 01979a98 Stefan Hajnoczi
            }
94 01979a98 Stefan Hajnoczi
95 01979a98 Stefan Hajnoczi
            num_invalid++;
96 01979a98 Stefan Hajnoczi
            continue;
97 01979a98 Stefan Hajnoczi
        }
98 01979a98 Stefan Hajnoczi
99 01979a98 Stefan Hajnoczi
        qed_set_used_clusters(check, offset, 1);
100 01979a98 Stefan Hajnoczi
    }
101 01979a98 Stefan Hajnoczi
102 01979a98 Stefan Hajnoczi
    return num_invalid;
103 01979a98 Stefan Hajnoczi
}
104 01979a98 Stefan Hajnoczi
105 01979a98 Stefan Hajnoczi
/**
106 01979a98 Stefan Hajnoczi
 * Descend tables and check each cluster is referenced once only
107 01979a98 Stefan Hajnoczi
 */
108 01979a98 Stefan Hajnoczi
static int qed_check_l1_table(QEDCheck *check, QEDTable *table)
109 01979a98 Stefan Hajnoczi
{
110 01979a98 Stefan Hajnoczi
    BDRVQEDState *s = check->s;
111 01979a98 Stefan Hajnoczi
    unsigned int i, num_invalid_l1 = 0;
112 01979a98 Stefan Hajnoczi
    int ret, last_error = 0;
113 01979a98 Stefan Hajnoczi
114 01979a98 Stefan Hajnoczi
    /* Mark L1 table clusters used */
115 01979a98 Stefan Hajnoczi
    qed_set_used_clusters(check, s->header.l1_table_offset,
116 01979a98 Stefan Hajnoczi
                          s->header.table_size);
117 01979a98 Stefan Hajnoczi
118 01979a98 Stefan Hajnoczi
    for (i = 0; i < s->table_nelems; i++) {
119 01979a98 Stefan Hajnoczi
        unsigned int num_invalid_l2;
120 01979a98 Stefan Hajnoczi
        uint64_t offset = table->offsets[i];
121 01979a98 Stefan Hajnoczi
122 21df65b6 Anthony Liguori
        if (qed_offset_is_unalloc_cluster(offset)) {
123 01979a98 Stefan Hajnoczi
            continue;
124 01979a98 Stefan Hajnoczi
        }
125 01979a98 Stefan Hajnoczi
126 01979a98 Stefan Hajnoczi
        /* Detect invalid L2 offset */
127 01979a98 Stefan Hajnoczi
        if (!qed_check_table_offset(s, offset)) {
128 01979a98 Stefan Hajnoczi
            /* Clear invalid offset */
129 01979a98 Stefan Hajnoczi
            if (check->fix) {
130 01979a98 Stefan Hajnoczi
                table->offsets[i] = 0;
131 ccf34716 Kevin Wolf
                check->result->corruptions_fixed++;
132 01979a98 Stefan Hajnoczi
            } else {
133 01979a98 Stefan Hajnoczi
                check->result->corruptions++;
134 01979a98 Stefan Hajnoczi
            }
135 01979a98 Stefan Hajnoczi
136 01979a98 Stefan Hajnoczi
            num_invalid_l1++;
137 01979a98 Stefan Hajnoczi
            continue;
138 01979a98 Stefan Hajnoczi
        }
139 01979a98 Stefan Hajnoczi
140 01979a98 Stefan Hajnoczi
        if (!qed_set_used_clusters(check, offset, s->header.table_size)) {
141 01979a98 Stefan Hajnoczi
            continue; /* skip an invalid table */
142 01979a98 Stefan Hajnoczi
        }
143 01979a98 Stefan Hajnoczi
144 01979a98 Stefan Hajnoczi
        ret = qed_read_l2_table_sync(s, &check->request, offset);
145 01979a98 Stefan Hajnoczi
        if (ret) {
146 01979a98 Stefan Hajnoczi
            check->result->check_errors++;
147 01979a98 Stefan Hajnoczi
            last_error = ret;
148 01979a98 Stefan Hajnoczi
            continue;
149 01979a98 Stefan Hajnoczi
        }
150 01979a98 Stefan Hajnoczi
151 01979a98 Stefan Hajnoczi
        num_invalid_l2 = qed_check_l2_table(check,
152 01979a98 Stefan Hajnoczi
                                            check->request.l2_table->table);
153 01979a98 Stefan Hajnoczi
154 01979a98 Stefan Hajnoczi
        /* Write out fixed L2 table */
155 01979a98 Stefan Hajnoczi
        if (num_invalid_l2 > 0 && check->fix) {
156 01979a98 Stefan Hajnoczi
            ret = qed_write_l2_table_sync(s, &check->request, 0,
157 01979a98 Stefan Hajnoczi
                                          s->table_nelems, false);
158 01979a98 Stefan Hajnoczi
            if (ret) {
159 01979a98 Stefan Hajnoczi
                check->result->check_errors++;
160 01979a98 Stefan Hajnoczi
                last_error = ret;
161 01979a98 Stefan Hajnoczi
                continue;
162 01979a98 Stefan Hajnoczi
            }
163 01979a98 Stefan Hajnoczi
        }
164 01979a98 Stefan Hajnoczi
    }
165 01979a98 Stefan Hajnoczi
166 01979a98 Stefan Hajnoczi
    /* Drop reference to final table */
167 01979a98 Stefan Hajnoczi
    qed_unref_l2_cache_entry(check->request.l2_table);
168 01979a98 Stefan Hajnoczi
    check->request.l2_table = NULL;
169 01979a98 Stefan Hajnoczi
170 01979a98 Stefan Hajnoczi
    /* Write out fixed L1 table */
171 01979a98 Stefan Hajnoczi
    if (num_invalid_l1 > 0 && check->fix) {
172 01979a98 Stefan Hajnoczi
        ret = qed_write_l1_table_sync(s, 0, s->table_nelems);
173 01979a98 Stefan Hajnoczi
        if (ret) {
174 01979a98 Stefan Hajnoczi
            check->result->check_errors++;
175 01979a98 Stefan Hajnoczi
            last_error = ret;
176 01979a98 Stefan Hajnoczi
        }
177 01979a98 Stefan Hajnoczi
    }
178 01979a98 Stefan Hajnoczi
179 01979a98 Stefan Hajnoczi
    return last_error;
180 01979a98 Stefan Hajnoczi
}
181 01979a98 Stefan Hajnoczi
182 01979a98 Stefan Hajnoczi
/**
183 01979a98 Stefan Hajnoczi
 * Check for unreferenced (leaked) clusters
184 01979a98 Stefan Hajnoczi
 */
185 01979a98 Stefan Hajnoczi
static void qed_check_for_leaks(QEDCheck *check)
186 01979a98 Stefan Hajnoczi
{
187 01979a98 Stefan Hajnoczi
    BDRVQEDState *s = check->s;
188 19dfc44a Stefan Hajnoczi
    uint64_t i;
189 01979a98 Stefan Hajnoczi
190 01979a98 Stefan Hajnoczi
    for (i = s->header.header_size; i < check->nclusters; i++) {
191 01979a98 Stefan Hajnoczi
        if (!qed_test_bit(check->used_clusters, i)) {
192 01979a98 Stefan Hajnoczi
            check->result->leaks++;
193 01979a98 Stefan Hajnoczi
        }
194 01979a98 Stefan Hajnoczi
    }
195 01979a98 Stefan Hajnoczi
}
196 01979a98 Stefan Hajnoczi
197 b10170ac Stefan Hajnoczi
/**
198 b10170ac Stefan Hajnoczi
 * Mark an image clean once it passes check or has been repaired
199 b10170ac Stefan Hajnoczi
 */
200 b10170ac Stefan Hajnoczi
static void qed_check_mark_clean(BDRVQEDState *s, BdrvCheckResult *result)
201 b10170ac Stefan Hajnoczi
{
202 b10170ac Stefan Hajnoczi
    /* Skip if there were unfixable corruptions or I/O errors */
203 b10170ac Stefan Hajnoczi
    if (result->corruptions > 0 || result->check_errors > 0) {
204 b10170ac Stefan Hajnoczi
        return;
205 b10170ac Stefan Hajnoczi
    }
206 b10170ac Stefan Hajnoczi
207 b10170ac Stefan Hajnoczi
    /* Skip if image is already marked clean */
208 b10170ac Stefan Hajnoczi
    if (!(s->header.features & QED_F_NEED_CHECK)) {
209 b10170ac Stefan Hajnoczi
        return;
210 b10170ac Stefan Hajnoczi
    }
211 b10170ac Stefan Hajnoczi
212 b10170ac Stefan Hajnoczi
    /* Ensure fixes reach storage before clearing check bit */
213 b10170ac Stefan Hajnoczi
    bdrv_flush(s->bs);
214 b10170ac Stefan Hajnoczi
215 b10170ac Stefan Hajnoczi
    s->header.features &= ~QED_F_NEED_CHECK;
216 b10170ac Stefan Hajnoczi
    qed_write_header_sync(s);
217 b10170ac Stefan Hajnoczi
}
218 b10170ac Stefan Hajnoczi
219 01979a98 Stefan Hajnoczi
int qed_check(BDRVQEDState *s, BdrvCheckResult *result, bool fix)
220 01979a98 Stefan Hajnoczi
{
221 01979a98 Stefan Hajnoczi
    QEDCheck check = {
222 01979a98 Stefan Hajnoczi
        .s = s,
223 01979a98 Stefan Hajnoczi
        .result = result,
224 01979a98 Stefan Hajnoczi
        .nclusters = qed_bytes_to_clusters(s, s->file_size),
225 01979a98 Stefan Hajnoczi
        .request = { .l2_table = NULL },
226 01979a98 Stefan Hajnoczi
        .fix = fix,
227 01979a98 Stefan Hajnoczi
    };
228 01979a98 Stefan Hajnoczi
    int ret;
229 01979a98 Stefan Hajnoczi
230 7267c094 Anthony Liguori
    check.used_clusters = g_malloc0(((check.nclusters + 31) / 32) *
231 01979a98 Stefan Hajnoczi
                                       sizeof(check.used_clusters[0]));
232 01979a98 Stefan Hajnoczi
233 11c9c615 Dong Xu Wang
    check.result->bfi.total_clusters =
234 11c9c615 Dong Xu Wang
        (s->header.image_size + s->header.cluster_size - 1) /
235 11c9c615 Dong Xu Wang
            s->header.cluster_size;
236 01979a98 Stefan Hajnoczi
    ret = qed_check_l1_table(&check, s->l1_table);
237 01979a98 Stefan Hajnoczi
    if (ret == 0) {
238 01979a98 Stefan Hajnoczi
        /* Only check for leaks if entire image was scanned successfully */
239 01979a98 Stefan Hajnoczi
        qed_check_for_leaks(&check);
240 b10170ac Stefan Hajnoczi
241 b10170ac Stefan Hajnoczi
        if (fix) {
242 b10170ac Stefan Hajnoczi
            qed_check_mark_clean(s, result);
243 b10170ac Stefan Hajnoczi
        }
244 01979a98 Stefan Hajnoczi
    }
245 01979a98 Stefan Hajnoczi
246 7267c094 Anthony Liguori
    g_free(check.used_clusters);
247 01979a98 Stefan Hajnoczi
    return ret;
248 01979a98 Stefan Hajnoczi
}