]> git.sesse.net Git - bcachefs-tools-debian/blob - libbcachefs/bkey.c
Update bcachefs sources to b91a514413 bcachefs: Don't try to delete stripes when RO
[bcachefs-tools-debian] / libbcachefs / bkey.c
1 // SPDX-License-Identifier: GPL-2.0
2
3 #include "bcachefs.h"
4 #include "bkey.h"
5 #include "bkey_methods.h"
6 #include "bset.h"
7 #include "util.h"
8
9 #undef EBUG_ON
10
11 #ifdef DEBUG_BKEYS
12 #define EBUG_ON(cond)           BUG_ON(cond)
13 #else
14 #define EBUG_ON(cond)
15 #endif
16
17 const struct bkey_format bch2_bkey_format_current = BKEY_FORMAT_CURRENT;
18
19 struct bkey __bch2_bkey_unpack_key(const struct bkey_format *,
20                               const struct bkey_packed *);
21
22 void bch2_to_binary(char *out, const u64 *p, unsigned nr_bits)
23 {
24         unsigned bit = high_bit_offset, done = 0;
25
26         while (1) {
27                 while (bit < 64) {
28                         if (done && !(done % 8))
29                                 *out++ = ' ';
30                         *out++ = *p & (1ULL << (63 - bit)) ? '1' : '0';
31                         bit++;
32                         done++;
33                         if (done == nr_bits) {
34                                 *out++ = '\0';
35                                 return;
36                         }
37                 }
38
39                 p = next_word(p);
40                 bit = 0;
41         }
42 }
43
44 #ifdef CONFIG_BCACHEFS_DEBUG
45
46 static void bch2_bkey_pack_verify(const struct bkey_packed *packed,
47                                  const struct bkey *unpacked,
48                                  const struct bkey_format *format)
49 {
50         struct bkey tmp;
51
52         BUG_ON(bkeyp_val_u64s(format, packed) !=
53                bkey_val_u64s(unpacked));
54
55         BUG_ON(packed->u64s < bkeyp_key_u64s(format, packed));
56
57         tmp = __bch2_bkey_unpack_key(format, packed);
58
59         if (memcmp(&tmp, unpacked, sizeof(struct bkey))) {
60                 char buf1[160], buf2[160];
61                 char buf3[160], buf4[160];
62
63                 bch2_bkey_to_text(&PBUF(buf1), unpacked);
64                 bch2_bkey_to_text(&PBUF(buf2), &tmp);
65                 bch2_to_binary(buf3, (void *) unpacked, 80);
66                 bch2_to_binary(buf4, high_word(format, packed), 80);
67
68                 panic("keys differ: format u64s %u fields %u %u %u %u %u\n%s\n%s\n%s\n%s\n",
69                       format->key_u64s,
70                       format->bits_per_field[0],
71                       format->bits_per_field[1],
72                       format->bits_per_field[2],
73                       format->bits_per_field[3],
74                       format->bits_per_field[4],
75                       buf1, buf2, buf3, buf4);
76         }
77 }
78
79 #else
80 static inline void bch2_bkey_pack_verify(const struct bkey_packed *packed,
81                                         const struct bkey *unpacked,
82                                         const struct bkey_format *format) {}
83 #endif
84
85 struct pack_state {
86         const struct bkey_format *format;
87         unsigned                bits;   /* bits remaining in current word */
88         u64                     w;      /* current word */
89         u64                     *p;     /* pointer to next word */
90 };
91
92 __always_inline
93 static struct pack_state pack_state_init(const struct bkey_format *format,
94                                          struct bkey_packed *k)
95 {
96         u64 *p = high_word(format, k);
97
98         return (struct pack_state) {
99                 .format = format,
100                 .bits   = 64 - high_bit_offset,
101                 .w      = 0,
102                 .p      = p,
103         };
104 }
105
106 __always_inline
107 static void pack_state_finish(struct pack_state *state,
108                               struct bkey_packed *k)
109 {
110         EBUG_ON(state->p <  k->_data);
111         EBUG_ON(state->p >= k->_data + state->format->key_u64s);
112
113         *state->p = state->w;
114 }
115
116 struct unpack_state {
117         const struct bkey_format *format;
118         unsigned                bits;   /* bits remaining in current word */
119         u64                     w;      /* current word */
120         const u64               *p;     /* pointer to next word */
121 };
122
123 __always_inline
124 static struct unpack_state unpack_state_init(const struct bkey_format *format,
125                                              const struct bkey_packed *k)
126 {
127         const u64 *p = high_word(format, k);
128
129         return (struct unpack_state) {
130                 .format = format,
131                 .bits   = 64 - high_bit_offset,
132                 .w      = *p << high_bit_offset,
133                 .p      = p,
134         };
135 }
136
137 __always_inline
138 static u64 get_inc_field(struct unpack_state *state, unsigned field)
139 {
140         unsigned bits = state->format->bits_per_field[field];
141         u64 v = 0, offset = le64_to_cpu(state->format->field_offset[field]);
142
143         if (bits >= state->bits) {
144                 v = state->w >> (64 - bits);
145                 bits -= state->bits;
146
147                 state->p = next_word(state->p);
148                 state->w = *state->p;
149                 state->bits = 64;
150         }
151
152         /* avoid shift by 64 if bits is 0 - bits is never 64 here: */
153         v |= (state->w >> 1) >> (63 - bits);
154         state->w <<= bits;
155         state->bits -= bits;
156
157         return v + offset;
158 }
159
160 __always_inline
161 static bool set_inc_field(struct pack_state *state, unsigned field, u64 v)
162 {
163         unsigned bits = state->format->bits_per_field[field];
164         u64 offset = le64_to_cpu(state->format->field_offset[field]);
165
166         if (v < offset)
167                 return false;
168
169         v -= offset;
170
171         if (fls64(v) > bits)
172                 return false;
173
174         if (bits > state->bits) {
175                 bits -= state->bits;
176                 /* avoid shift by 64 if bits is 0 - bits is never 64 here: */
177                 state->w |= (v >> 1) >> (bits - 1);
178
179                 *state->p = state->w;
180                 state->p = next_word(state->p);
181                 state->w = 0;
182                 state->bits = 64;
183         }
184
185         state->bits -= bits;
186         state->w |= v << state->bits;
187
188         return true;
189 }
190
191 /*
192  * Note: does NOT set out->format (we don't know what it should be here!)
193  *
194  * Also: doesn't work on extents - it doesn't preserve the invariant that
195  * if k is packed bkey_start_pos(k) will successfully pack
196  */
197 static bool bch2_bkey_transform_key(const struct bkey_format *out_f,
198                                    struct bkey_packed *out,
199                                    const struct bkey_format *in_f,
200                                    const struct bkey_packed *in)
201 {
202         struct pack_state out_s = pack_state_init(out_f, out);
203         struct unpack_state in_s = unpack_state_init(in_f, in);
204         unsigned i;
205
206         out->_data[0] = 0;
207
208         for (i = 0; i < BKEY_NR_FIELDS; i++)
209                 if (!set_inc_field(&out_s, i, get_inc_field(&in_s, i)))
210                         return false;
211
212         /* Can't happen because the val would be too big to unpack: */
213         EBUG_ON(in->u64s - in_f->key_u64s + out_f->key_u64s > U8_MAX);
214
215         pack_state_finish(&out_s, out);
216         out->u64s       = out_f->key_u64s + in->u64s - in_f->key_u64s;
217         out->needs_whiteout = in->needs_whiteout;
218         out->type       = in->type;
219
220         return true;
221 }
222
223 bool bch2_bkey_transform(const struct bkey_format *out_f,
224                         struct bkey_packed *out,
225                         const struct bkey_format *in_f,
226                         const struct bkey_packed *in)
227 {
228         if (!bch2_bkey_transform_key(out_f, out, in_f, in))
229                 return false;
230
231         memcpy_u64s((u64 *) out + out_f->key_u64s,
232                     (u64 *) in + in_f->key_u64s,
233                     (in->u64s - in_f->key_u64s));
234         return true;
235 }
236
237 #define bkey_fields()                                                   \
238         x(BKEY_FIELD_INODE,             p.inode)                        \
239         x(BKEY_FIELD_OFFSET,            p.offset)                       \
240         x(BKEY_FIELD_SNAPSHOT,          p.snapshot)                     \
241         x(BKEY_FIELD_SIZE,              size)                           \
242         x(BKEY_FIELD_VERSION_HI,        version.hi)                     \
243         x(BKEY_FIELD_VERSION_LO,        version.lo)
244
245 struct bkey __bch2_bkey_unpack_key(const struct bkey_format *format,
246                               const struct bkey_packed *in)
247 {
248         struct unpack_state state = unpack_state_init(format, in);
249         struct bkey out;
250
251         EBUG_ON(format->nr_fields != BKEY_NR_FIELDS);
252         EBUG_ON(in->u64s < format->key_u64s);
253         EBUG_ON(in->format != KEY_FORMAT_LOCAL_BTREE);
254         EBUG_ON(in->u64s - format->key_u64s + BKEY_U64s > U8_MAX);
255
256         out.u64s        = BKEY_U64s + in->u64s - format->key_u64s;
257         out.format      = KEY_FORMAT_CURRENT;
258         out.needs_whiteout = in->needs_whiteout;
259         out.type        = in->type;
260         out.pad[0]      = 0;
261
262 #define x(id, field)    out.field = get_inc_field(&state, id);
263         bkey_fields()
264 #undef x
265
266         return out;
267 }
268
269 #ifndef HAVE_BCACHEFS_COMPILED_UNPACK
270 struct bpos __bkey_unpack_pos(const struct bkey_format *format,
271                                      const struct bkey_packed *in)
272 {
273         struct unpack_state state = unpack_state_init(format, in);
274         struct bpos out;
275
276         EBUG_ON(format->nr_fields != BKEY_NR_FIELDS);
277         EBUG_ON(in->u64s < format->key_u64s);
278         EBUG_ON(in->format != KEY_FORMAT_LOCAL_BTREE);
279
280         out.inode       = get_inc_field(&state, BKEY_FIELD_INODE);
281         out.offset      = get_inc_field(&state, BKEY_FIELD_OFFSET);
282         out.snapshot    = get_inc_field(&state, BKEY_FIELD_SNAPSHOT);
283
284         return out;
285 }
286 #endif
287
288 /**
289  * bch2_bkey_pack_key -- pack just the key, not the value
290  */
291 bool bch2_bkey_pack_key(struct bkey_packed *out, const struct bkey *in,
292                    const struct bkey_format *format)
293 {
294         struct pack_state state = pack_state_init(format, out);
295
296         EBUG_ON((void *) in == (void *) out);
297         EBUG_ON(format->nr_fields != BKEY_NR_FIELDS);
298         EBUG_ON(in->format != KEY_FORMAT_CURRENT);
299
300         out->_data[0] = 0;
301
302 #define x(id, field)    if (!set_inc_field(&state, id, in->field)) return false;
303         bkey_fields()
304 #undef x
305
306         /*
307          * Extents - we have to guarantee that if an extent is packed, a trimmed
308          * version will also pack:
309          */
310         if (bkey_start_offset(in) <
311             le64_to_cpu(format->field_offset[BKEY_FIELD_OFFSET]))
312                 return false;
313
314         pack_state_finish(&state, out);
315         out->u64s       = format->key_u64s + in->u64s - BKEY_U64s;
316         out->format     = KEY_FORMAT_LOCAL_BTREE;
317         out->needs_whiteout = in->needs_whiteout;
318         out->type       = in->type;
319
320         bch2_bkey_pack_verify(out, in, format);
321         return true;
322 }
323
324 /**
325  * bch2_bkey_unpack -- unpack the key and the value
326  */
327 void bch2_bkey_unpack(const struct btree *b, struct bkey_i *dst,
328                  const struct bkey_packed *src)
329 {
330         dst->k = bkey_unpack_key(b, src);
331
332         memcpy_u64s(&dst->v,
333                     bkeyp_val(&b->format, src),
334                     bkeyp_val_u64s(&b->format, src));
335 }
336
337 /**
338  * bch2_bkey_pack -- pack the key and the value
339  */
340 bool bch2_bkey_pack(struct bkey_packed *out, const struct bkey_i *in,
341                const struct bkey_format *format)
342 {
343         struct bkey_packed tmp;
344
345         if (!bch2_bkey_pack_key(&tmp, &in->k, format))
346                 return false;
347
348         memmove_u64s((u64 *) out + format->key_u64s,
349                      &in->v,
350                      bkey_val_u64s(&in->k));
351         memcpy_u64s(out, &tmp, format->key_u64s);
352
353         return true;
354 }
355
356 __always_inline
357 static bool set_inc_field_lossy(struct pack_state *state, unsigned field, u64 v)
358 {
359         unsigned bits = state->format->bits_per_field[field];
360         u64 offset = le64_to_cpu(state->format->field_offset[field]);
361         bool ret = true;
362
363         EBUG_ON(v < offset);
364         v -= offset;
365
366         if (fls64(v) > bits) {
367                 v = ~(~0ULL << bits);
368                 ret = false;
369         }
370
371         if (bits > state->bits) {
372                 bits -= state->bits;
373                 state->w |= (v >> 1) >> (bits - 1);
374
375                 *state->p = state->w;
376                 state->p = next_word(state->p);
377                 state->w = 0;
378                 state->bits = 64;
379         }
380
381         state->bits -= bits;
382         state->w |= v << state->bits;
383
384         return ret;
385 }
386
387 #ifdef CONFIG_BCACHEFS_DEBUG
388 static bool bkey_packed_successor(struct bkey_packed *out,
389                                   const struct btree *b,
390                                   struct bkey_packed k)
391 {
392         const struct bkey_format *f = &b->format;
393         unsigned nr_key_bits = b->nr_key_bits;
394         unsigned first_bit, offset;
395         u64 *p;
396
397         EBUG_ON(b->nr_key_bits != bkey_format_key_bits(f));
398
399         if (!nr_key_bits)
400                 return false;
401
402         *out = k;
403
404         first_bit = high_bit_offset + nr_key_bits - 1;
405         p = nth_word(high_word(f, out), first_bit >> 6);
406         offset = 63 - (first_bit & 63);
407
408         while (nr_key_bits) {
409                 unsigned bits = min(64 - offset, nr_key_bits);
410                 u64 mask = (~0ULL >> (64 - bits)) << offset;
411
412                 if ((*p & mask) != mask) {
413                         *p += 1ULL << offset;
414                         EBUG_ON(bkey_cmp_packed(b, out, &k) <= 0);
415                         return true;
416                 }
417
418                 *p &= ~mask;
419                 p = prev_word(p);
420                 nr_key_bits -= bits;
421                 offset = 0;
422         }
423
424         return false;
425 }
426 #endif
427
428 /*
429  * Returns a packed key that compares <= in
430  *
431  * This is used in bset_search_tree(), where we need a packed pos in order to be
432  * able to compare against the keys in the auxiliary search tree - and it's
433  * legal to use a packed pos that isn't equivalent to the original pos,
434  * _provided_ it compares <= to the original pos.
435  */
436 enum bkey_pack_pos_ret bch2_bkey_pack_pos_lossy(struct bkey_packed *out,
437                                            struct bpos in,
438                                            const struct btree *b)
439 {
440         const struct bkey_format *f = &b->format;
441         struct pack_state state = pack_state_init(f, out);
442 #ifdef CONFIG_BCACHEFS_DEBUG
443         struct bpos orig = in;
444 #endif
445         bool exact = true;
446
447         out->_data[0] = 0;
448
449         if (unlikely(in.snapshot <
450                      le64_to_cpu(f->field_offset[BKEY_FIELD_SNAPSHOT]))) {
451                 if (!in.offset-- &&
452                     !in.inode--)
453                         return BKEY_PACK_POS_FAIL;
454                 in.snapshot     = KEY_SNAPSHOT_MAX;
455                 exact = false;
456         }
457
458         if (unlikely(in.offset <
459                      le64_to_cpu(f->field_offset[BKEY_FIELD_OFFSET]))) {
460                 if (!in.inode--)
461                         return BKEY_PACK_POS_FAIL;
462                 in.offset       = KEY_OFFSET_MAX;
463                 in.snapshot     = KEY_SNAPSHOT_MAX;
464                 exact = false;
465         }
466
467         if (unlikely(in.inode <
468                      le64_to_cpu(f->field_offset[BKEY_FIELD_INODE])))
469                 return BKEY_PACK_POS_FAIL;
470
471         if (!set_inc_field_lossy(&state, BKEY_FIELD_INODE, in.inode)) {
472                 in.offset       = KEY_OFFSET_MAX;
473                 in.snapshot     = KEY_SNAPSHOT_MAX;
474                 exact = false;
475         }
476
477         if (!set_inc_field_lossy(&state, BKEY_FIELD_OFFSET, in.offset)) {
478                 in.snapshot     = KEY_SNAPSHOT_MAX;
479                 exact = false;
480         }
481
482         if (!set_inc_field_lossy(&state, BKEY_FIELD_SNAPSHOT, in.snapshot))
483                 exact = false;
484
485         pack_state_finish(&state, out);
486         out->u64s       = f->key_u64s;
487         out->format     = KEY_FORMAT_LOCAL_BTREE;
488         out->type       = KEY_TYPE_deleted;
489
490 #ifdef CONFIG_BCACHEFS_DEBUG
491         if (exact) {
492                 BUG_ON(bkey_cmp_left_packed(b, out, &orig));
493         } else {
494                 struct bkey_packed successor;
495
496                 BUG_ON(bkey_cmp_left_packed(b, out, &orig) >= 0);
497                 BUG_ON(bkey_packed_successor(&successor, b, *out) &&
498                        bkey_cmp_left_packed(b, &successor, &orig) < 0);
499         }
500 #endif
501
502         return exact ? BKEY_PACK_POS_EXACT : BKEY_PACK_POS_SMALLER;
503 }
504
505 void bch2_bkey_format_init(struct bkey_format_state *s)
506 {
507         unsigned i;
508
509         for (i = 0; i < ARRAY_SIZE(s->field_min); i++)
510                 s->field_min[i] = U64_MAX;
511
512         for (i = 0; i < ARRAY_SIZE(s->field_max); i++)
513                 s->field_max[i] = 0;
514
515         /* Make sure we can store a size of 0: */
516         s->field_min[BKEY_FIELD_SIZE] = 0;
517 }
518
519 static void __bkey_format_add(struct bkey_format_state *s,
520                               unsigned field, u64 v)
521 {
522         s->field_min[field] = min(s->field_min[field], v);
523         s->field_max[field] = max(s->field_max[field], v);
524 }
525
526 /*
527  * Changes @format so that @k can be successfully packed with @format
528  */
529 void bch2_bkey_format_add_key(struct bkey_format_state *s, const struct bkey *k)
530 {
531 #define x(id, field) __bkey_format_add(s, id, k->field);
532         bkey_fields()
533 #undef x
534         __bkey_format_add(s, BKEY_FIELD_OFFSET, bkey_start_offset(k));
535 }
536
537 void bch2_bkey_format_add_pos(struct bkey_format_state *s, struct bpos p)
538 {
539         unsigned field = 0;
540
541         __bkey_format_add(s, field++, p.inode);
542         __bkey_format_add(s, field++, p.offset);
543         __bkey_format_add(s, field++, p.snapshot);
544 }
545
546 /*
547  * We don't want it to be possible for the packed format to represent fields
548  * bigger than a u64... that will cause confusion and issues (like with
549  * bkey_packed_successor())
550  */
551 static void set_format_field(struct bkey_format *f, enum bch_bkey_fields i,
552                              unsigned bits, u64 offset)
553 {
554         offset = bits == 64 ? 0 : min(offset, U64_MAX - ((1ULL << bits) - 1));
555
556         f->bits_per_field[i]    = bits;
557         f->field_offset[i]      = cpu_to_le64(offset);
558 }
559
560 struct bkey_format bch2_bkey_format_done(struct bkey_format_state *s)
561 {
562         unsigned i, bits = KEY_PACKED_BITS_START;
563         struct bkey_format ret = {
564                 .nr_fields = BKEY_NR_FIELDS,
565         };
566
567         for (i = 0; i < ARRAY_SIZE(s->field_min); i++) {
568                 s->field_min[i] = min(s->field_min[i], s->field_max[i]);
569
570                 set_format_field(&ret, i,
571                                  fls64(s->field_max[i] - s->field_min[i]),
572                                  s->field_min[i]);
573
574                 bits += ret.bits_per_field[i];
575         }
576
577         /* allow for extent merging: */
578         if (ret.bits_per_field[BKEY_FIELD_SIZE]) {
579                 ret.bits_per_field[BKEY_FIELD_SIZE] += 4;
580                 bits += 4;
581         }
582
583         ret.key_u64s = DIV_ROUND_UP(bits, 64);
584
585         /* if we have enough spare bits, round fields up to nearest byte */
586         bits = ret.key_u64s * 64 - bits;
587
588         for (i = 0; i < ARRAY_SIZE(ret.bits_per_field); i++) {
589                 unsigned r = round_up(ret.bits_per_field[i], 8) -
590                         ret.bits_per_field[i];
591
592                 if (r <= bits) {
593                         set_format_field(&ret, i,
594                                          ret.bits_per_field[i] + r,
595                                          le64_to_cpu(ret.field_offset[i]));
596                         bits -= r;
597                 }
598         }
599
600         EBUG_ON(bch2_bkey_format_validate(&ret));
601         return ret;
602 }
603
604 const char *bch2_bkey_format_validate(struct bkey_format *f)
605 {
606         unsigned i, bits = KEY_PACKED_BITS_START;
607
608         if (f->nr_fields != BKEY_NR_FIELDS)
609                 return "incorrect number of fields";
610
611         for (i = 0; i < f->nr_fields; i++) {
612                 u64 field_offset = le64_to_cpu(f->field_offset[i]);
613
614                 if (f->bits_per_field[i] > 64)
615                         return "field too large";
616
617                 if (field_offset &&
618                     (f->bits_per_field[i] == 64 ||
619                     (field_offset + ((1ULL << f->bits_per_field[i]) - 1) <
620                      field_offset)))
621                         return "offset + bits overflow";
622
623                 bits += f->bits_per_field[i];
624         }
625
626         if (f->key_u64s != DIV_ROUND_UP(bits, 64))
627                 return "incorrect key_u64s";
628
629         return NULL;
630 }
631
632 /*
633  * Most significant differing bit
634  * Bits are indexed from 0 - return is [0, nr_key_bits)
635  */
636 __pure
637 unsigned bch2_bkey_greatest_differing_bit(const struct btree *b,
638                                           const struct bkey_packed *l_k,
639                                           const struct bkey_packed *r_k)
640 {
641         const u64 *l = high_word(&b->format, l_k);
642         const u64 *r = high_word(&b->format, r_k);
643         unsigned nr_key_bits = b->nr_key_bits;
644         unsigned word_bits = 64 - high_bit_offset;
645         u64 l_v, r_v;
646
647         EBUG_ON(b->nr_key_bits != bkey_format_key_bits(&b->format));
648
649         /* for big endian, skip past header */
650         l_v = *l & (~0ULL >> high_bit_offset);
651         r_v = *r & (~0ULL >> high_bit_offset);
652
653         while (nr_key_bits) {
654                 if (nr_key_bits < word_bits) {
655                         l_v >>= word_bits - nr_key_bits;
656                         r_v >>= word_bits - nr_key_bits;
657                         nr_key_bits = 0;
658                 } else {
659                         nr_key_bits -= word_bits;
660                 }
661
662                 if (l_v != r_v)
663                         return fls64(l_v ^ r_v) - 1 + nr_key_bits;
664
665                 l = next_word(l);
666                 r = next_word(r);
667
668                 l_v = *l;
669                 r_v = *r;
670                 word_bits = 64;
671         }
672
673         return 0;
674 }
675
676 /*
677  * First set bit
678  * Bits are indexed from 0 - return is [0, nr_key_bits)
679  */
680 __pure
681 unsigned bch2_bkey_ffs(const struct btree *b, const struct bkey_packed *k)
682 {
683         const u64 *p = high_word(&b->format, k);
684         unsigned nr_key_bits = b->nr_key_bits;
685         unsigned ret = 0, offset;
686
687         EBUG_ON(b->nr_key_bits != bkey_format_key_bits(&b->format));
688
689         offset = nr_key_bits;
690         while (offset > 64) {
691                 p = next_word(p);
692                 offset -= 64;
693         }
694
695         offset = 64 - offset;
696
697         while (nr_key_bits) {
698                 unsigned bits = nr_key_bits + offset < 64
699                         ? nr_key_bits
700                         : 64 - offset;
701
702                 u64 mask = (~0ULL >> (64 - bits)) << offset;
703
704                 if (*p & mask)
705                         return ret + __ffs64(*p & mask) - offset;
706
707                 p = prev_word(p);
708                 nr_key_bits -= bits;
709                 ret += bits;
710                 offset = 0;
711         }
712
713         return 0;
714 }
715
716 #ifdef CONFIG_X86_64
717
718 static inline int __bkey_cmp_bits(const u64 *l, const u64 *r,
719                                   unsigned nr_key_bits)
720 {
721         long d0, d1, d2, d3;
722         int cmp;
723
724         /* we shouldn't need asm for this, but gcc is being retarded: */
725
726         asm(".intel_syntax noprefix;"
727             "xor eax, eax;"
728             "xor edx, edx;"
729             "1:;"
730             "mov r8, [rdi];"
731             "mov r9, [rsi];"
732             "sub ecx, 64;"
733             "jl 2f;"
734
735             "cmp r8, r9;"
736             "jnz 3f;"
737
738             "lea rdi, [rdi - 8];"
739             "lea rsi, [rsi - 8];"
740             "jmp 1b;"
741
742             "2:;"
743             "not ecx;"
744             "shr r8, 1;"
745             "shr r9, 1;"
746             "shr r8, cl;"
747             "shr r9, cl;"
748             "cmp r8, r9;"
749
750             "3:\n"
751             "seta al;"
752             "setb dl;"
753             "sub eax, edx;"
754             ".att_syntax prefix;"
755             : "=&D" (d0), "=&S" (d1), "=&d" (d2), "=&c" (d3), "=&a" (cmp)
756             : "0" (l), "1" (r), "3" (nr_key_bits)
757             : "r8", "r9", "cc", "memory");
758
759         return cmp;
760 }
761
762 #define I(_x)                   (*(out)++ = (_x))
763 #define I1(i0)                                          I(i0)
764 #define I2(i0, i1)              (I1(i0),                I(i1))
765 #define I3(i0, i1, i2)          (I2(i0, i1),            I(i2))
766 #define I4(i0, i1, i2, i3)      (I3(i0, i1, i2),        I(i3))
767 #define I5(i0, i1, i2, i3, i4)  (I4(i0, i1, i2, i3),    I(i4))
768
769 static u8 *compile_bkey_field(const struct bkey_format *format, u8 *out,
770                               enum bch_bkey_fields field,
771                               unsigned dst_offset, unsigned dst_size,
772                               bool *eax_zeroed)
773 {
774         unsigned bits = format->bits_per_field[field];
775         u64 offset = le64_to_cpu(format->field_offset[field]);
776         unsigned i, byte, bit_offset, align, shl, shr;
777
778         if (!bits && !offset) {
779                 if (!*eax_zeroed) {
780                         /* xor eax, eax */
781                         I2(0x31, 0xc0);
782                 }
783
784                 *eax_zeroed = true;
785                 goto set_field;
786         }
787
788         if (!bits) {
789                 /* just return offset: */
790
791                 switch (dst_size) {
792                 case 8:
793                         if (offset > S32_MAX) {
794                                 /* mov [rdi + dst_offset], offset */
795                                 I3(0xc7, 0x47, dst_offset);
796                                 memcpy(out, &offset, 4);
797                                 out += 4;
798
799                                 I3(0xc7, 0x47, dst_offset + 4);
800                                 memcpy(out, (void *) &offset + 4, 4);
801                                 out += 4;
802                         } else {
803                                 /* mov [rdi + dst_offset], offset */
804                                 /* sign extended */
805                                 I4(0x48, 0xc7, 0x47, dst_offset);
806                                 memcpy(out, &offset, 4);
807                                 out += 4;
808                         }
809                         break;
810                 case 4:
811                         /* mov [rdi + dst_offset], offset */
812                         I3(0xc7, 0x47, dst_offset);
813                         memcpy(out, &offset, 4);
814                         out += 4;
815                         break;
816                 default:
817                         BUG();
818                 }
819
820                 return out;
821         }
822
823         bit_offset = format->key_u64s * 64;
824         for (i = 0; i <= field; i++)
825                 bit_offset -= format->bits_per_field[i];
826
827         byte = bit_offset / 8;
828         bit_offset -= byte * 8;
829
830         *eax_zeroed = false;
831
832         if (bit_offset == 0 && bits == 8) {
833                 /* movzx eax, BYTE PTR [rsi + imm8] */
834                 I4(0x0f, 0xb6, 0x46, byte);
835         } else if (bit_offset == 0 && bits == 16) {
836                 /* movzx eax, WORD PTR [rsi + imm8] */
837                 I4(0x0f, 0xb7, 0x46, byte);
838         } else if (bit_offset + bits <= 32) {
839                 align = min(4 - DIV_ROUND_UP(bit_offset + bits, 8), byte & 3);
840                 byte -= align;
841                 bit_offset += align * 8;
842
843                 BUG_ON(bit_offset + bits > 32);
844
845                 /* mov eax, [rsi + imm8] */
846                 I3(0x8b, 0x46, byte);
847
848                 if (bit_offset) {
849                         /* shr eax, imm8 */
850                         I3(0xc1, 0xe8, bit_offset);
851                 }
852
853                 if (bit_offset + bits < 32) {
854                         unsigned mask = ~0U >> (32 - bits);
855
856                         /* and eax, imm32 */
857                         I1(0x25);
858                         memcpy(out, &mask, 4);
859                         out += 4;
860                 }
861         } else if (bit_offset + bits <= 64) {
862                 align = min(8 - DIV_ROUND_UP(bit_offset + bits, 8), byte & 7);
863                 byte -= align;
864                 bit_offset += align * 8;
865
866                 BUG_ON(bit_offset + bits > 64);
867
868                 /* mov rax, [rsi + imm8] */
869                 I4(0x48, 0x8b, 0x46, byte);
870
871                 shl = 64 - bit_offset - bits;
872                 shr = bit_offset + shl;
873
874                 if (shl) {
875                         /* shl rax, imm8 */
876                         I4(0x48, 0xc1, 0xe0, shl);
877                 }
878
879                 if (shr) {
880                         /* shr rax, imm8 */
881                         I4(0x48, 0xc1, 0xe8, shr);
882                 }
883         } else {
884                 align = min(4 - DIV_ROUND_UP(bit_offset + bits, 8), byte & 3);
885                 byte -= align;
886                 bit_offset += align * 8;
887
888                 BUG_ON(bit_offset + bits > 96);
889
890                 /* mov rax, [rsi + byte] */
891                 I4(0x48, 0x8b, 0x46, byte);
892
893                 /* mov edx, [rsi + byte + 8] */
894                 I3(0x8b, 0x56, byte + 8);
895
896                 /* bits from next word: */
897                 shr = bit_offset + bits - 64;
898                 BUG_ON(shr > bit_offset);
899
900                 /* shr rax, bit_offset */
901                 I4(0x48, 0xc1, 0xe8, shr);
902
903                 /* shl rdx, imm8 */
904                 I4(0x48, 0xc1, 0xe2, 64 - shr);
905
906                 /* or rax, rdx */
907                 I3(0x48, 0x09, 0xd0);
908
909                 shr = bit_offset - shr;
910
911                 if (shr) {
912                         /* shr rax, imm8 */
913                         I4(0x48, 0xc1, 0xe8, shr);
914                 }
915         }
916
917         /* rax += offset: */
918         if (offset > S32_MAX) {
919                 /* mov rdx, imm64 */
920                 I2(0x48, 0xba);
921                 memcpy(out, &offset, 8);
922                 out += 8;
923                 /* add %rdx, %rax */
924                 I3(0x48, 0x01, 0xd0);
925         } else if (offset + (~0ULL >> (64 - bits)) > U32_MAX) {
926                 /* add rax, imm32 */
927                 I2(0x48, 0x05);
928                 memcpy(out, &offset, 4);
929                 out += 4;
930         } else if (offset) {
931                 /* add eax, imm32 */
932                 I1(0x05);
933                 memcpy(out, &offset, 4);
934                 out += 4;
935         }
936 set_field:
937         switch (dst_size) {
938         case 8:
939                 /* mov [rdi + dst_offset], rax */
940                 I4(0x48, 0x89, 0x47, dst_offset);
941                 break;
942         case 4:
943                 /* mov [rdi + dst_offset], eax */
944                 I3(0x89, 0x47, dst_offset);
945                 break;
946         default:
947                 BUG();
948         }
949
950         return out;
951 }
952
953 int bch2_compile_bkey_format(const struct bkey_format *format, void *_out)
954 {
955         bool eax_zeroed = false;
956         u8 *out = _out;
957
958         /*
959          * rdi: dst - unpacked key
960          * rsi: src - packed key
961          */
962
963         /* k->u64s, k->format, k->type */
964
965         /* mov eax, [rsi] */
966         I2(0x8b, 0x06);
967
968         /* add eax, BKEY_U64s - format->key_u64s */
969         I5(0x05, BKEY_U64s - format->key_u64s, KEY_FORMAT_CURRENT, 0, 0);
970
971         /* and eax, imm32: mask out k->pad: */
972         I5(0x25, 0xff, 0xff, 0xff, 0);
973
974         /* mov [rdi], eax */
975         I2(0x89, 0x07);
976
977 #define x(id, field)                                                    \
978         out = compile_bkey_field(format, out, id,                       \
979                                  offsetof(struct bkey, field),          \
980                                  sizeof(((struct bkey *) NULL)->field), \
981                                  &eax_zeroed);
982         bkey_fields()
983 #undef x
984
985         /* retq */
986         I1(0xc3);
987
988         return (void *) out - _out;
989 }
990
991 #else
992 static inline int __bkey_cmp_bits(const u64 *l, const u64 *r,
993                                   unsigned nr_key_bits)
994 {
995         u64 l_v, r_v;
996
997         if (!nr_key_bits)
998                 return 0;
999
1000         /* for big endian, skip past header */
1001         nr_key_bits += high_bit_offset;
1002         l_v = *l & (~0ULL >> high_bit_offset);
1003         r_v = *r & (~0ULL >> high_bit_offset);
1004
1005         while (1) {
1006                 if (nr_key_bits < 64) {
1007                         l_v >>= 64 - nr_key_bits;
1008                         r_v >>= 64 - nr_key_bits;
1009                         nr_key_bits = 0;
1010                 } else {
1011                         nr_key_bits -= 64;
1012                 }
1013
1014                 if (!nr_key_bits || l_v != r_v)
1015                         break;
1016
1017                 l = next_word(l);
1018                 r = next_word(r);
1019
1020                 l_v = *l;
1021                 r_v = *r;
1022         }
1023
1024         return cmp_int(l_v, r_v);
1025 }
1026 #endif
1027
1028 __pure
1029 int __bch2_bkey_cmp_packed_format_checked(const struct bkey_packed *l,
1030                                           const struct bkey_packed *r,
1031                                           const struct btree *b)
1032 {
1033         const struct bkey_format *f = &b->format;
1034         int ret;
1035
1036         EBUG_ON(!bkey_packed(l) || !bkey_packed(r));
1037         EBUG_ON(b->nr_key_bits != bkey_format_key_bits(f));
1038
1039         ret = __bkey_cmp_bits(high_word(f, l),
1040                               high_word(f, r),
1041                               b->nr_key_bits);
1042
1043         EBUG_ON(ret != bkey_cmp(bkey_unpack_pos(b, l),
1044                                 bkey_unpack_pos(b, r)));
1045         return ret;
1046 }
1047
1048 __pure __flatten
1049 int __bch2_bkey_cmp_left_packed_format_checked(const struct btree *b,
1050                                                const struct bkey_packed *l,
1051                                                const struct bpos *r)
1052 {
1053         return bkey_cmp(bkey_unpack_pos_format_checked(b, l), *r);
1054 }
1055
1056 __pure __flatten
1057 int __bch2_bkey_cmp_packed(const struct bkey_packed *l,
1058                            const struct bkey_packed *r,
1059                            const struct btree *b)
1060 {
1061         int packed = bkey_lr_packed(l, r);
1062
1063         if (likely(packed == BKEY_PACKED_BOTH))
1064                 return __bch2_bkey_cmp_packed_format_checked(l, r, b);
1065
1066         switch (packed) {
1067         case BKEY_PACKED_NONE:
1068                 return bkey_cmp(((struct bkey *) l)->p,
1069                                 ((struct bkey *) r)->p);
1070         case BKEY_PACKED_LEFT:
1071                 return __bch2_bkey_cmp_left_packed_format_checked(b,
1072                                   (struct bkey_packed *) l,
1073                                   &((struct bkey *) r)->p);
1074         case BKEY_PACKED_RIGHT:
1075                 return -__bch2_bkey_cmp_left_packed_format_checked(b,
1076                                   (struct bkey_packed *) r,
1077                                   &((struct bkey *) l)->p);
1078         default:
1079                 unreachable();
1080         }
1081 }
1082
1083 __pure __flatten
1084 int __bch2_bkey_cmp_left_packed(const struct btree *b,
1085                                 const struct bkey_packed *l,
1086                                 const struct bpos *r)
1087 {
1088         const struct bkey *l_unpacked;
1089
1090         return unlikely(l_unpacked = packed_to_bkey_c(l))
1091                 ? bkey_cmp(l_unpacked->p, *r)
1092                 : __bch2_bkey_cmp_left_packed_format_checked(b, l, r);
1093 }
1094
1095 void bch2_bpos_swab(struct bpos *p)
1096 {
1097         u8 *l = (u8 *) p;
1098         u8 *h = ((u8 *) &p[1]) - 1;
1099
1100         while (l < h) {
1101                 swap(*l, *h);
1102                 l++;
1103                 --h;
1104         }
1105 }
1106
1107 void bch2_bkey_swab_key(const struct bkey_format *_f, struct bkey_packed *k)
1108 {
1109         const struct bkey_format *f = bkey_packed(k) ? _f : &bch2_bkey_format_current;
1110         u8 *l = k->key_start;
1111         u8 *h = (u8 *) (k->_data + f->key_u64s) - 1;
1112
1113         while (l < h) {
1114                 swap(*l, *h);
1115                 l++;
1116                 --h;
1117         }
1118 }
1119
1120 #ifdef CONFIG_BCACHEFS_DEBUG
1121 void bch2_bkey_pack_test(void)
1122 {
1123         struct bkey t = KEY(4134ULL, 1250629070527416633ULL, 0);
1124         struct bkey_packed p;
1125
1126         struct bkey_format test_format = {
1127                 .key_u64s       = 2,
1128                 .nr_fields      = BKEY_NR_FIELDS,
1129                 .bits_per_field = {
1130                         13,
1131                         64,
1132                 },
1133         };
1134
1135         struct unpack_state in_s =
1136                 unpack_state_init(&bch2_bkey_format_current, (void *) &t);
1137         struct pack_state out_s = pack_state_init(&test_format, &p);
1138         unsigned i;
1139
1140         for (i = 0; i < out_s.format->nr_fields; i++) {
1141                 u64 a, v = get_inc_field(&in_s, i);
1142
1143                 switch (i) {
1144 #define x(id, field)    case id: a = t.field; break;
1145         bkey_fields()
1146 #undef x
1147                 default:
1148                         BUG();
1149                 }
1150
1151                 if (a != v)
1152                         panic("got %llu actual %llu i %u\n", v, a, i);
1153
1154                 if (!set_inc_field(&out_s, i, v))
1155                         panic("failed at %u\n", i);
1156         }
1157
1158         BUG_ON(!bch2_bkey_pack_key(&p, &t, &test_format));
1159 }
1160 #endif