]> wimlib.net Git - wimlib/blobdiff - include/wimlib/lzx.h
lzx.h: Align 'struct lzx_lru_queue' on x86_64
[wimlib] / include / wimlib / lzx.h
index 715ec16bfefa62fef98ca43c07bd1964f7856c5c..ae1c6a9c696ec28bedae3fca69675d48776ac302 100644 (file)
@@ -6,6 +6,7 @@
  * */
 
 #include "wimlib/assert.h"
+#include "wimlib/compiler.h"
 #include "wimlib/util.h"
 #include "wimlib/types.h"
 
@@ -95,7 +96,7 @@
 extern const u8 lzx_extra_bits[LZX_MAX_POSITION_SLOTS];
 #endif
 
-/* Given the number of a LZX position slot, return the number of extra bits that
+/* Given the number of an LZX position slot, return the number of extra bits that
  * are needed to encode the match offset. */
 static inline unsigned
 lzx_get_num_extra_bits(unsigned position_slot)
@@ -122,7 +123,7 @@ extern const u32 lzx_position_base[LZX_MAX_POSITION_SLOTS];
  * the formatted offset without actually looking at the array.
  */
 static inline unsigned
-lzx_get_position_slot_raw(unsigned formatted_offset)
+lzx_get_position_slot_raw(u32 formatted_offset)
 {
        if (formatted_offset >= 196608) {
                return (formatted_offset >> 17) + 34;
@@ -142,7 +143,13 @@ extern unsigned lzx_get_num_main_syms(u32 window_size);
 /* Least-recently used queue for match offsets.  */
 struct lzx_lru_queue {
        u32 R[LZX_NUM_RECENT_OFFSETS];
-};
+}
+#ifdef __x86_64__
+_aligned_attribute(8)  /* Improves performance of LZX compression by 1% - 2%;
+                         specifically, this speeds up
+                         lzx_get_near_optimal_match().  */
+#endif
+;
 
 /* In the LZX format, an offset of n bytes is actually encoded
  * as (n + LZX_OFFSET_OFFSET).  */
@@ -157,4 +164,10 @@ lzx_lru_queue_init(struct lzx_lru_queue *queue)
                queue->R[i] = 1;
 }
 
+extern void
+lzx_do_e8_preprocessing(u8 *data, s32 size);
+
+extern void
+lzx_undo_e8_preprocessing(u8 *data, s32 size);
+
 #endif /* _WIMLIB_LZX_H */