]> wimlib.net Git - wimlib/blobdiff - include/wimlib/unaligned.h
mount_image.c: add fallback definitions of RENAME_* constants
[wimlib] / include / wimlib / unaligned.h
index 473f5e2578f4b88e7907ae4466f7e26371506c22..5c6aa33b75da3aa6d7601841e12eea17385fe878 100644 (file)
@@ -1,45 +1,52 @@
 /*
  * unaligned.h - inline functions for unaligned memory accesses
  *
- * The following copying information applies to this specific source code file:
+ * Copyright 2022 Eric Biggers
  *
- * Written in 2014-2015 by Eric Biggers <ebiggers3@gmail.com>
+ * Permission is hereby granted, free of charge, to any person
+ * obtaining a copy of this software and associated documentation
+ * files (the "Software"), to deal in the Software without
+ * restriction, including without limitation the rights to use,
+ * copy, modify, merge, publish, distribute, sublicense, and/or sell
+ * copies of the Software, and to permit persons to whom the
+ * Software is furnished to do so, subject to the following
+ * conditions:
  *
- * To the extent possible under law, the author(s) have dedicated all copyright
- * and related and neighboring rights to this software to the public domain
- * worldwide via the Creative Commons Zero 1.0 Universal Public Domain
- * Dedication (the "CC0").
+ * The above copyright notice and this permission notice shall be
+ * included in all copies or substantial portions of the Software.
  *
- * This software is distributed in the hope that it will be useful, but WITHOUT
- * ANY WARRANTY; without even the implied warranty of MERCHANTABILITY or FITNESS
- * FOR A PARTICULAR PURPOSE. See the CC0 for more details.
- *
- * You should have received a copy of the CC0 along with this software; if not
- * see <http://creativecommons.org/publicdomain/zero/1.0/>.
+ * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND,
+ * EXPRESS OR IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES
+ * OF MERCHANTABILITY, FITNESS FOR A PARTICULAR PURPOSE AND
+ * NONINFRINGEMENT. IN NO EVENT SHALL THE AUTHORS OR COPYRIGHT
+ * HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER LIABILITY,
+ * WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING
+ * FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR
+ * OTHER DEALINGS IN THE SOFTWARE.
  */
 
 #ifndef _WIMLIB_UNALIGNED_H
 #define _WIMLIB_UNALIGNED_H
 
+#include <string.h>
+
 #include "wimlib/compiler.h"
 #include "wimlib/endianness.h"
 #include "wimlib/types.h"
 
 #define DEFINE_UNALIGNED_TYPE(type)                            \
-struct type##_unaligned {                                      \
-       type v;                                                 \
-} _packed_attribute _may_alias_attribute;                      \
-                                                               \
 static forceinline type                                                \
 load_##type##_unaligned(const void *p)                         \
 {                                                              \
-       return ((const struct type##_unaligned *)p)->v;         \
+       type v;                                                 \
+       memcpy(&v, p, sizeof(v));                               \
+       return v;                                               \
 }                                                              \
                                                                \
 static forceinline void                                                \
-store_##type##_unaligned(type val, void *p)                    \
+store_##type##_unaligned(type v, void *p)                      \
 {                                                              \
-       ((struct type##_unaligned *)p)->v = val;                \
+       memcpy(p, &v, sizeof(v));                               \
 }
 
 DEFINE_UNALIGNED_TYPE(u16);
@@ -76,6 +83,16 @@ get_unaligned_le32(const u8 *p)
                        ((u32)p[1] << 8) | p[0];
 }
 
+static forceinline u32
+get_unaligned_be32(const u8 *p)
+{
+       if (UNALIGNED_ACCESS_IS_FAST)
+               return be32_to_cpu(load_be32_unaligned(p));
+       else
+               return ((u32)p[0] << 24) | ((u32)p[1] << 16) |
+                       ((u32)p[2] << 8) | p[3];
+}
+
 static forceinline void
 put_unaligned_le16(u16 v, u8 *p)
 {
@@ -100,42 +117,17 @@ put_unaligned_le32(u32 v, u8 *p)
        }
 }
 
-/*
- * Given a 32-bit value that was loaded with the platform's native endianness,
- * return a 32-bit value whose high-order 8 bits are 0 and whose low-order 24
- * bits contain the first 3 bytes, arranged in octets in a platform-dependent
- * order, at the memory location from which the input 32-bit value was loaded.
- */
-static forceinline u32
-loaded_u32_to_u24(u32 v)
-{
-       if (CPU_IS_LITTLE_ENDIAN)
-               return v & 0xFFFFFF;
-       else
-               return v >> 8;
-}
-
-/*
- * Load the next 3 bytes from the memory location @p into the 24 low-order bits
- * of a 32-bit value.  The order in which the 3 bytes will be arranged as octets
- * in the 24 bits is platform-dependent.  At least LOAD_U24_REQUIRED_NBYTES
- * bytes must be available at @p; note that this may be more than 3.
- */
-static forceinline u32
-load_u24_unaligned(const u8 *p)
+static forceinline void
+put_unaligned_be32(u32 v, u8 *p)
 {
-#if UNALIGNED_ACCESS_IS_FAST
-#  define LOAD_U24_REQUIRED_NBYTES 4
-       return loaded_u32_to_u24(load_u32_unaligned(p));
-#else
-#  define LOAD_U24_REQUIRED_NBYTES 3
-#  if CPU_IS_BIG_ENDIAN
-       return ((u32)p[2] << 0) | ((u32)p[1] << 8) | ((u32)p[0] << 16);
-#  else
-       return ((u32)p[0] << 0) | ((u32)p[1] << 8) | ((u32)p[2] << 16);
-#  endif
-#endif
+       if (UNALIGNED_ACCESS_IS_FAST) {
+               store_be32_unaligned(cpu_to_be32(v), p);
+       } else {
+               p[0] = (u8)(v >> 24);
+               p[1] = (u8)(v >> 16);
+               p[2] = (u8)(v >> 8);
+               p[3] = (u8)(v >> 0);
+       }
 }
 
-
 #endif /* _WIMLIB_UNALIGNED_H */