Remove unused symbol __aarch64
authorJohn Naylor <[email protected]>
Thu, 25 Aug 2022 06:37:40 +0000 (13:37 +0700)
committerJohn Naylor <[email protected]>
Thu, 25 Aug 2022 06:37:40 +0000 (13:37 +0700)
This was added as a possible variant of __aarch64__ back when 64-bit
ARM was vaporware. It hasn't shown up in the wild since then, so remove.

Nathan Bossart

Discussion: https://www.postgresql.org/message-id/CAFBsxsEN5nW3uRh%3Djrs-QexDrC1btu0ZfriD3FFfb%3D3J6tAngg%40mail.gmail.com

src/include/port/atomics.h
src/include/port/atomics/arch-arm.h
src/include/storage/s_lock.h

index f7cd0f6f20c0ad9fe7d0cb591a1dd5170c99ef9b..b14ce832bf8266f3dc20874b397ce3235f7329a8 100644 (file)
@@ -63,8 +63,7 @@
  * compiler barrier.
  *
  */
-#if defined(__arm__) || defined(__arm) || \
-       defined(__aarch64__) || defined(__aarch64)
+#if defined(__arm__) || defined(__arm) || defined(__aarch64__)
 #include "port/atomics/arch-arm.h"
 #elif defined(__i386__) || defined(__i386) || defined(__x86_64__)
 #include "port/atomics/arch-x86.h"
index 9fe8f1b95f7d03be8808d4c4c4be28652f70b051..7449f8404a0e3d79f57149aaace33dc29d5e474b 100644 (file)
@@ -21,7 +21,7 @@
  * 64 bit atomics on ARM32 are implemented using kernel fallbacks and thus
  * might be slow, so disable entirely. On ARM64 that problem doesn't exist.
  */
-#if !defined(__aarch64__) && !defined(__aarch64)
+#if !defined(__aarch64__)
 #define PG_DISABLE_64_BIT_ATOMICS
 #else
 /*
@@ -29,4 +29,4 @@
  * general purpose register is atomic.
  */
 #define PG_HAVE_8BYTE_SINGLE_COPY_ATOMICITY
-#endif  /* __aarch64__ || __aarch64 */
+#endif  /* __aarch64__ */
index cc83d561b2979145030e7630b59a01c6bbc28a69..65aa66c598470176958ece65bf233fa6c7aa8e13 100644 (file)
@@ -256,7 +256,7 @@ spin_delay(void)
  * We use the int-width variant of the builtin because it works on more chips
  * than other widths.
  */
-#if defined(__arm__) || defined(__arm) || defined(__aarch64__) || defined(__aarch64)
+#if defined(__arm__) || defined(__arm) || defined(__aarch64__)
 #ifdef HAVE_GCC__SYNC_INT32_TAS
 #define HAS_TEST_AND_SET
 
@@ -277,7 +277,7 @@ tas(volatile slock_t *lock)
  * high-core-count ARM64 processors.  It seems mostly a wash for smaller gear,
  * and ISB doesn't exist at all on pre-v7 ARM chips.
  */
-#if defined(__aarch64__) || defined(__aarch64)
+#if defined(__aarch64__)
 
 #define SPIN_DELAY() spin_delay()
 
@@ -288,9 +288,9 @@ spin_delay(void)
                " isb;                          \n");
 }
 
-#endif  /* __aarch64__ || __aarch64 */
+#endif  /* __aarch64__ */
 #endif  /* HAVE_GCC__SYNC_INT32_TAS */
-#endif  /* __arm__ || __arm || __aarch64__ || __aarch64 */
+#endif  /* __arm__ || __arm || __aarch64__ */
 
 
 /*