]> git.ipfire.org Git - thirdparty/gcc.git/commitdiff
libstdc++: Remove Ryu's uint128_t aliases
authorPatrick Palka <ppalka@redhat.com>
Thu, 11 Mar 2021 21:59:15 +0000 (16:59 -0500)
committerPatrick Palka <ppalka@redhat.com>
Thu, 11 Mar 2021 21:59:15 +0000 (16:59 -0500)
This makes Ryu consistently use the uint128_t alias that's defined in
floating_to_chars.cc.

libstdc++-v3/ChangeLog:

* src/c++17/ryu/LOCAL_PATCHES: Update.
* src/c++17/ryu/d2s_intrinsics.h: Don't define uint128_t.
* src/c++17/ryu/generic_128.h: Likewise.
* src/c++17/ryu/ryu_generic_128.h (struct floating_decimal_128):
Use uint128_t instead of __uint128_t.
(generic_binary_to_decimal): Likewise.

libstdc++-v3/src/c++17/ryu/LOCAL_PATCHES
libstdc++-v3/src/c++17/ryu/d2s_intrinsics.h
libstdc++-v3/src/c++17/ryu/generic_128.h
libstdc++-v3/src/c++17/ryu/ryu_generic_128.h

index c26633ee6c29a8013acb6a91028fa74816950887..51e504cb6ead5f2a70a42ea7fa41c935ecc9fd02 100644 (file)
@@ -1 +1,2 @@
 r11-6248
+r11-7636
index fa993e6fad664564a0c01199a4bee9707794a315..bbac4dfd48f5368f474b3868f2520d7ba3374fab 100644 (file)
 #define HAS_64_BIT_INTRINSICS
 #endif
 
-#if defined(HAS_UINT128)
-typedef __uint128_t uint128_t;
-#endif
-
 #if defined(HAS_64_BIT_INTRINSICS)
 
 
index 88e96776664cddb1cfb8379742ebd82282280f39..d3ca398fbdbc59691e7bbc1ac3bc9dcc325af0f9 100644 (file)
@@ -17,9 +17,6 @@
 #ifndef RYU_GENERIC128_H
 #define RYU_GENERIC128_H
 
-
-typedef __uint128_t uint128_t;
-
 #define FLOAT_128_POW5_INV_BITCOUNT 249
 #define FLOAT_128_POW5_BITCOUNT 249
 #define POW5_TABLE_SIZE 56
index f5d476343b6563f72e50969115cd0713d9c4edb0..2afbf274e1117db07d0bbf76041c9626a3776c97 100644 (file)
@@ -37,7 +37,7 @@ extern "C" {
 
 // A floating decimal representing (-1)^s * m * 10^e.
 struct floating_decimal_128 {
-  __uint128_t mantissa;
+  uint128_t mantissa;
   int32_t exponent;
   bool sign;
 };
@@ -52,7 +52,7 @@ struct floating_decimal_128 long_double_to_fd128(long double d);
 // Converts the given binary floating point number to the shortest decimal floating point number
 // that still accurately represents it.
 struct floating_decimal_128 generic_binary_to_decimal(
-    const __uint128_t bits, const uint32_t mantissaBits, const uint32_t exponentBits, const bool explicitLeadingBit);
+    const uint128_t bits, const uint32_t mantissaBits, const uint32_t exponentBits, const bool explicitLeadingBit);
 
 // Converts the given decimal floating point number to a string, writing to result, and returning
 // the number characters written. Does not terminate the buffer with a 0. In the worst case, this