LoongArch: Delete excessively allocated memory.
Checks
Context |
Check |
Description |
redhat-pt-bot/TryBot-apply_patch |
warning
|
Patch already apply to master at the time it was sent
|
redhat-pt-bot/TryBot-32bit |
fail
|
Patch series failed to apply
|
Commit Message
Backported from glibc 2.39 development.
---
sysdeps/loongarch/dl-trampoline.h | 68 +++++++++++++++----------------
1 file changed, 34 insertions(+), 34 deletions(-)
Comments
On 12/10/23 02:10, caiyinyu wrote:
> Backported from glibc 2.39 development.
Backports to non-development branches should be posted to libc-stable@sourceware.org
Backports of non-ABI changing patches are always OK for rolling release branches per project consensus.
> ---
> sysdeps/loongarch/dl-trampoline.h | 68 +++++++++++++++----------------
> 1 file changed, 34 insertions(+), 34 deletions(-)
>
> diff --git a/sysdeps/loongarch/dl-trampoline.h b/sysdeps/loongarch/dl-trampoline.h
> index 02375286f8..99fcacab76 100644
> --- a/sysdeps/loongarch/dl-trampoline.h
> +++ b/sysdeps/loongarch/dl-trampoline.h
> @@ -19,9 +19,9 @@
> /* Assembler veneer called from the PLT header code for lazy loading.
> The PLT header passes its own args in t0-t2. */
> #ifdef USE_LASX
> -# define FRAME_SIZE (-((-9 * SZREG - 8 * SZFREG - 8 * SZXREG) & ALMASK))
> +# define FRAME_SIZE (-((-9 * SZREG - 8 * SZXREG) & ALMASK))
> #elif defined USE_LSX
> -# define FRAME_SIZE (-((-9 * SZREG - 8 * SZFREG - 8 * SZVREG) & ALMASK))
> +# define FRAME_SIZE (-((-9 * SZREG - 8 * SZVREG) & ALMASK))
> #elif !defined __loongarch_soft_float
> # define FRAME_SIZE (-((-9 * SZREG - 8 * SZFREG) & ALMASK))
> #else
> @@ -44,23 +44,23 @@ ENTRY (_dl_runtime_resolve)
> REG_S a7, sp, 8*SZREG
>
> #ifdef USE_LASX
> - xvst xr0, sp, 9*SZREG + 8*SZFREG + 0*SZXREG
> - xvst xr1, sp, 9*SZREG + 8*SZFREG + 1*SZXREG
> - xvst xr2, sp, 9*SZREG + 8*SZFREG + 2*SZXREG
> - xvst xr3, sp, 9*SZREG + 8*SZFREG + 3*SZXREG
> - xvst xr4, sp, 9*SZREG + 8*SZFREG + 4*SZXREG
> - xvst xr5, sp, 9*SZREG + 8*SZFREG + 5*SZXREG
> - xvst xr6, sp, 9*SZREG + 8*SZFREG + 6*SZXREG
> - xvst xr7, sp, 9*SZREG + 8*SZFREG + 7*SZXREG
> + xvst xr0, sp, 9*SZREG + 0*SZXREG
> + xvst xr1, sp, 9*SZREG + 1*SZXREG
> + xvst xr2, sp, 9*SZREG + 2*SZXREG
> + xvst xr3, sp, 9*SZREG + 3*SZXREG
> + xvst xr4, sp, 9*SZREG + 4*SZXREG
> + xvst xr5, sp, 9*SZREG + 5*SZXREG
> + xvst xr6, sp, 9*SZREG + 6*SZXREG
> + xvst xr7, sp, 9*SZREG + 7*SZXREG
> #elif defined USE_LSX
> - vst vr0, sp, 9*SZREG + 8*SZFREG + 0*SZVREG
> - vst vr1, sp, 9*SZREG + 8*SZFREG + 1*SZVREG
> - vst vr2, sp, 9*SZREG + 8*SZFREG + 2*SZVREG
> - vst vr3, sp, 9*SZREG + 8*SZFREG + 3*SZVREG
> - vst vr4, sp, 9*SZREG + 8*SZFREG + 4*SZVREG
> - vst vr5, sp, 9*SZREG + 8*SZFREG + 5*SZVREG
> - vst vr6, sp, 9*SZREG + 8*SZFREG + 6*SZVREG
> - vst vr7, sp, 9*SZREG + 8*SZFREG + 7*SZVREG
> + vst vr0, sp, 9*SZREG + 0*SZVREG
> + vst vr1, sp, 9*SZREG + 1*SZVREG
> + vst vr2, sp, 9*SZREG + 2*SZVREG
> + vst vr3, sp, 9*SZREG + 3*SZVREG
> + vst vr4, sp, 9*SZREG + 4*SZVREG
> + vst vr5, sp, 9*SZREG + 5*SZVREG
> + vst vr6, sp, 9*SZREG + 6*SZVREG
> + vst vr7, sp, 9*SZREG + 7*SZVREG
> #elif !defined __loongarch_soft_float
> FREG_S fa0, sp, 9*SZREG + 0*SZFREG
> FREG_S fa1, sp, 9*SZREG + 1*SZFREG
> @@ -92,23 +92,23 @@ ENTRY (_dl_runtime_resolve)
> REG_L a7, sp, 8*SZREG
>
> #ifdef USE_LASX
> - xvld xr0, sp, 9*SZREG + 8*SZFREG + 0*SZXREG
> - xvld xr1, sp, 9*SZREG + 8*SZFREG + 1*SZXREG
> - xvld xr2, sp, 9*SZREG + 8*SZFREG + 2*SZXREG
> - xvld xr3, sp, 9*SZREG + 8*SZFREG + 3*SZXREG
> - xvld xr4, sp, 9*SZREG + 8*SZFREG + 4*SZXREG
> - xvld xr5, sp, 9*SZREG + 8*SZFREG + 5*SZXREG
> - xvld xr6, sp, 9*SZREG + 8*SZFREG + 6*SZXREG
> - xvld xr7, sp, 9*SZREG + 8*SZFREG + 7*SZXREG
> + xvld xr0, sp, 9*SZREG + 0*SZXREG
> + xvld xr1, sp, 9*SZREG + 1*SZXREG
> + xvld xr2, sp, 9*SZREG + 2*SZXREG
> + xvld xr3, sp, 9*SZREG + 3*SZXREG
> + xvld xr4, sp, 9*SZREG + 4*SZXREG
> + xvld xr5, sp, 9*SZREG + 5*SZXREG
> + xvld xr6, sp, 9*SZREG + 6*SZXREG
> + xvld xr7, sp, 9*SZREG + 7*SZXREG
> #elif defined USE_LSX
> - vld vr0, sp, 9*SZREG + 8*SZFREG + 0*SZVREG
> - vld vr1, sp, 9*SZREG + 8*SZFREG + 1*SZVREG
> - vld vr2, sp, 9*SZREG + 8*SZFREG + 2*SZVREG
> - vld vr3, sp, 9*SZREG + 8*SZFREG + 3*SZVREG
> - vld vr4, sp, 9*SZREG + 8*SZFREG + 4*SZVREG
> - vld vr5, sp, 9*SZREG + 8*SZFREG + 5*SZVREG
> - vld vr6, sp, 9*SZREG + 8*SZFREG + 6*SZVREG
> - vld vr7, sp, 9*SZREG + 8*SZFREG + 7*SZVREG
> + vld vr0, sp, 9*SZREG + 0*SZVREG
> + vld vr1, sp, 9*SZREG + 1*SZVREG
> + vld vr2, sp, 9*SZREG + 2*SZVREG
> + vld vr3, sp, 9*SZREG + 3*SZVREG
> + vld vr4, sp, 9*SZREG + 4*SZVREG
> + vld vr5, sp, 9*SZREG + 5*SZVREG
> + vld vr6, sp, 9*SZREG + 6*SZVREG
> + vld vr7, sp, 9*SZREG + 7*SZVREG
> #elif !defined __loongarch_soft_float
> FREG_L fa0, sp, 9*SZREG + 0*SZFREG
> FREG_L fa1, sp, 9*SZREG + 1*SZFREG
@@ -19,9 +19,9 @@
/* Assembler veneer called from the PLT header code for lazy loading.
The PLT header passes its own args in t0-t2. */
#ifdef USE_LASX
-# define FRAME_SIZE (-((-9 * SZREG - 8 * SZFREG - 8 * SZXREG) & ALMASK))
+# define FRAME_SIZE (-((-9 * SZREG - 8 * SZXREG) & ALMASK))
#elif defined USE_LSX
-# define FRAME_SIZE (-((-9 * SZREG - 8 * SZFREG - 8 * SZVREG) & ALMASK))
+# define FRAME_SIZE (-((-9 * SZREG - 8 * SZVREG) & ALMASK))
#elif !defined __loongarch_soft_float
# define FRAME_SIZE (-((-9 * SZREG - 8 * SZFREG) & ALMASK))
#else
@@ -44,23 +44,23 @@ ENTRY (_dl_runtime_resolve)
REG_S a7, sp, 8*SZREG
#ifdef USE_LASX
- xvst xr0, sp, 9*SZREG + 8*SZFREG + 0*SZXREG
- xvst xr1, sp, 9*SZREG + 8*SZFREG + 1*SZXREG
- xvst xr2, sp, 9*SZREG + 8*SZFREG + 2*SZXREG
- xvst xr3, sp, 9*SZREG + 8*SZFREG + 3*SZXREG
- xvst xr4, sp, 9*SZREG + 8*SZFREG + 4*SZXREG
- xvst xr5, sp, 9*SZREG + 8*SZFREG + 5*SZXREG
- xvst xr6, sp, 9*SZREG + 8*SZFREG + 6*SZXREG
- xvst xr7, sp, 9*SZREG + 8*SZFREG + 7*SZXREG
+ xvst xr0, sp, 9*SZREG + 0*SZXREG
+ xvst xr1, sp, 9*SZREG + 1*SZXREG
+ xvst xr2, sp, 9*SZREG + 2*SZXREG
+ xvst xr3, sp, 9*SZREG + 3*SZXREG
+ xvst xr4, sp, 9*SZREG + 4*SZXREG
+ xvst xr5, sp, 9*SZREG + 5*SZXREG
+ xvst xr6, sp, 9*SZREG + 6*SZXREG
+ xvst xr7, sp, 9*SZREG + 7*SZXREG
#elif defined USE_LSX
- vst vr0, sp, 9*SZREG + 8*SZFREG + 0*SZVREG
- vst vr1, sp, 9*SZREG + 8*SZFREG + 1*SZVREG
- vst vr2, sp, 9*SZREG + 8*SZFREG + 2*SZVREG
- vst vr3, sp, 9*SZREG + 8*SZFREG + 3*SZVREG
- vst vr4, sp, 9*SZREG + 8*SZFREG + 4*SZVREG
- vst vr5, sp, 9*SZREG + 8*SZFREG + 5*SZVREG
- vst vr6, sp, 9*SZREG + 8*SZFREG + 6*SZVREG
- vst vr7, sp, 9*SZREG + 8*SZFREG + 7*SZVREG
+ vst vr0, sp, 9*SZREG + 0*SZVREG
+ vst vr1, sp, 9*SZREG + 1*SZVREG
+ vst vr2, sp, 9*SZREG + 2*SZVREG
+ vst vr3, sp, 9*SZREG + 3*SZVREG
+ vst vr4, sp, 9*SZREG + 4*SZVREG
+ vst vr5, sp, 9*SZREG + 5*SZVREG
+ vst vr6, sp, 9*SZREG + 6*SZVREG
+ vst vr7, sp, 9*SZREG + 7*SZVREG
#elif !defined __loongarch_soft_float
FREG_S fa0, sp, 9*SZREG + 0*SZFREG
FREG_S fa1, sp, 9*SZREG + 1*SZFREG
@@ -92,23 +92,23 @@ ENTRY (_dl_runtime_resolve)
REG_L a7, sp, 8*SZREG
#ifdef USE_LASX
- xvld xr0, sp, 9*SZREG + 8*SZFREG + 0*SZXREG
- xvld xr1, sp, 9*SZREG + 8*SZFREG + 1*SZXREG
- xvld xr2, sp, 9*SZREG + 8*SZFREG + 2*SZXREG
- xvld xr3, sp, 9*SZREG + 8*SZFREG + 3*SZXREG
- xvld xr4, sp, 9*SZREG + 8*SZFREG + 4*SZXREG
- xvld xr5, sp, 9*SZREG + 8*SZFREG + 5*SZXREG
- xvld xr6, sp, 9*SZREG + 8*SZFREG + 6*SZXREG
- xvld xr7, sp, 9*SZREG + 8*SZFREG + 7*SZXREG
+ xvld xr0, sp, 9*SZREG + 0*SZXREG
+ xvld xr1, sp, 9*SZREG + 1*SZXREG
+ xvld xr2, sp, 9*SZREG + 2*SZXREG
+ xvld xr3, sp, 9*SZREG + 3*SZXREG
+ xvld xr4, sp, 9*SZREG + 4*SZXREG
+ xvld xr5, sp, 9*SZREG + 5*SZXREG
+ xvld xr6, sp, 9*SZREG + 6*SZXREG
+ xvld xr7, sp, 9*SZREG + 7*SZXREG
#elif defined USE_LSX
- vld vr0, sp, 9*SZREG + 8*SZFREG + 0*SZVREG
- vld vr1, sp, 9*SZREG + 8*SZFREG + 1*SZVREG
- vld vr2, sp, 9*SZREG + 8*SZFREG + 2*SZVREG
- vld vr3, sp, 9*SZREG + 8*SZFREG + 3*SZVREG
- vld vr4, sp, 9*SZREG + 8*SZFREG + 4*SZVREG
- vld vr5, sp, 9*SZREG + 8*SZFREG + 5*SZVREG
- vld vr6, sp, 9*SZREG + 8*SZFREG + 6*SZVREG
- vld vr7, sp, 9*SZREG + 8*SZFREG + 7*SZVREG
+ vld vr0, sp, 9*SZREG + 0*SZVREG
+ vld vr1, sp, 9*SZREG + 1*SZVREG
+ vld vr2, sp, 9*SZREG + 2*SZVREG
+ vld vr3, sp, 9*SZREG + 3*SZVREG
+ vld vr4, sp, 9*SZREG + 4*SZVREG
+ vld vr5, sp, 9*SZREG + 5*SZVREG
+ vld vr6, sp, 9*SZREG + 6*SZVREG
+ vld vr7, sp, 9*SZREG + 7*SZVREG
#elif !defined __loongarch_soft_float
FREG_L fa0, sp, 9*SZREG + 0*SZFREG
FREG_L fa1, sp, 9*SZREG + 1*SZFREG