]> git.ipfire.org Git - thirdparty/gcc.git/commitdiff
Turn on SEE unaligned load and store for Haswell
authorH.J. Lu <hongjiu.lu@intel.com>
Tue, 12 Nov 2013 13:52:08 +0000 (13:52 +0000)
committerH.J. Lu <hjl@gcc.gnu.org>
Tue, 12 Nov 2013 13:52:08 +0000 (05:52 -0800)
PR target/59088
* config/i386/x86-tune.def (X86_TUNE_SSE_UNALIGNED_LOAD_OPTIMAL):
Set for m_HASWELL.
(X86_TUNE_SSE_UNALIGNED_STORE_OPTIMAL): Set for m_HASWELL.

From-SVN: r204701

gcc/ChangeLog
gcc/config/i386/x86-tune.def

index 3cdf24779c6354a7bbd674618b3536c031a024c4..6667b33ea2dd0011bba774e573c13d02872c72b0 100644 (file)
@@ -1,3 +1,10 @@
+2013-11-12  H.J. Lu  <hongjiu.lu@intel.com>
+
+       PR target/59088
+       * config/i386/x86-tune.def (X86_TUNE_SSE_UNALIGNED_LOAD_OPTIMAL):
+       Set for m_HASWELL.
+       (X86_TUNE_SSE_UNALIGNED_STORE_OPTIMAL): Set for m_HASWELL.
+
 2013-11-12  H.J. Lu  <hongjiu.lu@intel.com>
 
        PR target/59084
index 54867d2f31feac0796e3e645ccb17f1d523a87c6..4c13c3a0ec69bf67c14e342456e2c5b62d5b8b11 100644 (file)
@@ -318,12 +318,12 @@ DEF_TUNE (X86_TUNE_GENERAL_REGS_SSE_SPILL, "general_regs_sse_spill",
 /* X86_TUNE_SSE_UNALIGNED_LOAD_OPTIMAL: Use movups for misaligned loads instead
    of a sequence loading registers by parts.  */
 DEF_TUNE (X86_TUNE_SSE_UNALIGNED_LOAD_OPTIMAL, "sse_unaligned_load_optimal",
-          m_COREI7 | m_COREI7_AVX | m_AMDFAM10 | m_BDVER | m_BTVER | m_SLM | m_GENERIC)
+          m_COREI7 | m_COREI7_AVX | m_HASWELL | m_AMDFAM10 | m_BDVER | m_BTVER | m_SLM | m_GENERIC)
 
 /* X86_TUNE_SSE_UNALIGNED_STORE_OPTIMAL: Use movups for misaligned stores instead
    of a sequence loading registers by parts.  */
 DEF_TUNE (X86_TUNE_SSE_UNALIGNED_STORE_OPTIMAL, "sse_unaligned_store_optimal",
-          m_COREI7 | m_COREI7_AVX | m_BDVER | m_SLM | m_GENERIC)
+          m_COREI7 | m_COREI7_AVX | m_HASWELL | m_BDVER | m_SLM | m_GENERIC)
 
 /* Use packed single precision instructions where posisble.  I.e. movups instead
    of movupd.  */