]> git.sesse.net Git - stockfish/blobdiff - src/tt.cpp
Reuse 5 slots instead of 4
[stockfish] / src / tt.cpp
index 862842f2639069b20a28593487207b74c755e884..5ea6a808acf86b2ad256f8715bf5c59772e015b1 100644 (file)
@@ -33,9 +33,6 @@
 #include <xmmintrin.h>
 #endif
 
-// This is the number of TTEntry slots for each position
-static const int ClusterSize = 5;
-
 // The main transposition table
 TranspositionTable TT;
 
@@ -67,14 +64,14 @@ void TranspositionTable::set_size(unsigned mbSize) {
 
   // We store a cluster of ClusterSize number of TTEntry for each position
   // and newSize is the maximum number of storable positions.
-  while ((2 * newSize) * ClusterSize * (sizeof(TTEntry)) <= (mbSize << 20))
+  while ((2 * newSize) * sizeof(TTCluster) <= (mbSize << 20))
       newSize *= 2;
 
   if (newSize != size)
   {
       size = newSize;
       delete [] entries;
-      entries = new TTEntry[size * ClusterSize];
+      entries = new TTCluster[size];
       if (!entries)
       {
           std::cerr << "Failed to allocate " << mbSize
@@ -93,7 +90,7 @@ void TranspositionTable::set_size(unsigned mbSize) {
 
 void TranspositionTable::clear() {
 
-  memset(entries, 0, size * ClusterSize * sizeof(TTEntry));
+  memset(entries, 0, size * sizeof(TTCluster));
 }
 
 
@@ -103,7 +100,7 @@ void TranspositionTable::clear() {
 
 inline TTEntry* TranspositionTable::first_entry(const Key posKey) const {
 
-  return entries + ((uint32_t(posKey) & (size - 1)) * ClusterSize);
+  return entries[uint32_t(posKey) & (size - 1)].data;
 }
 
 
@@ -174,14 +171,19 @@ TTEntry* TranspositionTable::retrieve(const Key posKey) const {
 /// blocking function and do not stalls the CPU waiting for data
 /// to be loaded from RAM, that can be very slow. When we will
 /// subsequently call retrieve() the TT data will be already
-/// quickly accessible in L1/l2 CPU cache.
+/// quickly accessible in L1/L2 CPU cache.
 
 void TranspositionTable::prefetch(const Key posKey) const {
 
 #if defined(_MSC_VER)
-  _mm_prefetch((char*)first_entry(posKey), _MM_HINT_T0);
+   char* addr = (char*)first_entry(posKey);
+  _mm_prefetch(addr, _MM_HINT_T0);
+  _mm_prefetch(addr+64, _MM_HINT_T0);
 #else
-  __builtin_prefetch((const void*)first_entry(posKey), 0, 3);
+  // We need to force an asm volatile here because gcc builtin
+  // is optimized away by Intel compiler.
+  char* addr = (char*)first_entry(posKey);
+  asm volatile("prefetcht0 %0" :: "m" (addr));
 #endif
 }