]> git.sesse.net Git - stockfish/commitdiff
Some renaming in split()
authorMarco Costalba <mcostalba@gmail.com>
Mon, 4 Feb 2013 18:48:56 +0000 (19:48 +0100)
committerMarco Costalba <mcostalba@gmail.com>
Mon, 4 Feb 2013 21:00:41 +0000 (22:00 +0100)
Naming suggested by jundery.

No functional change.

src/movepick.cpp
src/search.cpp
src/thread.cpp
src/thread.h

index 17516603d207920c3bf362ff7510192f171787cf..72601bb3b3f23c4909e9bdf602d21b8a95ba440a 100644 (file)
@@ -360,4 +360,4 @@ Move MovePicker::next_move<false>() {
 /// from the split point's shared MovePicker object. This function is not thread
 /// safe so must be lock protected by the caller.
 template<>
 /// from the split point's shared MovePicker object. This function is not thread
 /// safe so must be lock protected by the caller.
 template<>
-Move MovePicker::next_move<true>() { return ss->sp->mp->next_move<false>(); }
+Move MovePicker::next_move<true>() { return ss->sp->movePicker->next_move<false>(); }
index 27669d9d9bb899f6badeba3293f1cf765eb7a092..4adcefa9464dcfb740dc6111d26cecbbae0e6e86 100644 (file)
@@ -1616,7 +1616,7 @@ void Thread::idle_loop() {
   // at the thread creation. So it means we are the split point's master.
   const SplitPoint* this_sp = splitPointsSize ? activeSplitPoint : NULL;
 
   // at the thread creation. So it means we are the split point's master.
   const SplitPoint* this_sp = splitPointsSize ? activeSplitPoint : NULL;
 
-  assert(!this_sp || (this_sp->master == this && searching));
+  assert(!this_sp || (this_sp->masterThread == this && searching));
 
   // If this thread is the master of a split point and all slaves have finished
   // their work at this split point, return from the idle loop.
 
   // If this thread is the master of a split point and all slaves have finished
   // their work at this split point, return from the idle loop.
@@ -1700,11 +1700,11 @@ void Thread::idle_loop() {
           // Wake up master thread so to allow it to return from the idle loop
           // in case we are the last slave of the split point.
           if (    Threads.sleepWhileIdle
           // Wake up master thread so to allow it to return from the idle loop
           // in case we are the last slave of the split point.
           if (    Threads.sleepWhileIdle
-              &&  this != sp->master
+              &&  this != sp->masterThread
               && !sp->slavesMask)
           {
               && !sp->slavesMask)
           {
-              assert(!sp->master->searching);
-              sp->master->notify_one();
+              assert(!sp->masterThread->searching);
+              sp->masterThread->notify_one();
           }
 
           // After releasing the lock we cannot access anymore any SplitPoint
           }
 
           // After releasing the lock we cannot access anymore any SplitPoint
index 1a39651673c2212aa40bb39a3d5b2c7b00ca694e..7be8da88ab8b35efe7e7478a9892f6013268a396 100644 (file)
@@ -147,7 +147,7 @@ void Thread::wait_for(volatile const bool& b) {
 
 bool Thread::cutoff_occurred() const {
 
 
 bool Thread::cutoff_occurred() const {
 
-  for (SplitPoint* sp = activeSplitPoint; sp; sp = sp->parent)
+  for (SplitPoint* sp = activeSplitPoint; sp; sp = sp->parentSplitPoint)
       if (sp->cutoff)
           return true;
 
       if (sp->cutoff)
           return true;
 
@@ -258,17 +258,17 @@ Value ThreadPool::split(Position& pos, Stack* ss, Value alpha, Value beta,
   assert(bestValue > -VALUE_INFINITE);
   assert(depth >= Threads.minimumSplitDepth);
 
   assert(bestValue > -VALUE_INFINITE);
   assert(depth >= Threads.minimumSplitDepth);
 
-  Thread* master = pos.this_thread();
+  Thread* thisThread = pos.this_thread();
 
 
-  assert(master->searching);
-  assert(master->splitPointsSize < MAX_SPLITPOINTS_PER_THREAD);
+  assert(thisThread->searching);
+  assert(thisThread->splitPointsSize < MAX_SPLITPOINTS_PER_THREAD);
 
   // Pick the next available split point from the split point stack
 
   // Pick the next available split point from the split point stack
-  SplitPoint& sp = master->splitPoints[master->splitPointsSize];
+  SplitPoint& sp = thisThread->splitPoints[thisThread->splitPointsSize];
 
 
-  sp.master = master;
-  sp.parent = master->activeSplitPoint;
-  sp.slavesMask = 1ULL << master->idx;
+  sp.masterThread = thisThread;
+  sp.parentSplitPoint = thisThread->activeSplitPoint;
+  sp.slavesMask = 1ULL << thisThread->idx;
   sp.depth = depth;
   sp.bestMove = *bestMove;
   sp.threatMove = threatMove;
   sp.depth = depth;
   sp.bestMove = *bestMove;
   sp.threatMove = threatMove;
@@ -276,7 +276,7 @@ Value ThreadPool::split(Position& pos, Stack* ss, Value alpha, Value beta,
   sp.beta = beta;
   sp.nodeType = nodeType;
   sp.bestValue = bestValue;
   sp.beta = beta;
   sp.nodeType = nodeType;
   sp.bestValue = bestValue;
-  sp.mp = &mp;
+  sp.movePicker = &mp;
   sp.moveCount = moveCount;
   sp.pos = &pos;
   sp.nodes = 0;
   sp.moveCount = moveCount;
   sp.pos = &pos;
   sp.nodes = 0;
@@ -289,13 +289,13 @@ Value ThreadPool::split(Position& pos, Stack* ss, Value alpha, Value beta,
   mutex.lock();
   sp.mutex.lock();
 
   mutex.lock();
   sp.mutex.lock();
 
-  master->splitPointsSize++;
-  master->activeSplitPoint = &sp;
+  thisThread->splitPointsSize++;
+  thisThread->activeSplitPoint = &sp;
 
   size_t slavesCnt = 1; // Master is always included
 
   for (size_t i = 0; i < threads.size() && !Fake; ++i)
 
   size_t slavesCnt = 1; // Master is always included
 
   for (size_t i = 0; i < threads.size() && !Fake; ++i)
-      if (threads[i]->is_available_to(master) && ++slavesCnt <= maxThreadsPerSplitPoint)
+      if (threads[i]->is_available_to(thisThread) && ++slavesCnt <= maxThreadsPerSplitPoint)
       {
           sp.slavesMask |= 1ULL << threads[i]->idx;
           threads[i]->activeSplitPoint = &sp;
       {
           sp.slavesMask |= 1ULL << threads[i]->idx;
           threads[i]->activeSplitPoint = &sp;
@@ -312,11 +312,11 @@ Value ThreadPool::split(Position& pos, Stack* ss, Value alpha, Value beta,
   // their work at this split point.
   if (slavesCnt > 1 || Fake)
   {
   // their work at this split point.
   if (slavesCnt > 1 || Fake)
   {
-      master->Thread::idle_loop(); // Force a call to base class idle_loop()
+      thisThread->Thread::idle_loop(); // Force a call to base class idle_loop()
 
       // In helpful master concept a master can help only a sub-tree of its split
       // point, and because here is all finished is not possible master is booked.
 
       // In helpful master concept a master can help only a sub-tree of its split
       // point, and because here is all finished is not possible master is booked.
-      assert(!master->searching);
+      assert(!thisThread->searching);
   }
 
   // We have returned from the idle loop, which means that all threads are
   }
 
   // We have returned from the idle loop, which means that all threads are
@@ -325,9 +325,9 @@ Value ThreadPool::split(Position& pos, Stack* ss, Value alpha, Value beta,
   mutex.lock();
   sp.mutex.lock();
 
   mutex.lock();
   sp.mutex.lock();
 
-  master->searching = true;
-  master->splitPointsSize--;
-  master->activeSplitPoint = sp.parent;
+  thisThread->searching = true;
+  thisThread->splitPointsSize--;
+  thisThread->activeSplitPoint = sp.parentSplitPoint;
   pos.set_nodes_searched(pos.nodes_searched() + sp.nodes);
   *bestMove = sp.bestMove;
 
   pos.set_nodes_searched(pos.nodes_searched() + sp.nodes);
   *bestMove = sp.bestMove;
 
index ad17e8b270c788aa79863997db77ea65c4b432aa..d24b65dc7700a1a33b492c103b01a1a4527f0093 100644 (file)
@@ -63,15 +63,15 @@ struct SplitPoint {
   // Const data after split point has been setup
   const Position* pos;
   const Search::Stack* ss;
   // Const data after split point has been setup
   const Position* pos;
   const Search::Stack* ss;
-  Thread* master;
+  Thread* masterThread;
   Depth depth;
   Value beta;
   int nodeType;
   Move threatMove;
 
   // Const pointers to shared data
   Depth depth;
   Value beta;
   int nodeType;
   Move threatMove;
 
   // Const pointers to shared data
-  MovePicker* mp;
-  SplitPoint* parent;
+  MovePicker* movePicker;
+  SplitPoint* parentSplitPoint;
 
   // Shared data
   Mutex mutex;
 
   // Shared data
   Mutex mutex;