]> git.sesse.net Git - stockfish/blobdiff - src/search.cpp
Tidy up comments in thread.cpp
[stockfish] / src / search.cpp
index 933b403070c7b42689544fc962a19525e236bfb3..c4e354e4b73d6bf15de78d610aadec8fb17e9fc2 100644 (file)
@@ -175,7 +175,6 @@ namespace {
 
   // Node counters, used only by thread[0] but try to keep in different cache
   // lines (64 bytes each) from the heavy multi-thread read accessed variables.
-  bool SendSearchedNodes;
   int NodesSincePoll;
   int NodesBetweenPolls = 30000;
 
@@ -367,7 +366,7 @@ bool think(Position& pos, const SearchLimits& limits, Move searchMoves[]) {
   static Book book;
 
   // Initialize global search-related variables
-  StopOnPonderhit = StopRequest = QuitRequest = AspirationFailLow = SendSearchedNodes = false;
+  StopOnPonderhit = StopRequest = QuitRequest = AspirationFailLow = false;
   NodesSincePoll = 0;
   current_search_time(get_system_time());
   Limits = limits;
@@ -410,7 +409,8 @@ bool think(Position& pos, const SearchLimits& limits, Move searchMoves[]) {
   read_evaluation_uci_options(pos.side_to_move());
   Threads.read_uci_options();
 
-  // If needed allocate pawn and material hash tables and adjust TT size
+  // Allocate pawn and material hash tables if number of active threads
+  // increased and set a new TT size if changed.
   Threads.init_hash_tables();
   TT.set_size(Options["Hash"].value<int>());
 
@@ -995,14 +995,6 @@ split_point_start: // At split points actual search starts from here
           // Save the current node count before the move is searched
           nodes = pos.nodes_searched();
 
-          // If it's time to send nodes info, do it here where we have the
-          // correct accumulated node counts searched by each thread.
-          if (!SpNode && SendSearchedNodes)
-          {
-              SendSearchedNodes = false;
-              cout << "info" << speed_to_uci(pos.nodes_searched()) << endl;
-          }
-
           // For long searches send current move info to GUI
           if (pos.thread() == 0 && current_search_time() > 2000)
               cout << "info" << depth_to_uci(depth)
@@ -1951,9 +1943,6 @@ split_point_start: // At split points actual search starts from here
 
         dbg_print_mean();
         dbg_print_hit_rate();
-
-        // Send info on searched nodes as soon as we return to root
-        SendSearchedNodes = true;
     }
 
     // Should we stop the search?
@@ -2154,7 +2143,7 @@ void ThreadsManager::idle_loop(int threadID, SplitPoint* sp) {
 
   while (true)
   {
-      // Slave threads can exit as soon as AllThreadsShouldExit raises,
+      // Slave threads can exit as soon as allThreadsShouldExit flag raises,
       // master should exit as last one.
       if (allThreadsShouldExit)
       {
@@ -2163,7 +2152,7 @@ void ThreadsManager::idle_loop(int threadID, SplitPoint* sp) {
           return;
       }
 
-      // If we are not thinking, wait for a condition to be signaled
+      // If we are not searching, wait for a condition to be signaled
       // instead of wasting CPU time polling for work.
       while (   threadID >= activeThreads
              || threads[threadID].state == Thread::INITIALIZING
@@ -2178,7 +2167,7 @@ void ThreadsManager::idle_loop(int threadID, SplitPoint* sp) {
           // Grab the lock to avoid races with Thread::wake_up()
           lock_grab(&threads[threadID].sleepLock);
 
-          // If we are master and all slaves have finished do not go to sleep
+          // If we are master and all slaves have finished don't go to sleep
           for (i = 0; sp && i < activeThreads && !sp->is_slave[i]; i++) {}
           allFinished = (i == activeThreads);
 
@@ -2188,7 +2177,10 @@ void ThreadsManager::idle_loop(int threadID, SplitPoint* sp) {
               break;
           }
 
-          // Do sleep here after retesting sleep conditions
+          // Do sleep after retesting sleep conditions under lock protection, in
+          // particular we need to avoid a deadlock in case a master thread has,
+          // in the meanwhile, allocated us and sent the wake_up() call before we
+          // had the chance to grab the lock.
           if (threadID >= activeThreads || threads[threadID].state == Thread::AVAILABLE)
               cond_wait(&threads[threadID].sleepCond, &threads[threadID].sleepLock);
 
@@ -2203,7 +2195,6 @@ void ThreadsManager::idle_loop(int threadID, SplitPoint* sp) {
           threads[threadID].state = Thread::SEARCHING;
 
           // Copy split point position and search stack and call search()
-          // with SplitPoint template parameter set to true.
           SearchStack ss[PLY_MAX_PLUS_2];
           SplitPoint* tsp = threads[threadID].splitPoint;
           Position pos(*tsp->pos, threadID);
@@ -2239,14 +2230,10 @@ void ThreadsManager::idle_loop(int threadID, SplitPoint* sp) {
 
       if (allFinished)
       {
-          // Because sp->slaves[] is reset under lock protection,
+          // Because sp->is_slave[] is reset under lock protection,
           // be sure sp->lock has been released before to return.
           lock_grab(&(sp->lock));
           lock_release(&(sp->lock));
-
-          // In helpful master concept a master can help only a sub-tree, and
-          // because here is all finished is not possible master is booked.
-          assert(threads[threadID].state == Thread::AVAILABLE);
           return;
       }
   }