Merge remote-tracking branch 'upstream/master' into HEAD
[stockfish] / src / misc.cpp
1 /*
2   Stockfish, a UCI chess playing engine derived from Glaurung 2.1
3   Copyright (C) 2004-2008 Tord Romstad (Glaurung author)
4   Copyright (C) 2008-2015 Marco Costalba, Joona Kiiski, Tord Romstad
5   Copyright (C) 2015-2020 Marco Costalba, Joona Kiiski, Gary Linscott, Tord Romstad
6
7   Stockfish is free software: you can redistribute it and/or modify
8   it under the terms of the GNU General Public License as published by
9   the Free Software Foundation, either version 3 of the License, or
10   (at your option) any later version.
11
12   Stockfish is distributed in the hope that it will be useful,
13   but WITHOUT ANY WARRANTY; without even the implied warranty of
14   MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
15   GNU General Public License for more details.
16
17   You should have received a copy of the GNU General Public License
18   along with this program.  If not, see <http://www.gnu.org/licenses/>.
19 */
20
21 #ifdef _WIN32
22 #if _WIN32_WINNT < 0x0601
23 #undef  _WIN32_WINNT
24 #define _WIN32_WINNT 0x0601 // Force to include needed API prototypes
25 #endif
26
27 #ifndef NOMINMAX
28 #define NOMINMAX
29 #endif
30
31 #include <windows.h>
32 // The needed Windows API for processor groups could be missed from old Windows
33 // versions, so instead of calling them directly (forcing the linker to resolve
34 // the calls at compile time), try to load them at runtime. To do this we need
35 // first to define the corresponding function pointers.
36 extern "C" {
37 typedef bool(*fun1_t)(LOGICAL_PROCESSOR_RELATIONSHIP,
38                       PSYSTEM_LOGICAL_PROCESSOR_INFORMATION_EX, PDWORD);
39 typedef bool(*fun2_t)(USHORT, PGROUP_AFFINITY);
40 typedef bool(*fun3_t)(HANDLE, CONST GROUP_AFFINITY*, PGROUP_AFFINITY);
41 }
42 #endif
43
44 #include <fstream>
45 #include <iomanip>
46 #include <iostream>
47 #include <sstream>
48 #include <vector>
49
50 #if defined(__linux__) && !defined(__ANDROID__)
51 #include <stdlib.h>
52 #include <sys/mman.h>
53 #endif
54
55 #include "misc.h"
56 #include "thread.h"
57
58 using namespace std;
59
60 namespace {
61
62 /// Version number. If Version is left empty, then compile date in the format
63 /// DD-MM-YY and show in engine_info.
64 const string Version = "";
65
66 /// Our fancy logging facility. The trick here is to replace cin.rdbuf() and
67 /// cout.rdbuf() with two Tie objects that tie cin and cout to a file stream. We
68 /// can toggle the logging of std::cout and std:cin at runtime whilst preserving
69 /// usual I/O functionality, all without changing a single line of code!
70 /// Idea from http://groups.google.com/group/comp.lang.c++/msg/1d941c0f26ea0d81
71
72 struct Tie: public streambuf { // MSVC requires split streambuf for cin and cout
73
74   Tie(streambuf* b, streambuf* l) : buf(b), logBuf(l) {}
75
76   int sync() override { return logBuf->pubsync(), buf->pubsync(); }
77   int overflow(int c) override { return log(buf->sputc((char)c), "<< "); }
78   int underflow() override { return buf->sgetc(); }
79   int uflow() override { return log(buf->sbumpc(), ">> "); }
80
81   streambuf *buf, *logBuf;
82
83   int log(int c, const char* prefix) {
84
85     static int last = '\n'; // Single log file
86
87     if (last == '\n')
88         logBuf->sputn(prefix, 3);
89
90     return last = logBuf->sputc((char)c);
91   }
92 };
93
94 class Logger {
95
96   Logger() : in(cin.rdbuf(), file.rdbuf()), out(cout.rdbuf(), file.rdbuf()) {}
97  ~Logger() { start(""); }
98
99   ofstream file;
100   Tie in, out;
101
102 public:
103   static void start(const std::string& fname) {
104
105     static Logger l;
106
107     if (!fname.empty() && !l.file.is_open())
108     {
109         l.file.open(fname, ifstream::out);
110
111         if (!l.file.is_open())
112         {
113             cerr << "Unable to open debug log file " << fname << endl;
114             exit(EXIT_FAILURE);
115         }
116
117         cin.rdbuf(&l.in);
118         cout.rdbuf(&l.out);
119     }
120     else if (fname.empty() && l.file.is_open())
121     {
122         cout.rdbuf(l.out.buf);
123         cin.rdbuf(l.in.buf);
124         l.file.close();
125     }
126   }
127 };
128
129 } // namespace
130
131 /// engine_info() returns the full name of the current Stockfish version. This
132 /// will be either "Stockfish <Tag> DD-MM-YY" (where DD-MM-YY is the date when
133 /// the program was compiled) or "Stockfish <Version>", depending on whether
134 /// Version is empty.
135
136 const string engine_info(bool to_uci) {
137
138   const string months("Jan Feb Mar Apr May Jun Jul Aug Sep Oct Nov Dec");
139   string month, day, year;
140   stringstream ss, date(__DATE__); // From compiler, format is "Sep 21 2008"
141
142   ss << "Stockfish " << Version << setfill('0');
143
144   if (Version.empty())
145   {
146       date >> month >> day >> year;
147       ss << setw(2) << day << setw(2) << (1 + months.find(month) / 4) << year.substr(2);
148       ss << "-asn";
149   }
150
151   ss << (Is64Bit ? " 64" : "")
152      << (HasPext ? " BMI2" : (HasPopCnt ? " POPCNT" : ""))
153      << (to_uci  ? "\nid author ": " by ")
154      << "T. Romstad, M. Costalba, J. Kiiski, G. Linscott";
155
156   return ss.str();
157 }
158
159
160 /// compiler_info() returns a string trying to describe the compiler we use
161
162 const std::string compiler_info() {
163
164   #define stringify2(x) #x
165   #define stringify(x) stringify2(x)
166   #define make_version_string(major, minor, patch) stringify(major) "." stringify(minor) "." stringify(patch)
167
168 /// Predefined macros hell:
169 ///
170 /// __GNUC__           Compiler is gcc, Clang or Intel on Linux
171 /// __INTEL_COMPILER   Compiler is Intel
172 /// _MSC_VER           Compiler is MSVC or Intel on Windows
173 /// _WIN32             Building on Windows (any)
174 /// _WIN64             Building on Windows 64 bit
175
176   std::string compiler = "\nCompiled by ";
177
178   #ifdef __clang__
179      compiler += "clang++ ";
180      compiler += make_version_string(__clang_major__, __clang_minor__, __clang_patchlevel__);
181   #elif __INTEL_COMPILER
182      compiler += "Intel compiler ";
183      compiler += "(version ";
184      compiler += stringify(__INTEL_COMPILER) " update " stringify(__INTEL_COMPILER_UPDATE);
185      compiler += ")";
186   #elif _MSC_VER
187      compiler += "MSVC ";
188      compiler += "(version ";
189      compiler += stringify(_MSC_FULL_VER) "." stringify(_MSC_BUILD);
190      compiler += ")";
191   #elif __GNUC__
192      compiler += "g++ (GNUC) ";
193      compiler += make_version_string(__GNUC__, __GNUC_MINOR__, __GNUC_PATCHLEVEL__);
194   #else
195      compiler += "Unknown compiler ";
196      compiler += "(unknown version)";
197   #endif
198
199   #if defined(__APPLE__)
200      compiler += " on Apple";
201   #elif defined(__CYGWIN__)
202      compiler += " on Cygwin";
203   #elif defined(__MINGW64__)
204      compiler += " on MinGW64";
205   #elif defined(__MINGW32__)
206      compiler += " on MinGW32";
207   #elif defined(__ANDROID__)
208      compiler += " on Android";
209   #elif defined(__linux__)
210      compiler += " on Linux";
211   #elif defined(_WIN64)
212      compiler += " on Microsoft Windows 64-bit";
213   #elif defined(_WIN32)
214      compiler += " on Microsoft Windows 32-bit";
215   #else
216      compiler += " on unknown system";
217   #endif
218
219   compiler += "\n __VERSION__ macro expands to: ";
220   #ifdef __VERSION__
221      compiler += __VERSION__;
222   #else
223      compiler += "(undefined macro)";
224   #endif
225   compiler += "\n";
226
227   return compiler;
228 }
229
230
231 /// Debug functions used mainly to collect run-time statistics
232 static std::atomic<int64_t> hits[2], means[2];
233
234 void dbg_hit_on(bool b) { ++hits[0]; if (b) ++hits[1]; }
235 void dbg_hit_on(bool c, bool b) { if (c) dbg_hit_on(b); }
236 void dbg_mean_of(int v) { ++means[0]; means[1] += v; }
237
238 void dbg_print() {
239
240   if (hits[0])
241       cerr << "Total " << hits[0] << " Hits " << hits[1]
242            << " hit rate (%) " << 100 * hits[1] / hits[0] << endl;
243
244   if (means[0])
245       cerr << "Total " << means[0] << " Mean "
246            << (double)means[1] / means[0] << endl;
247 }
248
249
250 /// Used to serialize access to std::cout to avoid multiple threads writing at
251 /// the same time.
252
253 std::ostream& operator<<(std::ostream& os, SyncCout sc) {
254
255   static std::mutex m;
256
257   if (sc == IO_LOCK)
258       m.lock();
259
260   if (sc == IO_UNLOCK)
261       m.unlock();
262
263   return os;
264 }
265
266
267 /// Trampoline helper to avoid moving Logger to misc.h
268 void start_logger(const std::string& fname) { Logger::start(fname); }
269
270
271 /// prefetch() preloads the given address in L1/L2 cache. This is a non-blocking
272 /// function that doesn't stall the CPU waiting for data to be loaded from memory,
273 /// which can be quite slow.
274 #ifdef NO_PREFETCH
275
276 void prefetch(void*) {}
277
278 #else
279
280 void prefetch(void* addr) {
281
282 #  if defined(__INTEL_COMPILER)
283    // This hack prevents prefetches from being optimized away by
284    // Intel compiler. Both MSVC and gcc seem not be affected by this.
285    __asm__ ("");
286 #  endif
287
288 #  if defined(__INTEL_COMPILER) || defined(_MSC_VER)
289   _mm_prefetch((char*)addr, _MM_HINT_T0);
290 #  else
291   __builtin_prefetch(addr);
292 #  endif
293 }
294
295 #endif
296
297
298 /// aligned_ttmem_alloc() will return suitably aligned memory, and if possible use large pages.
299 /// The returned pointer is the aligned one, while the mem argument is the one that needs
300 /// to be passed to free. With c++17 some of this functionality could be simplified.
301
302 #if defined(__linux__) && !defined(__ANDROID__)
303
304 void* aligned_ttmem_alloc(size_t allocSize, void*& mem) {
305
306   constexpr size_t alignment = 2 * 1024 * 1024; // assumed 2MB page sizes
307   size_t size = ((allocSize + alignment - 1) / alignment) * alignment; // multiple of alignment
308   if (posix_memalign(&mem, alignment, size))
309      mem = nullptr;
310   madvise(mem, allocSize, MADV_HUGEPAGE);
311   return mem;
312 }
313
314 #elif defined(_WIN64)
315
316 static void* aligned_ttmem_alloc_large_pages(size_t allocSize) {
317
318   HANDLE hProcessToken { };
319   LUID luid { };
320   void* mem = nullptr;
321
322   const size_t largePageSize = GetLargePageMinimum();
323   if (!largePageSize)
324       return nullptr;
325
326   // We need SeLockMemoryPrivilege, so try to enable it for the process
327   if (!OpenProcessToken(GetCurrentProcess(), TOKEN_ADJUST_PRIVILEGES | TOKEN_QUERY, &hProcessToken))
328       return nullptr;
329
330   if (LookupPrivilegeValue(NULL, SE_LOCK_MEMORY_NAME, &luid))
331   {
332       TOKEN_PRIVILEGES tp { };
333       TOKEN_PRIVILEGES prevTp { };
334       DWORD prevTpLen = 0;
335
336       tp.PrivilegeCount = 1;
337       tp.Privileges[0].Luid = luid;
338       tp.Privileges[0].Attributes = SE_PRIVILEGE_ENABLED;
339
340       // Try to enable SeLockMemoryPrivilege. Note that even if AdjustTokenPrivileges() succeeds,
341       // we still need to query GetLastError() to ensure that the privileges were actually obtained.
342       if (AdjustTokenPrivileges(
343               hProcessToken, FALSE, &tp, sizeof(TOKEN_PRIVILEGES), &prevTp, &prevTpLen) &&
344           GetLastError() == ERROR_SUCCESS)
345       {
346           // Round up size to full pages and allocate
347           allocSize = (allocSize + largePageSize - 1) & ~size_t(largePageSize - 1);
348           mem = VirtualAlloc(
349               NULL, allocSize, MEM_RESERVE | MEM_COMMIT | MEM_LARGE_PAGES, PAGE_READWRITE);
350
351           // Privilege no longer needed, restore previous state
352           AdjustTokenPrivileges(hProcessToken, FALSE, &prevTp, 0, NULL, NULL);
353       }
354   }
355
356   CloseHandle(hProcessToken);
357
358   return mem;
359 }
360
361 void* aligned_ttmem_alloc(size_t allocSize, void*& mem) {
362
363   static bool firstCall = true;
364
365   // Try to allocate large pages
366   mem = aligned_ttmem_alloc_large_pages(allocSize);
367
368   // Suppress info strings on the first call. The first call occurs before 'uci'
369   // is received and in that case this output confuses some GUIs.
370   if (!firstCall)
371   {
372       if (mem)
373           sync_cout << "info string Hash table allocation: Windows large pages used." << sync_endl;
374       else
375           sync_cout << "info string Hash table allocation: Windows large pages not used." << sync_endl;
376   }
377   firstCall = false;
378
379   // Fall back to regular, page aligned, allocation if necessary
380   if (!mem)
381       mem = VirtualAlloc(NULL, allocSize, MEM_RESERVE | MEM_COMMIT, PAGE_READWRITE);
382
383   return mem;
384 }
385
386 #else
387
388 void* aligned_ttmem_alloc(size_t allocSize, void*& mem) {
389
390   constexpr size_t alignment = 64; // assumed cache line size
391   size_t size = allocSize + alignment - 1; // allocate some extra space
392   mem = malloc(size);
393   void* ret = reinterpret_cast<void*>((uintptr_t(mem) + alignment - 1) & ~uintptr_t(alignment - 1));
394   return ret;
395 }
396
397 #endif
398
399
400 /// aligned_ttmem_free() will free the previously allocated ttmem
401
402 #if defined(_WIN64)
403
404 void aligned_ttmem_free(void* mem) {
405
406   if (mem && !VirtualFree(mem, 0, MEM_RELEASE))
407   {
408       DWORD err = GetLastError();
409       std::cerr << "Failed to free transposition table. Error code: 0x" <<
410           std::hex << err << std::dec << std::endl;
411       exit(EXIT_FAILURE);
412   }
413 }
414
415 #else
416
417 void aligned_ttmem_free(void *mem) {
418   free(mem);
419 }
420
421 #endif
422
423
424 namespace WinProcGroup {
425
426 #ifndef _WIN32
427
428 void bindThisThread(size_t) {}
429
430 #else
431
432 /// best_group() retrieves logical processor information using Windows specific
433 /// API and returns the best group id for the thread with index idx. Original
434 /// code from Texel by Peter Ă–sterlund.
435
436 int best_group(size_t idx) {
437
438   int threads = 0;
439   int nodes = 0;
440   int cores = 0;
441   DWORD returnLength = 0;
442   DWORD byteOffset = 0;
443
444   // Early exit if the needed API is not available at runtime
445   HMODULE k32 = GetModuleHandle("Kernel32.dll");
446   auto fun1 = (fun1_t)(void(*)())GetProcAddress(k32, "GetLogicalProcessorInformationEx");
447   if (!fun1)
448       return -1;
449
450   // First call to get returnLength. We expect it to fail due to null buffer
451   if (fun1(RelationAll, nullptr, &returnLength))
452       return -1;
453
454   // Once we know returnLength, allocate the buffer
455   SYSTEM_LOGICAL_PROCESSOR_INFORMATION_EX *buffer, *ptr;
456   ptr = buffer = (SYSTEM_LOGICAL_PROCESSOR_INFORMATION_EX*)malloc(returnLength);
457
458   // Second call, now we expect to succeed
459   if (!fun1(RelationAll, buffer, &returnLength))
460   {
461       free(buffer);
462       return -1;
463   }
464
465   while (byteOffset < returnLength)
466   {
467       if (ptr->Relationship == RelationNumaNode)
468           nodes++;
469
470       else if (ptr->Relationship == RelationProcessorCore)
471       {
472           cores++;
473           threads += (ptr->Processor.Flags == LTP_PC_SMT) ? 2 : 1;
474       }
475
476       assert(ptr->Size);
477       byteOffset += ptr->Size;
478       ptr = (SYSTEM_LOGICAL_PROCESSOR_INFORMATION_EX*)(((char*)ptr) + ptr->Size);
479   }
480
481   free(buffer);
482
483   std::vector<int> groups;
484
485   // Run as many threads as possible on the same node until core limit is
486   // reached, then move on filling the next node.
487   for (int n = 0; n < nodes; n++)
488       for (int i = 0; i < cores / nodes; i++)
489           groups.push_back(n);
490
491   // In case a core has more than one logical processor (we assume 2) and we
492   // have still threads to allocate, then spread them evenly across available
493   // nodes.
494   for (int t = 0; t < threads - cores; t++)
495       groups.push_back(t % nodes);
496
497   // If we still have more threads than the total number of logical processors
498   // then return -1 and let the OS to decide what to do.
499   return idx < groups.size() ? groups[idx] : -1;
500 }
501
502
503 /// bindThisThread() set the group affinity of the current thread
504
505 void bindThisThread(size_t idx) {
506
507   // Use only local variables to be thread-safe
508   int group = best_group(idx);
509
510   if (group == -1)
511       return;
512
513   // Early exit if the needed API are not available at runtime
514   HMODULE k32 = GetModuleHandle("Kernel32.dll");
515   auto fun2 = (fun2_t)(void(*)())GetProcAddress(k32, "GetNumaNodeProcessorMaskEx");
516   auto fun3 = (fun3_t)(void(*)())GetProcAddress(k32, "SetThreadGroupAffinity");
517
518   if (!fun2 || !fun3)
519       return;
520
521   GROUP_AFFINITY affinity;
522   if (fun2(group, &affinity))
523       fun3(GetCurrentThread(), &affinity, nullptr);
524 }
525
526 #endif
527
528 } // namespace WinProcGroup