Deal with very old linux kernels
[stockfish] / src / misc.cpp
1 /*
2   Stockfish, a UCI chess playing engine derived from Glaurung 2.1
3   Copyright (C) 2004-2020 The Stockfish developers (see AUTHORS file)
4
5   Stockfish is free software: you can redistribute it and/or modify
6   it under the terms of the GNU General Public License as published by
7   the Free Software Foundation, either version 3 of the License, or
8   (at your option) any later version.
9
10   Stockfish is distributed in the hope that it will be useful,
11   but WITHOUT ANY WARRANTY; without even the implied warranty of
12   MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
13   GNU General Public License for more details.
14
15   You should have received a copy of the GNU General Public License
16   along with this program.  If not, see <http://www.gnu.org/licenses/>.
17 */
18
19 #ifdef _WIN32
20 #if _WIN32_WINNT < 0x0601
21 #undef  _WIN32_WINNT
22 #define _WIN32_WINNT 0x0601 // Force to include needed API prototypes
23 #endif
24
25 #ifndef NOMINMAX
26 #define NOMINMAX
27 #endif
28
29 #include <windows.h>
30 // The needed Windows API for processor groups could be missed from old Windows
31 // versions, so instead of calling them directly (forcing the linker to resolve
32 // the calls at compile time), try to load them at runtime. To do this we need
33 // first to define the corresponding function pointers.
34 extern "C" {
35 typedef bool(*fun1_t)(LOGICAL_PROCESSOR_RELATIONSHIP,
36                       PSYSTEM_LOGICAL_PROCESSOR_INFORMATION_EX, PDWORD);
37 typedef bool(*fun2_t)(USHORT, PGROUP_AFFINITY);
38 typedef bool(*fun3_t)(HANDLE, CONST GROUP_AFFINITY*, PGROUP_AFFINITY);
39 }
40 #endif
41
42 #include <fstream>
43 #include <iomanip>
44 #include <iostream>
45 #include <sstream>
46 #include <vector>
47 #include <cstdlib>
48
49 #if defined(__linux__) && !defined(__ANDROID__)
50 #include <stdlib.h>
51 #include <sys/mman.h>
52 #endif
53
54 #if defined(__APPLE__) || defined(__ANDROID__) || defined(__OpenBSD__) || (defined(__GLIBCXX__) && !defined(_GLIBCXX_HAVE_ALIGNED_ALLOC) && !defined(_WIN32))
55 #define POSIXALIGNEDALLOC
56 #include <stdlib.h>
57 #endif
58
59 #include "misc.h"
60 #include "thread.h"
61
62 using namespace std;
63
64 namespace {
65
66 /// Version number. If Version is left empty, then compile date in the format
67 /// DD-MM-YY and show in engine_info.
68 const string Version = "";
69
70 /// Our fancy logging facility. The trick here is to replace cin.rdbuf() and
71 /// cout.rdbuf() with two Tie objects that tie cin and cout to a file stream. We
72 /// can toggle the logging of std::cout and std:cin at runtime whilst preserving
73 /// usual I/O functionality, all without changing a single line of code!
74 /// Idea from http://groups.google.com/group/comp.lang.c++/msg/1d941c0f26ea0d81
75
76 struct Tie: public streambuf { // MSVC requires split streambuf for cin and cout
77
78   Tie(streambuf* b, streambuf* l) : buf(b), logBuf(l) {}
79
80   int sync() override { return logBuf->pubsync(), buf->pubsync(); }
81   int overflow(int c) override { return log(buf->sputc((char)c), "<< "); }
82   int underflow() override { return buf->sgetc(); }
83   int uflow() override { return log(buf->sbumpc(), ">> "); }
84
85   streambuf *buf, *logBuf;
86
87   int log(int c, const char* prefix) {
88
89     static int last = '\n'; // Single log file
90
91     if (last == '\n')
92         logBuf->sputn(prefix, 3);
93
94     return last = logBuf->sputc((char)c);
95   }
96 };
97
98 class Logger {
99
100   Logger() : in(cin.rdbuf(), file.rdbuf()), out(cout.rdbuf(), file.rdbuf()) {}
101  ~Logger() { start(""); }
102
103   ofstream file;
104   Tie in, out;
105
106 public:
107   static void start(const std::string& fname) {
108
109     static Logger l;
110
111     if (!fname.empty() && !l.file.is_open())
112     {
113         l.file.open(fname, ifstream::out);
114
115         if (!l.file.is_open())
116         {
117             cerr << "Unable to open debug log file " << fname << endl;
118             exit(EXIT_FAILURE);
119         }
120
121         cin.rdbuf(&l.in);
122         cout.rdbuf(&l.out);
123     }
124     else if (fname.empty() && l.file.is_open())
125     {
126         cout.rdbuf(l.out.buf);
127         cin.rdbuf(l.in.buf);
128         l.file.close();
129     }
130   }
131 };
132
133 } // namespace
134
135 /// engine_info() returns the full name of the current Stockfish version. This
136 /// will be either "Stockfish <Tag> DD-MM-YY" (where DD-MM-YY is the date when
137 /// the program was compiled) or "Stockfish <Version>", depending on whether
138 /// Version is empty.
139
140 const string engine_info(bool to_uci) {
141
142   const string months("Jan Feb Mar Apr May Jun Jul Aug Sep Oct Nov Dec");
143   string month, day, year;
144   stringstream ss, date(__DATE__); // From compiler, format is "Sep 21 2008"
145
146   ss << "Stockfish " << Version << setfill('0');
147
148   if (Version.empty())
149   {
150       date >> month >> day >> year;
151       ss << setw(2) << day << setw(2) << (1 + months.find(month) / 4) << year.substr(2);
152   }
153
154   ss << (to_uci  ? "\nid author ": " by ")
155      << "the Stockfish developers (see AUTHORS file)";
156
157   return ss.str();
158 }
159
160
161 /// compiler_info() returns a string trying to describe the compiler we use
162
163 const std::string compiler_info() {
164
165   #define stringify2(x) #x
166   #define stringify(x) stringify2(x)
167   #define make_version_string(major, minor, patch) stringify(major) "." stringify(minor) "." stringify(patch)
168
169 /// Predefined macros hell:
170 ///
171 /// __GNUC__           Compiler is gcc, Clang or Intel on Linux
172 /// __INTEL_COMPILER   Compiler is Intel
173 /// _MSC_VER           Compiler is MSVC or Intel on Windows
174 /// _WIN32             Building on Windows (any)
175 /// _WIN64             Building on Windows 64 bit
176
177   std::string compiler = "\nCompiled by ";
178
179   #ifdef __clang__
180      compiler += "clang++ ";
181      compiler += make_version_string(__clang_major__, __clang_minor__, __clang_patchlevel__);
182   #elif __INTEL_COMPILER
183      compiler += "Intel compiler ";
184      compiler += "(version ";
185      compiler += stringify(__INTEL_COMPILER) " update " stringify(__INTEL_COMPILER_UPDATE);
186      compiler += ")";
187   #elif _MSC_VER
188      compiler += "MSVC ";
189      compiler += "(version ";
190      compiler += stringify(_MSC_FULL_VER) "." stringify(_MSC_BUILD);
191      compiler += ")";
192   #elif __GNUC__
193      compiler += "g++ (GNUC) ";
194      compiler += make_version_string(__GNUC__, __GNUC_MINOR__, __GNUC_PATCHLEVEL__);
195   #else
196      compiler += "Unknown compiler ";
197      compiler += "(unknown version)";
198   #endif
199
200   #if defined(__APPLE__)
201      compiler += " on Apple";
202   #elif defined(__CYGWIN__)
203      compiler += " on Cygwin";
204   #elif defined(__MINGW64__)
205      compiler += " on MinGW64";
206   #elif defined(__MINGW32__)
207      compiler += " on MinGW32";
208   #elif defined(__ANDROID__)
209      compiler += " on Android";
210   #elif defined(__linux__)
211      compiler += " on Linux";
212   #elif defined(_WIN64)
213      compiler += " on Microsoft Windows 64-bit";
214   #elif defined(_WIN32)
215      compiler += " on Microsoft Windows 32-bit";
216   #else
217      compiler += " on unknown system";
218   #endif
219
220   compiler += "\nCompilation settings include: ";
221   compiler += (Is64Bit ? " 64bit" : " 32bit");
222   #if defined(USE_VNNI)
223     compiler += " VNNI";
224   #endif
225   #if defined(USE_AVX512)
226     compiler += " AVX512";
227   #endif
228   compiler += (HasPext ? " BMI2" : "");
229   #if defined(USE_AVX2)
230     compiler += " AVX2";
231   #endif
232   #if defined(USE_SSE41)
233     compiler += " SSE41";
234   #endif
235   #if defined(USE_SSSE3)
236     compiler += " SSSE3";
237   #endif
238   #if defined(USE_SSE2)
239     compiler += " SSE2";
240   #endif
241   compiler += (HasPopCnt ? " POPCNT" : "");
242   #if defined(USE_MMX)
243     compiler += " MMX";
244   #endif
245   #if defined(USE_NEON)
246     compiler += " NEON";
247   #endif
248
249   #if !defined(NDEBUG)
250     compiler += " DEBUG";
251   #endif
252
253   compiler += "\n__VERSION__ macro expands to: ";
254   #ifdef __VERSION__
255      compiler += __VERSION__;
256   #else
257      compiler += "(undefined macro)";
258   #endif
259   compiler += "\n";
260
261   return compiler;
262 }
263
264
265 /// Debug functions used mainly to collect run-time statistics
266 static std::atomic<int64_t> hits[2], means[2];
267
268 void dbg_hit_on(bool b) { ++hits[0]; if (b) ++hits[1]; }
269 void dbg_hit_on(bool c, bool b) { if (c) dbg_hit_on(b); }
270 void dbg_mean_of(int v) { ++means[0]; means[1] += v; }
271
272 void dbg_print() {
273
274   if (hits[0])
275       cerr << "Total " << hits[0] << " Hits " << hits[1]
276            << " hit rate (%) " << 100 * hits[1] / hits[0] << endl;
277
278   if (means[0])
279       cerr << "Total " << means[0] << " Mean "
280            << (double)means[1] / means[0] << endl;
281 }
282
283
284 /// Used to serialize access to std::cout to avoid multiple threads writing at
285 /// the same time.
286
287 std::ostream& operator<<(std::ostream& os, SyncCout sc) {
288
289   static std::mutex m;
290
291   if (sc == IO_LOCK)
292       m.lock();
293
294   if (sc == IO_UNLOCK)
295       m.unlock();
296
297   return os;
298 }
299
300
301 /// Trampoline helper to avoid moving Logger to misc.h
302 void start_logger(const std::string& fname) { Logger::start(fname); }
303
304
305 /// prefetch() preloads the given address in L1/L2 cache. This is a non-blocking
306 /// function that doesn't stall the CPU waiting for data to be loaded from memory,
307 /// which can be quite slow.
308 #ifdef NO_PREFETCH
309
310 void prefetch(void*) {}
311
312 #else
313
314 void prefetch(void* addr) {
315
316 #  if defined(__INTEL_COMPILER)
317    // This hack prevents prefetches from being optimized away by
318    // Intel compiler. Both MSVC and gcc seem not be affected by this.
319    __asm__ ("");
320 #  endif
321
322 #  if defined(__INTEL_COMPILER) || defined(_MSC_VER)
323   _mm_prefetch((char*)addr, _MM_HINT_T0);
324 #  else
325   __builtin_prefetch(addr);
326 #  endif
327 }
328
329 #endif
330
331 /// Wrappers for systems where the c++17 implementation doesn't guarantee the availability of aligned_alloc.
332 /// Memory allocated with std_aligned_alloc must be freed with std_aligned_free.
333 ///
334
335 void* std_aligned_alloc(size_t alignment, size_t size) {
336 #if defined(POSIXALIGNEDALLOC)
337   void *pointer;
338   if(posix_memalign(&pointer, alignment, size) == 0)
339       return pointer;
340   return nullptr;
341 #elif defined(_WIN32)
342   return _mm_malloc(size, alignment);
343 #else
344   return std::aligned_alloc(alignment, size);
345 #endif
346 }
347
348 void std_aligned_free(void* ptr) {
349 #if defined(POSIXALIGNEDALLOC)
350   free(ptr);
351 #elif defined(_WIN32)
352   _mm_free(ptr);
353 #else
354   free(ptr);
355 #endif
356 }
357
358 /// aligned_ttmem_alloc() will return suitably aligned memory, and if possible use large pages.
359 /// The returned pointer is the aligned one, while the mem argument is the one that needs
360 /// to be passed to free. With c++17 some of this functionality could be simplified.
361
362 #if defined(__linux__) && !defined(__ANDROID__)
363
364 void* aligned_ttmem_alloc(size_t allocSize, void*& mem) {
365
366   constexpr size_t alignment = 2 * 1024 * 1024; // assumed 2MB page sizes
367   size_t size = ((allocSize + alignment - 1) / alignment) * alignment; // multiple of alignment
368   if (posix_memalign(&mem, alignment, size))
369      mem = nullptr;
370 #if defined(MADV_HUGEPAGE)
371   madvise(mem, allocSize, MADV_HUGEPAGE);
372 #endif
373   return mem;
374 }
375
376 #elif defined(_WIN64)
377
378 static void* aligned_ttmem_alloc_large_pages(size_t allocSize) {
379
380   HANDLE hProcessToken { };
381   LUID luid { };
382   void* mem = nullptr;
383
384   const size_t largePageSize = GetLargePageMinimum();
385   if (!largePageSize)
386       return nullptr;
387
388   // We need SeLockMemoryPrivilege, so try to enable it for the process
389   if (!OpenProcessToken(GetCurrentProcess(), TOKEN_ADJUST_PRIVILEGES | TOKEN_QUERY, &hProcessToken))
390       return nullptr;
391
392   if (LookupPrivilegeValue(NULL, SE_LOCK_MEMORY_NAME, &luid))
393   {
394       TOKEN_PRIVILEGES tp { };
395       TOKEN_PRIVILEGES prevTp { };
396       DWORD prevTpLen = 0;
397
398       tp.PrivilegeCount = 1;
399       tp.Privileges[0].Luid = luid;
400       tp.Privileges[0].Attributes = SE_PRIVILEGE_ENABLED;
401
402       // Try to enable SeLockMemoryPrivilege. Note that even if AdjustTokenPrivileges() succeeds,
403       // we still need to query GetLastError() to ensure that the privileges were actually obtained.
404       if (AdjustTokenPrivileges(
405               hProcessToken, FALSE, &tp, sizeof(TOKEN_PRIVILEGES), &prevTp, &prevTpLen) &&
406           GetLastError() == ERROR_SUCCESS)
407       {
408           // Round up size to full pages and allocate
409           allocSize = (allocSize + largePageSize - 1) & ~size_t(largePageSize - 1);
410           mem = VirtualAlloc(
411               NULL, allocSize, MEM_RESERVE | MEM_COMMIT | MEM_LARGE_PAGES, PAGE_READWRITE);
412
413           // Privilege no longer needed, restore previous state
414           AdjustTokenPrivileges(hProcessToken, FALSE, &prevTp, 0, NULL, NULL);
415       }
416   }
417
418   CloseHandle(hProcessToken);
419
420   return mem;
421 }
422
423 void* aligned_ttmem_alloc(size_t allocSize, void*& mem) {
424
425   static bool firstCall = true;
426
427   // Try to allocate large pages
428   mem = aligned_ttmem_alloc_large_pages(allocSize);
429
430   // Suppress info strings on the first call. The first call occurs before 'uci'
431   // is received and in that case this output confuses some GUIs.
432   if (!firstCall)
433   {
434       if (mem)
435           sync_cout << "info string Hash table allocation: Windows large pages used." << sync_endl;
436       else
437           sync_cout << "info string Hash table allocation: Windows large pages not used." << sync_endl;
438   }
439   firstCall = false;
440
441   // Fall back to regular, page aligned, allocation if necessary
442   if (!mem)
443       mem = VirtualAlloc(NULL, allocSize, MEM_RESERVE | MEM_COMMIT, PAGE_READWRITE);
444
445   return mem;
446 }
447
448 #else
449
450 void* aligned_ttmem_alloc(size_t allocSize, void*& mem) {
451
452   constexpr size_t alignment = 64; // assumed cache line size
453   size_t size = allocSize + alignment - 1; // allocate some extra space
454   mem = malloc(size);
455   void* ret = reinterpret_cast<void*>((uintptr_t(mem) + alignment - 1) & ~uintptr_t(alignment - 1));
456   return ret;
457 }
458
459 #endif
460
461
462 /// aligned_ttmem_free() will free the previously allocated ttmem
463
464 #if defined(_WIN64)
465
466 void aligned_ttmem_free(void* mem) {
467
468   if (mem && !VirtualFree(mem, 0, MEM_RELEASE))
469   {
470       DWORD err = GetLastError();
471       std::cerr << "Failed to free transposition table. Error code: 0x" <<
472           std::hex << err << std::dec << std::endl;
473       exit(EXIT_FAILURE);
474   }
475 }
476
477 #else
478
479 void aligned_ttmem_free(void *mem) {
480   free(mem);
481 }
482
483 #endif
484
485
486 namespace WinProcGroup {
487
488 #ifndef _WIN32
489
490 void bindThisThread(size_t) {}
491
492 #else
493
494 /// best_group() retrieves logical processor information using Windows specific
495 /// API and returns the best group id for the thread with index idx. Original
496 /// code from Texel by Peter Ă–sterlund.
497
498 int best_group(size_t idx) {
499
500   int threads = 0;
501   int nodes = 0;
502   int cores = 0;
503   DWORD returnLength = 0;
504   DWORD byteOffset = 0;
505
506   // Early exit if the needed API is not available at runtime
507   HMODULE k32 = GetModuleHandle("Kernel32.dll");
508   auto fun1 = (fun1_t)(void(*)())GetProcAddress(k32, "GetLogicalProcessorInformationEx");
509   if (!fun1)
510       return -1;
511
512   // First call to get returnLength. We expect it to fail due to null buffer
513   if (fun1(RelationAll, nullptr, &returnLength))
514       return -1;
515
516   // Once we know returnLength, allocate the buffer
517   SYSTEM_LOGICAL_PROCESSOR_INFORMATION_EX *buffer, *ptr;
518   ptr = buffer = (SYSTEM_LOGICAL_PROCESSOR_INFORMATION_EX*)malloc(returnLength);
519
520   // Second call, now we expect to succeed
521   if (!fun1(RelationAll, buffer, &returnLength))
522   {
523       free(buffer);
524       return -1;
525   }
526
527   while (byteOffset < returnLength)
528   {
529       if (ptr->Relationship == RelationNumaNode)
530           nodes++;
531
532       else if (ptr->Relationship == RelationProcessorCore)
533       {
534           cores++;
535           threads += (ptr->Processor.Flags == LTP_PC_SMT) ? 2 : 1;
536       }
537
538       assert(ptr->Size);
539       byteOffset += ptr->Size;
540       ptr = (SYSTEM_LOGICAL_PROCESSOR_INFORMATION_EX*)(((char*)ptr) + ptr->Size);
541   }
542
543   free(buffer);
544
545   std::vector<int> groups;
546
547   // Run as many threads as possible on the same node until core limit is
548   // reached, then move on filling the next node.
549   for (int n = 0; n < nodes; n++)
550       for (int i = 0; i < cores / nodes; i++)
551           groups.push_back(n);
552
553   // In case a core has more than one logical processor (we assume 2) and we
554   // have still threads to allocate, then spread them evenly across available
555   // nodes.
556   for (int t = 0; t < threads - cores; t++)
557       groups.push_back(t % nodes);
558
559   // If we still have more threads than the total number of logical processors
560   // then return -1 and let the OS to decide what to do.
561   return idx < groups.size() ? groups[idx] : -1;
562 }
563
564
565 /// bindThisThread() set the group affinity of the current thread
566
567 void bindThisThread(size_t idx) {
568
569   // Use only local variables to be thread-safe
570   int group = best_group(idx);
571
572   if (group == -1)
573       return;
574
575   // Early exit if the needed API are not available at runtime
576   HMODULE k32 = GetModuleHandle("Kernel32.dll");
577   auto fun2 = (fun2_t)(void(*)())GetProcAddress(k32, "GetNumaNodeProcessorMaskEx");
578   auto fun3 = (fun3_t)(void(*)())GetProcAddress(k32, "SetThreadGroupAffinity");
579
580   if (!fun2 || !fun3)
581       return;
582
583   GROUP_AFFINITY affinity;
584   if (fun2(group, &affinity))
585       fun3(GetCurrentThread(), &affinity, nullptr);
586 }
587
588 #endif
589
590 } // namespace WinProcGroup