]> git.sesse.net Git - stockfish/blob - src/misc.cpp
Unify type alias declarations
[stockfish] / src / misc.cpp
1 /*
2   Stockfish, a UCI chess playing engine derived from Glaurung 2.1
3   Copyright (C) 2004-2023 The Stockfish developers (see AUTHORS file)
4
5   Stockfish is free software: you can redistribute it and/or modify
6   it under the terms of the GNU General Public License as published by
7   the Free Software Foundation, either version 3 of the License, or
8   (at your option) any later version.
9
10   Stockfish is distributed in the hope that it will be useful,
11   but WITHOUT ANY WARRANTY; without even the implied warranty of
12   MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
13   GNU General Public License for more details.
14
15   You should have received a copy of the GNU General Public License
16   along with this program.  If not, see <http://www.gnu.org/licenses/>.
17 */
18
19 #ifdef _WIN32
20 #if _WIN32_WINNT < 0x0601
21 #undef  _WIN32_WINNT
22 #define _WIN32_WINNT 0x0601 // Force to include needed API prototypes
23 #endif
24
25 #ifndef NOMINMAX
26 #define NOMINMAX
27 #endif
28
29 #include <windows.h>
30 // The needed Windows API for processor groups could be missed from old Windows
31 // versions, so instead of calling them directly (forcing the linker to resolve
32 // the calls at compile time), try to load them at runtime. To do this we need
33 // first to define the corresponding function pointers.
34 extern "C" {
35 using fun1_t = bool(*)(LOGICAL_PROCESSOR_RELATIONSHIP,
36                        PSYSTEM_LOGICAL_PROCESSOR_INFORMATION_EX, PDWORD);
37 using fun2_t = bool(*)(USHORT, PGROUP_AFFINITY);
38 using fun3_t = bool(*)(HANDLE, CONST GROUP_AFFINITY*, PGROUP_AFFINITY);
39 using fun4_t = bool(*)(USHORT, PGROUP_AFFINITY, USHORT, PUSHORT);
40 using fun5_t = WORD(*)();
41 }
42 #endif
43
44 #include <cmath>
45 #include <cstdlib>
46 #include <fstream>
47 #include <iomanip>
48 #include <iostream>
49 #include <sstream>
50 #include <string_view>
51 #include <vector>
52
53 #if defined(__linux__) && !defined(__ANDROID__)
54 #include <stdlib.h>
55 #include <sys/mman.h>
56 #endif
57
58 #if defined(__APPLE__) || defined(__ANDROID__) || defined(__OpenBSD__) || (defined(__GLIBCXX__) && !defined(_GLIBCXX_HAVE_ALIGNED_ALLOC) && !defined(_WIN32)) || defined(__e2k__)
59 #define POSIXALIGNEDALLOC
60 #include <stdlib.h>
61 #endif
62
63 #include "misc.h"
64 #include "thread.h"
65
66 using namespace std;
67
68 namespace Stockfish {
69
70 namespace {
71
72 /// Version number or dev.
73 constexpr string_view version = "dev";
74
75 /// Our fancy logging facility. The trick here is to replace cin.rdbuf() and
76 /// cout.rdbuf() with two Tie objects that tie cin and cout to a file stream. We
77 /// can toggle the logging of std::cout and std:cin at runtime whilst preserving
78 /// usual I/O functionality, all without changing a single line of code!
79 /// Idea from http://groups.google.com/group/comp.lang.c++/msg/1d941c0f26ea0d81
80
81 struct Tie: public streambuf { // MSVC requires split streambuf for cin and cout
82
83   Tie(streambuf* b, streambuf* l) : buf(b), logBuf(l) {}
84
85   int sync() override { return logBuf->pubsync(), buf->pubsync(); }
86   int overflow(int c) override { return log(buf->sputc((char)c), "<< "); }
87   int underflow() override { return buf->sgetc(); }
88   int uflow() override { return log(buf->sbumpc(), ">> "); }
89
90   streambuf *buf, *logBuf;
91
92   int log(int c, const char* prefix) {
93
94     static int last = '\n'; // Single log file
95
96     if (last == '\n')
97         logBuf->sputn(prefix, 3);
98
99     return last = logBuf->sputc((char)c);
100   }
101 };
102
103 class Logger {
104
105   Logger() : in(cin.rdbuf(), file.rdbuf()), out(cout.rdbuf(), file.rdbuf()) {}
106  ~Logger() { start(""); }
107
108   ofstream file;
109   Tie in, out;
110
111 public:
112   static void start(const std::string& fname) {
113
114     static Logger l;
115
116     if (l.file.is_open())
117     {
118         cout.rdbuf(l.out.buf);
119         cin.rdbuf(l.in.buf);
120         l.file.close();
121     }
122
123     if (!fname.empty())
124     {
125         l.file.open(fname, ifstream::out);
126
127         if (!l.file.is_open())
128         {
129             cerr << "Unable to open debug log file " << fname << endl;
130             exit(EXIT_FAILURE);
131         }
132
133         cin.rdbuf(&l.in);
134         cout.rdbuf(&l.out);
135     }
136   }
137 };
138
139 } // namespace
140
141
142 /// engine_info() returns the full name of the current Stockfish version.
143 /// For local dev compiles we try to append the commit sha and commit date
144 /// from git if that fails only the local compilation date is set and "nogit" is specified:
145 /// Stockfish dev-YYYYMMDD-SHA
146 /// or
147 /// Stockfish dev-YYYYMMDD-nogit
148 ///
149 /// For releases (non dev builds) we only include the version number:
150 /// Stockfish version
151
152 string engine_info(bool to_uci) {
153   stringstream ss;
154   ss << "Stockfish " << version << setfill('0');
155
156   if constexpr (version == "dev")
157   {
158       ss << "-";
159       #ifdef GIT_DATE
160       ss << GIT_DATE;
161       #else
162       constexpr string_view months("Jan Feb Mar Apr May Jun Jul Aug Sep Oct Nov Dec");
163       string month, day, year;
164       stringstream date(__DATE__); // From compiler, format is "Sep 21 2008"
165
166       date >> month >> day >> year;
167       ss << year << setw(2) << setfill('0') << (1 + months.find(month) / 4) << setw(2) << setfill('0') << day;
168       #endif
169
170       ss << "-";
171
172       #ifdef GIT_SHA
173       ss << GIT_SHA;
174       #else
175       ss << "nogit";
176       #endif
177   }
178
179   ss << (to_uci  ? "\nid author ": " by ")
180      << "the Stockfish developers (see AUTHORS file)";
181
182   return ss.str();
183 }
184
185
186 /// compiler_info() returns a string trying to describe the compiler we use
187
188 std::string compiler_info() {
189
190   #define stringify2(x) #x
191   #define stringify(x) stringify2(x)
192   #define make_version_string(major, minor, patch) stringify(major) "." stringify(minor) "." stringify(patch)
193
194 /// Predefined macros hell:
195 ///
196 /// __GNUC__           Compiler is gcc, Clang or Intel on Linux
197 /// __INTEL_COMPILER   Compiler is Intel
198 /// _MSC_VER           Compiler is MSVC or Intel on Windows
199 /// _WIN32             Building on Windows (any)
200 /// _WIN64             Building on Windows 64 bit
201
202   std::string compiler = "\nCompiled by ";
203
204   #ifdef __clang__
205      compiler += "clang++ ";
206      compiler += make_version_string(__clang_major__, __clang_minor__, __clang_patchlevel__);
207   #elif __INTEL_COMPILER
208      compiler += "Intel compiler ";
209      compiler += "(version ";
210      compiler += stringify(__INTEL_COMPILER) " update " stringify(__INTEL_COMPILER_UPDATE);
211      compiler += ")";
212   #elif _MSC_VER
213      compiler += "MSVC ";
214      compiler += "(version ";
215      compiler += stringify(_MSC_FULL_VER) "." stringify(_MSC_BUILD);
216      compiler += ")";
217   #elif defined(__e2k__) && defined(__LCC__)
218     #define dot_ver2(n) \
219       compiler += (char)'.'; \
220       compiler += (char)('0' + (n) / 10); \
221       compiler += (char)('0' + (n) % 10);
222
223      compiler += "MCST LCC ";
224      compiler += "(version ";
225      compiler += std::to_string(__LCC__ / 100);
226      dot_ver2(__LCC__ % 100)
227      dot_ver2(__LCC_MINOR__)
228      compiler += ")";
229   #elif __GNUC__
230      compiler += "g++ (GNUC) ";
231      compiler += make_version_string(__GNUC__, __GNUC_MINOR__, __GNUC_PATCHLEVEL__);
232   #else
233      compiler += "Unknown compiler ";
234      compiler += "(unknown version)";
235   #endif
236
237   #if defined(__APPLE__)
238      compiler += " on Apple";
239   #elif defined(__CYGWIN__)
240      compiler += " on Cygwin";
241   #elif defined(__MINGW64__)
242      compiler += " on MinGW64";
243   #elif defined(__MINGW32__)
244      compiler += " on MinGW32";
245   #elif defined(__ANDROID__)
246      compiler += " on Android";
247   #elif defined(__linux__)
248      compiler += " on Linux";
249   #elif defined(_WIN64)
250      compiler += " on Microsoft Windows 64-bit";
251   #elif defined(_WIN32)
252      compiler += " on Microsoft Windows 32-bit";
253   #else
254      compiler += " on unknown system";
255   #endif
256
257   compiler += "\nCompilation settings include: ";
258   compiler += (Is64Bit ? " 64bit" : " 32bit");
259   #if defined(USE_VNNI)
260     compiler += " VNNI";
261   #endif
262   #if defined(USE_AVX512)
263     compiler += " AVX512";
264   #endif
265   compiler += (HasPext ? " BMI2" : "");
266   #if defined(USE_AVX2)
267     compiler += " AVX2";
268   #endif
269   #if defined(USE_SSE41)
270     compiler += " SSE41";
271   #endif
272   #if defined(USE_SSSE3)
273     compiler += " SSSE3";
274   #endif
275   #if defined(USE_SSE2)
276     compiler += " SSE2";
277   #endif
278   compiler += (HasPopCnt ? " POPCNT" : "");
279   #if defined(USE_MMX)
280     compiler += " MMX";
281   #endif
282   #if defined(USE_NEON)
283     compiler += " NEON";
284   #endif
285
286   #if !defined(NDEBUG)
287     compiler += " DEBUG";
288   #endif
289
290   compiler += "\n__VERSION__ macro expands to: ";
291   #ifdef __VERSION__
292      compiler += __VERSION__;
293   #else
294      compiler += "(undefined macro)";
295   #endif
296   compiler += "\n";
297
298   return compiler;
299 }
300
301
302 /// Debug functions used mainly to collect run-time statistics
303 constexpr int MaxDebugSlots = 32;
304
305 namespace {
306
307 template<size_t N>
308 struct DebugInfo {
309     std::atomic<int64_t> data[N] = { 0 };
310
311     constexpr inline std::atomic<int64_t>& operator[](int index) { return data[index]; }
312 };
313
314 DebugInfo<2> hit[MaxDebugSlots];
315 DebugInfo<2> mean[MaxDebugSlots];
316 DebugInfo<3> stdev[MaxDebugSlots];
317 DebugInfo<6> correl[MaxDebugSlots];
318
319 }  // namespace
320
321 void dbg_hit_on(bool cond, int slot) {
322
323     ++hit[slot][0];
324     if (cond)
325         ++hit[slot][1];
326 }
327
328 void dbg_mean_of(int64_t value, int slot) {
329
330     ++mean[slot][0];
331     mean[slot][1] += value;
332 }
333
334 void dbg_stdev_of(int64_t value, int slot) {
335
336     ++stdev[slot][0];
337     stdev[slot][1] += value;
338     stdev[slot][2] += value * value;
339 }
340
341 void dbg_correl_of(int64_t value1, int64_t value2, int slot) {
342
343     ++correl[slot][0];
344     correl[slot][1] += value1;
345     correl[slot][2] += value1 * value1;
346     correl[slot][3] += value2;
347     correl[slot][4] += value2 * value2;
348     correl[slot][5] += value1 * value2;
349 }
350
351 void dbg_print() {
352
353     int64_t n;
354     auto E   = [&n](int64_t x) { return double(x) / n; };
355     auto sqr = [](double x) { return x * x; };
356
357     for (int i = 0; i < MaxDebugSlots; ++i)
358         if ((n = hit[i][0]))
359             std::cerr << "Hit #" << i
360                       << ": Total " << n << " Hits " << hit[i][1]
361                       << " Hit Rate (%) " << 100.0 * E(hit[i][1])
362                       << std::endl;
363
364     for (int i = 0; i < MaxDebugSlots; ++i)
365         if ((n = mean[i][0]))
366         {
367             std::cerr << "Mean #" << i
368                       << ": Total " << n << " Mean " << E(mean[i][1])
369                       << std::endl;
370         }
371
372     for (int i = 0; i < MaxDebugSlots; ++i)
373         if ((n = stdev[i][0]))
374         {
375             double r = sqrtl(E(stdev[i][2]) - sqr(E(stdev[i][1])));
376             std::cerr << "Stdev #" << i
377                       << ": Total " << n << " Stdev " << r
378                       << std::endl;
379         }
380
381     for (int i = 0; i < MaxDebugSlots; ++i)
382         if ((n = correl[i][0]))
383         {
384             double r = (E(correl[i][5]) - E(correl[i][1]) * E(correl[i][3]))
385                        / (  sqrtl(E(correl[i][2]) - sqr(E(correl[i][1])))
386                           * sqrtl(E(correl[i][4]) - sqr(E(correl[i][3]))));
387             std::cerr << "Correl. #" << i
388                       << ": Total " << n << " Coefficient " << r
389                       << std::endl;
390         }
391 }
392
393
394 /// Used to serialize access to std::cout to avoid multiple threads writing at
395 /// the same time.
396
397 std::ostream& operator<<(std::ostream& os, SyncCout sc) {
398
399   static std::mutex m;
400
401   if (sc == IO_LOCK)
402       m.lock();
403
404   if (sc == IO_UNLOCK)
405       m.unlock();
406
407   return os;
408 }
409
410
411 /// Trampoline helper to avoid moving Logger to misc.h
412 void start_logger(const std::string& fname) { Logger::start(fname); }
413
414
415 /// prefetch() preloads the given address in L1/L2 cache. This is a non-blocking
416 /// function that doesn't stall the CPU waiting for data to be loaded from memory,
417 /// which can be quite slow.
418 #ifdef NO_PREFETCH
419
420 void prefetch(void*) {}
421
422 #else
423
424 void prefetch(void* addr) {
425
426 #  if defined(__INTEL_COMPILER)
427    // This hack prevents prefetches from being optimized away by
428    // Intel compiler. Both MSVC and gcc seem not be affected by this.
429    __asm__ ("");
430 #  endif
431
432 #  if defined(__INTEL_COMPILER) || defined(_MSC_VER)
433   _mm_prefetch((char*)addr, _MM_HINT_T0);
434 #  else
435   __builtin_prefetch(addr);
436 #  endif
437 }
438
439 #endif
440
441
442 /// std_aligned_alloc() is our wrapper for systems where the c++17 implementation
443 /// does not guarantee the availability of aligned_alloc(). Memory allocated with
444 /// std_aligned_alloc() must be freed with std_aligned_free().
445
446 void* std_aligned_alloc(size_t alignment, size_t size) {
447
448 #if defined(POSIXALIGNEDALLOC)
449   void *mem;
450   return posix_memalign(&mem, alignment, size) ? nullptr : mem;
451 #elif defined(_WIN32) && !defined(_M_ARM) && !defined(_M_ARM64)
452   return _mm_malloc(size, alignment);
453 #elif defined(_WIN32)
454   return _aligned_malloc(size, alignment);
455 #else
456   return std::aligned_alloc(alignment, size);
457 #endif
458 }
459
460 void std_aligned_free(void* ptr) {
461
462 #if defined(POSIXALIGNEDALLOC)
463   free(ptr);
464 #elif defined(_WIN32) && !defined(_M_ARM) && !defined(_M_ARM64)
465   _mm_free(ptr);
466 #elif defined(_WIN32)
467   _aligned_free(ptr);
468 #else
469   free(ptr);
470 #endif
471 }
472
473 /// aligned_large_pages_alloc() will return suitably aligned memory, if possible using large pages.
474
475 #if defined(_WIN32)
476
477 static void* aligned_large_pages_alloc_windows([[maybe_unused]] size_t allocSize) {
478
479   #if !defined(_WIN64)
480     return nullptr;
481   #else
482
483   HANDLE hProcessToken { };
484   LUID luid { };
485   void* mem = nullptr;
486
487   const size_t largePageSize = GetLargePageMinimum();
488   if (!largePageSize)
489       return nullptr;
490
491   // We need SeLockMemoryPrivilege, so try to enable it for the process
492   if (!OpenProcessToken(GetCurrentProcess(), TOKEN_ADJUST_PRIVILEGES | TOKEN_QUERY, &hProcessToken))
493       return nullptr;
494
495   if (LookupPrivilegeValue(nullptr, SE_LOCK_MEMORY_NAME, &luid))
496   {
497       TOKEN_PRIVILEGES tp { };
498       TOKEN_PRIVILEGES prevTp { };
499       DWORD prevTpLen = 0;
500
501       tp.PrivilegeCount = 1;
502       tp.Privileges[0].Luid = luid;
503       tp.Privileges[0].Attributes = SE_PRIVILEGE_ENABLED;
504
505       // Try to enable SeLockMemoryPrivilege. Note that even if AdjustTokenPrivileges() succeeds,
506       // we still need to query GetLastError() to ensure that the privileges were actually obtained.
507       if (AdjustTokenPrivileges(
508               hProcessToken, FALSE, &tp, sizeof(TOKEN_PRIVILEGES), &prevTp, &prevTpLen) &&
509           GetLastError() == ERROR_SUCCESS)
510       {
511           // Round up size to full pages and allocate
512           allocSize = (allocSize + largePageSize - 1) & ~size_t(largePageSize - 1);
513           mem = VirtualAlloc(
514               nullptr, allocSize, MEM_RESERVE | MEM_COMMIT | MEM_LARGE_PAGES, PAGE_READWRITE);
515
516           // Privilege no longer needed, restore previous state
517           AdjustTokenPrivileges(hProcessToken, FALSE, &prevTp, 0, nullptr, nullptr);
518       }
519   }
520
521   CloseHandle(hProcessToken);
522
523   return mem;
524
525   #endif
526 }
527
528 void* aligned_large_pages_alloc(size_t allocSize) {
529
530   // Try to allocate large pages
531   void* mem = aligned_large_pages_alloc_windows(allocSize);
532
533   // Fall back to regular, page aligned, allocation if necessary
534   if (!mem)
535       mem = VirtualAlloc(nullptr, allocSize, MEM_RESERVE | MEM_COMMIT, PAGE_READWRITE);
536
537   return mem;
538 }
539
540 #else
541
542 void* aligned_large_pages_alloc(size_t allocSize) {
543
544 #if defined(__linux__)
545   constexpr size_t alignment = 2 * 1024 * 1024; // assumed 2MB page size
546 #else
547   constexpr size_t alignment = 4096; // assumed small page size
548 #endif
549
550   // round up to multiples of alignment
551   size_t size = ((allocSize + alignment - 1) / alignment) * alignment;
552   void *mem = std_aligned_alloc(alignment, size);
553 #if defined(MADV_HUGEPAGE)
554   madvise(mem, size, MADV_HUGEPAGE);
555 #endif
556   return mem;
557 }
558
559 #endif
560
561
562 /// aligned_large_pages_free() will free the previously allocated ttmem
563
564 #if defined(_WIN32)
565
566 void aligned_large_pages_free(void* mem) {
567
568   if (mem && !VirtualFree(mem, 0, MEM_RELEASE))
569   {
570       DWORD err = GetLastError();
571       std::cerr << "Failed to free large page memory. Error code: 0x"
572                 << std::hex << err
573                 << std::dec << std::endl;
574       exit(EXIT_FAILURE);
575   }
576 }
577
578 #else
579
580 void aligned_large_pages_free(void *mem) {
581   std_aligned_free(mem);
582 }
583
584 #endif
585
586
587 namespace WinProcGroup {
588
589 #ifndef _WIN32
590
591 void bindThisThread(size_t) {}
592
593 #else
594
595 /// best_node() retrieves logical processor information using Windows specific
596 /// API and returns the best node id for the thread with index idx. Original
597 /// code from Texel by Peter Ă–sterlund.
598
599 static int best_node(size_t idx) {
600
601   int threads = 0;
602   int nodes = 0;
603   int cores = 0;
604   DWORD returnLength = 0;
605   DWORD byteOffset = 0;
606
607   // Early exit if the needed API is not available at runtime
608   HMODULE k32 = GetModuleHandle("Kernel32.dll");
609   auto fun1 = (fun1_t)(void(*)())GetProcAddress(k32, "GetLogicalProcessorInformationEx");
610   if (!fun1)
611       return -1;
612
613   // First call to GetLogicalProcessorInformationEx() to get returnLength.
614   // We expect the call to fail due to null buffer.
615   if (fun1(RelationAll, nullptr, &returnLength))
616       return -1;
617
618   // Once we know returnLength, allocate the buffer
619   SYSTEM_LOGICAL_PROCESSOR_INFORMATION_EX *buffer, *ptr;
620   ptr = buffer = (SYSTEM_LOGICAL_PROCESSOR_INFORMATION_EX*)malloc(returnLength);
621
622   // Second call to GetLogicalProcessorInformationEx(), now we expect to succeed
623   if (!fun1(RelationAll, buffer, &returnLength))
624   {
625       free(buffer);
626       return -1;
627   }
628
629   while (byteOffset < returnLength)
630   {
631       if (ptr->Relationship == RelationNumaNode)
632           nodes++;
633
634       else if (ptr->Relationship == RelationProcessorCore)
635       {
636           cores++;
637           threads += (ptr->Processor.Flags == LTP_PC_SMT) ? 2 : 1;
638       }
639
640       assert(ptr->Size);
641       byteOffset += ptr->Size;
642       ptr = (SYSTEM_LOGICAL_PROCESSOR_INFORMATION_EX*)(((char*)ptr) + ptr->Size);
643   }
644
645   free(buffer);
646
647   std::vector<int> groups;
648
649   // Run as many threads as possible on the same node until core limit is
650   // reached, then move on filling the next node.
651   for (int n = 0; n < nodes; n++)
652       for (int i = 0; i < cores / nodes; i++)
653           groups.push_back(n);
654
655   // In case a core has more than one logical processor (we assume 2) and we
656   // have still threads to allocate, then spread them evenly across available
657   // nodes.
658   for (int t = 0; t < threads - cores; t++)
659       groups.push_back(t % nodes);
660
661   // If we still have more threads than the total number of logical processors
662   // then return -1 and let the OS to decide what to do.
663   return idx < groups.size() ? groups[idx] : -1;
664 }
665
666
667 /// bindThisThread() set the group affinity of the current thread
668
669 void bindThisThread(size_t idx) {
670
671   // Use only local variables to be thread-safe
672   int node = best_node(idx);
673
674   if (node == -1)
675       return;
676
677   // Early exit if the needed API are not available at runtime
678   HMODULE k32 = GetModuleHandle("Kernel32.dll");
679   auto fun2 = (fun2_t)(void(*)())GetProcAddress(k32, "GetNumaNodeProcessorMaskEx");
680   auto fun3 = (fun3_t)(void(*)())GetProcAddress(k32, "SetThreadGroupAffinity");
681   auto fun4 = (fun4_t)(void(*)())GetProcAddress(k32, "GetNumaNodeProcessorMask2");
682   auto fun5 = (fun5_t)(void(*)())GetProcAddress(k32, "GetMaximumProcessorGroupCount");
683
684   if (!fun2 || !fun3)
685       return;
686
687   if (!fun4 || !fun5)
688   {
689       GROUP_AFFINITY affinity;
690       if (fun2(node, &affinity))                                                 // GetNumaNodeProcessorMaskEx
691           fun3(GetCurrentThread(), &affinity, nullptr);                          // SetThreadGroupAffinity
692   }
693   else
694   {
695       // If a numa node has more than one processor group, we assume they are
696       // sized equal and we spread threads evenly across the groups.
697       USHORT elements, returnedElements;
698       elements = fun5();                                                         // GetMaximumProcessorGroupCount
699       GROUP_AFFINITY *affinity = (GROUP_AFFINITY*)malloc(elements * sizeof(GROUP_AFFINITY));
700       if (fun4(node, affinity, elements, &returnedElements))                     // GetNumaNodeProcessorMask2
701           fun3(GetCurrentThread(), &affinity[idx % returnedElements], nullptr);  // SetThreadGroupAffinity
702       free(affinity);
703   }
704 }
705
706 #endif
707
708 } // namespace WinProcGroup
709
710 #ifdef _WIN32
711 #include <direct.h>
712 #define GETCWD _getcwd
713 #else
714 #include <unistd.h>
715 #define GETCWD getcwd
716 #endif
717
718 namespace CommandLine {
719
720 string argv0;            // path+name of the executable binary, as given by argv[0]
721 string binaryDirectory;  // path of the executable directory
722 string workingDirectory; // path of the working directory
723
724 void init([[maybe_unused]] int argc, char* argv[]) {
725     string pathSeparator;
726
727     // extract the path+name of the executable binary
728     argv0 = argv[0];
729
730 #ifdef _WIN32
731     pathSeparator = "\\";
732   #ifdef _MSC_VER
733     // Under windows argv[0] may not have the extension. Also _get_pgmptr() had
734     // issues in some windows 10 versions, so check returned values carefully.
735     char* pgmptr = nullptr;
736     if (!_get_pgmptr(&pgmptr) && pgmptr != nullptr && *pgmptr)
737         argv0 = pgmptr;
738   #endif
739 #else
740     pathSeparator = "/";
741 #endif
742
743     // extract the working directory
744     workingDirectory = "";
745     char buff[40000];
746     char* cwd = GETCWD(buff, 40000);
747     if (cwd)
748         workingDirectory = cwd;
749
750     // extract the binary directory path from argv0
751     binaryDirectory = argv0;
752     size_t pos = binaryDirectory.find_last_of("\\/");
753     if (pos == std::string::npos)
754         binaryDirectory = "." + pathSeparator;
755     else
756         binaryDirectory.resize(pos + 1);
757
758     // pattern replacement: "./" at the start of path is replaced by the working directory
759     if (binaryDirectory.find("." + pathSeparator) == 0)
760         binaryDirectory.replace(0, 1, workingDirectory);
761 }
762
763
764 } // namespace CommandLine
765
766 } // namespace Stockfish