Slurm Version 20.02 Configuration Tool

This form can be used to create a Slurm configuration file with you controlling many of the important configuration parameters.
このフォームを使用して、重要な構成パラメーターの多くを制御するSlurm構成ファイルを作成できます。

This is the full version of the Slurm configuration tool. This version has all the configuration options to create a Slurm configuration file.
これはSlurm構成ツールのフルバージョンです。このバージョンには、Slurm構成ファイルを作成するためのすべての構成オプションがあります。
There is a simplified version of the Slurm configuration tool available at configurator.easy.html.
configurator.easy.htmlで利用可能なSlurm設定ツールの簡易バージョンがあります。

This tool supports Slurm version 20.02 only.
このツールはSlurmバージョン20.02のみをサポートします。
Configuration files for other versions of Slurm should be built using the tool distributed with it in doc/html/configurator.html.
Slurmの他のバージョンの構成ファイルは、doc / html / configurator.htmlで配布されたツールを使用してビルドする必要があります。
Some parameters will be set to default values, but you can manually edit the resulting slurm.conf as desired for greater flexibility. See man slurm.conf for more details about the configuration parameters.
一部のパラメーターはデフォルト値に設定されますが、柔軟性を高めるために、必要に応じて結果のslurm.confを手動で編集できます。構成パラメーターの詳細については、man slurm.confを参照してください。

Note the while Slurm daemons create log files and other files as needed, it treats the lack of parent directories as a fatal error.
Slurmデーモンは必要に応じてログファイルやその他のファイルを作成しますが、親ディレクトリがないことは致命的なエラーとして扱われます。
This prevents the daemons from running if critical file systems are not mounted and will minimize the risk of cold-starting (starting without preserving jobs).
これにより、重要なファイルシステムがマウントされていない場合にデーモンが実行されなくなり、コールドスタート(ジョブを保持せずに起動)のリスクが最小限に抑えられます。

Note that this configuration file must be installed on all nodes in your cluster.
この構成ファイルは、クラスター内のすべてのノードにインストールする必要があることに注意してください。

After you have filled in the fields of interest, use the "Submit" button on the bottom of the page to build the slurm.conf file. It will appear on your web browser. Save the file in text format as slurm.conf for use by Slurm.
必要なフィールドに入力したら、ページの下部にある[送信]ボタンを使用して、slurm.confファイルを作成します。ウェブブラウザに表示されます。Slurmで使用できるように、ファイルをテキスト形式でslurm.confとして保存します。

For more information about Slurm, see https://slurm.schedmd.com/slurm.html
Slurmの詳細については、https://slurm.schedmd.com/slurm.htmlを参照してください。

Control Machines

Define the hostname of the computer on which the Slurm controller and optional backup controller will execute.
Slurmコントローラーとオプションのバックアップコントローラーが実行されるコンピューターのホスト名を定義します。
Hostname values should not be the fully qualified domain name (e.g. use tux rather than tux.abc.com).
ホスト名の値は完全修飾ドメイン名であってはなりません(たとえば、tux.abc.comではなくtuxを使用してください)。

SlurmctldHost: Master Controller Hostname
SlurmctldHost:マスターコントローラのホスト名

BackupController: Backup Controller Hostname (optional)
BackupController:バックアップコントローラのホスト名(オプション)

Compute Machines

Define the machines on which user applications can run.
ユーザーアプリケーションを実行できるマシンを定義します。
You can also specify addresses of these computers if desired (defaults to their hostnames).
必要に応じて、これらのコンピューターのアドレスを指定することもできます(デフォルトはホスト名です)。
Only a few of the possible parameters associated with the nodes will be set by this tool, but many others are available.
このツールによって設定されるのは、ノードに関連付けられている可能なパラメーターのほんの一部ですが、他の多くのパラメーターを使用できます。
Executing the command slurmd -C on each compute node will print its physical configuration (sockets, cores, real memory size, etc.), which can be used in constructing the slurm.conf file.
各計算ノードでコマンドslurmd -Cを実行すると、slurm.confファイルの構築に使用できる物理構成(ソケット、コア、実メモリーサイズなど)が出力されます。
All of the nodes will be placed into a single partition (or queue) with global access. Many options are available to group nodes into partitions with a wide variety of configuration parameters.
すべてのノードは、グローバルアクセスで単一のパーティション(またはキュー)に配置されます。さまざまな構成パラメーターを持つパーティションにノードをグループ化するための多くのオプションが利用可能です。
Manually edit the slurm.conf produced to exercise these options.
これらのオプションを実行するには、生成されたslurm.confを手動で編集します。
Node names and addresses may be specified using a numeric range specification.
ノード名とアドレスは、数値範囲指定を使用して指定できます。

NodeName: Compute nodes
NodeName:計算ノード

NodeAddr: Compute node addresses (optional)
NodeAddr:計算ノードアドレス(オプション)

PartitionName: Name of the one partition to be created
PartitionName:作成する1つのパーティションの名前

MaxTime: Maximum time limit of jobs in minutes or INFINITE
MaxTime:ジョブの最大時間制限(分またはINFINITE)

The following parameters describe a node's configuration.
以下のパラメーターは、ノードの構成を記述します。
Set a value for CPUs.
CPUの値を設定します。
The other parameters are optional, but provide more control over scheduled resources:
その他のパラメーターはオプションですが、スケジュールされたリソースをより詳細に制御できます。

CPUs: Count of processors on each compute node.
CPU:各計算ノードのプロセッサ数。
If CPUs is omitted, it will be inferred from:
CPUが省略されている場合は、以下から推測されます。
Sockets, CoresPerSocket, and ThreadsPerCore.
Sockets、CoresPerSocket、およびThreadsPerCore。

Sockets: Number of physical processor sockets/chips on the node.
ソケット:ノード上の物理プロセッサソケット/チップの数。
If Sockets is omitted, it will be inferred from:
Socketsが省略されている場合は、以下から推測されます。
CPUs, CoresPerSocket, and ThreadsPerCore.
CPU、CoresPerSocket、およびThreadsPerCore。

CoresPerSocket: Number of cores in a single physical processor socket.
CoresPerSocket:単一の物理プロセッサソケット内のコアの数。
The CoresPerSocket value describes physical cores, not the logical number of processors per socket.
CoresPerSocket値は、ソケットあたりのプロセッサーの論理数ではなく、物理コアを示します。

ThreadsPerCore: Number of logical threads in a single physical core.
ThreadsPerCore:単一の物理コア内の論理スレッドの数。

RealMemory: Amount of real memory. This parameter is required when specifying Memory as a consumable resource with the select/cons_res plug-in. See below under Resource Selection.
RealMemory:実メモリの量。このパラメーターは、select / cons_resプラグインでメモリを消費可能なリソースとして指定する場合に必要です。以下のリソース選択を参照してください。

Slurm User

The Slurm controller (slurmctld) can run without elevated privileges, so it is recommended that a user "slurm" be created for it. For testing purposes any user name can be used.
Slurmコントローラー(slurmctld)は昇格された特権なしで実行できるため、ユーザー "slurm"を作成することをお勧めします。テストのために、任意のユーザー名を使用できます。

SlurmUser

Slurm Port Numbers

The Slurm controller (slurmctld) requires a unique port for communications as do the Slurm compute node daemons (slurmd). If not set, slurm ports are set by checking for an entry in /etc/services and if that fails by using an interval default set at Slurm build time.
Slurmコントローラー(slurmctld)には、Slurm計算ノードデーモン(slurmd)と同様に、通信用の一意のポートが必要です。設定されていない場合、slurmポートは/ etc / servicesのエントリを確認することによって設定され、失敗した場合はSlurmビルド時に設定された間隔のデフォルトを使用して失敗します。

SlurmctldPort

SlurmdPort

State Preservation

Define the location of a directory where the slurmctld daemon saves its state.
slurmctldデーモンが状態を保存するディレクトリの場所を定義します。
This should be a fully qualified pathname which can be read and written to by the Slurm user on both the control machine and backup controller (if configured).
これは、制御マシンとバックアップコントローラー(構成されている場合)の両方でSlurmユーザーが読み書きできる完全修飾パス名である必要があります。
The location of a directory where slurmd saves state should also be defined.
slurmdが状態を保存するディレクトリの場所も定義する必要があります。
This must be a unique directory on each compute server (local disk).
これは、各計算サーバー(ローカルディスク)上の一意のディレクトリでなければなりません。
The use of a highly reliable file system (e.g. RAID) is recommended.
信頼性の高いファイルシステム(RAIDなど)の使用をお勧めします。

StateSaveLocation: Slurmctld state save directory Must be writable by all SlurmctldHost nodes
StateSaveLocation:Slurmctld状態保存ディレクトリすべてのSlurmctldHostノードから書き込み可能である必要があります

SlurmdSpoolDir: Slurmd state save directory
SlurmdSpoolDir:Slurmd状態保存ディレクトリ

Define when a non-responding (DOWN) node is returned to service.
応答しない(DOWN)ノードがサービスに返される時期を定義します。

Select one value for ReturnToService:
ReturnToServiceの値を1つ選択します。

0: When explicitly restored to service by an administrator.
0:管理者によって明示的にサービスに復元された場合。

1:Upon registration with a valid configuration only if it was set DOWN due to being non-responsive.
1:応答がないためにDOWNに設定されている場合にのみ、有効な構成での登録時。

2:Upon registration with a valid configuration.
2:有効な構成での登録時。

Scheduling

Define the mechanism to be used for controlling job ordering.
ジョブの順序を制御するために使用されるメカニズムを定義します。

Select one value for SchedulerType:
SchedulerTypeの値を1つ選択します。

Backfill: FIFO with backfill
バックフィル:バックフィル付きFIFO

Builtin: First-In First-Out (FIFO)
組み込み:先入れ先出し(FIFO)

Interconnect

Define the node interconnect used.
使用するノード相互接続を定義します。

Select one value for SwitchType:
SwitchTypeの値を1つ選択します。

Cray XC: Cray XC proprietary interconnect
Cray XC:Cray XC独自の相互接続

None: No special handling required (InfiniBand, Myrinet, Ethernet, etc.)
なし:特別な処理は必要ありません(InfiniBand、Myrinet、Ethernetなど)。

Default MPI Type

Specify the type of MPI to be used by default. Slurm will configure environment variables accordingly. Users can over-ride this specification with an srun option.
デフォルトで使用するMPIのタイプを指定します。Slurmはそれに応じて環境変数を設定します。ユーザーは、srunオプションを使用してこの仕様をオーバーライドできます。

Select one value for MpiDefault:
MpiDefaultの値を1つ選択します。

MPI-PMI2 (For PMI2-supporting MPI implementations)
MPI-PMI2(PMI2をサポートするMPI実装の場合)

MPI-PMIx (Exascale PMI implementation)
MPI-PMIx(Exascale PMI実装)

None: This works for most other MPI types.
なし:これは他のほとんどのMPIタイプで機能します。

Process Tracking

Define the algorithm used to identify which processes are associated with a given job. This is used signal, kill, and account for the processes associated with a job step.
特定のジョブに関連付けられているプロセスを識別するために使用されるアルゴリズムを定義します。これは、ジョブステップに関連付けられたプロセスのシグナル、キル、およびアカウントに使用されます。

Select one value for ProctrackType:
ProctrackTypeの値を1つ選択します。

Cgroup: Use Linux cgroup to create a job container and track processes.
Cgroup:Linux cgroupを使用して、ジョブコンテナーを作成し、プロセスを追跡します。
Build a cgroup.conf file as well
cgroup.confファイルもビルドします

Cray XC: Cray XC proprietary process tracking
Cray XC:Cray XC独自のプロセス追跡

LinuxProc: Use parent process ID records, processes can escape from Slurm control
LinuxProc:親プロセスIDレコードを使用すると、プロセスはSlurmコントロールからエスケープできます

Pgid: Use Unix Process Group ID, processes changing their process group ID can escape from Slurm control
Pgid:UnixプロセスグループIDを使用します。プロセスグループIDを変更するプロセスはSlurmコントロールからエスケープできます

Resource Selection

Define resource (node) selection algorithm to be used.
使用するリソース(ノード)選択アルゴリズムを定義します。

Select one value for SelectType:
SelectTypeの値を1つ選択します。

cons_tres: Allocate individual processors, memory, GPUs, and other trackable resources
cons_tres:個々のプロセッサ、メモリ、GPU、およびその他の追跡可能なリソースを割り当てる

Cons_res: Allocate individual processors and memory
Cons_res:個々のプロセッサとメモリを割り当てます

Cray XC: Cray XC systems running native Slurm without ALPS
Cray XC:ALPSなしでネイティブSlurmを実行するCray XCシステム

Linear: Node-base resource allocation, does not manage individual processor allocation
線形:ノードベースのリソース割り当て、個別のプロセッサ割り当てを管理しません

SelectTypeParameters (Not supported by SelectType=select/linear):
SelectTypeParameters(SelectType = select / linearではサポートされていません):
Note: The -E extension for sockets, cores, and threads are ignored within the node allocation mechanism when CR_CPU or CR_CPU_MEMORY is selected.
注:ソケット、コア、およびスレッドの-E拡張機能は、CR_CPUまたはCR_CPU_MEMORYが選択されている場合、ノード割り当てメカニズム内で無視されます。
They are considered to compute the total number of tasks when -n is not specified
-nが指定されていない場合、タスクの総数を計算すると見なされます
Note: CR_MEMORY assumes MaxShare value of one of higher
注:CR_MEMORYは、MaxShareの値が1より大きいと想定しています
CR_CPU: CPUs as consumable resources.
CR_CPU:消費可能なリソースとしてのCPU。
No notion of sockets, cores, or threads.
ソケット、コア、スレッドの概念はありません。
On a multi-core system, cores will be considered CPUs.
マルチコアシステムでは、コアはCPUと見なされます。
On a multi-core/hyperthread system, threads will be considered CPUs.
マルチコア/ハイパースレッドシステムでは、スレッドはCPUと見なされます。
On a single-core systems CPUs are CPUs.
シングルコアシステムでは、CPUはCPUです。
;-)
CR_Socket: Sockets as a consumable resource.
CR_Socket:消費可能なリソースとしてのソケット。
CR_Core: (default) Cores as a consumable resource.
CR_Core:(デフォルト)消費可能なリソースとしてのコア。
CR_Memory: Memory as a consumable resource.
CR_Memory:消費可能なリソースとしてのメモリ。
Note: CR_Memory assumes MaxShare value of one of higher
注:CR_Memoryは、MaxShareの値が1より大きいと想定しています。
CR_CPU_Memory: CPU and Memory as consumable resources.
CR_CPU_Memory:消費可能なリソースとしてのCPUとメモリ。
CR_Socket_Memory: Socket and Memory as consumable resources.
CR_Socket_Memory:消費可能なリソースとしてのソケットとメモリ。
CR_Core_Memory: Core and Memory as consumable resources.
CR_Core_Memory:消費可能なリソースとしてのコアとメモリ。

Task Launch

Define a task launch plugin. This may be used to provide resource management within a node (e.g. pinning tasks to specific processors).
タスク起動プラグインを定義します。これは、ノード内のリソース管理を提供するために使用できます(たとえば、特定のプロセッサにタスクを固定する)
Select one value for TaskPlugin:
TaskPluginの値を1つ選択します。

Cray XC: Cray XC proprietary task launch
Cray XC:Cray XC独自のタスクの起動

None: No task launch actions
なし:タスク起動アクションなし

Affinity: CPU affinity support
アフィニティ:CPUアフィニティのサポート
(see srun man pages for the --cpu-bind, --mem-bind, and -E options)
(--cpu-bind、-mem-bind、および-Eオプションについては、srunのマニュアルページを参照してください)

Cgroup: Allocated resources constraints enforcement using Linux Control Groups (see cgroup.conf man page)
Cgroup:Linux Control Groupsを使用して割り当てられたリソースの制約を適用(cgroup.confのmanページを参照)
TaskPluginParam (As used by TaskPlugin=Affinity only):
TaskPluginParam(TaskPlugin = Affinityでのみ使用):
Cpusets: Use cpusets to control task binding.
Cpusets:cpusetsを使用してタスクのバインドを制御します。
Sched: Use sched_setaffinity (if available) to bind tasks to processors. This is the default mode of operation.
Sched:sched_setaffinity(使用可能な場合)を使用して、タスクをプロセッサーにバインドします。これがデフォルトの動作モードです。

Prolog and Epilog

Prolog/Epilog: Fully qualified path that will be executed as root on every node of a user's job before the job's tasks will be initiated there and after that job has terminated.
プロローグ/エピローグ:ユーザーのジョブのすべてのノードでrootとして実行される完全修飾パス。ジョブのタスクがそこで開始される前と、そのジョブが終了した後に実行されます。
These parameters are optional.
これらのパラメーターはオプションです。

Prolog
Epilog

SrunProlog/Epilog: Fully qualified path to be executed by srun at job step initiation and termination. These parameters may be overridden by srun's --prolog and --epilog options These parameters are optional.
SrunProlog / Epilog:ジョブステップの開始と終了時にsrunによって実行される完全修飾パス。これらのパラメーターは、srunの--prologおよび--epilogオプションによってオーバーライドされる場合があります。これらのパラメーターはオプションです。

SrunProlog
SrunEpilog

TaskProlog/Epilog: Fully qualified path to be executed as the user before each task begins execution and after each task terminates.
TaskProlog / Epilog:各タスクが実行を開始する前、および各タスクが終了した後にユーザーとして実行される完全修飾パス。
These parameters are optional.
これらのパラメーターはオプションです。

TaskProlog
TaskEpilog

Event Logging

Slurmctld and slurmd daemons can each be configured with different levels of logging verbosity from 0 (quiet) to 7 (extremely verbose).
Slurmctldデーモンとslurmdデーモンは、それぞれ0(静か)から7(非常に詳細)までのさまざまなレベルのログの詳細度で構成できます。
Each may also be configured to use debug files. Use fully qualified pathnames for the files.
デバッグファイルを使用するように構成することもできます。ファイルには完全修飾パス名を使用してください。

SlurmctldDebug (default is info)
SlurmctldDebug(デフォルトはinfo)

SlurmctldLogFile (default is none, log goes to syslog)
SlurmctldLogFile(デフォルトはなし、ログはsyslogに送られます)

SlurmdDebug (default is info)
SlurmdDebug(デフォルトはinfo)

SlurmdLogFile (default is none, log goes to syslog, string "%h" in name gets replaced with hostname)
SlurmdLogFile(デフォルトはなし、ログはsyslogに送られ、名前の文字列 "%h"はホスト名に置き換えられます)

Job Completion Logging

Define the job completion logging mechanism to be used. SlurmDBD and None are recommended.
使用するジョブ完了ロギングメカニズムを定義します。SlurmDBDおよびNoneが推奨されます。

Select one value for JobCompType:
JobCompTypeの値を1つ選択します。

None: No job completion logging
なし:ジョブ完了ロギングなし

Elasticsearch: Write job completion info to an Elasticsearch server
Elasticsearch:ジョブ完了情報をElasticsearchサーバーに書き込む

FileTxt: Write job completion status to a text file
FileTxt:ジョブ完了ステータスをテキストファイルに書き込みます

Script: Use an arbitrary script to log job completion
スクリプト:任意のスクリプトを使用してジョブの完了をログに記録します

MySQL: Write completion status to a MySQL or MariaDB database
MySQL:MySQLまたはMariaDBデータベースに完了ステータスを書き込みます

SlurmDBD: Write completion status to Slurm a database daemon (serving multiple Slurm clusters) which will write to some database
SlurmDBD:一部のデータベースに書き込むデータベースデーモン(複数のSlurmクラスターにサービスを提供する)をSlurmに書き込みます。

JobCompLoc: This is the location of the text file to be written to (if JobCompType=filetxt), or the script to be run (if JobCompType=script), or the URL to the Elasticsearch server (if JobCompType=elasticsearch), or database name (for other values of JobCompType).
JobCompLoc:これは、書き込まれるテキストファイル(JobCompType = filetxtの場合)、または実行されるスクリプト(JobCompType = scriptの場合)、またはElasticsearchサーバー(JobCompType = elasticsearchの場合)、またはデータベースの場所です。名前(JobCompTypeの他の値の場合)。

Options below are for use with a database to specify where the database is running and how to connect to it
以下のオプションは、データベースを使用して、データベースが実行されている場所とそれに接続する方法を指定するためのものです

JobCompHost: Host the database is running on for Job completion
JobCompHost:データベースが実行されているジョブの完了のためのホスト

JobCompPort: Port the database server is listening on for Job completion
JobCompPort:データベースサーバーがジョブの完了をリッスンするポート

JobCompUser: User we are to use to talk to the database for Job completion
JobCompUser:ジョブの完了のためにデータベースと通信するために使用するユーザー

JobCompPass: Password we are to use to talk to the database for Job completion
JobCompPass:ジョブ完了のためにデータベースと通信するために使用するパスワード

Job Accounting Gather

Slurm accounts for resource use per job. System specifics can be polled determined by system type
Slurmはジョブごとのリソース使用を考慮します。システムの詳細は、システムタイプによって決定されます。

Select one value for JobAcctGatherType:
JobAcctGatherTypeの値を1つ選択します。

None: No job accounting
なし:ジョブアカウンティングなし

Linux: Specifc Linux process table information gathered, use with Linux systems only
Linux:収集された特定のLinuxプロセステーブル情報、Linuxシステムでのみ使用

JobAcctGatherFrequency: polling interval in seconds. Zero disables periodic sampling.
JobAcctGatherFrequency:秒単位のポーリング間隔。ゼロは定期的なサンプリングを無効にします。

Job Accounting Storage

Used with the Job Accounting Gather Slurm can store the accounting information in many different fashions. Fill in your systems choice here
Job Accounting Gather Slurmで使用すると、さまざまな方法でアカウンティング情報を保存できます。ここにシステムの選択肢を入力してください

Select one value for AccountingStorageType:
AccountingStorageTypeの値を1つ選択します。

None: No job accounting storage
なし:ジョブアカウンティングストレージなし

FileTxt: Write job accounting to a text file (records limited information)
FileTxt:ジョブアカウンティングをテキストファイルに書き込みます(限られた情報を記録します)

SlurmDBD: Write job accounting to Slurm DBD (database daemon) which can securely save the data from many Slurm managed clusters into a common database
SlurmDBD:ジョブアカウンティングをSlurm DBD(データベースデーモン)に書き込みます。これにより、多くのSlurm管理対象クラスターのデータを共通のデータベースに安全に保存できます。

AccountingStorageLoc: Location specification or database name.
AccountingStorageLoc:ロケーション指定またはデータベース名。
This is the location of the text file to be written to (used by Log only).
これは、書き込まれるテキストファイルの場所です(ログでのみ使用されます)。
Use a fully qualified pathname. If using a database it is the name of the database you will use or create for the stored data.
完全修飾パス名を使用してください。データベースを使用する場合は、保存されたデータに使用または作成するデータベースの名前です。

Options below are for use with a database to specify where the database is running and how to connect to it
以下のオプションは、データベースを使用して、データベースが実行されている場所とそれに接続する方法を指定するためのものです

AccountingStorageHost: Host the database is running on for Job Accounting
AccountingStorageHost:ジョブアカウンティングのためにデータベースが実行されているホスト

AccountingStoragePort: Port the database server is listening on for Job Accounting
AccountingStoragePort:データベースサーバーがジョブアカウンティングをリッスンするポート

AccountingStorageUser: User we are to use to talk to the database for Job Accounting
AccountingStorageUser:ジョブアカウンティングのためにデータベースと通信するために使用するユーザー

AccountingStoragePass: Password we are to use to talk to the database for Job Accounting.
AccountingStoragePass:ジョブアカウンティングのためにデータベースと通信するために使用するパスワード。
In the case of SlurmDBD, this will be an alternate socket name for use with a Munge daemon providing enterprise-wide authentication (while the default Munge socket would provide cluster-wide authentication only).
SlurmDBDの場合、これはエンタープライズ全体の認証を提供するMungeデーモンで使用する代替ソケット名になります(デフォルトのMungeソケットはクラスター全体の認証のみを提供します)。

AccountingStoreJobComment: Set to NO to prevent the job comment field from being saved to the database
AccountingStoreJobComment:NOに設定すると、ジョブのコメントフィールドがデータベースに保存されなくなります

ClusterName: Name to be recorded in database for jobs from this cluster.
ClusterName:このクラスターからのジョブのデータベースに記録される名前。
This is important if a single database is used to record information from multiple Slurm-managed clusters.
これは、単一のデータベースを使用して複数のSlurm管理のクラスターからの情報を記録する場合に重要です。

Process ID Logging

Define the location into which we can record the daemon's process ID.
デーモンのプロセスIDを記録できる場所を定義します。
This is used for locate the appropriate daemon for signaling.
これは、シグナリングに適切なデーモンを見つけるために使用されます。
Specify a specify the fully qualified pathname for the file.
ファイルの完全修飾パス名を指定します。

SlurmctldPidFile

SlurmdPidFile

Timers

Slurm has a variety of timers to control when to consider a node DOWN, when to purge job records, how long to give a job to gracefully terminate, etc.
Slurmには、ノードのダウンを検討するタイミング、ジョブレコードをパージするタイミング、ジョブを正常に終了させる時間などを制御するさまざまなタイマーがあります。

SlurmctldTimeout: How many seconds the backup controller waits before becoming the master controller
SlurmctldTimeout:バックアップコントローラーがマスターコントローラーになる前に待機する秒数

SlurmdTimeout: How many seconds the Slurm controller waits for the slurmd to respond to a request before considering the node DOWN
SlurmdTimeout:SlurmコントローラーがノードDOWNを考慮する前にslurmdがリクエストに応答するのを待つ秒数

InactiveLimit: How many seconds the Slurm controller waits for srun commands to respond before considering the job or job step inactive and terminating it. A value of zero indicates unlimited wait
InactiveLimit:Slurmコントローラーが、ジョブまたはジョブステップが非アクティブであると見なして終了する前に、srunコマンドの応答を待機する秒数。ゼロの値は無制限の待機を示します

MinJobAge: How many seconds the Slurm controller waits after a job terminates before purging its record. A record of the job will persist in job completion and/or accounting records indefinitely, but will no longer be visible with the squeue command after puring
MinJobAge:ジョブが終了してからSlurmコントローラーがレコードをパージするまでに待機する秒数。ジョブのレコードは、ジョブの完了やアカウンティングレコードに無期限に保持されますが、削除後はsqueueコマンドで表示されなくなります

KillWait: How many seconds a job is given to gracefully terminate after reaching its time limit and being sent SIGTERM before sending a SIGKILLL
KillWait:時間制限に達し、SIGTERMが送信されてからSIGKILLLを送信してから、ジョブが正常に終了するまでの秒数

WaitTime: How many seconds after a job step's first task terminates before terminating all remaining tasks. A value of zero indicates unlimited wait
WaitTime:ジョブステップの最初のタスクが終了してから残りのすべてのタスクを終了するまでの秒数。ゼロの値は無制限の待機を示します




Legal Notices
Last modified 6 June 2018