scontrol

Section: Slurm Commands (1)
Updated: Slurm Commands
Index

 

NAME

scontrol - view or modify Slurm configuration and state.
scontrol-Slurmの構成と状態を表示または変更します。

 

SYNOPSIS

scontrol [OPTIONS...] [COMMAND...]

 

DESCRIPTION

scontrol is used to view or modify Slurm configuration including: job, job step, node, partition, reservation, and overall system configuration.
scontrolは、ジョブ、ジョブステップ、ノード、パーティション、予約、およびシステム全体の構成を含むSlurm構成を表示または変更するために使用されます。
Most of the commands can only be executed by user root or an Administrator.
ほとんどのコマンドは、ユーザーrootまたは管理者のみが実行できます。
If an attempt to view or modify configuration information is made by an unauthorized user, an error message will be printed and the requested action will not occur.
許可されていないユーザーが構成情報を表示または変更しようとすると、エラーメッセージが出力され、要求されたアクションは実行されません。
If no command is entered on the execute line, scontrol will operate in an interactive mode and prompt for input.
実行行にコマンドが入力されていない場合、scontrolは対話モードで動作し、入力を求めます。
It will continue prompting for input and executing commands until explicitly terminated.
明示的に終了するまで、入力のプロンプトとコマンドの実行を続行します。
If a command is entered on the execute line, scontrol will execute that command and terminate.
実行行にコマンドが入力されると、scontrolはそのコマンドを実行して終了します。
All commands and options are case-insensitive, although node names, partition names, and reservation names are case-sensitive (node names "LX" and "lx" are distinct).
ノード名、パーティション名、および予約名では大文字と小文字が区別されますが、すべてのコマンドとオプションでは大文字と小文字が区別されません(ノード名「LX」と「lx」は区別されます)。
All commands and options can be abbreviated to the extent that the specification is unique.
すべてのコマンドとオプションは、仕様が一意である範囲で省略できます。
A modified Slurm configuration can be written to a file using the scontrol write config command.
変更されたSlurm構成は、scontrol writeconfigコマンドを使用してファイルに書き込むことができます。
The resulting file will be named using the convention "slurm.conf.<datetime>" and located in the same directory as the original "slurm.conf" file.
結果のファイルは、規則「slurm.conf。<datetime>」を使用して名前が付けられ、元の「slurm.conf」ファイルと同じディレクトリに配置されます。
The directory containing the original slurm.conf must be writable for this to occur.
これを行うには、元のslurm.confを含むディレクトリが書き込み可能である必要があります。

 

OPTIONS

-a, --all
When the show command is used, then display all partitions, their jobs and jobs steps.
showコマンドを使用すると、すべてのパーティション、それらのジョブ、およびジョブステップが表示されます。
This causes information to be displayed about partitions that are configured as hidden and partitions that are unavailable to user's group.
これにより、非表示として構成されているパーティションと、ユーザーのグループが使用できないパーティションに関する情報が表示されます。
-d, --details
Causes the show command to provide additional details where available.
可能な場合は、showコマンドで追加の詳細を提供します。
--federation
Report jobs from from federation if a member of one.
フェデレーションのメンバーの場合は、フェデレーションからのジョブを報告します。
-F, --future
Report nodes in FUTURE state.
FUTURE状態のレポートノード。
-h, --help
Print a help message describing the usage of scontrol.
scontrolの使用法を説明するヘルプメッセージを出力します。
--hide
Do not display information about hidden partitions, their jobs and job steps.
非表示のパーティション、それらのジョブ、およびジョブステップに関する情報を表示しないでください。
By default, neither partitions that are configured as hidden nor those partitions unavailable to user's group will be displayed (i.e. this is the default behavior).
デフォルトでは、非表示として構成されているパーティションも、ユーザーのグループが使用できないパーティションも表示されません(つまり、これがデフォルトの動作です)。
--local
Show only information local to this cluster.
このクラスターにローカルな情報のみを表示します。
Ignore other clusters in the federated if a member of one.
フェデレーションのメンバーである場合は、フェデレーション内の他のクラスターを無視します。
Overrides --federation.
--federationをオーバーライドします。
-M, --clusters=<string>
The cluster to issue commands to.
コマンドを発行するクラスター。
Only one cluster name may be specified.
指定できるクラスター名は1つだけです。
Note that the SlurmDBD must be up for this option to work properly.
このオプションが正しく機能するには、SlurmDBDが稼働している必要があることに注意してください。
This option implicitly sets the --local option.
このオプションは、暗黙的に--localオプションを設定します。

-o, --oneliner
Print information one line per record.
レコードごとに1行で情報を印刷します。
-Q, --quiet
Print no warning or informational messages, only fatal error messages.
警告メッセージや情報メッセージは出力せず、致命的なエラーメッセージのみを出力します。
--sibling
Show all sibling jobs on a federated cluster.
フェデレーションクラスター上のすべての兄弟ジョブを表示します。
Implies --federation.
--federationを意味します。
-u, --uid=<uid>
Attempt to update a job as user <uid> instead of the invoking user id.
呼び出し元のユーザーIDではなく、ユーザー<uid>としてジョブを更新してみてください。
-v, --verbose
Print detailed event logging.
詳細なイベントログを印刷します。
Multiple -v's will further increase the verbosity of logging.
複数の-vを使用すると、ロギングの冗長性がさらに高まります。
By default only errors will be displayed.
デフォルトでは、エラーのみが表示されます。

-V , --version
Print version information and exit.
バージョン情報を印刷して終了します。
COMMANDS

abort
Instruct the Slurm controller to terminate immediately and generate a core file.
Slurmコントローラーに、すぐに終了してコアファイルを生成するように指示します。
See "man slurmctld" for information about where the core file will be written.
コアファイルが書き込まれる場所については、「manslurmctld」を参照してください。

cancel_reboot <NodeList>
Cancel pending reboots on nodes.
ノードで保留中の再起動をキャンセルします。
If the node reason is "Reboot ASAP" (the default reason set by reboot_nodes's ASAP keyword), then the DRAIN state flag will be removed and the node reason will be cleared.
ノードの理由が「RebootASAP」(reboot_nodesのASAPキーワードによって設定されたデフォルトの理由)の場合、DRAIN状態フラグが削除され、ノードの理由がクリアされます。

cluster CLUSTER_NAME
The cluster to issue commands to.
コマンドを発行するクラスター。
Only one cluster name may be specified.
指定できるクラスター名は1つだけです。

create SPECIFICATION
Create a new partition or reservation.
新しいパーティションまたは予約を作成します。
See the full list of parameters below.
以下のパラメータの完全なリストを参照してください。
Include the tag "res" to create a reservation without specifying a reservation name.
予約名を指定せずに予約を作成するには、タグ「res」を含めます。

completing
Display all jobs in a COMPLETING state along with associated nodes in either a COMPLETING or DOWN state.
COMPLETING状態のすべてのジョブと、COMPLETINGまたはDOWN状態の関連ノードを表示します。

delete SPECIFICATION
Delete the entry with the specified SPECIFICATION.
指定された仕様のエントリを削除します。
The two SPECIFICATION choices are PartitionName=<name> and Reservation=<name>.
SPECIFICATIONの2つの選択肢は、PartitionName = <name>とReservation = <name>です。
Reservations and partitions should have no associated jobs at the time of their deletion (modify the jobs first).
予約とパーティションには、削除時に関連するジョブがないようにする必要があります(最初にジョブを変更します)。
If the specified partition is in use, the request is denied.
指定されたパーティションが使用中の場合、要求は拒否されます。

errnumstr ERRNO
Given a Slurm error number, return a descriptive string.
Slurmエラー番号を指定して、説明的な文字列を返します。

fsdampeningfactor FACTOR
Set the FairShareDampeningFactor in slurmctld.
slurmctldでFairShareDampeningFactorを設定します。

help
Display a description of scontrol options and commands.
scontrolオプションとコマンドの説明を表示します。

hold job_list
Prevent a pending job from being started (sets its priority to 0).
保留中のジョブが開始されないようにします(優先度を0に設定します)。
Use the release command to permit the job to be scheduled.
releaseコマンドを使用して、ジョブのスケジュールを許可します。
The job_list argument is a comma separated list of job IDs OR "jobname=" with the job's name, which will attempt to hold all jobs having that name.
job_list引数は、コンマで区切られたジョブIDのリスト、またはジョブの名前が付いた「jobname =」であり、その名前を持つすべてのジョブを保持しようとします。
Note that when a job is held by a system administrator using the hold command, only a system administrator may release the job for execution (also see the uhold command).
システム管理者がholdコマンドを使用してジョブを保留している場合、実行のためにジョブを解放できるのはシステム管理者のみであることに注意してください(uholdコマンドも参照)。
When the job is held by its owner, it may also be released by the job's owner.
ジョブが所有者によって保持されている場合、ジョブの所有者によって解放されることもあります。
Additionally, attempting to hold a running job will have not suspend or cancel it.
さらに、実行中のジョブを保留しようとしても、ジョブを一時停止またはキャンセルすることはありません。
But, it will set the job priority to 0 and update the job reason field, which would hold the job if it was requeued at a later time.
ただし、ジョブの優先度を0に設定し、ジョブ理由フィールドを更新します。これにより、後で再キューイングされた場合にジョブが保持されます。

notify job_id message
Send a message to standard error of the salloc or srun command or batch job associated with the specified job_id.
指定されたjob_idに関連付けられたsallocまたはsrunコマンドまたはバッチジョブの標準エラーにメッセージを送信します。

pidinfo proc_id
Print the Slurm job id and scheduled termination time corresponding to the supplied process id, proc_id, on the current node.
現在のノードで、指定されたプロセスIDproc_idに対応するSlurmジョブIDとスケジュールされた終了時刻を出力します。
This will work only with processes on node on which scontrol is run, and only for those processes spawned by Slurm and their descendants.
これは、scontrolが実行されているノード上のプロセスでのみ機能し、Slurmとその子孫によって生成されたプロセスでのみ機能します。

listpids [job_id[.step_id]] [NodeName]
Print a listing of the process IDs in a job step (if JOBID.STEPID is provided), or all of the job steps in a job (if job_id is provided), or all of the job steps in all of the jobs on the local node (if job_id is not provided or job_id is "*").
ジョブステップ(JOBID.STEPIDが指定されている場合)、ジョブ内のすべてのジョブステップ(job_idが指定されている場合)、またはローカル上のすべてのジョブのすべてのジョブステップのプロセスIDのリストを印刷します。ノード(job_idが指定されていないか、job_idが「*」の場合)。
This will work only with processes on the node on which scontrol is run, and only for those processes spawned by Slurm and their descendants.
これは、scontrolが実行されているノード上のプロセスでのみ機能し、Slurmとその子孫によって生成されたプロセスでのみ機能します。
Note that some Slurm configurations (ProctrackType value of pgid) are unable to identify all processes associated with a job or job step.
一部のSlurm構成(pgidのProctrackType値)は、ジョブまたはジョブステップに関連付けられているすべてのプロセスを識別できないことに注意してください。

Note that the NodeName option is only really useful when you have multiple slurmd daemons running on the same host machine.
NodeNameオプションは、同じホストマシンで複数のslurmdデーモンを実行している場合にのみ実際に役立つことに注意してください。
Multiple slurmd daemons on one host are, in general, only used by Slurm developers.
1つのホスト上の複数のslurmdデーモンは、通常、Slurm開発者のみが使用します。

ping
Ping the primary and secondary slurmctld daemon and report if they are responding.
プライマリおよびセカンダリslurmctldデーモンにpingを実行し、応答しているかどうかを報告します。

reboot [ASAP] [nextstate=<RESUME|DOWN>] [reason=<reason>] <ALL|NodeList>
Reboot the nodes in the system when they become idle using the RebootProgram as configured in Slurm's slurm.conf file.
Slurmのslurm.confファイルで構成されているRebootProgramを使用して、ノードがアイドル状態になったら、システム内のノードを再起動します。
Each node will have the "REBOOT" flag added to its node state.
各ノードには、ノードの状態に「REBOOT」フラグが追加されます。
After a node reboots and the slurmd daemon starts up again, the HealthCheckProgram will run once.
ノードが再起動し、slurmdデーモンが再起動した後、HealthCheckProgramが1回実行されます。
Then, the slurmd daemon will register itself with the slurmctld daemon and the "REBOOT" flag will be cleared.
次に、slurmdデーモンはそれ自体をslurmctldデーモンに登録し、「REBOOT」フラグがクリアされます。
If the node reason is "Reboot ASAP", Slurm will clear the node's "DRAIN" state flag as well.
ノードの理由が「RebootASAP」の場合、Slurmはノードの「DRAIN」状態フラグもクリアします。
The "ASAP" option adds the "DRAIN" flag to each node's state, preventing additional jobs from running on the node so it can be rebooted and returned to service "As Soon As Possible" (i.e. ASAP).
「ASAP」オプションは、各ノードの状態に「DRAIN」フラグを追加し、ノードで追加のジョブが実行されないようにして、ノードを再起動して「できるだけ早く」サービスに戻すことができるようにします(つまり、ASAP)。
"ASAP" will also set the node reason to "Reboot ASAP" if the "reason" option isn't specified.
「reason」オプションが指定されていない場合、「ASAP」はノードのreasonを「RebootASAP」に設定します。
If the "nextstate" option is specified as "DOWN", then the node will remain in a down state after rebooting.
「nextstate」オプションが「DOWN」として指定されている場合、ノードは再起動後もダウン状態のままになります。
If "nextstate" is specified as "RESUME", then the nodes will resume as normal when the node registers and the node reason will be cleared.
「nextstate」が「RESUME」として指定されている場合、ノードが登録されるとノードは通常どおり再開され、ノードの理由がクリアされます。
Resuming nodes will be considered as available in backfill future scheduling and won't be replaced by idle nodes in a reservation.
再開ノードは、将来のバックフィルスケジューリングで使用可能であると見なされ、予約でアイドルノードに置き換えられることはありません。
The "reason" option sets each node's reason to a user-defined message.
「reason」オプションは、各ノードの理由をユーザー定義のメッセージに設定します。
A default reason of "reboot requested" is set if no other reason is set on the node.
ノードに他の理由が設定されていない場合、「再起動が要求されました」というデフォルトの理由が設定されます。
The reason will be appended with "reboot issued" when the reboot is issued and "reboot complete" when the node registers and has a "nextstate" of "DOWN".
理由は、再起動が発行されると「再起動が発行されました」、ノードが登録されて「次の状態」が「DOWN」になると「再起動が完了しました」と追加されます。
You must specify either a list of nodes or that ALL nodes are to be rebooted.
ノードのリストを指定するか、すべてのノードを再起動するように指定する必要があります。
NOTE: By default, this command does not prevent additional jobs from being scheduled on any nodes before reboot.
注:デフォルトでは、このコマンドは、再起動前にノードで追加のジョブがスケジュールされるのを防ぎません。
To do this, you can either use the "ASAP" option or explicitly drain the nodes beforehand.
これを行うには、「ASAP」オプションを使用するか、事前にノードを明示的にドレインします。
You can alternately create an advanced reservation to prevent additional jobs from being initiated on nodes to be rebooted.
または、事前予約を作成して、再起動するノードで追加のジョブが開始されないようにすることもできます。
Pending reboots can be cancelled by using "scontrol cancel_reboot <node>" or setting the node state to "CANCEL_REBOOT".
保留中の再起動は、「scontrol cancel_reboot <node>」を使用するか、ノードの状態を「CANCEL_REBOOT」に設定することでキャンセルできます。
A node will be marked "DOWN" if it doesn't reboot within ResumeTimeout.
ResumeTimeout内に再起動しない場合、ノードは「DOWN」とマークされます。

reconfigure
Instruct all Slurm daemons to re-read the configuration file.
すべてのSlurmデーモンに構成ファイルを再読み取りするように指示します。
This command does not restart the daemons.
このコマンドはデーモンを再起動しません。
This mechanism would be used to modify configuration parameters (Epilog, Prolog, SlurmctldLogFile, SlurmdLogFile, etc.).
このメカニズムは、構成パラメーター(Epilog、Prolog、SlurmctldLogFile、SlurmdLogFileなど)を変更するために使用されます。
The Slurm controller (slurmctld) forwards the request all other daemons (slurmd daemon on each compute node).
Slurmコントローラー(slurmctld)は、他のすべてのデーモン(各計算ノード上のslurmdデーモン)に要求を転送します。
Running jobs continue execution.
実行中のジョブは実行を継続します。
Most configuration parameters can be changed by just running this command, however, Slurm daemons should be shutdown and restarted if any of these parameters are to be changed: AuthType, ControlMach, PluginDir, StateSaveLocation, SlurmctldHost, SlurmctldPort, or SlurmdPort.
ほとんどの構成パラメーターは、このコマンドを実行するだけで変更できますが、AuthType、ControlMach、PluginDir、StateSaveLocation、SlurmctldHost、SlurmctldPort、またはSlurmdPortのいずれかのパラメーターを変更する場合は、Slurmデーモンをシャットダウンして再起動する必要があります。
The slurmctld daemon and all slurmd daemons must be restarted if nodes are added to or removed from the cluster.
ノードがクラスターに追加またはクラスターから削除された場合は、slurmctldデーモンとすべてのslurmdデーモンを再起動する必要があります。

release job_list
Release a previously held job to begin execution.
以前に保持していたジョブを解放して、実行を開始します。
The job_list argument is a comma separated list of job IDs OR "jobname=" with the job's name, which will attempt to hold all jobs having that name.
job_list引数は、コンマで区切られたジョブIDのリスト、またはジョブの名前が付いた「jobname =」であり、その名前を持つすべてのジョブを保持しようとします。
Also see hold.
保留も参照してください。

requeue [option] job_list
Requeue a running, suspended or finished Slurm batch job into pending state.
実行中、一時停止中、または終了したSlurmバッチジョブを保留状態に再キューイングします。
The job_list argument is a comma separated list of job IDs.
job_list引数は、コンマで区切られたジョブIDのリストです。
The command accepts the following option:
このコマンドは、次のオプションを受け入れます。
Incomplete
Operate only on jobs (or tasks of a job array) which have not completed.
完了していないジョブ(またはジョブ配列のタスク)でのみ操作します。
Specifically only jobs in the following states will be requeued: CONFIGURING, RUNNING, STOPPED or SUSPENDED.
具体的には、次の状態のジョブのみが再キューイングされます:CONFIGURING、RUNNING、STOPPED、またはSUSPENDED。

requeuehold [option] job_list
Requeue a running, suspended or finished Slurm batch job into pending state, moreover the job is put in held state (priority zero).
実行中、一時停止中、または終了したSlurmバッチジョブを保留状態に再キューイングし、さらにジョブを保留状態(優先度0)にします。
The job_list argument is a comma separated list of job IDs.
job_list引数は、コンマで区切られたジョブIDのリストです。
A held job can be released using scontrol to reset its priority (e.g. "scontrol release <job_id>").
保留中のジョブは、scontrolを使用して解放し、優先度をリセットできます(例:「scontrolrelease <job_id>」)。
The command accepts the following options:
このコマンドは、次のオプションを受け入れます。
Incomplete
Operate only on jobs (or tasks of a job array) which have not completed.
完了していないジョブ(またはジョブ配列のタスク)でのみ操作します。
Specifically only jobs in the following states will be requeued: CONFIGURING, RUNNING, STOPPED or SUSPENDED.
具体的には、次の状態のジョブのみが再キューイングされます:CONFIGURING、RUNNING、STOPPED、またはSUSPENDED。
State=SpecialExit
The "SpecialExit" keyword specifies that the job has to be put in a special state JOB_SPECIAL_EXIT.
「SpecialExit」キーワードは、ジョブを特別な状態JOB_SPECIAL_EXITにする必要があることを指定します。
The "scontrol show job" command will display the JobState as SPECIAL_EXIT, while the "squeue" command as SE.
「scontrolshowjob」コマンドはJobStateをSPECIAL_EXITとして表示し、「squeue」コマンドはSEとして表示します。

resume job_list
Resume a previously suspended job.
以前に中断されたジョブを再開します。
The job_list argument is a comma separated list of job IDs.
job_list引数は、コンマで区切られたジョブIDのリストです。
Also see suspend.
一時停止も参照してください。

NOTE: A suspended job releases its CPUs for allocation to other jobs.
注:中断されたジョブは、他のジョブに割り当てるためにCPUを解放します。
Resuming a previously suspended job may result in multiple jobs being allocated the same CPUs, which could trigger gang scheduling with some configurations or severe degradation in performance with other configurations.
以前に中断されたジョブを再開すると、複数のジョブに同じCPUが割り当てられる可能性があり、一部の構成ではギャングスケジューリングがトリガーされたり、他の構成ではパフォーマンスが大幅に低下したりする可能性があります。
Use of the scancel command to send SIGSTOP and SIGCONT signals would stop a job without releasing its CPUs for allocation to other jobs and would be a preferable mechanism in many cases.
scancelコマンドを使用してSIGSTOPおよびSIGCONTシグナルを送信すると、他のジョブに割り当てるためにCPUを解放せずにジョブが停止し、多くの場合、推奨されるメカニズムになります。
If performing system maintenance you may want to use suspend/resume in the following way.
システムメンテナンスを実行する場合は、次の方法でサスペンド/レジュームを使用できます。
Before suspending set all nodes to draining or set all partitions to down so that no new jobs can be scheduled.
一時停止する前に、すべてのノードをドレインに設定するか、すべてのパーティションをダウンに設定して、新しいジョブをスケジュールできないようにします。
Then suspend jobs.
次に、ジョブを一時停止します。
Once maintenance is done resume jobs then resume nodes and/or set all partitions back to up.
メンテナンスが完了したら、ジョブを再開し、ノードを再開するか、すべてのパーティションを元に戻します。
Use with caution.
注意して使用してください。

schedloglevel LEVEL
Enable or disable scheduler logging.
スケジューラロギングを有効または無効にします。
LEVEL may be "0", "1", "disable" or "enable".
LEVELは、「0」、「1」、「無効」、「有効」のいずれかです。
"0" has the same effect as "disable".
「0」は「無効」と同じ効果があります。
"1" has the same effect as "enable".
「1」は「有効」と同じ効果があります。
This value is temporary and will be overwritten when the slurmctld daemon reads the slurm.conf configuration file (e.g. when the daemon is restarted or scontrol reconfigure is executed) if the SlurmSchedLogLevel parameter is present.
この値は一時的なものであり、SlurmSchedLogLevelパラメーターが存在する場合、slurmctldデーモンがslurm.conf構成ファイルを読み取るときに(たとえば、デーモンが再起動されたとき、またはscontrolの再構成が実行されたときに)上書きされます。

setdebug LEVEL
Change the debug level of the slurmctld daemon.
slurmctldデーモンのデバッグレベルを変更します。
LEVEL may be an integer value between zero and nine (using the same values as SlurmctldDebug in the slurm.conf file) or the name of the most detailed message type to be printed: "quiet", "fatal", "error", "info", "verbose", "debug", "debug2", "debug3", "debug4", or "debug5".
LEVELは、0から9までの整数値(slurm.confファイルのSlurmctldDebugと同じ値を使用)、または出力される最も詳細なメッセージタイプの名前( "quiet"、 "fatal"、 "error"、 " info」、「verbose」、「debug」、「debug2」、「debug3」、「debug4」、または「debug5」。
This value is temporary and will be overwritten whenever the slurmctld daemon reads the slurm.conf configuration file (e.g. when the daemon is restarted or scontrol reconfigure is executed).
この値は一時的なものであり、slurmctldデーモンがslurm.conf構成ファイルを読み取るたびに上書きされます(たとえば、デーモンが再起動されたとき、またはscontrol reconfigureが実行されたとき)。

setdebugflags [+|-]FLAG
Add or remove DebugFlags of the slurmctld daemon.
slurmctldデーモンのDebugFlagsを追加または削除します。
See "man slurm.conf" for a list of supported DebugFlags.
サポートされているDebugFlagsのリストについては、「manslurm.conf」を参照してください。
NOTE: Changing the value of some DebugFlags will have no effect without restarting the slurmctld daemon, which would set DebugFlags based upon the contents of the slurm.conf configuration file.
注:一部のDebugFlagsの値を変更しても、slurmctldデーモンを再起動しないと効果がありません。再起動すると、slurm.conf構成ファイルの内容に基づいてDebugFlagsが設定されます。

show ENTITY ID
or
show ENTITY=ID
Display the state of the specified entity with the specified identification.
指定されたIDを持つ指定されたエンティティの状態を表示します。
ENTITY may be aliases, assoc_mgr, bbstat, burstbuffer, config, daemons, dwstat, federation, frontend, job, node, partition, powercap, reservation, slurmd, step, topology, hostlist, hostlistsorted or hostnames ID can be used to identify a specific element of the identified entity: job ID, node name, partition name, reservation name, or job step ID for job, node, partition, or step respectively.
ENTITYはエイリアス、assoc_mgr、bbstat、burstbuffer、config、daemons、dwstat、federation、frontend、job、node、partition、powercap、reservation、slurmd、step、topology、hostlist、hostlistsorted、またはhostnamesIDを使用して特定のIDを識別できます。識別されたエンティティーの要素:ジョブID、ノード名、パーティション名、予約名、またはジョブ、ノード、パーティション、またはステップのジョブステップID。
For an ENTITY of bbstat or dwstat (they are equivalent) optional arguments are the options of the local status command.
bbstatまたはdwstat(これらは同等)のENTITYの場合、オプションの引数はローカルステータスコマンドのオプションです。
The status commands will be executed by the slurmctld daemon and its response returned to the user.
ステータスコマンドはslurmctldデーモンによって実行され、その応答がユーザーに返されます。
For an ENTITY of topology, the ID may be a node or switch name.
トポロジのENTITYの場合、IDはノード名またはスイッチ名の場合があります。
If one node name is specified, all switches connected to that node (and their parent switches) will be shown.
1つのノード名を指定すると、そのノードに接続されているすべてのスイッチ(およびその親スイッチ)が表示されます。
If more than one node name is specified, only switches that connect to all named nodes will be shown.
複数のノード名が指定されている場合、すべての名前付きノードに接続するスイッチのみが表示されます。
aliases will return all NodeName values associated to a given NodeHostname (useful to get the list of virtual nodes associated with a real node in a configuration where multiple slurmd daemons execute on a single compute node).
エイリアスは、特定のNodeHostnameに関連付けられているすべてのNodeName値を返します(複数のslurmdデーモンが単一の計算ノードで実行される構成で、実際のノードに関連付けられている仮想ノードのリストを取得するのに役立ちます)。
assoc_mgr displays the current contents of the slurmctld's internal cache for users, associations and/or qos.
assoc_mgrは、ユーザー、アソシエーション、および/またはqosのslurmctldの内部キャッシュの現在の内容を表示します。
The ID may be users=<user1>,[...,<userN>], accounts=<acct1>,[...,<acctN>], qos=<qos1>,[...,<qosN>] and/or flags=<users,assoc,qos>, used to filter the desired section to be displayed.
IDは、users = <user1>、[...、<userN>]、accounts = <acct1>、[...、<acctN>]、qos = <qos1>、[...、<qosN>の場合があります。 ]および/またはflags = <users、assoc、qos>、表示するセクションをフィルタリングするために使用されます。
If no flags are specified, all sections are displayed.
フラグが指定されていない場合は、すべてのセクションが表示されます。
burstbuffer displays the current status of the BurstBuffer plugin.
burstbufferは、BurstBufferプラグインの現在のステータスを表示します。
config displays parameter names from the configuration files in mixed case (e.g. SlurmdPort=7003) while derived parameters names are in upper case only (e.g. SLURM_VERSION).
configは、構成ファイルのパラメーター名を大文字と小文字が混在して表示しますが(SlurmdPort = 7003など)、派生パラメーター名は大文字のみです(SLURM_VERSIONなど)。
hostnames takes an optional hostlist expression as input and writes a list of individual host names to standard output (one per line).
hostnamesは、オプションのhostlist式を入力として受け取り、個々のホスト名のリストを標準出力に書き込みます(1行に1つ)。
If no hostlist expression is supplied, the contents of the SLURM_JOB_NODELIST environment variable is used.
ホストリスト式が指定されていない場合は、SLURM_JOB_NODELIST環境変数の内容が使用されます。
For example "tux[1-3]" is mapped to "tux1","tux2" and "tux3" (one hostname per line).
たとえば、「tux [1-3]」は「tux1」、「tux2」、「tux3」(1行に1つのホスト名)にマップされます。
hostlist takes a list of host names and prints the hostlist expression for them (the inverse of hostnames).
hostlistは、ホスト名のリストを取得し、それらのホストリスト式(ホスト名の逆数)を出力します。
hostlist can also take the absolute pathname of a file (beginning with the character '/') containing a list of hostnames.
hostlistは、ホスト名のリストを含むファイルの絶対パス名(文字「/」で始まる)を取得することもできます。
Multiple node names may be specified using simple node range expressions (e.g. "lx[10-20]").
単純なノード範囲式(「lx [10-20]」など)を使用して、複数のノード名を指定できます。
All other ID values must identify a single element.
他のすべてのID値は、単一の要素を識別する必要があります。
The job step ID is of the form "job_id.step_id", (e.g. "1234.1").
ジョブステップIDは、「job_id.step_id」の形式です(例:「1234.1」)。
slurmd reports the current status of the slurmd daemon executing on the same node from which the scontrol command is executed (the local host).
slurmdは、scontrolコマンドが実行されたのと同じノード(ローカルホスト)で実行されているslurmdデーモンの現在のステータスを報告します。
It can be useful to diagnose problems.
問題の診断に役立つ場合があります。
By default hostlist does not sort the node list or make it unique (e.g. tux2,tux1,tux2 = tux[2,1-2]).
デフォルトでは、hostlistはノードリストを並べ替えたり、一意にしたりしません(例:tux2、tux1、tux2 = tux [2,1-2])。
If you wanted a sorted list use hostlistsorted (e.g. tux2,tux1,tux2 = tux[1-2,2]).
ソートされたリストが必要な場合は、hostlistsortedを使用します(例:tux2、tux1、tux2 = tux [1-2,2])。
By default, all elements of the entity type specified are printed.
デフォルトでは、指定されたエンティティタイプのすべての要素が出力されます。
For an ENTITY of job, if the job does not specify socket-per-node, cores-per-socket or threads-per-core then it will display '*' in ReqS:C:T=*:*:* field.
ジョブのENTITYの場合、ジョブがノードごとのソケット、ソケットごとのコア、またはコアごとのスレッドを指定していない場合、ReqS:C:T = *:*:*フィールドに「*」が表示されます。
For an ENTITY of federation, the federation name that the controller is part of and the sibling clusters part of the federation will be listed.
フェデレーションのENTITYの場合、コントローラーが含まれているフェデレーション名と、フェデレーションの兄弟クラスター部分がリストされます。

shutdown OPTION
Instruct Slurm daemons to save current state and terminate.
Slurmデーモンに現在の状態を保存して終了するように指示します。
By default, the Slurm controller (slurmctld) forwards the request all other daemons (slurmd daemon on each compute node).
デフォルトでは、Slurmコントローラー(slurmctld)は、他のすべてのデーモン(各計算ノード上のslurmdデーモン)に要求を転送します。
An OPTION of slurmctld or controller results in only the slurmctld daemon being shutdown and the slurmd daemons remaining active.
slurmctldまたはコントローラーをオプションで選択すると、slurmctldデーモンのみがシャットダウンされ、slurmdデーモンはアクティブのままになります。

suspend job_list
Suspend a running job.
実行中のジョブを一時停止します。
The job_list argument is a comma separated list of job IDs.
job_list引数は、コンマで区切られたジョブIDのリストです。
Use the resume command to resume its execution.
実行を再開するには、resumeコマンドを使用します。
User processes must stop on receipt of SIGSTOP signal and resume upon receipt of SIGCONT for this operation to be effective.
この操作を有効にするには、ユーザープロセスはSIGSTOPシグナルの受信時に停止し、SIGCONTの受信時に再開する必要があります。
Not all architectures and configurations support job suspension.
すべてのアーキテクチャと構成がジョブの一時停止をサポートしているわけではありません。
If a suspended job is requeued, it will be placed in a held state.
中断されたジョブが再キューイングされると、保留状態になります。
The time a job is suspended will not count against a job's time limit.
ジョブが一時停止された時間は、ジョブの制限時間にはカウントされません。
Only an operator, administrator, SlurmUser, or root can suspend jobs.
オペレーター、管理者、SlurmUser、またはrootのみがジョブを一時停止できます。

takeover
Instruct Slurm's backup controller (slurmctld) to take over system control.
Slurmのバックアップコントローラー(slurmctld)にシステム制御を引き継ぐように指示します。
Slurm's backup controller requests control from the primary and waits for its termination.
Slurmのバックアップコントローラーはプライマリーからの制御を要求し、その終了を待ちます。
After that, it switches from backup mode to controller mode.
その後、バックアップモードからコントローラモードに切り替わります。
If primary controller can not be contacted, it directly switches to controller mode.
プライマリコントローラに接続できない場合は、コントローラモードに直接切り替わります。
This can be used to speed up the Slurm controller fail-over mechanism when the primary node is down.
これは、プライマリノードがダウンしているときにSlurmコントローラーのフェイルオーバーメカニズムを高速化するために使用できます。
This can be used to minimize disruption if the computer executing the primary Slurm controller is scheduled down.
これは、プライマリSlurmコントローラーを実行しているコンピューターがダウンするようにスケジュールされている場合の中断を最小限に抑えるために使用できます。
(Note: Slurm's primary controller will take the control back at startup.)
(注:Slurmのプライマリコントローラーは起動時に制御を取り戻します。)

top job_list
Move the specified job IDs to the top of the queue of jobs belonging to the identical user ID, partition name, account, and QOS.
指定されたジョブIDを、同一のユーザーID、パーティション名、アカウント、およびQOSに属するジョブのキューの先頭に移動します。
The job_list argument is a comma separated ordered list of job IDs.
job_list引数は、コンマで区切られたジョブIDの順序付きリストです。
Any job not matching all of those fields will not be effected.
これらのフィールドのすべてに一致しないジョブは影響を受けません。
Only jobs submitted to a single partition will be effected.
単一のパーティションに送信されたジョブのみが影響を受けます。
This operation changes the order of jobs by adjusting job nice values.
この操作は、ジョブの適切な値を調整することにより、ジョブの順序を変更します。
The net effect on that user's throughput will be negligible to slightly negative.
そのユーザーのスループットへの正味の影響は、無視できる程度からわずかにマイナスになります。
This operation is disabled by default for non-privileged (non-operator, admin, SlurmUser, or root) users.
この操作は、非特権(非オペレーター、管理者、SlurmUser、またはroot)ユーザーに対してデフォルトで無効になっています。
This operation may be enabled for non-privileged users by the system administrator by including the option "enable_user_top" in the SchedulerParameters configuration parameter.
この操作は、SchedulerParameters構成パラメーターにオプション「enable_user_top」を含めることにより、システム管理者が非特権ユーザーに対して有効にすることができます。

token [lifespan=<lifespan>] [username=<username>]
Return an auth token which can be used to support JWT authentication if AuthAltTypes=auth/jwt has been enabled on the system.
システムでAuthAltTypes = auth / jwtが有効になっている場合に、JWT認証をサポートするために使用できる認証トークンを返します。
Supports two optional arguments.
2つのオプションの引数をサポートします。
lifespan= may be used to specify the token's lifespan.
lifespan =は、トークンの寿命を指定するために使用できます。
username (only available to SlurmUser/root) may be used to request a token for a different username.
ユーザー名(SlurmUser / rootでのみ使用可能)を使用して、別のユーザー名のトークンを要求できます。

uhold job_list
Prevent a pending job from being started (sets its priority to 0).
保留中のジョブが開始されないようにします(優先度を0に設定します)。
The job_list argument is a space separated list of job IDs or job names.
job_list引数は、スペースで区切られたジョブIDまたはジョブ名のリストです。
Use the release command to permit the job to be scheduled.
releaseコマンドを使用して、ジョブのスケジュールを許可します。
This command is designed for a system administrator to hold a job so that the job owner may release it rather than requiring the intervention of a system administrator (also see the hold command).
このコマンドは、システム管理者がジョブを保留するように設計されているため、システム管理者の介入を必要とせずに、ジョブの所有者がジョブを解放できます(holdコマンドも参照してください)。

update SPECIFICATION
Update job, step, node, partition, powercapping or reservation configuration per the supplied specification.
提供された仕様に従って、ジョブ、ステップ、ノード、パーティション、パワーキャッピング、または予約構成を更新します。
SPECIFICATION is in the same format as the Slurm configuration file and the output of the show command described above.
SPECIFICATIONは、Slurm構成ファイルおよび上記のshowコマンドの出力と同じ形式です。
It may be desirable to execute the show command (described above) on the specific entity you want to update, then use cut-and-paste tools to enter updated configuration values to the update.
更新する特定のエンティティに対してshowコマンド(上記)を実行してから、カットアンドペーストツールを使用して、更新された構成値を更新に入力することが望ましい場合があります。
Note that while most configuration values can be changed using this command, not all can be changed using this mechanism.
ほとんどの構成値はこのコマンドを使用して変更できますが、すべてがこのメカニズムを使用して変更できるわけではないことに注意してください。
In particular, the hardware configuration of a node or the physical addition or removal of nodes from the cluster may only be accomplished through editing the Slurm configuration file and executing the reconfigure command (described above).
特に、ノードのハードウェア構成、またはクラスターからのノードの物理的な追加または削除は、Slurm構成ファイルを編集して再構成コマンド(上記)を実行することによってのみ実行できます。

version
Display the version number of scontrol being executed.
実行中のscontrolのバージョン番号を表示します。

wait_job job_id
Wait until a job and all of its nodes are ready for use or the job has entered some termination state.
ジョブとそのすべてのノードを使用する準備ができるか、ジョブが何らかの終了状態になるまで待ちます。
This option is particularly useful in the Slurm Prolog or in the batch script itself if nodes are powered down and restarted automatically as needed.
このオプションは、Slurm Prologまたはバッチスクリプト自体で、ノードの電源がオフになり、必要に応じて自動的に再起動される場合に特に役立ちます。

NOTE: Don't use scontrol wait_job in PrologCtld or Prolog with PrologFlags=Alloc as this will result in deadlock.
注:PrologCtldまたはPrologFlags = Allocを指定したPrologでscontrolwait_jobを使用しないでください。デッドロックが発生します。

write batch_script job_id optional_filename
Write the batch script for a given job_id to a file or to stdout.
特定のjob_idのバッチスクリプトをファイルまたはstdoutに書き込みます。
The file will default to slurm-<job_id>.sh if the optional filename argument is not given.
オプションのfilename引数が指定されていない場合、ファイルはデフォルトでslurm- <job_id> .shになります。
The script will be written to stdout if - is given instead of a filename.
ファイル名の代わりに-が指定されている場合、スクリプトはstdoutに書き込まれます。
The batch script can only be retrieved by an admin or operator, or by the owner of the job.
バッチスクリプトは、管理者またはオペレーター、あるいはジョブの所有者のみが取得できます。

write config optional_filename
Write the current configuration to a file with the naming convention of "slurm.conf.<datetime>" in the same directory as the original slurm.conf file.
元のslurm.confファイルと同じディレクトリにある「slurm.conf。<datetime>」という命名規則のファイルに現在の設定を書き込みます。
If a filename is given that file location with a .<datetime> suffix is created.
ファイル名を指定すると、。<datetime>サフィックスが付いたファイルの場所が作成されます。

INTERACTIVE COMMANDS
NOTE: All commands listed below can be used in the interactive mode, but NOT on the initial command line.
以下にリストされているすべてのコマンドは、対話モードで使用できますが、最初のコマンドラインでは使用できません。

all
Show all partitions, their jobs and jobs steps.
すべてのパーティション、それらのジョブ、およびジョブステップを表示します。
This causes information to be displayed about partitions that are configured as hidden and partitions that are unavailable to user's group.
これにより、非表示として構成されているパーティションと、ユーザーのグループが使用できないパーティションに関する情報が表示されます。

details
Causes the show command to provide additional details where available.
可能な場合は、showコマンドで追加の詳細を提供します。
Job information will include CPUs and NUMA memory allocated on each node.
ジョブ情報には、各ノードに割り当てられたCPUとNUMAメモリが含まれます。
Note that on computers with hyperthreading enabled and Slurm configured to allocate cores, each listed CPU represents one physical core.
ハイパースレッディングが有効で、Slurmがコアを割り当てるように構成されているコンピューターでは、リストされている各CPUが1つの物理コアを表すことに注意してください。
Each hyperthread on that core can be allocated a separate task, so a job's CPU count and task count may differ.
そのコア上の各ハイパースレッドには個別のタスクを割り当てることができるため、ジョブのCPU数とタスク数は異なる場合があります。
See the --cpu-bind and --mem-bind option descriptions in srun man pages for more information.
詳細については、srunのマニュアルページにある--cpu-bindおよび--mem-bindオプションの説明を参照してください。
The details option is currently only supported for the show job command.
詳細オプションは現在、showjobコマンドでのみサポートされています。

exit
Terminate scontrol interactive session.
scontrolインタラクティブセッションを終了します。

hide
Do not display partition, job or jobs step information for partitions that are configured as hidden or partitions that are unavailable to the user's group.
非表示として構成されているパーティション、またはユーザーのグループが使用できないパーティションのパーティション、ジョブ、またはジョブのステップ情報を表示しません。
This is the default behavior.
これがデフォルトの動作です。

oneliner
Print information one line per record.
レコードごとに1行で情報を印刷します。

quiet
Print no warning or informational messages, only fatal error messages.
警告メッセージや情報メッセージは出力せず、致命的なエラーメッセージのみを出力します。

quit
Terminate the execution of scontrol.
scontrolの実行を終了します。

verbose
Print detailed event logging.
詳細なイベントログを印刷します。
This includes time-stamps on data structures, record counts, etc.
これには、データ構造、レコード数などのタイムスタンプが含まれます。

!!
Repeat the last command executed.
最後に実行したコマンドを繰り返します。

SPECIFICATIONS FOR UPDATE COMMAND, JOBS

Note that update requests done by either root, SlurmUser or Administrators are not subject to certain restrictions.
root、SlurmUser、またはAdministratorのいずれかによって行われた更新要求には、特定の制限が適用されないことに注意してください。
For instance, if an Administrator changes the QOS on a pending job, certain limits such as the TimeLimit will not be changed automatically as changes made by the Administrators are allowed to violate these restrictions.
たとえば、管理者が保留中のジョブのQOSを変更した場合、管理者が行った変更はこれらの制限に違反することが許可されているため、TimeLimitなどの特定の制限は自動的に変更されません。

Account=<account>
Account name to be changed for this job's resource use.
このジョブのリソース使用のために変更されるアカウント名。
Value may be cleared with blank data value, "Account=".
値は空白のデータ値「Account =」でクリアされる場合があります。
AdminComment=<spec>
Arbitrary descriptive string.
任意の説明文字列。
Can only be set by a Slurm administrator.
Slurm管理者のみが設定できます。
ArrayTaskThrottle=<count>
Specify the maximum number of tasks in a job array that can execute at the same time.
同時に実行できるジョブ配列内のタスクの最大数を指定します。
Set the count to zero in order to eliminate any limit.
制限をなくすには、カウントをゼロに設定します。
The task throttle count for a job array is reported as part of its ArrayTaskId field, preceded with a percent sign.
ジョブ配列のタスクスロットルカウントは、パーセント記号が前に付いたArrayTaskIdフィールドの一部として報告されます。
For example "ArrayTaskId=1-10%2" indicates the maximum number of running tasks is limited to 2.
たとえば、「ArrayTaskId = 1-10%2」は、実行中のタスクの最大数が2に制限されていることを示します。
BurstBuffer=<spec>
Burst buffer specification to be changed for this job's resource use.
このジョブのリソース使用のために変更されるバーストバッファ仕様。
Value may be cleared with blank data value, "BurstBuffer=".
値は、空白のデータ値「BurstBuffer = "」でクリアできます。
Format is burst buffer plugin specific.
形式はバーストバッファプラグイン固有です。
Clusters=<spec>
Specifies the clusters that the federated job can run on.
フェデレーションジョブを実行できるクラスターを指定します。
ClusterFeatures=<spec>
Specifies features that a federated cluster must have to have a sibling job submitted to it.
フェデレーションクラスターに兄弟ジョブを送信するために必要な機能を指定します。
Slurm will attempt to submit a sibling job to a cluster if it has at least one of the specified features.
Slurmは、指定された機能の少なくとも1つがある場合、兄弟ジョブをクラスターに送信しようとします。
Comment=<spec>
Arbitrary descriptive string.
任意の説明文字列。
Contiguous=<yes|no>
Set the job's requirement for contiguous (consecutive) nodes to be allocated.
連続する(連続する)ノードを割り当てるためのジョブの要件を設定します。
Possible values are "YES" and "NO".
可能な値は「YES」と「NO」です。
Only the Slurm administrator or root can change this parameter.
このパラメーターを変更できるのは、Slurm管理者またはrootのみです。
CoreSpec=<count>
Number of cores to reserve per node for system use.
システムで使用するためにノードごとに予約するコアの数。
The job will be charged for these cores, but be unable to use them.
ジョブはこれらのコアに対して課金されますが、それらを使用することはできません。
Will be reported as "*" if not constrained.
制約がない場合は「*」として報告されます。
CPUsPerTask=<count>
Change the CPUsPerTask job's value.
CPUsPerTaskジョブの値を変更します。
Deadline=<time_spec>
It accepts times of the form HH:MM:SS to specify a deadline to a job at a specific time of day (seconds are optional).
HH:MM:SSの形式の時刻を受け入れて、特定の時刻でのジョブの期限を指定します(秒はオプションです)。
You may also specify midnight, noon, fika (3 PM) or teatime (4 PM) and you can have a time-of-day suffixed with AM or PM for a deadline in the morning or the evening.
深夜、正午、フィーカ(午後3時)、またはティータイム(午後4時)を指定することもできます。また、午前または夕方の締め切りに、時刻の末尾にAMまたはPMを付けることができます。
You can specify a deadline for the job with a date of the form MMDDYY or MM/DD/YY or MM.DD.YY, or a date and time as YYYY-MM-DD[THH:MM[:SS]].
ジョブの期限は、MMDDYY、MM / DD / YY、MM.DD.YYの形式の日付、またはYYYY-MM-DD [THH:MM [:SS]]の日付で指定できます。
You can also give times like now + count time-units, where the time-units can be minutes, hours, days, or weeks and you can tell Slurm to put a deadline for tomorrow with the keyword tomorrow.
また、now + count time-unitsのような時間を指定することもできます。時間単位は分、時間、日、または週であり、Slurmにキーワードtomorrowを使用して明日の期限を設定するように指示できます。
The specified deadline must be later than the current time.
指定された期限は、現在の時刻よりも遅くする必要があります。
Only pending jobs can have the deadline updated.
期限を更新できるのは、保留中のジョブのみです。
Only the Slurm administrator or root can change this parameter.
このパラメーターを変更できるのは、Slurm管理者またはrootのみです。
DelayBoot=<time_spec>
Change the time to decide whether to reboot nodes in order to satisfy job's feature specification if the job has been eligible to run for less than this time period.
ジョブがこの期間よりも短い期間実行する資格がある場合、ジョブの機能仕様を満たすためにノードを再起動するかどうかを決定する時間を変更します。
See salloc/sbatch man pages option --delay-boot.
salloc / sbatchのマニュアルページオプション--delay-bootを参照してください。
Dependency=<dependency_list>
Defer job's initiation until specified job dependency specification is satisfied.
指定されたジョブ依存関係の指定が満たされるまで、ジョブの開始を延期します。
Cancel dependency with an empty dependency_list (e.g. "Dependency=").
空のdependency_list(例: "Dependency =")で依存関係をキャンセルします。
<dependency_list> is of the form <type:job_id[:job_id][,type:job_id[:job_id]]>.
<dependency_list>の形式は<type:job_id [:job_id] [、type:job_id [:job_id]]>です。
Many jobs can share the same dependency and these jobs may even belong to different users.
多くのジョブは同じ依存関係を共有でき、これらのジョブは異なるユーザーに属している場合もあります。
after:job_id[:jobid...]
This job can begin execution after the specified jobs have begun execution or been canceled.
このジョブは、指定されたジョブの実行が開始またはキャンセルされた後に実行を開始できます。
afterany:job_id[:jobid...]
This job can begin execution after the specified jobs have terminated.
このジョブは、指定されたジョブが終了した後に実行を開始できます。
afternotok:job_id[:jobid...]
This job can begin execution after the specified jobs have terminated in some failed state (non-zero exit code, node failure, timed out, etc).
このジョブは、指定されたジョブが何らかの失敗状態(ゼロ以外の終了コード、ノード障害、タイムアウトなど)で終了した後に実行を開始できます。
afterok:job_id[:jobid...]
This job can begin execution after the specified jobs have successfully executed (ran to completion with an exit code of zero).
このジョブは、指定されたジョブが正常に実行された(終了コード0で完了するまで実行された)後に実行を開始できます。
singleton
This job can begin execution after any previously launched jobs sharing the same job name and user have terminated.
このジョブは、同じジョブ名とユーザーを共有する以前に起動されたジョブが終了した後に実行を開始できます。
In other words, only one job by that name and owned by that user can be running or suspended at any point in time.
つまり、その名前でそのユーザーが所有する1つのジョブのみを、任意の時点で実行または一時停止できます。
EligibleTime=<time_spec>
See StartTime.
StartTimeを参照してください。
EndTime
The time the job is expected to terminate based on the job's time limit.
ジョブの制限時間に基づいて、ジョブが終了すると予想される時間。
When the job ends sooner, this field will be updated with the actual end time.
ジョブが早く終了すると、このフィールドは実際の終了時刻で更新されます。
ExcNodeList=<nodes>
Set the job's list of excluded node.
ジョブの除外ノードのリストを設定します。
Multiple node names may be specified using simple node range expressions (e.g. "lx[10-20]").
単純なノード範囲式(「lx [10-20]」など)を使用して、複数のノード名を指定できます。
Value may be cleared with blank data value, "ExcNodeList=".
値は、空白のデータ値「ExcNodeList =」でクリアできます。
Features=<features>
Set the job's required node features.
ジョブに必要なノード機能を設定します。
The list of features may include multiple feature names separated by ampersand (AND) and/or vertical bar (OR) operators.
機能のリストには、アンパサンド(AND)および/または垂直バー(OR)演算子で区切られた複数の機能名が含まれる場合があります。
For example: Features="opteron&video" or Features="fast|faster".
例:Features = "opteron&video"またはFeatures = "fast | faster"。
In the first example, only nodes having both the feature "opteron" AND the feature "video" will be used.
最初の例では、機能「opteron」と機能「video」の両方を持つノードのみが使用されます。
There is no mechanism to specify that you want one node with feature "opteron" and another node with feature "video" in case no node has both features.
両方の機能を備えたノードがない場合に、機能「opteron」を備えた1つのノードと機能「video」を備えた別のノードが必要であることを指定するメカニズムはありません。
If only one of a set of possible options should be used for all allocated nodes, then use the OR operator and enclose the options within square brackets.
割り当てられたすべてのノードに可能なオプションのセットの1つだけを使用する必要がある場合は、OR演算子を使用して、オプションを角かっこで囲みます。
For example: "Features=[rack1|rack2|rack3|rack4]" might be used to specify that all nodes must be allocated on a single rack of the cluster, but any of those four racks can be used.
次に例を示します。「Features = [rack1 | Rack2 | Rack3 | Rack4]」を使用して、すべてのノードをクラスターの1つのラックに割り当てる必要があることを指定できますが、これら4つのラックのいずれでも使用できます。
A request can also specify the number of nodes needed with some feature by appending an asterisk and count after the feature name.
リクエストでは、機能名の後にアスタリスクとカウントを追加することで、一部の機能で必要なノードの数を指定することもできます。
For example "Features=graphics*4" indicates that at least four allocated nodes must have the feature "graphics." Parenthesis are also supported for features to be ANDed together.
たとえば、「Features = graphics * 4」は、少なくとも4つの割り当てられたノードに機能「graphics」が必要であることを示します。括弧は、機能をANDで結合するためにもサポートされています。
For example "Features=[(knl&a2a&flat)*4&haswell*2]" indicates the resource allocation should include 4 nodes with ALL of the features "knl", "a2a", and "flat" plus 2 nodes with the feature "haswell".
たとえば、「Features = [(knl&a2a&flat)* 4&haswell * 2]」は、リソース割り当てに、すべての機能「knl」、「a2a」、「flat」を備えた4つのノードと、機能「haswell」を備えた2つのノードを含める必要があることを示します。
Constraints with node counts may only be combined with AND operators.
ノード数の制約は、AND演算子とのみ組み合わせることができます。
Value may be cleared with blank data value, for example "Features=".
「Features =」のように、値は空白のデータ値でクリアされる場合があります。

Gres=<list>
Specifies a comma delimited list of generic consumable resources.
一般的な消耗品リソースのコンマ区切りリストを指定します。
The format of each entry on the list is "name[:count[*cpu]]".
リストの各エントリの形式は「name [:count [* cpu]]」です。
The name is that of the consumable resource.
名前は消耗品の名前です。
The count is the number of those resources with a default value of 1.
カウントは、デフォルト値が1のリソースの数です。
The specified resources will be allocated to the job on each node allocated unless "*cpu" is appended, in which case the resources will be allocated on a per cpu basis.
指定されたリソースは、「* cpu」が追加されていない限り、割り当てられた各ノードのジョブに割り当てられます。追加された場合、リソースはCPUごとに割り当てられます。
The available generic consumable resources is configurable by the system administrator.
使用可能な一般的な消耗品リソースは、システム管理者が構成できます。
A list of available generic consumable resources will be printed and the command will exit if the option argument is "help".
使用可能な汎用消耗リソースのリストが出力され、オプション引数が「help」の場合、コマンドは終了します。
Examples of use include "Gres=gpus:2*cpu,disk=40G" and "Gres=help".
使用例には、「Gres = gpus:2 * cpu、disk = 40G」および「Gres = help」が含まれます。

JobId=<job_list>
Identify the job(s) to be updated.
更新するジョブを特定します。
The job_list may be a comma separated list of job IDs.
job_listは、コンマで区切られたジョブIDのリストです。
Either JobId or JobName is required.
JobIdまたはJobNameのいずれかが必要です。
Licenses=<name>
Specification of licenses (or other resources available on all nodes of the cluster) as described in salloc/sbatch/srun man pages.
salloc / sbatch / srunのマニュアルページで説明されているライセンス(またはクラスターのすべてのノードで使用可能なその他のリソース)の仕様。
MailType=<types>
Set the mail event types.
メールイベントタイプを設定します。
Valid type values are NONE, BEGIN, END, FAIL, REQUEUE, ALL (equivalent to BEGIN, END, FAIL, REQUEUE, and STAGE_OUT), STAGE_OUT (burst buffer stage out and teardown completed), TIME_LIMIT, TIME_LIMIT_90 (reached 90 percent of time limit), TIME_LIMIT_80 (reached 80 percent of time limit), TIME_LIMIT_50 (reached 50 percent of time limit) and ARRAY_TASKS (send emails for each array task).
有効なタイプ値は、NONE、BEGIN、END、FAIL、REQUEUE、ALL(BEGIN、END、FAIL、REQUEUE、およびSTAGE_OUTと同等)、STAGE_OUT(バーストバッファーのステージアウトとティアダウンの完了)、TIME_LIMIT、TIME_LIMIT_90(時間の90%に達した)です。制限)、TIME_LIMIT_80(制限時間の80%に到達)、TIME_LIMIT_50(制限時間の50%に到達)、およびARRAY_TASKS(各配列タスクの電子メールを送信)。
Multiple type values may be specified in a comma separated list.
複数のタイプ値をコンマ区切りのリストで指定できます。
Unless the ARRAY_TASKS option is specified, mail notifications on job BEGIN, END and FAIL apply to a job array as a whole rather than generating individual email messages for each task in the job array.
ARRAY_TASKSオプションが指定されていない限り、ジョブBEGIN、END、およびFAILのメール通知は、ジョブ配列内のタスクごとに個別の電子メールメッセージを生成するのではなく、ジョブ配列全体に適用されます。
MailUser=<name>
Set the user to receive email notification of state changes.
状態変化の電子メール通知を受信するようにユーザーを設定します。
A blank string will set the mail user to the default which is the submitting user.
空白の文字列は、メールユーザーをデフォルトの送信ユーザーに設定します。
MinCPUsNode=<count>
Set the job's minimum number of CPUs per node to the specified value.
ノードあたりのジョブのCPUの最小数を指定された値に設定します。
MinMemoryCPU=<megabytes>
Set the job's minimum real memory required per allocated CPU to the specified value.
割り当てられたCPUごとに必要なジョブの最小実メモリーを指定された値に設定します。
Either MinMemoryCPU or MinMemoryNode may be set, but not both.
MinMemoryCPUまたはMinMemoryNodeのいずれかを設定できますが、両方を設定することはできません。
MinMemoryNode=<megabytes>
Set the job's minimum real memory required per node to the specified value.
ノードごとに必要なジョブの最小実メモリーを指定された値に設定します。
Either MinMemoryCPU or MinMemoryNode may be set, but not both.
MinMemoryCPUまたはMinMemoryNodeのいずれかを設定できますが、両方を設定することはできません。
MinTmpDiskNode=<megabytes>
Set the job's minimum temporary disk space required per node to the specified value.
ノードごとに必要なジョブの最小一時ディスク容量を指定された値に設定します。
Only the Slurm administrator or root can change this parameter.
このパラメーターを変更できるのは、Slurm管理者またはrootのみです。
TimeMin=<timespec>
Change TimeMin value which specifies the minimum time limit minutes of the job.
ジョブの最小制限時間分を指定するTimeMin値を変更します。
JobName=<name>
Identify the name of jobs to be modified or set the job's name to the specified value.
変更するジョブの名前を特定するか、ジョブの名前を指定された値に設定します。
When used to identify jobs to be modified, all jobs belonging to all users are modified unless the UserID option is used to identify a specific user.
変更するジョブを識別するために使用する場合、UserIDオプションを使用して特定のユーザーを識別する場合を除き、すべてのユーザーに属するすべてのジョブが変更されます。
Either JobId or JobName is required.
JobIdまたはJobNameのいずれかが必要です。
Name[=<name>]
See JobName.
JobNameを参照してください。
Nice[=<adjustment>]
Update the job with an adjusted scheduling priority within Slurm.
Slurm内で調整されたスケジューリング優先度でジョブを更新します。
With no adjustment value the scheduling priority is decreased by 100.
調整値がない場合、スケジューリングの優先度は100減少します。
A negative nice value increases the priority, otherwise decreases it.
負のnice値は優先度を上げ、それ以外の場合は優先度を下げます。
The adjustment range is +/- 2147483645.
調整範囲は+/- 2147483645です。
Only privileged users can specify a negative adjustment.
特権ユーザーのみが負の調整を指定できます。
NodeList=<nodes>
Change the nodes allocated to a running job to shrink its size.
実行中のジョブに割り当てられているノードを変更して、そのサイズを縮小します。
The specified list of nodes must be a subset of the nodes currently allocated to the job.
指定されたノードのリストは、現在ジョブに割り当てられているノードのサブセットである必要があります。
Multiple node names may be specified using simple node range expressions (e.g. "lx[10-20]").
単純なノード範囲式(「lx [10-20]」など)を使用して、複数のノード名を指定できます。
After a job's allocation is reduced, subsequent srun commands must explicitly specify node and task counts which are valid for the new allocation.
ジョブの割り当てが削減された後、後続のsrunコマンドは、新しい割り当てに有効なノード数とタスク数を明示的に指定する必要があります。
NumCPUs=<min_count>[-<max_count>]
Set the job's minimum and optionally maximum count of CPUs to be allocated.
割り当てるCPUのジョブの最小数とオプションで最大数を設定します。
NumNodes=<min_count>[-<max_count>]
Set the job's minimum and optionally maximum count of nodes to be allocated.
割り当てるノードのジョブの最小数とオプションで最大数を設定します。
If the job is already running, use this to specify a node count less than currently allocated and resources previously allocated to the job will be relinquished.
ジョブがすでに実行されている場合は、これを使用して、現在割り当てられているノード数より少ないノード数を指定すると、以前にジョブに割り当てられたリソースが放棄されます。
After a job's allocation is reduced, subsequent srun commands must explicitly specify node and task counts which are valid for the new allocation.
ジョブの割り当てが削減された後、後続のsrunコマンドは、新しい割り当てに有効なノード数とタスク数を明示的に指定する必要があります。
Also see the NodeList parameter above.
上記のNodeListパラメーターも参照してください。
This is the same than ReqNodes.
これはReqNodesと同じです。
NumTasks=<count>
Set the job's count of required tasks to the specified value.
ジョブの必要なタスクの数を指定された値に設定します。
This is the same than ReqProcs.
これはReqProcsと同じです。
OverSubscribe=<yes|no>
Set the job's ability to share compute resources (i.e. individual CPUs) with other jobs.
コンピューティングリソース(つまり、個々のCPU)を他のジョブと共有するジョブの機能を設定します。
Possible values are "YES" and "NO".
可能な値は「YES」と「NO」です。
This option can only be changed for pending jobs.
このオプションは、保留中のジョブに対してのみ変更できます。
Partition=<name>
Set the job's partition to the specified value.
ジョブのパーティションを指定された値に設定します。
Priority=<number>
Set the job's priority to the specified value.
ジョブの優先度を指定された値に設定します。
Note that a job priority of zero prevents the job from ever being scheduled.
ジョブの優先度がゼロの場合、ジョブがスケジュールされないことに注意してください。
By setting a job's priority to zero it is held.
ジョブの優先度をゼロに設定すると、ジョブが保持されます。
Set the priority to a non-zero value to permit it to run.
優先度をゼロ以外の値に設定して、実行を許可します。
Explicitly setting a job's priority clears any previously set nice value and removes the priority/multifactor plugin's ability to manage a job's priority.
ジョブの優先度を明示的に設定すると、以前に設定されたnice値がすべてクリアされ、ジョブの優先度を管理するpriority / multifactorプラグインの機能が削除されます。
In order to restore the priority/multifactor plugin's ability to manage a job's priority, hold and then release the job.
ジョブの優先度を管理するpriority / multifactorプラグインの機能を復元するには、ジョブを保留してから解放します。
Only the Slurm administrator or root can increase job's priority.
Slurm管理者またはrootのみがジョブの優先度を上げることができます。
QOS=<name>
Set the job's QOS (Quality Of Service) to the specified value.
ジョブのQOS(Quality Of Service)を指定された値に設定します。
Value may be cleared with blank data value, "QOS=".
値は空白のデータ値「QOS =」でクリアできます。
Reboot=<yes|no>
Set the job's flag that specifies whether to force the allocated nodes to reboot before starting the job.
ジョブを開始する前に、割り当てられたノードを強制的に再起動するかどうかを指定するジョブのフラグを設定します。
This is only supported with some system configurations and therefore it could be silently ignored.
これは一部のシステム構成でのみサポートされているため、黙って無視することができます。
ReqCores=<count>
Change the job's requested Cores count.
ジョブの要求されたコア数を変更します。
ReqNodeList=<nodes>
Set the job's list of required node.
ジョブの必要なノードのリストを設定します。
Multiple node names may be specified using simple node range expressions (e.g. "lx[10-20]").
単純なノード範囲式(「lx [10-20]」など)を使用して、複数のノード名を指定できます。
Value may be cleared with blank data value, "ReqNodeList=".
値は、空白のデータ値「ReqNodeList =」でクリアできます。
ReqNodes=<min_count>[-<max_count>]
See NumNodes.
NumNodesを参照してください。
ReqProcs=<count>
See NumTasks.
NumTasksを参照してください。
ReqSockets=<count>
Change the job's requested socket count.
ジョブの要求されたソケット数を変更します。
ReqThreads=<count>
Change the job's requested threads count.
ジョブの要求されたスレッド数を変更します。
Requeue=<0|1>
Stipulates whether a job should be requeued after a node failure: 0 for no, 1 for yes.
ノード障害後にジョブを再キューイングする必要があるかどうかを規定します。0はいいえ、1ははいです。
ReservationName=<name>
Set the job's reservation to the specified value.
ジョブの予約を指定された値に設定します。
Value may be cleared with blank data value, "ReservationName=".
値は、空白のデータ値「ReservationName =」でクリアできます。
ResetAccrueTime
Reset the job's accrue time value to 0 meaning it will lose any time previously accrued for priority.
ジョブの発生時間の値を0にリセットします。これは、以前に優先的に発生した時間を失うことを意味します。
Helpful if you have a large queue of jobs already in the queue and want to start limiting how many jobs can accrue time without waiting for the queue to flush out.
すでにキューに大量のジョブのキューがあり、キューがフラッシュアウトするのを待たずに、発生する可能性のあるジョブの数を制限し始めたい場合に役立ちます。
SiteFactor=<account>
Specify the job's admin priority factor in the range of +/-2147483645.
ジョブの管理者優先度係数を+/- 2147483645の範囲で指定します。
Only privileged users can modify the value.
StdOut=<filepath>
Set the batch job's stdout file path.
バッチジョブのstdoutファイルパスを設定します。
Shared=<yes|no>
See OverSubscribe option above.
上記のOverSubscribeオプションを参照してください。
StartTime=<time_spec>
Set the job's earliest initiation time.
ジョブの最も早い開始時間を設定します。
It accepts times of the form HH:MM:SS to run a job at a specific time of day (seconds are optional).
特定の時刻(秒はオプションです)。
(If that time is already past, the next day is assumed.)
(その時間がすでに過ぎている場合は、翌日と見なされます。)
You may also specify midnight, noon, fika (3 PM) or teatime (4 PM) and you can have a time-of-day suffixed with AM or PM for running in the morning or the evening.
深夜、正午、フィカ(午後3時)、またはティータイム(午後4時)を指定することもできます。また、午前または夕方に実行するために、時刻の末尾にAMまたはPMを付けることができます。
You can also say what day the job will be run, by specifying a date of the form MMDDYY or MM/DD/YY or MM.DD.YY, or a date and time as YYYY-MM-DD[THH:MM[:SS]].
また、MMDDYYまたはMM / DD / YYまたはMM.DD.YYの形式の日付、またはYYYY-MM-DD [THH:MM [: SS]]。
You can also give times like now + count time-units, where the time-units can be minutes, hours, days, or weeks and you can tell Slurm to run the job today with the keyword today and to run the job tomorrow with the keyword tomorrow.
また、now + count time-unitsのような時間を指定することもできます。時間単位は分、時間、日、または週であり、Slurmに今日のキーワードで今日ジョブを実行し、明日ジョブを実行するように指示できます。明日キーワード。

Notes on date/time specifications:
 - although the 'seconds' field of the HH:MM:SS time specification is allowed by the code, note that the poll time of the Slurm scheduler is not precise enough to guarantee dispatch of the job on the exact second.
--HH:MM:SS時間指定の「seconds」フィールドはコードで許可されていますが、Slurmスケジューラーのポーリング時間は、正確な秒でのジョブのディスパッチを保証するほど正確ではないことに注意してください。
The job will be eligible to start on the next poll following the specified time.
ジョブは、指定された時間に続く次のポーリングで開始する資格があります。
The exact poll interval depends on the Slurm scheduler (e.g., 60 seconds with the default sched/builtin).
正確なポーリング間隔は、Slurmスケジューラーによって異なります(たとえば、デフォルトのsched / builtinでは60秒)。

 - if no time (HH:MM:SS) is specified, the default is (00:00:00).
-時間(HH:MM:SS)が指定されていない場合、デフォルトは(00:00:00)です。

 - if a date is specified without a year (e.g., MM/DD) then the current year is assumed, unless the combination of MM/DD and HH:MM:SS has already passed for that year, in which case the next year is used.
-日付が年なしで指定されている場合(例:MM / DD)、MM / DDとHH:MM:SSの組み合わせがすでにその年を過ぎていない限り、現在の年が想定されます。中古。

Switches=<count>[@<max-time-to-wait>]
When a tree topology is used, this defines the maximum count of switches desired for the job allocation.
ツリートポロジを使用する場合、これはジョブの割り当てに必要なスイッチの最大数を定義します。
If Slurm finds an allocation containing more switches than the count specified, the job remain pending until it either finds an allocation with desired switch count or the time limit expires.
Slurmが、指定された数よりも多くのスイッチを含む割り当てを見つけた場合、ジョブは、目的のスイッチ数の割り当てが見つかるか、制限時間が切れるまで保留されたままになります。
By default there is no switch count limit and no time limit delay.
デフォルトでは、スイッチ数の制限や時間制限の遅延はありません。
Set the count to zero in order to clean any previously set count (disabling the limit).
以前に設定されたカウントをクリーンアップする(制限を無効にする)には、カウントをゼロに設定します。
The job's maximum time delay may be limited by the system administrator using the SchedulerParameters configuration parameter with the max_switch_wait parameter option.
ジョブの最大時間遅延は、システム管理者がmax_switch_waitパラメーターオプションとともにSchedulerParameters構成パラメーターを使用して制限する場合があります。
Also see wait-for-switch.
切り替え待ちも参照してください。

wait-for-switch=<seconds>
Change max time to wait for a switch <seconds> secs.
スイッチを待機する最大時間を<秒>秒変更します。

TasksPerNode=<count>
Change the job's requested TasksPerNode.
ジョブの要求されたTasksPerNodeを変更します。

ThreadSpec=<count>
Number of threads to reserve per node for system use.
システムで使用するためにノードごとに予約するスレッドの数。
The job will be charged for these threads, but be unable to use them.
ジョブはこれらのスレッドに対して課金されますが、それらを使用することはできません。
Will be reported as "*" if not constrained.
制約がない場合は「*」として報告されます。

TimeLimit=<time>
The job's time limit.
ジョブの制限時間。
Output format is [days-]hours:minutes:seconds or "UNLIMITED".
出力形式は[日-]時間:分:秒または「無制限」です。
Input format (for update command) set is minutes, minutes:seconds, hours:minutes:seconds, days-hours, days-hours:minutes or days-hours:minutes:seconds.
入力形式(更新コマンドの場合)は、分、分:秒、時間:分:秒、日-時間、日-時間:分、または日-時間:分:秒に設定されます。
Time resolution is one minute and second values are rounded up to the next minute.
時間分解能は1分で、秒の値は次の分に切り上げられます。
If changing the time limit of a job, either specify a new time limit value or precede the time and equal sign with a "+" or "-" to increment or decrement the current time limit (e.g. "TimeLimit+=30").
ジョブの制限時間を変更する場合は、新しい制限値を指定するか、時間と等号の前に「+」または「-」を付けて、現在の制限時間をインクリメントまたはデクリメントします(例:「TimeLimit + = 30」)。
In order to increment or decrement the current time limit, the JobId specification must precede the TimeLimit specification.
現在の制限時間をインクリメントまたはデクリメントするには、JobId指定がTimeLimit指定よりも前にある必要があります。
Note that incrementing or decrementing the time limit for a job array is only allowed before the job array has been split into more than one job record.
ジョブ配列の時間制限のインクリメントまたはデクリメントは、ジョブ配列が複数のジョブレコードに分割される前にのみ許可されることに注意してください。
Only the Slurm administrator or root can increase job's TimeLimit.
Slurm管理者またはrootのみがジョブのTimeLimitを増やすことができます。

UserID=<UID or name>
Used with the JobName option to identify jobs to be modified.
JobNameオプションとともに使用して、変更するジョブを識別します。
Either a user name or numeric ID (UID), may be specified.
ユーザー名または数値ID(UID)のいずれかを指定できます。

WCKey=<key>
Set the job's workload characterization key to the specified value.
ジョブのワークロード特性キーを指定された値に設定します。

WorkDir=<directory_name>
Set the job's working directory to the specified value.
ジョブの作業ディレクトリを指定された値に設定します。
Note that this may only be set for jobs in the PENDING state, and that jobs may fail to launch if they rely on relative paths to the originally submitted WorkDir.
これはPENDING状態のジョブにのみ設定でき、最初に送信されたWorkDirへの相対パスに依存している場合はジョブの起動に失敗する可能性があることに注意してください。

SPECIFICATIONS FOR SHOW COMMAND, JOBS

The "show" command, when used with the "job" or "job <jobid>" entity displays detailed information about a job or jobs.
「show」コマンドを「job」または「job <jobid>」エンティティとともに使用すると、1つまたは複数のジョブに関する詳細情報が表示されます。
Much of this information may be modified using the "update job" command as described above.
この情報の多くは、上記の「updatejob」コマンドを使用して変更できます。
However, the following fields displayed by the show job command are read-only and cannot be modified:
ただし、show jobコマンドで表示される次のフィールドは読み取り専用であり、変更できません。

AllocNode:Sid
Local node and system id making the resource allocation.
リソース割り当てを行うローカルノードとシステムID。
BatchFlag
Jobs submitted using the sbatch command have BatchFlag set to 1.
sbatchコマンドを使用して送信されたジョブでは、BatchFlagが1に設定されています。
Jobs submitted using other commands have BatchFlag set to 0.
他のコマンドを使用して送信されたジョブでは、BatchFlagが0に設定されています。
ExitCode=<exit>:<sig>
Exit status reported for the job by the wait() function.
wait()関数によってジョブについて報告された終了ステータス。
The first number is the exit code, typically as set by the exit() function.
最初の番号は終了コードであり、通常はexit()関数によって設定されます。
The second number of the signal that caused the process to terminate if it was terminated by a signal.
シグナルによってプロセスが終了した場合にプロセスを終了させたシグナルの2番目の番号。
GroupId
The group under which the job was submitted.
ジョブが送信されたグループ。
JobState
The current state of the job.
ジョブの現在の状態。
NodeListIndices
The NodeIndices expose the internal indices into the node table associated with the node(s) allocated to the job.
NodeIndicesは、ジョブに割り当てられたノードに関連付けられたノードテーブルに内部インデックスを公開します。
NtasksPerN:B:S:C= <tasks_per_node>:<tasks_per_baseboard>:<tasks_per_socket>:<tasks_per_core> Specifies the number of tasks to be started per hardware component (node, baseboard, socket and core).
NtasksPerN:B:S:C = <tasks_per_node>:<tasks_per_baseboard>:<tasks_per_socket>:<tasks_per_core>ハードウェアコンポーネント(ノード、ベースボード、ソケット、コア)ごとに開始するタスクの数を指定します。
Unconstrained values may be shown as "0" or "*".
制約のない値は、「0」または「*」として表示される場合があります。
PreemptEligibleTime
Time the job becomes eligible for preemption.
ジョブがプリエンプションの対象になる時間。
Modified by PreemptExemptTime, either from the global option in slurm.conf or the job QOS.
slurm.confのグローバルオプションまたはジョブQOSのいずれかから、PreemptExemptTimeによって変更されます。
This is hidden if the job has not started or if PreemptMode=OFF.
ジョブが開始されていない場合、またはPreemptMode = OFFの場合、これは非表示になります。
PreemptTime
Time at which job was signaled that it was selected for preemption.
ジョブがプリエンプション用に選択されたことが通知された時刻。
(Meaningful only for PreemptMode=CANCEL and the partition or QOS with which the job is associated has a GraceTime value designated.)
(PreemptMode = CANCELで、ジョブが関連付けられているパーティションまたはQOSにGraceTime値が指定されている場合にのみ意味があります。)
This is hidden if the job has not started or if PreemptMode=OFF.
ジョブが開始されていない場合、またはPreemptMode = OFFの場合、これは非表示になります。
PreSusTime
Time the job ran prior to last suspend.
最後の一時停止の前にジョブが実行された時間。
Reason
The reason job is not running: e.g., waiting "Resources".
ジョブが実行されていない理由:たとえば、「リソース」を待機しています。
ReqB:S:C:T= <baseboard_count>:<socket_per_baseboard_count>:<core_per_socket_count>:<thread_per_core_count> Specifies the count of various hardware components requested by the job.
ReqB:S:C:T = <baseboard_count>:<socket_per_baseboard_count>:<core_per_socket_count>:<thread_per_core_count>ジョブによって要求されたさまざまなハードウェアコンポーネントの数を指定します。
Unconstrained values may be shown as "0" or "*".
制約のない値は、「0」または「*」として表示される場合があります。
SecsPreSuspend=<seconds>
If the job is suspended, this is the run time accumulated by the job (in seconds) prior to being suspended.
ジョブが一時停止されている場合、これは、一時停止される前にジョブによって累積された実行時間(秒単位)です。
Socks/Node=<count>
Count of desired sockets per node
ノードごとの必要なソケットの数
SubmitTime
The time and date stamp (in localtime) the job was submitted.
ジョブが送信された日時スタンプ(現地時間)。
The format of the output is identical to that of the EndTime field.
出力の形式は、EndTimeフィールドの形式と同じです。

NOTE: If a job is requeued, the submit time is reset.
注:ジョブが再キューイングされると、送信時間はリセットされます。
To obtain the original submit time it is necessary to use the "sacct -j <job_id[.<step_id>]" command also designating the -D or --duplicate option to display all duplicate entries for a job.
元の送信時間を取得するには、「sacct -j <job_id [。<step_id>]」コマンドを使用して、ジョブのすべての重複エントリを表示する-Dまたは--duplicateオプションも指定する必要があります。

SuspendTime
Time the job was last suspended or resumed.
ジョブが最後に中断または再開された時刻。
NOTE on information displayed for various job states:
さまざまなジョブ状態に対して表示される情報に関する注記:
When you submit a request for the "show job" function the scontrol process makes an RPC request call to slurmctld with a REQUEST_JOB_INFO message type.
「showjob」関数の要求を送信すると、scontrolプロセスはREQUEST_JOB_INFOメッセージタイプを使用してslurmctldに対してRPC要求呼び出しを行います。
If the state of the job is PENDING, then it returns some detail information such as: min_nodes, min_procs, cpus_per_task, etc.
ジョブの状態がPENDINGの場合、min_nodes、min_procs、cpus_per_taskなどの詳細情報が返されます。
If the state is other than PENDING the code assumes that it is in a further state such as RUNNING, COMPLETE, etc.
状態がPENDING以外の場合、コードはRUNNING、COMPLETEなどの別の状態にあると見なします。
In these cases the code explicitly returns zero for these values.
このような場合、コードはこれらの値に対して明示的にゼロを返します。
These values are meaningless once the job resources have been allocated and the job has started.
これらの値は、ジョブリソースが割り当てられ、ジョブが開始されると意味がありません。

SPECIFICATIONS FOR UPDATE COMMAND, STEPS
StepId=<job_id>[.<step_id>]
Identify the step to be updated.
更新するステップを特定します。
If the job_id is given, but no step_id is specified then all steps of the identified job will be modified.
job_idが指定されているが、step_idが指定されていない場合、識別されたジョブのすべてのステップが変更されます。
This specification is required.
この仕様は必須です。
CompFile=<completion file>
Update a step with information about a steps completion.
ステップの完了に関する情報でステップを更新します。
Can be useful if step statistics aren't directly available through a jobacct_gather plugin.
ステップ統計がjobacct_gatherプラグインを介して直接利用できない場合に役立ちます。
The file is a space-delimited file with format for Version 1 is as follows
ファイルはスペース区切りのファイルで、バージョン1の形式は次のとおりです。

1 34461 0 2 0 3 1361906011 1361906015 1 1 3368 13357 /bin/sleep
A B C D E F G H I J K L M

Field Descriptions:

A file version
B ALPS apid
C inblocks
D outblocks
E exit status
F number of allocated CPUs
G start time
H end time
I utime
J stime
K maxrss
L uid
M command name

TimeLimit=<time>
The job's time limit.
ジョブの制限時間。
Output format is [days-]hours:minutes:seconds or "UNLIMITED".
出力形式は[日-]時間:分:秒または「無制限」です。
Input format (for update command) set is minutes, minutes:seconds, hours:minutes:seconds, days-hours, days-hours:minutes or days-hours:minutes:seconds.
入力形式(更新コマンドの場合)は、分、分:秒、時間:分:秒、日-時間、日-時間:分、または日-時間:分:秒に設定されます。
Time resolution is one minute and second values are rounded up to the next minute.
時間分解能は1分で、秒の値は次の分に切り上げられます。
If changing the time limit of a step, either specify a new time limit value or precede the time with a "+" or "-" to increment or decrement the current time limit (e.g. "TimeLimit=+30").
ステップの制限時間を変更する場合は、新しい制限値を指定するか、時間の前に「+」または「-」を付けて、現在の制限時間をインクリメントまたはデクリメントします(例:「TimeLimit = + 30」)。
In order to increment or decrement the current time limit, the StepId specification must precede the TimeLimit specification.
現在の制限時間をインクリメントまたはデクリメントするには、StepId指定がTimeLimit指定よりも前にある必要があります。

SPECIFICATIONS FOR UPDATE COMMAND, NODES
NodeName=<name>
Identify the node(s) to be updated.
更新するノードを特定します。
Multiple node names may be specified using simple node range expressions (e.g. "lx[10-20]").
単純なノード範囲式(「lx [10-20]」など)を使用して、複数のノード名を指定できます。
This specification is required.
この仕様は必須です。

ActiveFeatures=<features>
Identify the feature(s) currently active on the specified node.
指定したノードで現在アクティブな機能を特定します。
Any previously active feature specification will be overwritten with the new value.
以前にアクティブだった機能仕様は、新しい値で上書きされます。
Also see AvailableFeatures.
AvailableFeaturesも参照してください。
Typically ActiveFeatures will be identical to AvailableFeatures; however ActiveFeatures may be configured as a subset of the AvailableFeatures.
通常、ActiveFeaturesはAvailableFeaturesと同じです。ただし、ActiveFeaturesはAvailableFeaturesのサブセットとして構成できます。
For example, a node may be booted in multiple configurations.
たとえば、ノードは複数の構成で起動される場合があります。
In that case, all possible configurations may be identified as AvailableFeatures, while ActiveFeatures would identify the current node configuration.
その場合、考えられるすべての構成がAvailableFeaturesとして識別され、ActiveFeaturesが現在のノード構成を識別します。

AvailableFeatures=<features>
Identify the feature(s) available on the specified node.
指定されたノードで使用可能な機能を特定します。
Any previously defined available feature specification will be overwritten with the new value.
以前に定義された使用可能な機能仕様は、新しい値で上書きされます。
AvailableFeatures assigned via scontrol will only persist across the restart of the slurmctld daemon with the -R option and state files preserved or slurmctld's receipt of a SIGHUP.
scontrolを介して割り当てられたAvailableFeaturesは、-Rオプションを指定してslurmctldデーモンを再起動し、状態ファイルを保持するか、slurmctldがSIGHUPを受信した場合にのみ存続します。
Update slurm.conf with any changes meant to be persistent across normal restarts of slurmctld or the execution of scontrol reconfig.
slurmctldの通常の再起動またはscontrolreconfigの実行後も持続することを意図した変更で、slurm.confを更新します。
Also see ActiveFeatures.
ActiveFeaturesも参照してください。

CpuBind=<node>
Specify the task binding mode to be used by default for this node.
このノードにデフォルトで使用されるタスクバインディングモードを指定します。
Supported options include: "none", "board", "socket", "ldom" (NUMA), "core", "thread" and "off" (remove previous binding mode).
サポートされているオプションには、「none」、「board」、「socket」、「ldom」(NUMA)、「core」、「thread」、「off」(以前のバインディングモードを削除)が含まれます。

Gres=<gres>
Identify generic resources to be associated with the specified node.
指定されたノードに関連付けられる汎用リソースを識別します。
Any previously defined generic resources will be overwritten with the new value.
以前に定義された汎用リソースは、新しい値で上書きされます。
Specifications for multiple generic resources should be comma separated.
複数のジェネリックリソースの仕様は、コンマで区切る必要があります。
Each resource specification consists of a name followed by an optional colon with a numeric value (default value is one) (e.g. "Gres=bandwidth:10000").
各リソース仕様は、名前とそれに続く数値のオプションのコロン(デフォルト値は1)で構成されます(例:「Gres = bandwidth:10000」)。
Modification of GRES count associated with specific files (e.g. GPUs) is not allowed other than to set their count on a node to zero.
特定のファイル(GPUなど)に関連付けられたGRESカウントを変更することは、ノードのカウントをゼロに設定する以外に許可されていません。
In order to change the GRES count to another value, modify your slurm.conf and gres.conf files and restart daemons.
GRESカウントを別の値に変更するには、slurm.confファイルとgres.confファイルを変更し、デーモンを再起動します。
If GRES as associated with specific sockets, that information will be reported For example if all 4 GPUs on a node are all associated with socket zero, then "Gres=gpu:4(S:0)".
GRESが特定のソケットに関連付けられている場合、その情報が報告されます。たとえば、ノード上の4つのGPUがすべてソケットゼロに関連付けられている場合、「Gres = gpu:4(S:0)」。
If associated with sockets 0 and 1 then "Gres=gpu:4(S:0-1)".
ソケット0および1に関連付けられている場合は、「Gres = gpu:4(S:0-1)」。
The information of which specific GPUs are associated with specific GPUs is not reported, but only available by parsing the gres.conf file.
どの特定のGPUが特定のGPUに関連付けられているかについての情報は報告されませんが、gres.confファイルを解析することによってのみ利用できます。
Generic resources assigned via scontrol will only persist across the restart of the slurmctld daemon with the -R option and state files preserved or slurmctld's receipt of a SIGHUP.
scontrolを介して割り当てられた汎用リソースは、-Rオプションを指定してslurmctldデーモンを再起動し、状態ファイルを保持するか、slurmctldがSIGHUPを受信した場合にのみ存続します。
Update slurm.conf with any changes meant to be persistent across normal restarts of slurmctld or the execution of scontrol reconfig.
slurmctldの通常の再起動またはscontrolreconfigの実行後も持続することを意図した変更で、slurm.confを更新します。

NodeAddr=<node address>
Name that a node should be referred to in establishing a communications path.
通信パスを確立する際にノードを参照する必要がある名前。
This name will be used as an argument to the gethostbyname() function for identification.
この名前は、識別のためのgethostbyname()関数への引数として使用されます。
If a node range expression is used to designate multiple nodes, they must exactly match the entries in the NodeName
ノード範囲式を使用して複数のノードを指定する場合、それらはNodeNameのエントリと完全に一致する必要があります
(e.g. "NodeName=lx[0-7] NodeAddr=elx[0-7]").
(例: "NodeName = lx [0-7] NodeAddr = elx [0-7]")。
NodeAddr may also contain IP addresses.
NodeAddrにはIPアドレスも含まれる場合があります。

NodeHostname=<node hostname>
Typically this would be the string that "/bin/hostname -s" returns.
通常、これは「/ bin / hostname-s」が返す文字列になります。
It may also be the fully qualified domain name as returned by "/bin/hostname -f" (e.g. "foo1.bar.com"), or any valid domain name associated with the host through the host database (/etc/hosts) or DNS, depending on the resolver settings.
また、「/ bin / hostname -f」(「foo1.bar.com」など)によって返される完全修飾ドメイン名、またはホストデータベース(/ etc / hosts)を介してホストに関連付けられた有効なドメイン名の場合もあります。またはDNS、リゾルバーの設定に応じて。
Note that if the short form of the hostname is not used, it may prevent use of hostlist expressions (the numeric portion in brackets must be at the end of the string).
ホスト名の短縮形を使用しないと、ホストリスト式を使用できなくなる可能性があることに注意してください(角かっこ内の数値部分は文字列の最後にある必要があります)。
A node range expression can be used to specify a set of nodes.
ノード範囲式を使用して、ノードのセットを指定できます。
If an expression is used, the number of nodes identified by NodeHostname must be identical to the number of nodes identified by NodeName.
式を使用する場合、NodeHostnameで識別されるノードの数は、NodeNameで識別されるノードの数と同じである必要があります。

Reason=<reason>
Identify the reason the node is in a "DOWN", "DRAINED", "DRAINING", "FAILING" or "FAIL" state.
ノードが「DOWN」、「DRAINED」、「DRAINING」、「FAILING」、または「FAIL」状態にある理由を特定します。
Use quotes to enclose a reason having more than one word.
引用符を使用して、複数の単語を含む理由を囲みます。

State=<state>
Identify the state to be assigned to the node.
ノードに割り当てる状態を特定します。
Possible node states are "NoResp", "ALLOC", "ALLOCATED", "COMPLETING", "DOWN", "DRAIN", "FAIL", "FAILING", "FUTURE" "IDLE", "MAINT", "MIXED", "PERFCTRS/NPC", "RESERVED", "POWER_DOWN", "POWER_UP", "RESUME" or "UNDRAIN".
可能なノード状態は、「NoResp」、「ALLOC」、「ALLOCATED」、「COMPLETING」、「DOWN」、「DRAIN」、「FAIL」、「FAILING」、「FUTURE」、「IDLE」、「MAINT」、「MIXED」です。 、「PERFCTRS / NPC」、「RESERVED」、「POWER_DOWN」、「POWER_UP」、「RESUME」または「UNDRAIN」。
Not all of those states can be set using the scontrol command only the following can: "CANCEL_REBOOT", "DOWN", "DRAIN", "FAIL", "FUTURE", "RESUME", "NoResp", "POWER_DOWN", "POWER_UP" and "UNDRAIN".
scontrolコマンドを使用してこれらの状態のすべてを設定できるわけではなく、「CANCEL_REBOOT」、「DOWN」、「DRAIN」、「FAIL」、「FUTURE」、「RESUME」、「NoResp」、「POWER_DOWN」、「 POWER_UP」と「UNDRAIN」。
If a node is in a "MIXED" state it usually means the node is in multiple states.
ノードが「混合」状態にある場合、それは通常、ノードが複数の状態にあることを意味します。
For instance if only part of the node is "ALLOCATED" and the rest of the node is "IDLE" the state will be "MIXED".
たとえば、ノードの一部のみが「ALLOCATED」で、ノードの残りの部分が「IDLE」の場合、状態は「MIXED」になります。
If you want to remove a node from service, you typically want to set its state to "DRAIN".
ノードをサービスから削除する場合は、通常、その状態を「DRAIN」に設定する必要があります。
"CANCEL_REBOOT" cancels a pending reboot on the node (same as "scontrol cancel_reboot <node>").
「CANCEL_REBOOT」は、ノードで保留中の再起動をキャンセルします(「scontrolcancel_reboot <node>」と同じ)。
"FAILING" is similar to "DRAIN" except that some applications will seek to relinquish those nodes before the job completes.
「FAILING」は「DRAIN」に似ていますが、一部のアプリケーションは、ジョブが完了する前にそれらのノードを放棄しようとする点が異なります。
"PERFCTRS/NPC" indicates that Network Performance Counters associated with this node are in use, rendering this node as not usable for any other jobs.
「PERFCTRS / NPC」は、このノードに関連付けられているネットワークパフォーマンスカウンターが使用中であり、このノードを他のジョブで使用できないようにしていることを示します。
"RESERVED" indicates the node is in an advanced reservation and not generally available.
「予約済み」は、ノードが事前予約中であり、一般に利用できないことを示します。
"RESUME" is not an actual node state, but will change a node state from "DRAINED", "DRAINING", "DOWN" or "REBOOT" to either "IDLE" or "ALLOCATED" state as appropriate.
「RESUME」は実際のノード状態ではありませんが、ノード状態を「DRAINED」、「DRAINING」、「DOWN」または「REBOOT」から「IDLE」または「ALLOCATED」状態に適宜変更します。
"RESUME" will also clear the "POWERING_DOWN" state of a node and make it eligible to be allocted.
「RESUME」は、ノードの「POWERING_DOWN」状態もクリアし、割り当てられるようにします。
"UNDRAIN" clears the node from being drained (like "RESUME"), but will not change the node's base state (e.g. "DOWN").
「UNDRAIN」はノードのドレインをクリアしますが(「RESUME」など)、ノードの基本状態は変更されません(「DOWN」など)。
Setting a node "DOWN" will cause all running and suspended jobs on that node to be terminated.
ノードを「DOWN」に設定すると、そのノードで実行中および中断中のすべてのジョブが終了します。
"POWER_DOWN" and "POWER_UP" will use the configured SuspendProg and ResumeProg programs to explicitly place a node in or out of a power saving mode.
「POWER_DOWN」および「POWER_UP」は、構成済みのSuspendProgおよびResumeProgプログラムを使用して、ノードを省電力モードの内外に明示的に配置します。
If a node is already in the process of being powered up or down, the command will only change the state of the node but won't have any effect until the configured ResumeTimeout or SuspendTimeout is reached.
ノードの電源投入または電源切断がすでに進行中の場合、コマンドはノードの状態を変更するだけで、構成されたResumeTimeoutまたはSuspendTimeoutに達するまで効果がありません。
Use of this command can be useful in situations where a ResumeProg like capmc in Cray machines is stalled and one wants to restore the node to "IDLE" manually, in this case rebooting the node and setting the state to "POWER_DOWN" will cancel the previous "POWER_UP" state and the node will become "IDLE".
このコマンドの使用は、CrayマシンのcapmcのようなResumeProgが停止していて、ノードを手動で「IDLE」に復元したい場合に役立ちます。この場合、ノードを再起動して状態を「POWER_DOWN」に設定すると、前の状態がキャンセルされます。 「POWER_UP」状態になり、ノードは「IDLE」になります。
The "NoResp" state will only set the "NoResp" flag for a node without changing its underlying state.
「NoResp」状態は、基になる状態を変更せずに、ノードの「NoResp」フラグのみを設定します。
While all of the above states are valid, some of them are not valid new node states given their prior state.
上記の状態はすべて有効ですが、以前の状態を考えると、一部の状態は有効な新しいノード状態ではありません。
If the node state code printed is followed by "~", this indicates the node is presently in a power saving mode (typically running at reduced frequency).
印刷されたノード状態コードの後に​​「〜」が続く場合、これはノードが現在省電力モードになっていることを示します(通常は低周波数で実行されています)。
If the node state code is followed by "#", this indicates the node is presently being powered up or configured.
ノードの状態コードの後に​​「#」が続く場合、これはノードが現在電源投入または構成されていることを示します。
If the node state code is followed by "$", this indicates the node is currently in a reservation with a flag value of "maintenance".
ノードの状態コードの後に​​「$」が続く場合、これはノードが現在予約中であり、フラグ値が「maintenance」であることを示します。
If the node state code is followed by "@", this indicates the node is currently scheduled to be rebooted.
ノードの状態コードの後に​​「@」が続く場合、これはノードが現在再起動するようにスケジュールされていることを示します。
Generally only "DRAIN", "FAIL" and "RESUME" should be used.
通常、「DRAIN」、「FAIL」、「RESUME」のみを使用する必要があります。
NOTE: The scontrol command should not be used to change node state on Cray systems.
注:scontrolコマンドは、Crayシステムのノード状態を変更するために使用しないでください。
Use Cray tools such as xtprocadmin instead.
代わりに、xtprocadminなどのCrayツールを使用してください。

Weight=<weight>
Identify weight to be associated with specified nodes.
指定したノードに関連付ける重みを特定します。
This allows dynamic changes to weight associated with nodes, which will be used for the subsequent node allocation decisions.
これにより、ノードに関連付けられた重みを動的に変更できます。これは、後続のノード割り当ての決定に使用されます。
Weight assigned via scontrol will only persist across the restart of the slurmctld daemon with the -R option and state files preserved or slurmctld's receipt of a SIGHUP.
scontrolを介して割り当てられた重みは、-Rオプションと状態ファイルが保持されているslurmctldデーモンの再起動、またはslurmctldによるSIGHUPの受信の間のみ持続します。
Update slurm.conf with any changes meant to be persistent across normal restarts of slurmctld or the execution of scontrol reconfig.
slurmctldの通常の再起動またはscontrolreconfigの実行後も持続することを意図した変更で、slurm.confを更新します。

SPECIFICATIONS FOR SHOW COMMAND, NODES
The meaning of the energy information is as follows:
エネルギー情報の意味は次のとおりです。

CurrentWatts
The instantaneous power consumption of the node at the time of the last node energy accounting sample, in watts.
最後のノードエネルギーアカウンティングサンプル時のノードの瞬間消費電力(ワット単位)。

LowestJoules
The energy consumed by the node between the last time it was powered on and the last time it was registered by slurmd, in joules.
ノードが最後に電源がオンになってから最後にslurmdによって登録されるまでの間にノードが消費したエネルギー(ジュール単位)。

ConsumedJoules
The energy consumed by the node between the last time it was registered by the slurmd daemon and the last node energy accounting sample, in joules.
slurmdデーモンによってノードが最後に登録されてから最後のノードエネルギーアカウンティングサンプルまでの間にノードによって消費されたエネルギー(ジュール単位)。

If the reported value is "n/s" (not supported), the node does not support the configured AcctGatherEnergyType plugin.
報告された値が「n / s」(サポートされていない)の場合、ノードは構成済みのAcctGatherEnergyTypeプラグインをサポートしていません。
If the reported value is zero, energy accounting for nodes is disabled.
報告された値がゼロの場合、ノードのエネルギーアカウンティングは無効になります。

The meaning of the external sensors information is as follows:
外部センサー情報の意味は次のとおりです。

ExtSensorsJoules
The energy consumed by the node between the last time it was powered on and the last external sensors plugin node sample, in joules.
最後に電源がオンになってから最後の外部センサープラグインノードのサンプルまでの間にノードが消費したエネルギー(ジュール単位)。

ExtSensorsWatts
The instantaneous power consumption of the node at the time of the last external sensors plugin node sample, in watts.
最後の外部センサープラグインノードサンプル時のノードの瞬間的な消費電力(ワット単位)。

ExtSensorsTemp
The temperature of the node at the time of the last external sensors plugin node sample, in celsius.
最後の外部センサープラグインノードサンプル時のノードの温度(摂氏)。

If the reported value is "n/s" (not supported), the node does not support the configured ExtSensorsType plugin.
報告された値が「n / s」(サポートされていない)の場合、ノードは構成済みのExtSensorsTypeプラグインをサポートしていません。

The meaning of the resource specialization information is as follows:
リソース特殊化情報の意味は次のとおりです。

CPUSpecList
The list of Slurm abstract CPU IDs on this node reserved for exclusive use by the Slurm compute node daemons (slurmd, slurmstepd).
このノード上のSlurm抽象CPUIDのリストは、Slurm計算ノードデーモン(slurmd、slurmstepd)専用に予約されています。

MemSpecLimit
The combined memory limit, in megabytes, on this node for the Slurm compute node daemons (slurmd, slurmstepd).
Slurm計算ノードデーモン(slurmd、slurmstepd)のこのノードでの、メガバイト単位の合計メモリ制限。

The meaning of the memory information is as follows:
メモリ情報の意味は次のとおりです。

RealMemory
The total memory, in MB, on the node.
ノード上の合計メモリ(MB単位)。

AllocMem
The total memory, in MB, currently allocated by jobs on the node.
ノード上のジョブによって現在割り当てられている合計メモリー(MB単位)。

FreeMem
The total memory, in MB, currently free on the node as reported by the OS.
OSによって報告された、ノードで現在解放されている合計メモリ(MB単位)。

SPECIFICATIONS FOR UPDATE COMMAND, FRONTEND

FrontendName=<name>
Identify the front end node to be updated.
更新するフロントエンドノードを特定します。
This specification is required.
この仕様は必須です。

Reason=<reason>
Identify the reason the node is in a "DOWN" or "DRAIN" state.
ノードが「DOWN」または「DRAIN」状態にある理由を特定します。
Use quotes to enclose a reason having more than one word.
引用符を使用して、複数の単語を含む理由を囲みます。

State=<state>
Identify the state to be assigned to the front end node.
フロントエンドノードに割り当てる状態を特定します。
Possible values are "DOWN", "DRAIN" or "RESUME".
可能な値は、「DOWN」、「DRAIN」、または「RESUME」です。
If you want to remove a front end node from service, you typically want to set its state to "DRAIN".
フロントエンドノードをサービスから削除する場合は、通常、その状態を「DRAIN」に設定する必要があります。
"RESUME" is not an actual node state, but will return a "DRAINED", "DRAINING", or "DOWN" front end node to service, either "IDLE" or "ALLOCATED" state as appropriate.
「RESUME」は実際のノード状態ではありませんが、「DRAINED」、「DRAINING」、または「DOWN」フロントエンドノードをサービスに返します。必要に応じて「IDLE」または「ALLOCATED」状態になります。
Setting a front end node "DOWN" will cause all running and suspended jobs on that node to be terminated.
フロントエンドノードを「DOWN」に設定すると、そのノードで実行中および一時停止中のすべてのジョブが終了します。

SPECIFICATIONS FOR CREATE, UPDATE, AND DELETE COMMANDS, PARTITIONS
AllowGroups=<name>
Identify the user groups which may use this partition.
このパーティションを使用する可能性のあるユーザーグループを特定します。
Multiple groups may be specified in a comma separated list.
複数のグループをコンマ区切りのリストで指定できます。
To permit all groups to use the partition specify "AllowGroups=ALL".
すべてのグループがパーティションの使用を許可するには、「AllowGroups = ALL」を指定します。

AllocNodes=<name>
Comma separated list of nodes from which users can execute jobs in the partition.
ユーザーがパーティション内でジョブを実行できるノードのコンマ区切りリスト。
Node names may be specified using the node range expression syntax described above.
ノード名は、上記のノード範囲式の構文を使用して指定できます。
The default value is "ALL".
デフォルト値は「ALL」です。

Alternate=<partition name>
Alternate partition to be used if the state of this partition is "DRAIN" or "INACTIVE." The value "NONE" will clear a previously set alternate partition.
このパーティションの状態が「DRAIN」または「INACTIVE」の場合に使用される代替パーティション。値「NONE」は、以前に設定された代替パーティションをクリアします。

CpuBind=<node>
Specify the task binding mode to be used by default for this partition.
このパーティションにデフォルトで使用されるタスクバインディングモードを指定します。
Supported options include: "none", "board", "socket", "ldom" (NUMA), "core", "thread" and "off" (remove previous binding mode).
サポートされているオプションには、「none」、「board」、「socket」、「ldom」(NUMA)、「core」、「thread」、「off」(以前のバインディングモードを削除)が含まれます。

Default=<yes|no>
Specify if this partition is to be used by jobs which do not explicitly identify a partition to use.
使用するパーティションを明示的に識別しないジョブがこのパーティションを使用するかどうかを指定します。
Possible output values are "YES" and "NO".
可能な出力値は「YES」と「NO」です。
In order to change the default partition of a running system, use the scontrol update command and set Default=yes for the partition that you want to become the new default.
実行中のシステムのデフォルトパーティションを変更するには、scontrol updateコマンドを使用して、新しいデフォルトにするパーティションにDefault = yesを設定します。

DefaultTime=<time>
Run time limit used for jobs that don't specify a value. If not set then MaxTime will be used. Format is the same as for MaxTime.

DefMemPerCPU=<MB>
Set the default memory to be allocated per CPU for jobs in this partition.
このパーティションのジョブにCPUごとに割り当てられるデフォルトのメモリを設定します。
The memory size is specified in megabytes.
メモリサイズはメガバイトで指定されます。
DefMemPerNode=<MB>
Set the default memory to be allocated per node for jobs in this partition.
このパーティションのジョブにノードごとに割り当てられるデフォルトのメモリを設定します。
The memory size is specified in megabytes.
メモリサイズはメガバイトで指定されます。

DisableRootJobs=<yes|no>
Specify if jobs can be executed as user root.
ジョブをユーザーrootとして実行できるかどうかを指定します。
Possible values are "YES" and "NO".
可能な値は「YES」と「NO」です。

GraceTime=<seconds>
Specifies, in units of seconds, the preemption grace time to be extended to a job which has been selected for preemption.
プリエンプション用に選択されたジョブに延長されるプリエンプション猶予時間を秒単位で指定します。
The default value is zero, no preemption grace time is allowed on this partition or qos.
デフォルト値はゼロであり、このパーティションまたはQoSではプリエンプション猶予時間は許可されていません。
(Meaningful only for PreemptMode=CANCEL)
(PreemptMode = CANCELの場合にのみ意味があります)

Hidden=<yes|no>
Specify if the partition and its jobs should be hidden from view.
パーティションとそのジョブを非表示にするかどうかを指定します。
Hidden partitions will by default not be reported by Slurm APIs or commands.
非表示のパーティションは、デフォルトではSlurmAPIまたはコマンドによって報告されません。
Possible values are "YES" and "NO".
可能な値は「YES」と「NO」です。

JobDefaults=<specs>
Specify job default values using a comma delimited list of "key=value" pairs.
「key = value」ペアのコンマ区切りリストを使用して、ジョブのデフォルト値を指定します。
Supported keys include
サポートされているキーは次のとおりです
DefCpuPerGPU
Default number of CPUs per allocated GPU.
割り当てられたGPUあたりのデフォルトのCPU数。
DefMemPerGPU
Default memory limit (in megabytes) per allocated GPU.
割り当てられたGPUごとのデフォルトのメモリ制限(メガバイト単位)。

MaxMemPerCPU=<MB>
Set the maximum memory to be allocated per CPU for jobs in this partition.
このパーティションのジョブにCPUごとに割り当てる最大メモリを設定します。
The memory size is specified in megabytes.
メモリサイズはメガバイトで指定されます。
MaxMemPerCNode=<MB>
Set the maximum memory to be allocated per node for jobs in this partition.
このパーティションのジョブにノードごとに割り当てる最大メモリを設定します。
The memory size is specified in megabytes.
メモリサイズはメガバイトで指定されます。

MaxNodes=<count>
Set the maximum number of nodes which will be allocated to any single job in the partition.
パーティション内の単一のジョブに割り当てられるノードの最大数を設定します。
Specify a number, "INFINITE" or "UNLIMITED".
「INFINITE」または「UNLIMITED」の数値を指定します。
Changing the MaxNodes of a partition has no effect upon jobs that have already begun execution.
パーティションのMaxNodeを変更しても、すでに実行を開始しているジョブには影響しません。

MaxTime=<time>
The maximum run time for jobs.
ジョブの最大実行時間。
Output format is [days-]hours:minutes:seconds or "UNLIMITED".
出力形式は[日-]時間:分:秒または「無制限」です。
Input format (for update command) is minutes, minutes:seconds, hours:minutes:seconds, days-hours, days-hours:minutes or days-hours:minutes:seconds.
入力形式(updateコマンドの場合)は、分、分:秒、時間:分:秒、日-時間、日-時間:分、または日-時間:分:秒です。
Time resolution is one minute and second values are rounded up to the next minute.
時間分解能は1分で、秒の値は次の分に切り上げられます。
Changing the MaxTime of a partition has no effect upon jobs that have already begun execution.
パーティションのMaxTimeを変更しても、すでに実行を開始しているジョブには影響しません。

MinNodes=<count>
Set the minimum number of nodes which will be allocated to any single job in the partition.
パーティション内の単一のジョブに割り当てられるノードの最小数を設定します。
Changing the MinNodes of a partition has no effect upon jobs that have already begun execution.
パーティションのMinNodeを変更しても、すでに実行を開始しているジョブには影響しません。
Increasing this value may prevent pending jobs from starting, even if they were submitted without -N/--nodes specification.
この値を増やすと、-N / -nodesを指定せずに送信された場合でも、保留中のジョブを開始できなくなる可能性があります。
If you do get in that situation, updating the MinNodes value of a pending job using the scontrol command will allow that job to be scheduled.
そのような状況になった場合は、scontrolコマンドを使用して保留中のジョブのMinNodes値を更新すると、そのジョブをスケジュールできるようになります。

Nodes=<name>
Identify the node(s) to be associated with this partition.
このパーティションに関連付けるノードを特定します。
Multiple node names may be specified using simple node range expressions (e.g. "lx[10-20]").
単純なノード範囲式(「lx [10-20]」など)を使用して、複数のノード名を指定できます。
Note that jobs may only be associated with one partition at any time.
ジョブは常に1つのパーティションにのみ関連付けることができることに注意してください。
Specify a blank data value to remove all nodes from a partition: "Nodes=".
パーティションからすべてのノードを削除するには、空白のデータ値を指定します: "Nodes ="。
Changing the Nodes in a partition has no effect upon jobs that have already begun execution.
パーティション内のノードを変更しても、すでに実行を開始しているジョブには影響しません。

OverTimeLimit=<count>
Number of minutes by which a job can exceed its time limit before being canceled.
ジョブがキャンセルされる前に制限時間を超えることができる分数。
The configured job time limit is treated as a soft limit.
構成されたジョブの時間制限は、ソフト制限として扱われます。
Adding OverTimeLimit to the soft limit provides a hard limit, at which point the job is canceled.
ソフト制限にOverTimeLimitを追加すると、ハード制限が提供され、その時点でジョブがキャンセルされます。
This is particularly useful for backfill scheduling, which bases upon each job's soft time limit.
これは、各ジョブのソフト時間制限に基づく埋め戻しスケジューリングに特に役立ちます。
A partition-specific OverTimeLimit will override any global OverTimeLimit value.
パーティション固有のOverTimeLimitは、グローバルなOverTimeLimit値を上書きします。
If not specified, the global OverTimeLimit value will take precedence.
指定しない場合、グローバルOverTimeLimit値が優先されます。
May not exceed exceed 65533 minutes.
65533分を超えてはなりません。
An input value of "UNLIMITED" will clear any previously configured partition-specific OverTimeLimit value.
「UNLIMITED」の入力値は、以前に構成されたパーティション固有のOverTimeLimit値をクリアします。

OverSubscribe=<yes|no|exclusive|force>[:<job_count>]
Specify if compute resources (i.e. individual CPUs) in this partition can be shared by multiple jobs.
このパーティションの計算リソース(つまり、個々のCPU)を複数のジョブで共有できるかどうかを指定します。
Possible values are "YES", "NO", "EXCLUSIVE" and "FORCE".
可能な値は、「YES」、「NO」、「EXCLUSIVE」、および「FORCE」です。
An optional job count specifies how many jobs can be allocated to use each resource.
オプションのジョブ数は、各リソースを使用するために割り当てることができるジョブの数を指定します。

PartitionName=<name>
Identify the partition to be updated.
更新するパーティションを特定します。
This specification is required.
この仕様は必須です。

PreemptMode=<mode>
Reset the mechanism used to preempt jobs in this partition if PreemptType is configured to preempt/partition_prio.
PreemptTypeがpreempt / partition_prioに設定されている場合は、このパーティションのジョブをプリエンプトするために使用されるメカニズムをリセットします。
The default preemption mechanism is specified by the cluster-wide PreemptMode configuration parameter.
デフォルトのプリエンプションメカニズムは、クラスター全体のPreemptMode構成パラメーターによって指定されます。
Possible values are "OFF", "CANCEL", "REQUEUE" and "SUSPEND".
可能な値は、「OFF」、「CANCEL」、「REQUEUE」、および「SUSPEND」です。

Priority=<count>
Jobs submitted to a higher priority partition will be dispatched before pending jobs in lower priority partitions and if possible they will preempt running jobs from lower priority partitions.
優先度の高いパーティションに送信されたジョブは、優先度の低いパーティションで保留中のジョブの前にディスパッチされ、可能であれば、優先度の低いパーティションから実行中のジョブをプリエンプトします。
Note that a partition's priority takes precedence over a job's priority.
パーティションの優先度はジョブの優先度よりも優先されることに注意してください。
The value may not exceed 65533.
値は65533を超えてはなりません。

PriorityJobFactor=<count>
Partition factor used by priority/multifactor plugin in calculating job priority.
ジョブの優先度を計算する際にpriority / multifactorプラグインによって使用されるパーティション係数。
The value may not exceed 65533.
値は65533を超えてはなりません。
Also see PriorityTier.
PriorityTierも参照してください。

PriorityTier=<count>
Jobs submitted to a partition with a higher priority tier value will be dispatched before pending jobs in partition with lower priority tier value and, if possible, they will preempt running jobs from partitions with lower priority tier values.
優先度の高いティア値のパーティションにサブミットされたジョブは、優先度の低いティア値のパーティションで保留中のジョブの前にディスパッチされ、可能であれば、優先度の低いティア値のパーティションから実行中のジョブをプリエンプトします。
Note that a partition's priority tier takes precedence over a job's priority.
パーティションの優先度階層は、ジョブの優先度よりも優先されることに注意してください。
The value may not exceed 65533.
値は65533を超えてはなりません。
Also see PriorityJobFactor.
PriorityJobFactorも参照してください。

QOS=<QOSname|blank to remove>
Set the partition QOS with a QOS name or to remove the Partition QOS leave the option blank.
パーティションQOSをQOS名で設定するか、パーティションQOSを削除するには、オプションを空白のままにします。

RootOnly=<yes|no>
Specify if only allocation requests initiated by user root will be satisfied.
ユーザーrootによって開始された割り当て要求のみが満たされるかどうかを指定します。
This can be used to restrict control of the partition to some meta-scheduler.
これは、パーティションの制御を一部のメタスケジューラに制限するために使用できます。
Possible values are "YES" and "NO".
可能な値は「YES」と「NO」です。

ReqResv=<yes|no>
Specify if only allocation requests designating a reservation will be satisfied.
予約を指定する割り当て要求のみが満たされるかどうかを指定します。
This is used to restrict partition usage to be allowed only within a reservation.
これは、パーティションの使用を予約内でのみ許可されるように制限するために使用されます。
Possible values are "YES" and "NO".
可能な値は「YES」と「NO」です。

Shared=<yes|no|exclusive|force>[:<job_count>]
Renamed to OverSubscribe, see option descriptions above.
OverSubscribeに名前が変更されました。上記のオプションの説明を参照してください。

State=<up|down|drain|inactive>
Specify if jobs can be allocated nodes or queued in this partition.
ジョブをノードに割り当てることができるか、このパーティションでキューに入れることができるかを指定します。
Possible values are "UP", "DOWN", "DRAIN" and "INACTIVE".
可能な値は、「UP」、「DOWN」、「DRAIN」、および「INACTIVE」です。
UP
Designates that new jobs may queued on the partition, and that jobs may be allocated nodes and run from the partition.
新しいジョブをパーティションでキューに入れることができ、ジョブにノードを割り当ててパーティションから実行できることを指定します。
DOWN
Designates that new jobs may be queued on the partition, but queued jobs may not be allocated nodes and run from the partition.
新しいジョブをパーティションでキューに入れることができるが、キューに入れられたジョブにノードを割り当ててパーティションから実行することはできないことを指定します。
Jobs already running on the partition continue to run.
パーティションですでに実行されているジョブは引き続き実行されます。
The jobs must be explicitly canceled to force their termination.
ジョブを強制的に終了するには、ジョブを明示的にキャンセルする必要があります。
DRAIN
Designates that no new jobs may be queued on the partition (job submission requests will be denied with an error message), but jobs already queued on the partition may be allocated nodes and run.
パーティションで新しいジョブをキューに入れることはできないことを指定します(ジョブ送信要求はエラーメッセージで拒否されます)が、パーティションですでにキューに入れられているジョブにはノードを割り当てて実行できます。
See also the "Alternate" partition specification.
「代替」パーティション仕様も参照してください。
INACTIVE
Designates that no new jobs may be queued on the partition, and jobs already queued may not be allocated nodes and run.
パーティションで新しいジョブをキューに入れることはできず、すでにキューに入れられているジョブはノードに割り当てられて実行されない可能性があることを指定します。
See also the "Alternate" partition specification.
「代替」パーティション仕様も参照してください。

TRESBillingWeights=<TRES Billing Weights>
TRESBillingWeights is used to define the billing weights of each TRES type that will be used in calculating the usage of a job.
TRESBillingWeightsは、ジョブの使用量の計算に使用される各TRESタイプの請求ウェイトを定義するために使用されます。
The calculated usage is used when calculating fairshare and when enforcing the TRES billing limit on jobs.
計算された使用量は、フェアシェアを計算するとき、およびジョブにTRES請求制限を適用するときに使用されます。
Updates affect new jobs and not existing jobs.
更新は、既存のジョブではなく、新しいジョブに影響します。
See the slurm.conf man page for more information.
詳細については、slurm.confのmanページを参照してください。

SPECIFICATIONS FOR UPDATE COMMAND, POWERCAP

PowerCap=<count>
Set the amount of watts the cluster is limited to.
クラスターが制限されるワット数を設定します。
Specify a number, "INFINITE" to enable the power capping logic without power restriction or "0" to disable the power capping logic.
数値「INFINITE」を指定して電力制限なしで電力上限ロジックを有効にするか、「0」を指定して電力上限ロジックを無効にします。
Update slurm.conf with any changes meant to be persistent across normal restarts of slurmctld or the execution of scontrol reconfig.
slurmctldの通常の再起動またはscontrolreconfigの実行後も持続することを意図した変更で、slurm.confを更新します。

SPECIFICATIONS FOR CREATE, UPDATE, AND DELETE COMMANDS, RESERVATIONS
Reservation=<name>
Identify the name of the reservation to be created, updated, or deleted.
作成、更新、または削除する予約の名前を特定します。
This parameter is required for update and is the only parameter for delete.
このパラメーターは更新に必要であり、削除の唯一のパラメーターです。
For create, if you do not want to give a reservation name, use "scontrol create res ..." and a name will be created automatically.
作成時に予約名を付けたくない場合は、「scontrol create res ...」を使用すると、名前が自動的に作成されます。

Accounts=<account list>
List of accounts permitted to use the reserved nodes, for example "Accounts=physcode1,physcode2".
予約済みノードの使用が許可されているアカウントのリスト(例:「Accounts = physcode1、physcode2」)。
A user in any of the accounts may use the reserved nodes.
いずれかのアカウントのユーザーは、予約済みノードを使用できます。
A new reservation must specify Users and/or Accounts.
新しい予約では、ユーザーやアカウントを指定する必要があります。
If both Users and Accounts are specified, a job must match both in order to use the reservation.
ユーザーとアカウントの両方が指定されている場合、予約を使用するには、ジョブが両方に一致する必要があります。
Accounts can also be denied access to reservations by preceding all of the account names with '-'.
すべてのアカウント名の前に「-」を付けることで、アカウントへの予約へのアクセスを拒否することもできます。
Alternately precede the equal sign with '-'.
または、等号の前に「-」を付けます。
For example, "Accounts=-physcode1,-physcode2" or "Accounts-=physcode1,physcode2" will permit any account except physcode1 and physcode2 to use the reservation.
たとえば、「Accounts = -physcode1、-physcode2」または「Accounts- = physcode1、physcode2」は、physcode1とphyscode2を除くすべてのアカウントが予約を使用することを許可します。
You can add or remove individual accounts from an existing reservation by using the update command and adding a '+' or '-' sign before the '=' sign.
updateコマンドを使用し、「=」記号の前に「+」または「-」記号を追加することにより、既存の予約から個々のアカウントを追加または削除できます。
If accounts are denied access to a reservation (account name preceded by a '-'), then all other accounts are implicitly allowed to use the reservation and it is not possible to also explicitly specify allowed accounts.
アカウントが予約へのアクセスを拒否された場合(アカウント名の前に「-」が付いている場合)、他のすべてのアカウントは暗黙的に予約の使用を許可され、許可されたアカウントを明示的に指定することもできません。

BurstBuffer=<buffer_spec>[,<buffer_spec>,...]
Specification of burst buffer resources which are to be reserved.
予約するバーストバッファリソースの指定。
"buffer_spec" consists of four elements: [plugin:][type:]#[units] "plugin" is the burst buffer plugin name, currently either "datawarp" or "generic".
「buffer_spec」は4つの要素で構成されています。[plugin:] [type:]#[units]「plugin」はバーストバッファプラグイン名で、現在は「datawarp」または「generic」のいずれかです。
If no plugin is specified, the reservation applies to all configured burst buffer plugins.
プラグインが指定されていない場合、予約は構成済みのすべてのバーストバッファープラグインに適用されます。
"type" specifies a Cray generic burst buffer resource, for example "nodes".
「type」は、「nodes」などのCray汎用バーストバッファリソースを指定します。
if "type" is not specified, the number is a measure of storage space.
「タイプ」が指定されていない場合、数値はストレージスペースの尺度です。
The "units" may be "N" (nodes), "K|KiB", "M|MiB", "G|GiB", "T|TiB", "P|PiB" (for powers of 1024) and "KB", "MB", "GB", "TB", "PB" (for powers of 1000).
「単位」は、「N」(ノード)、「K | KiB」、「M | MiB」、「G | GiB」、「T | TiB」、「P | PiB」(1024の累乗)、および「 KB」、「MB」、「GB」、「TB」、「PB」(1000の累乗の場合)。
The default units are bytes for reservations of storage space.
デフォルトの単位は、ストレージスペースの予約用のバイトです。
For example "BurstBuffer=datawarp:2TB" (reserve 2TB of storage plus 3 nodes from the Cray plugin) or "BurstBuffer=100GB" (reserve 100 GB of storage from all configured burst buffer plugins).
たとえば、「BurstBuffer = datawarp:2TB」(2TBのストレージとCrayプラグインからの3ノードを予約)または「BurstBuffer = 100GB」(構成されたすべてのバーストバッファープラグインから100 GBのストレージを予約)。
Jobs using this reservation are not restricted to these burst buffer resources, but may use these reserved resources plus any which are generally available.
この予約を使用するジョブは、これらのバーストバッファリソースに制限されませんが、これらの予約済みリソースに加えて、一般的に利用可能なリソースを使用できます。
NOTE: Usually Slurm interprets KB, MB, GB, TB, PB, TB units as powers of 1024, but for Burst Buffers size specifications Slurm supports both IEC/SI formats.
注:通常、SlurmはKB、MB、GB、TB、PB、TBの単位を1024の累乗として解釈しますが、バーストバッファーのサイズ仕様の場合、Slurmは両方のIEC / SI形式をサポートします。
This is because the CRAY API for managing DataWarps supports both formats.
これは、DataWarpsを管理するためのCRAYAPIが両方の形式をサポートしているためです。

CoreCnt=<num>
This option is only supported when SelectType=select/cons_res or select/cons_tres.
このオプションは、SelectType = select / cons_resまたはselect / cons_tresの場合にのみサポートされます。
Identify number of cores to be reserved.
予約するコアの数を特定します。
If NodeCnt is used without the FIRST_CORES flag, this is the total number of cores to reserve where cores per node is CoreCnt/NodeCnt.
NodeCntがFIRST_CORESフラグなしで使用される場合、これは予約するコアの総数であり、ノードあたりのコアはCoreCnt / NodeCntです。
If a nodelist is used, or if NodeCnt is used with the FIRST_CORES flag, this should be an array of core numbers by node: Nodes=node[1-5] CoreCnt=2,2,3,3,4 or flags=FIRST_CORES NodeCnt=5 CoreCnt=1,2,1,3,2.
nodelistを使用する場合、またはNodeCntをFIRST_CORESフラグとともに使用する場合、これはノードごとのコア番号の配列である必要があります。Nodes= node [1-5] CoreCnt = 2,2,3,3,4またはflags = FIRST_CORES NodeCnt = 5 CoreCnt = 1,2,1,3,2。

Licenses=<license>
Specification of licenses (or other resources available on all nodes of the cluster) which are to be reserved.
予約するライセンス(またはクラスターのすべてのノードで使用可能なその他のリソース)の仕様。
License names can be followed by a colon and count (the default count is one).
ライセンス名の後にはコロンとカウントを続けることができます(デフォルトのカウントは1です)。
Multiple license names should be comma separated (e.g. "Licenses=foo:4,bar").
複数のライセンス名はコンマで区切る必要があります(例: "Licenses = foo:4、bar")。
A new reservation must specify one or more resource to be included: NodeCnt, Nodes and/or Licenses.
新しい予約では、含める1つ以上のリソース(NodeCnt、ノード、ライセンス)を指定する必要があります。
If a reservation includes Licenses, but no NodeCnt or Nodes, then the option Flags=LICENSE_ONLY must also be specified.
予約にライセンスが含まれているが、NodeCntまたはノードが含まれていない場合は、オプションFlags = LICENSE_ONLYも指定する必要があります。
Jobs using this reservation are not restricted to these licenses, but may use these reserved licenses plus any which are generally available.
この予約を使用するジョブは、これらのライセンスに限定されませんが、これらの予約済みライセンスに加えて、一般に利用可能なライセンスを使用できます。

MaxStartDelay[=<timespec>]
Change MaxStartDelay value which specifies the maximum time an eligible job not requesting this reservation can delay a job requesting it.
この予約を要求していない適格なジョブがそれを要求しているジョブを遅らせることができる最大時間を指定するMaxStartDelay値を変更します。
Default is none.
デフォルトはnoneです。
Valid formats are minutes, minutes:seconds, hours:minutes:seconds, days-hours, days-hours:minutes, days-hours:minutes:seconds.
有効な形式は、分、分:秒、時間:分:秒、日-時間、日-時間:分、日-時間:分:秒です。
Time resolution is one minute and second values are rounded up to the next minute.
時間分解能は1分で、秒の値は次の分に切り上げられます。
Output format is always [days-]hours:minutes:seconds.
出力形式は常に[日-]時間:分:秒です。

NodeCnt=<num>[,num,...]
Identify number of nodes to be reserved.
予約するノードの数を特定します。
The number can include a suffix of "k" or "K", in which case the number specified is multiplied by 1024.
番号には「k」または「K」の接尾辞を含めることができます。その場合、指定された番号に1024が掛けられます。
A new reservation must specify one or more resource to be included: NodeCnt, Nodes and/or Licenses.
新しい予約では、含める1つ以上のリソース(NodeCnt、ノード、ライセンス)を指定する必要があります。

Nodes=<name>
Identify the node(s) to be reserved.
予約するノードを特定します。
Multiple node names may be specified using simple node range expressions (e.g. "Nodes=lx[10-20]").
単純なノード範囲式を使用して、複数のノード名を指定できます(例:「Nodes = lx [10-20]」)。
Specify a blank data value to remove all nodes from a reservation: "Nodes=".
予約からすべてのノードを削除するには、空白のデータ値を指定します: "Nodes ="。
A new reservation must specify one or more resource to be included: NodeCnt, Nodes and/or Licenses.
新しい予約では、含める1つ以上のリソース(NodeCnt、ノード、ライセンス)を指定する必要があります。
A specification of "ALL" will reserve all nodes.
「ALL」を指定すると、すべてのノードが予約されます。
Set Flags=PART_NODES and PartitionName= in order for changes in the nodes associated with a partition to also be reflected in the nodes associated with a reservation.
パーティションに関連付けられたノードの変更が予約に関連付けられたノードにも反映されるように、Flags = PART_NODESおよびPartitionName =を設定します。

StartTime=<time_spec>
The start time for the reservation.
予約の開始時間。
A new reservation must specify a start time.
新しい予約では、開始時刻を指定する必要があります。
It accepts times of the form HH:MM:SS for a specific time of day (seconds are optional).
特定の時刻のHH:MM:SS形式の時刻を受け入れます(秒はオプションです)。
(If that time is already past, the next day is assumed.)
(その時間がすでに過ぎている場合は、翌日と見なされます。)
You may also specify midnight, noon, fika (3 PM) or teatime (4 PM) and you can have a time-of-day suffixed with AM or PM for running in the morning or the evening.
深夜、正午、フィカ(午後3時)、またはティータイム(午後4時)を指定することもできます。また、午前または夕方に実行するために、時刻の末尾にAMまたはPMを付けることができます。
You can also say what day the job will be run, by specifying a date of the form MMDDYY or MM/DD/YY or MM.DD.YY, or a date and time as YYYY-MM-DD[THH:MM[:SS]].
また、MMDDYYまたはMM / DD / YYまたはMM.DD.YYの形式の日付、またはYYYY-MM-DD [THH:MM [: SS]]。
You can also give times like now + count time-units, where the time-units can be minutes, hours, days, or weeks and you can tell Slurm to run the job today with the keyword today and to run the job tomorrow with the keyword tomorrow.
また、now + count time-unitsのような時間を指定することもできます。時間単位は分、時間、日、または週であり、Slurmに今日のキーワードで今日ジョブを実行し、明日ジョブを実行するように指示できます。明日キーワード。
You cannot update the StartTime of a reservation in ACTIVE state.
アクティブ状態の予約の開始時刻を更新することはできません。

EndTime=<time_spec>
The end time for the reservation.
予約の終了時間。
A new reservation must specify an end time or a duration.
新しい予約では、終了時刻または期間を指定する必要があります。
Valid formats are the same as for StartTime.
有効な形式はStartTimeの場合と同じです。

Duration=<time>
The length of a reservation.
予約の長さ。
A new reservation must specify an end time or a duration.
新しい予約では、終了時刻または期間を指定する必要があります。
Valid formats are minutes, minutes:seconds, hours:minutes:seconds, days-hours, days-hours:minutes, days-hours:minutes:seconds, or UNLIMITED.
有効な形式は、分、分:秒、時間:分:秒、日-時間、日-時間:分、日-時間:分:秒、または無制限です。
Time resolution is one minute and second values are rounded up to the next minute.
時間分解能は1分で、秒の値は次の分に切り上げられます。
Output format is always [days-]hours:minutes:seconds.
出力形式は常に[日-]時間:分:秒です。

PartitionName=<name>
Identify the partition to be reserved.
予約するパーティションを特定します。

Flags=<flags>
Flags associated with the reservation.
予約に関連付けられているフラグ。
You can add or remove individual flags from an existing reservation by adding a '+' or '-' sign before the '=' sign.
'='記号の前に '+'または '-'記号を追加することにより、既存の予約から個々のフラグを追加または削除できます。
For example: Flags-=DAILY (NOTE: this shortcut is not supported for all flags).
例:Flags- = DAILY(注:このショートカットはすべてのフラグでサポートされているわけではありません)。
Currently supported flags include:
現在サポートされているフラグは次のとおりです。
ANY_NODES
This is a reservation for burst buffers and/or licenses only and not compute nodes.
これはバーストバッファおよび/またはライセンスのみの予約であり、計算ノードではありません。
If this flag is set, a job using this reservation may use the associated burst buffers and/or licenses plus any compute nodes.
このフラグが設定されている場合、この予約を使用するジョブは、関連するバーストバッファーやライセンス、および任意の計算ノードを使用できます。
If this flag is not set, a job using this reservation may use only the nodes and licenses associated with the reservation.
このフラグが設定されていない場合、この予約を使用するジョブは、予約に関連付けられているノードとライセンスのみを使用できます。
DAILY
Repeat the reservation at the same time every day.
毎日同じ時間に予約を繰り返します。
FLEX
Permit jobs requesting the reservation to begin prior to the reservation's start time, end after the reservation's end time, and use any resources inside and/or outside of the reservation regardless of any constraints possibly set in the reservation.
予約を要求するジョブが、予約の開始時刻より前に開始し、予約の終了時刻の後に終了することを許可し、予約に設定されている可能性のある制約に関係なく、予約の内部および/または外部のリソースを使用します。
A typical use case is to prevent jobs not explicitly requesting the reservation from using those reserved resources rather than forcing jobs requesting the reservation to use those resources in the time frame reserved.
典型的な使用例は、予約を要求するジョブが予約された時間枠内にそれらのリソースを使用するように強制するのではなく、予約を明示的に要求しないジョブがそれらの予約されたリソースを使用しないようにすることです。
Another use case could be to always have a particular number of nodes with a specific feature reserved for a specific account so users in this account may use this nodes plus possibly other nodes without this feature.
別のユースケースは、特定の機能を持つ特定の数のノードを常に特定のアカウント用に予約して、このアカウントのユーザーがこのノードに加えて、この機能のない他のノードを使用できるようにすることです。
FIRST_CORES
Use the lowest numbered cores on a node only.
ノード上で最も小さい番号のコアのみを使用してください。
IGNORE_JOBS
Ignore currently running jobs when creating the reservation.
予約を作成するときに、現在実行中のジョブを無視します。
This can be especially useful when reserving all nodes in the system for maintenance.
これは、システム内のすべてのノードをメンテナンス用に予約する場合に特に役立ちます。
LICENSE_ONLY
See ANY_NODES.
MAINT
Maintenance mode, receives special accounting treatment.
メンテナンスモードは、特別な会計処理を受けます。
This reservation is permitted to use resources that are already in another reservation.
この予約は、すでに別の予約にあるリソースを使用することが許可されています。
NO_HOLD_JOBS_AFTER
By default, when a reservation ends the reservation request will be removed from any pending jobs submitted to the reservation and will be put into a held state.
デフォルトでは、予約が終了すると、予約リクエストは予約に送信された保留中のジョブから削除され、保留状態になります。
Use this flag to let jobs run outside of the reservation after the reservation is gone.
このフラグを使用して、予約がなくなった後にジョブを予約外で実行できるようにします。
OVERLAP
This reservation can be allocated resources that are already in another reservation.
この予約には、すでに別の予約にあるリソースを割り当てることができます。
PART_NODES
This flag can be used to reserve all nodes within the specified partition.
このフラグは、指定されたパーティション内のすべてのノードを予約するために使用できます。
PartitionName and Nodes=ALL must be specified with this flag.
PartitionNameおよびNodes = ALLは、このフラグで指定する必要があります。
PROMISCUOUS
This flag allows jobs to be considered for this reservation even if they didn't request it.
このフラグを使用すると、ジョブが要求していなくても、この予約の対象となることができます。
PURGE_COMP[=<timespec>]
Purge the reservation if it is ever idle for timespec (no jobs associated with it).
timespecでアイドル状態になっている(ジョブが関連付けられていない)場合は、予約を削除します。
If timespec isn't given then 5 minutes is the default.
timespecが指定されていない場合は、5分がデフォルトです。
Valid timespec formats are minutes, minutes:seconds, hours:minutes:seconds, days-hours, days-hours:minutes, days-hours:minutes:seconds.
有効なtimespec形式は、分、分:秒、時間:分:秒、日-時間、日-時間:分、日-時間:分:秒です。
Time resolution is one minute and second values are rounded up to the next minute.
時間分解能は1分で、秒の値は次の分に切り上げられます。
Output format is always [days-]hours:minutes:seconds.
出力形式は常に[日-]時間:分:秒です。
REPLACE
Nodes which are DOWN, DRAINED, or allocated to jobs are automatically replenished using idle resources.
DOWN、DRAINED、またはジョブに割り当てられているノードは、アイドル状態のリソースを使用して自動的に補充されます。
This option can be used to maintain a constant number of idle resources available for pending jobs (subject to availability of idle resources).
このオプションは、保留中のジョブに使用できるアイドル状態のリソースを一定数維持するために使用できます(アイドル状態のリソースの可用性に依存します)。
This should be used with the NodeCnt reservation option; do not identify specific nodes to be included in the reservation.
これは、NodeCnt予約オプションとともに使用する必要があります。予約に含める特定のノードを特定しないでください。
REPLACE_DOWN
Nodes which are DOWN or DRAINED are automatically replenished using idle resources.
DOWNまたはDRAINEDのノードは、アイドル状態のリソースを使用して自動的に補充されます。
This option can be used to maintain a constant sized pool of resources available for pending jobs (subject to availability of idle resources).
このオプションは、保留中のジョブに使用できるリソースの一定サイズのプールを維持するために使用できます(アイドル状態のリソースの可用性に依存します)。
This should be used with the NodeCnt reservation option; do not identify specific nodes to be included in the reservation.
これは、NodeCnt予約オプションとともに使用する必要があります。予約に含める特定のノードを特定しないでください。
SPEC_NODES
Reservation is for specific nodes (output only)
予約は特定のノード用です(出力のみ)
STATIC_ALLOC
Make it so after the nodes are selected for a reservation they don't change.
予約のためにノードが選択された後、それらが変更されないようにします。
Without this option when nodes are selected for a reservation and one goes down the reservation will select a new node to fill the spot.
このオプションがないと、予約用にノードが選択されていて、予約が下がると、スポットを埋めるために新しいノードが選択されます。
TIME_FLOAT
The reservation start time is relative to the current time and moves forward through time (e.g. a StartTime=now+10minutes will always be 10 minutes in the future).
予約の開始時刻は現在の時刻を基準にしており、時間の経過とともに進みます(たとえば、StartTime = now + 10minutesは常に将来10分になります)。
Repeating (e.g. DAILY) floating reservations are not supported.
繰り返し(例:毎日)のフローティング予約はサポートされていません。
WEEKDAY
Repeat the reservation at the same time on every weekday (Monday, Tuesday, Wednesday, Thursday and Friday).
平日(月曜日、火曜日、水曜日、木曜日、金曜日)に同時に予約を繰り返します。
WEEKEND
Repeat the reservation at the same time on every weekend day (Saturday and Sunday).
毎週週末(土曜日と日曜日)に同時に予約を繰り返します。
WEEKLY
Repeat the reservation at the same time every week.
毎週同じ時間に予約を繰り返します。

Features=<features>
Set the reservation's required node features.
予約に必要なノード機能を設定します。
Multiple values may be "&" separated if all features are required (AND operation) or separated by "|" if any of the specified features are required (OR operation).
すべての機能が必要な場合(AND操作)、複数の値を「&」で区切るか、「|」で区切ることができます。指定された機能のいずれかが必要な場合(OR操作)。
Parenthesis are also supported for features to be ANDed together with counts of nodes having the specified features.
括弧は、指定された機能を持つノードの数と一緒にANDされる機能に対してもサポートされます。
For example "Features=[(knl&a2a&flat)*4&haswell*2]" indicates the advanced reservation should include 4 nodes with ALL of the features "knl", "a2a", and "flat" plus 2 nodes with the feature "haswell".
たとえば、「Features = [(knl&a2a&flat)* 4&haswell * 2]」は、事前予約に、すべての機能「knl」、「a2a」、「flat」を備えた4つのノードと、機能「haswell」を備えた2つのノードを含める必要があることを示します。

Value may be cleared with blank data value, "Features=".
値は、空白のデータ値「Features =」でクリアされる場合があります。

Users=<user list>
List of users permitted to use the reserved nodes, for example "User=jones1,smith2".
予約済みノードの使用を許可されているユーザーのリスト(例:「User = jones1、smith2」)。
A new reservation must specify Users and/or Accounts.
新しい予約では、ユーザーやアカウントを指定する必要があります。
If both Users and Accounts are specified, a job must match both in order to use the reservation.
ユーザーとアカウントの両方が指定されている場合、予約を使用するには、ジョブが両方に一致する必要があります。
Users can also be denied access to reservations by preceding all of the user names with '-'.
すべてのユーザー名の前に「-」を付けることで、ユーザーは予約へのアクセスを拒否することもできます。
Alternately precede the equal sign with '-'.
または、等号の前に「-」を付けます。
For example, "User=-jones1,-smith2" or "User-=jones1,smith2" will permit any user except jones1 and smith2 to use the reservation.
たとえば、「User = -jones1、-smith2」または「User- = jones1、smith2」は、jones1とsmith2を除くすべてのユーザーが予約を使用することを許可します。
You can add or remove individual users from an existing reservation by using the update command and adding a '+' or '-' sign before the '=' sign.
updateコマンドを使用し、「=」記号の前に「+」または「-」記号を追加することにより、既存の予約から個々のユーザーを追加または削除できます。
If users are denied access to a reservation (user name preceded by a '-'), then all other users are implicitly allowed to use the reservation and it is not possible to also explicitly specify allowed users.
ユーザーが予約へのアクセスを拒否された場合(ユーザー名の前に「-」が付いている場合)、他のすべてのユーザーは暗黙的に予約の使用を許可され、許可されたユーザーを明示的に指定することもできません。

TRES=<tres_spec>
Comma-separated list of TRES required for the reservation.
予約に必要なTRESのコンマ区切りリスト。
Current supported TRES types with reservations are: CPU, Node, License and BB.
予約付きで現在サポートされているTRESタイプは、CPU、ノード、ライセンス、およびBBです。
CPU and Node follow the same format as CoreCnt and NodeCnt parameters respectively.
CPUとノードは、それぞれCoreCntとNodeCntパラメーターと同じ形式に従います。
License names can be followed by an equal '=' and a count:
ライセンス名の後には、等しい「=」とカウントを続けることができます。

License/<name1>=<count1>[,License/<name2>=<count2>,...]

BurstBuffer can be specified in a similar way as BurstBuffer parameter.
BurstBufferは、BurstBufferパラメーターと同様の方法で指定できます。
The only difference is that colon symbol ':' should be replaced by an equal '=' in order to follow the TRES format.
唯一の違いは、TRES形式に従うために、コロン記号 ':'を等しい '='に置き換える必要があることです。

Some examples of TRES valid specifications:
TRESの有効な仕様の例:

TRES=cpu=5,bb/cray=4,license/iop1=1,license/iop2=3

TRES=node=5k,license/iop1=2

As specified in CoreCnt, if a nodelist is specified, cpu can be an array of core numbers by node:
CoreCntで指定されているように、nodelistが指定されている場合、cpuはノードごとのコア番号の配列になります。
nodes=compute[1-3] TRES=cpu=2,2,1,bb/cray=4,license/iop1=2

Please note that CPU, Node, License and BB can override CoreCnt, NodeCnt, Licenses and BurstBuffer parameters respectively.
CPU、ノード、ライセンス、およびBBは、それぞれCoreCnt、NodeCnt、Licenses、およびBurstBufferパラメーターをオーバーライドできることに注意してください。
Also CPU represents CoreCnt, in a reservation and will be adjusted if you have threads per core on your nodes.
また、CPUは予約でCoreCntを表し、ノードにコアごとのスレッドがある場合は調整されます。

Note that a reservation that contains nodes or cores is associated with one partition, and can't span resources over multiple partitions.
ノードまたはコアを含む予約は1つのパーティションに関連付けられており、複数のパーティションにリソースをまたがることはできないことに注意してください。
The only exception from this is when the reservation is created with explicitly requested nodes.
これからの唯一の例外は、明示的に要求されたノードで予約が作成される場合です。

SPECIFICATIONS FOR SHOW COMMAND, LAYOUTS

Without options, lists all configured layouts. With a layout specified, shows entities with following options:

Key=<value>
Keys/Values to update for the entities.
エンティティの更新するキー/値。
The format must respect the layout.d configuration files.
形式は、layout.d構成ファイルを尊重する必要があります。
Key=Type cannot be updated.
Key = Typeは更新できません。
One Key/Value is required, several can be set.
1つのキー/値が必要です。複数設定できます。
Entity=<value>
Entities to show, default is not used.
表示するエンティティ。デフォルトは使用されません。
Can be set to "*".
「*」に設定できます。
Type=<value>
Type of entities to show, default is not used.
表示するエンティティのタイプ。デフォルトは使用されません。
nolayout
If not used, only entities with defining the tree are shown.
使用しない場合は、ツリーを定義しているエンティティのみが表示されます。
With the option, only leaves are shown.
オプションを使用すると、葉のみが表示されます。

 

PERFORMANCE

Executing scontrol sends a remote procedure call to slurmctld.
scontrolを実行すると、リモートプロシージャコールがslurmctldに送信されます。
If enough calls from scontrol or other Slurm client commands that send remote procedure calls to the slurmctld daemon come in at once, it can result in a degradation of performance of the slurmctld daemon, possibly resulting in a denial of service.
リモートプロシージャコールをslurmctldデーモンに送信するscontrolまたは他のSlurmクライアントコマンドからの十分な呼び出しが一度に着信すると、slurmctldデーモンのパフォーマンスが低下し、サービス拒否が発生する可能性があります。

Do not run scontrol or other Slurm client commands that send remote procedure calls to slurmctld from loops in shell scripts or other programs.
シェルスクリプトまたは他のプログラムのループからslurmctldにリモートプロシージャコールを送信するscontrolまたは他のSlurmクライアントコマンドを実行しないでください。
Ensure that programs limit calls to scontrol to the minimum necessary for the information you are trying to gather.
プログラムがscontrolへの呼び出しを、収集しようとしている情報に必要な最小限に制限していることを確認してください。

 

ENVIRONMENT VARIABLES

Some scontrol options may be set via environment variables.
一部のscontrolオプションは、環境変数を介して設定できます。
These environment variables, along with their corresponding options, are listed below.
これらの環境変数とそれに対応するオプションを以下に示します。
(Note: Commandline options will always override these settings.)
(注:コマンドラインオプションは常にこれらの設定を上書きします。)

SCONTROL_ALL
-a, --all
SCONTROL_FEDERATION
--federation
SCONTROL_FUTURE
-F, --future
SCONTROL_LOCAL
--local
SCONTROL_SIBLING
--sibling
SLURM_BITSTR_LEN
Specifies the string length to be used for holding a job array's task ID expression.
ジョブ配列のタスクID式を保持するために使用される文字列の長さを指定します。
The default value is 64 bytes.
デフォルト値は64バイトです。
A value of 0 will print the full expression with any length required.
値0は、必要な長さの完全な式を出力します。
Larger values may adversely impact the application performance.
値を大きくすると、アプリケーションのパフォーマンスに悪影響を与える可能性があります。
SLURM_CLUSTERS
Same as --clusters
SLURM_CONF
The location of the Slurm configuration file.
Slurm構成ファイルの場所。
SLURM_CONF_OUT
When running 'write config', the location of the Slurm configuration file to be written.
'write config'を実行すると、書き込まれるSlurm構成ファイルの場所。
SLURM_TIME_FORMAT
Specify the format used to report time stamps.
タイムスタンプのレポートに使用する形式を指定します。
A value of standard, the default value, generates output in the form "year-month-dateThour:minute:second".
デフォルト値であるstandardの値は、「year-month-dateThour:minute:second」の形式で出力を生成します。
A value of relative returns only "hour:minute:second" if the current day.
相対値は、当日の場合は「時:分:秒」のみを返します。
For other dates in the current year it prints the "hour:minute" preceded by "Tomorr" (tomorrow), "Ystday" (yesterday), the name of the day for the coming week (e.g. "Mon", "Tue", etc.), otherwise the date (e.g. "25 Apr").
今年の他の日付については、「明日」(明日)、「昨日」(昨日)、次の週の日の名前(「月」、「火」など)が前に付いた「時:分」を出力します。など)、それ以外の場合は日付(例:「4月25日」)。
For other years it returns a date month and year without a time (e.g. "6 Jun 2012").
その他の年については、時刻のない日付の月と年を返します(例:「2012年6月6日」)。
All of the time stamps use a 24 hour format.
すべてのタイムスタンプは24時間形式を使用します。

A valid strftime() format can also be specified.
有効なstrftime()形式も指定できます。
For example, a value of "%a %T" will report the day of the week and a time stamp (e.g. "Mon 12:34:56").
たとえば、値が "%a%T"の場合、曜日とタイムスタンプが報告されます(例: "Mon 12:34:56")。

SLURM_TOPO_LEN
Specify the maximum size of the line when printing Topology.
トポロジを印刷するときの行の最大サイズを指定します。
If not set, the default value is unlimited.
設定されていない場合、デフォルト値は無制限です。

 

AUTHORIZATION

When using SlurmDBD, users who have an AdminLevel defined (Operator or Admin) and users who are account coordinators are given the authority to view and modify jobs, reservations, nodes, etc., as defined in the following table - regardless of whether a PrivateData restriction has been defined in the slurm.conf file.
SlurmDBDを使用する場合、AdminLevelが定義されているユーザー(OperatorまたはAdmin)とアカウントコーディネーターであるユーザーには、PrivateDataかどうかに関係なく、次の表で定義されているように、ジョブ、予約、ノードなどを表示および変更する権限が与えられます。制限はslurm.confファイルで定義されています。


scontrol show job(s): Admin, Operator, Coordinator
scontrol update job: Admin, Operator, Coordinator
scontrol requeue: Admin, Operator, Coordinator
scontrol show step(s): Admin, Operator, Coordinator
scontrol update step: Admin, Operator, Coordinator

scontrol show node: Admin, Operator
scontrol update node: Admin

scontrol create partition: Admin
scontrol show partition: Admin, Operator
scontrol update partition: Admin
scontrol delete partition: Admin

scontrol create reservation: Admin, Operator
scontrol show reservation: Admin, Operator
scontrol update reservation: Admin, Operator
scontrol delete reservation: Admin, Operator

scontrol reconfig: Admin
scontrol shutdown: Admin
scontrol takeover: Admin

 

EXAMPLES


# scontrol
scontrol: show part debug
PartitionName=debug

   AllocNodes=ALL AllowGroups=ALL Default=YES

   DefaultTime=NONE DisableRootJobs=NO Hidden=NO

   MaxNodes=UNLIMITED MaxTime=UNLIMITED MinNodes=1

   Nodes=snowflake[0-48]

   Priority=1 RootOnly=NO OverSubscribe=YES:4

   State=UP TotalCPUs=694 TotalNodes=49
scontrol: update PartitionName=debug MaxTime=60:00 MaxNodes=4
scontrol: show job 71701
JobId=71701 Name=hostname

   UserId=da(1000) GroupId=da(1000)

   Priority=66264 Account=none QOS=normal WCKey=*123

   JobState=COMPLETED Reason=None Dependency=(null)

   TimeLimit=UNLIMITED Requeue=1 Restarts=0 BatchFlag=0 ExitCode=0:0

   SubmitTime=2010-01-05T10:58:40 EligibleTime=2010-01-05T10:58:40

   StartTime=2010-01-05T10:58:40 EndTime=2010-01-05T10:58:40

   SuspendTime=None SecsPreSuspend=0

   Partition=debug AllocNode:Sid=snowflake:4702

   ReqNodeList=(null) ExcNodeList=(null)

   NodeList=snowflake0

   NumNodes=1 NumCPUs=10 CPUs/Task=2 ReqS:C:T=1:1:1

   MinCPUsNode=2 MinMemoryNode=0 MinTmpDiskNode=0

   Features=(null) Reservation=(null)

   OverSubscribe=OK Contiguous=0 Licenses=(null) Network=(null)
scontrol: update JobId=71701 TimeLimit=30:00 Priority=500
scontrol: show hostnames tux[1-3]
tux1
tux2
tux3
scontrol: create res StartTime=2009-04-01T08:00:00 Duration=5:00:00 Users=dbremer NodeCnt=10
Reservation created: dbremer_1
scontrol: update Reservation=dbremer_1 Flags=Maint NodeCnt=20
scontrol: delete Reservation=dbremer_1
scontrol: quit

 

COPYING

Copyright (C) 2002-2007 The Regents of the University of California. Produced at Lawrence Livermore National Laboratory (cf, DISCLAIMER).
Copyright (C) 2008-2010 Lawrence Livermore National Security.
Copyright (C) 2010-2018 SchedMD LLC.

This file is part of Slurm, a resource management program. For details, see <https://slurm.schedmd.com/>.

Slurm is free software; you can redistribute it and/or modify it under the terms of the GNU General Public License as published by the Free Software Foundation; either version 2 of the License, or (at your option) any later version.

Slurm is distributed in the hope that it will be useful, but WITHOUT ANY WARRANTY; without even the implied warranty of MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE. See the GNU General Public License for more details.  

FILES

/etc/slurm.conf  

SEE ALSO

scancel(1), sinfo(1), squeue(1), slurm_create_partition (3), slurm_delete_partition (3), slurm_load_ctl_conf (3), slurm_load_jobs (3), slurm_load_node (3), slurm_load_partitions (3), slurm_reconfigure (3), slurm_requeue (3), slurm_resume (3), slurm_shutdown (3), slurm_suspend (3), slurm_takeover (3), slurm_update_job (3), slurm_update_node (3), slurm_update_partition (3), slurm.conf(5), slurmctld(8)


 

Index

NAME
SYNOPSIS
DESCRIPTION
OPTIONS
PERFORMANCE
ENVIRONMENT VARIABLES
AUTHORIZATION
EXAMPLES
COPYING
FILES
SEE ALSO

This document was created by man2html using the manual pages.
Time: 20:44:46 GMT, May 21, 2020