Skip to content

Commit

Permalink
update docs
Browse files Browse the repository at this point in the history
  • Loading branch information
yomichi committed Nov 8, 2024
1 parent 4a61849 commit e42dae0
Show file tree
Hide file tree
Showing 9 changed files with 145 additions and 135 deletions.
2 changes: 1 addition & 1 deletion doc/en/source/tutorial/exchange.rst
Original file line number Diff line number Diff line change
Expand Up @@ -98,7 +98,7 @@ Then, run the main program. It will take a few secondes on a normal PC.
Here, the calculation is performed using MPI parallel with 4 processes.
If you are using Open MPI and you request more processes than the number of cores, you need to add the ``--oversubscribed`` option to the ``mpiexec`` command.
If you are using Open MPI and you request more processes than the number of cores, you need to add the ``--oversubscribe`` option to the ``mpiexec`` command.

When executed, a folder for each MPI rank will be created under ``output`` directory, and a ``trial.txt`` file containing the parameters evaluated in each Monte Carlo step and the value of the objective function, and a ``result.txt`` file containing the parameters actually adopted will be created.

Expand Down
2 changes: 1 addition & 1 deletion doc/en/source/tutorial/limitation.rst
Original file line number Diff line number Diff line change
Expand Up @@ -120,7 +120,7 @@ Then, execute the main program as follows. The calculation will end in about 20
$ mpiexec -np 10 python3 ../../../src/odatse_main.py input.toml | tee log.txt
In this case, a calculation with 10 MPI parallel processes is performed.
When using OpenMPI, if the number of processes to be used is greater than the number of available cores, add the ``--oversubscribed`` option to the ``mpiexec`` command.
When using OpenMPI, if the number of processes to be used is greater than the number of available cores, add the ``--oversubscribe`` option to the ``mpiexec`` command.
After executed, the ``output`` folder is generated, and there a subfolder for each MPI rank is created.

Each subfolder contains the results of the calculation.
Expand Down
4 changes: 2 additions & 2 deletions doc/en/source/tutorial/minsearch.rst
Original file line number Diff line number Diff line change
Expand Up @@ -144,11 +144,11 @@ It is seen that one of the minima is obtained.
Visualization of calculation results
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~

The steps taken during the search by the Nelder-Mead method is written in ``output/SimplexData.txt``. A tool to plot the path is prepared as ``simplex/plot_himmel.py``.
The steps taken during the search by the Nelder-Mead method is written in ``output/0/SimplexData.txt``. A tool to plot the path is prepared as ``simplex/plot_himmel.py``.

.. code-block::
$ python3 ../plot_himmel.py --xcol=1 --ycol=2 --output=output/res.pdf output/SimplexData.txt
$ python3 ../plot_himmel.py --xcol=1 --ycol=2 --output=output/res.pdf output/0/SimplexData.txt
By executing the above command, ``output/res.pdf`` will be generated.

Expand Down
4 changes: 2 additions & 2 deletions doc/en/source/tutorial/pamc.rst
Original file line number Diff line number Diff line change
Expand Up @@ -105,7 +105,7 @@ Then, run the main program. It will take a few secondes on a normal PC.
$ mpiexec -np 4 python3 ../../../src/odatse_main.py input.toml | tee log.txt
Here, the calculation is performed using MPI parallel with 4 processes.
If you are using Open MPI and you request more processes than the number of cores, add the ``--oversubscribed`` option to the ``mpiexec`` command.
If you are using Open MPI and you request more processes than the number of cores, add the ``--oversubscribe`` option to the ``mpiexec`` command.

When executed, a folder for each MPI rank will be created under the directory ``output``, and ``trial_TXXX.txt`` files containing the parameters evaluated in each Monte Carlo step and the value of the objective function at each temperature (``XXX`` is the index of points), and ``result_TXXX.txt`` files containing the parameters actually adopted will be created.
These files are concatnated into ``result.txt`` and ``trial.txt``.
Expand Down Expand Up @@ -176,7 +176,7 @@ By executing the following command, the figures of two-dimensional parameter spa

.. code-block::
$ python3 plot_result_2d.py -o res_T0.png result_T0.txt
$ python3 plot_result_2d.py -o res_T0.png output/0/result_T0.txt
It is seen from the figures that the samples are concentrated near the minima of ``f(x)`` where the objective function has a small value.

Expand Down
2 changes: 1 addition & 1 deletion doc/ja/source/tutorial/exchange.rst
Original file line number Diff line number Diff line change
Expand Up @@ -96,7 +96,7 @@
$ mpiexec -np 4 python3 ../../../src/odatse_main.py input.toml | tee log.txt
ここではプロセス数4のMPI並列を用いた計算を行っています。
OpenMPI を用いる場合で、使えるコア数よりも要求プロセス数の方が多い時には、 ``mpiexec`` コマンドに ``--oversubscribed`` オプションを追加してください。
OpenMPI を用いる場合で、使えるコア数よりも要求プロセス数の方が多い時には、 ``mpiexec`` コマンドに ``--oversubscribe`` オプションを追加してください。

実行すると、 ``output`` ディレクトリの下に各ランクのフォルダが作成され、各モンテカルロステップで評価したパラメータおよび目的関数の値を記した ``trial.txt`` ファイルと、実際に採択されたパラメータを記した ``result.txt`` ファイルが作成されます。
ともに書式は同じで、最初の2列がステップ数とプロセス内のwalker 番号、次が温度、3列目が目的関数の値、4列目以降がパラメータです。
Expand Down
2 changes: 1 addition & 1 deletion doc/ja/source/tutorial/limitation.rst
Original file line number Diff line number Diff line change
Expand Up @@ -135,7 +135,7 @@
$ mpiexec -np 10 python3 ../../../src/odatse_main.py input.toml | tee log.txt
ここではプロセス数10のMPI並列を用いた計算を行っています。
Open MPI を用いる場合で、使えるコア数よりも要求プロセス数の方が多い時には、 ``mpiexec`` コマンドに ``--oversubscribed`` オプションを追加してください。
Open MPI を用いる場合で、使えるコア数よりも要求プロセス数の方が多い時には、 ``mpiexec`` コマンドに ``--oversubscribe`` オプションを追加してください。

実行すると、 ``output`` フォルダが生成され、その中に各ランクのフォルダが作成されます。
更にその中には、各モンテカルロステップで評価したパラメータおよび目的関数の値を記した ``trial.txt`` ファイルと、実際に採択されたパラメータを記した ``result.txt`` ファイルが作成されます。
Expand Down
4 changes: 2 additions & 2 deletions doc/ja/source/tutorial/minsearch.rst
Original file line number Diff line number Diff line change
Expand Up @@ -142,12 +142,12 @@ Nelder-Mead法による最適化
計算結果の可視化
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~

Nelder-Mead法による解の探索の経路は ``output/SimplexData.txt`` に出力されています。
Nelder-Mead法による解の探索の経路は ``output/0/SimplexData.txt`` に出力されています。
これをプロットするツールが ``sample/plot_himmel.py`` に用意されています。

.. code-block::
$ python3 ../plot_himmel.py --xcol=1 --ycol=2 --output=output/res.pdf output/SimplexData.txt
$ python3 ../plot_himmel.py --xcol=1 --ycol=2 --output=output/res.pdf output/0/SimplexData.txt
上記を実行すると ``output/res.pdf`` が出力されます。

Expand Down
6 changes: 3 additions & 3 deletions doc/ja/source/tutorial/pamc.rst
Original file line number Diff line number Diff line change
Expand Up @@ -100,7 +100,7 @@
$ mpiexec -np 4 python3 ../../../src/odatse_main.py input.toml | tee log.txt
ここではプロセス数4のMPI並列を用いた計算を行っています。
OpenMPI を用いる場合で、使えるコア数よりも要求プロセス数の方が多い時には、 ``mpiexec`` コマンドに ``--oversubscribed`` オプションを追加してください。
OpenMPI を用いる場合で、使えるコア数よりも要求プロセス数の方が多い時には、 ``mpiexec`` コマンドに ``--oversubscribe`` オプションを追加してください。

実行すると、 ``output`` ディレクトリの下に各ランクのフォルダが作成され、温度ごとに、各モンテカルロステップで評価したパラメータおよび目的関数の値を記した ``trial_TXXX.txt`` ファイル(``XXX`` は温度点の番号)と、実際に採択されたパラメータを記した ``result_TXXX.txt`` ファイル、さらにそれぞれを結合した ``trial.txt``, ``result.txt`` ファイルが生成されます。
それぞれ書式は同じで、最初の2列がステップ数とプロセス内の walker (replica) 番号、次が(逆)温度、3列目が目的関数の値、4列目以降がパラメータです。
Expand Down Expand Up @@ -158,12 +158,12 @@ OpenMPI を用いる場合で、使えるコア数よりも要求プロセス数
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~

``result_T%.txt`` を図示することで ``f(x)`` の小さいパラメータがどこにあるかを推定することができます。
以下のコマンドを入力すると 2次元パラメータ空間の図 ``res_T%.png`` が作成されます。
以下のコマンドを入力すると2次元パラメータ空間の図 ``res_T%.png`` が作成されます。
シンボルの色は目的関数の値に対応します。

.. code-block::
$ python3 plot_result_2d.py -o res_T0.png result_T0.txt
$ python3 plot_result_2d.py -o res_T0.png output/0/result_T0.txt
作成された図を見ると、 ``f(x)`` の最小値を与える点の付近にサンプルが集中していることと、目的関数の値が小さいことがわかります。

Expand Down
Loading

0 comments on commit e42dae0

Please sign in to comment.